Clichês e preconceitos: é assim que a IA mostra hambúrgueres de forma distorcida!
Eppendorf é descrito como um clichê no teste t-online AI. O artigo destaca o preconceito nos dados de IA e seus efeitos.

Clichês e preconceitos: é assim que a IA mostra hambúrgueres de forma distorcida!
Num teste emocionante, a plataforma de notícias t-online examinou como a inteligência artificial (IA) pode descrever os residentes típicos de Hamburgo. Verificou-se que os resultados muitas vezes não reflectem a verdadeira imagem dos distritos. A IA se baseia em um conjunto de dados digitais baseados em mídias sociais, portais de notícias e blogs. Isto significa que as representações são frequentemente distorcidas e carecem da representação necessária de certos grupos populacionais. A diversidade dos distritos de Hamburgo, como Eppendorf, Wilhelmsburg e St. Pauli, é mostrada mais em clichês do que em descrições realistas, como relatórios t-online.
O interessante é que os modelos de IA, desde ChatGPT até geradores de imagens, não funcionam de forma objetiva. Eles analisam padrões e probabilidades enquanto ignoram grupos menos visíveis. Um bom exemplo são as descrições dos bairros, que à primeira vista parecem coerentes, mas são clichês: Eppendorf é associado a “cabelos lisos e colete bege”, enquanto St. Pauli significa simplesmente “moletons pretos e tatuagens”. Tais atribuições oferecem pouco espaço para a diversidade de vidas e identidades que realmente moldam Hamburgo.
O preconceito: uma sombra no campo da IA
Um aspecto fundamental dessas discrepâncias é o chamado preconceito. Este termo descreve o fato de que nem todos os grupos estão igualmente representados nas representações da IA. Tais distorções resultam de dados incorretos e do seu processamento, o que pode prejudicar especialmente as minorias. Por exemplo, um exemplo do sistema de saúde dos EUA mostra que os pacientes afro-americanos têm menos probabilidades de receber o tratamento de que necessitam quando têm o mesmo peso da doença. Isto mostra como os preconceitos profundamente enraizados influenciam os algoritmos usados para tomar as nossas decisões, como explica anti-bias.eu.
Os críticos das tecnologias de IA salientam que as IA são frequentemente vistas como neutras e imparciais, mas são o oposto, uma vez que se baseiam em dados criados pelo homem e por vezes discriminatórios. Lorenzo Medici, da a&f Systems, enfatiza que a discriminação pode afetar não apenas grupos étnicos, mas também classes sociais e géneros. Os dados processados pelas IA refletem sempre os valores culturais da sua criação e não podem ser facilmente considerados justos. Isso deixa claro o quão importante é questionar os algoritmos e verificar sua origem, como afirma a&f systems.
Um desafio delicado para a sociedade
O debate sobre a inteligência artificial e o seu impacto na nossa percepção é mais atual do que nunca. Nos últimos anos, o uso da IA desenvolveu-se rapidamente em muitas áreas, incluindo reconhecimento de fala e facial, direito e saúde. Isto se torna particularmente preocupante quando se considera que a proporção de diversidade na comunidade de desenvolvedores é muito limitada. Apenas 10% dos criadores de IA são mulheres e a maioria vem de países ocidentais industrializados, o que só agrava o problema do preconceito.
Para enfrentar estes desafios, não é apenas necessário aumentar a sensibilização para o problema, mas também desenvolver IA que dependam de uma base de dados mais diversificada. Melhorias neste sentido são cruciais para promover decisões honestas e justas num mundo cada vez mais digital. Isso terá sucesso? O futuro da inteligência artificial terá de ser medido por isto.