Klicheer og fordomme: Sådan viser AI hamburgere på en forvrænget måde!
Eppendorf beskrives som en kliché i t-online AI-testen. Artiklen fremhæver skævhed i AI-data og dets effekter.

Klicheer og fordomme: Sådan viser AI hamburgere på en forvrænget måde!
I en spændende test undersøgte nyhedsplatformen t-online, hvordan kunstig intelligens (AI) kan beskrive typiske hamborgere. Det viste sig, at resultaterne ofte ikke afspejler det sande billede af distrikterne. AI'en trækker fra en pulje af digitale data baseret på sociale medier, nyhedsportaler og blogs. Det betyder, at repræsentationer ofte er fordrejede og mangler den nødvendige repræsentation af bestemte befolkningsgrupper. Mangfoldigheden af Hamborgs distrikter, såsom Eppendorf, Wilhelmsburg og St. Pauli, vises mere i klichéer end i realistiske beskrivelser, som t-online rapporterer.
Det interessante er, at AI-modellerne, fra ChatGPT til billedgeneratorer, ikke fungerer objektivt. De analyserer mønstre og sandsynligheder, mens de ignorerer mindre synlige grupper. Et godt eksempel er beskrivelserne af distrikterne, som ved første øjekast virker sammenhængende, men er klichéfyldte: Eppendorf er forbundet med "straight hår og en beige dunvest", mens St. Pauli blot betyder "sorte hættetrøjer og tatoveringer." Sådanne tilskrivninger giver kun lidt plads til den mangfoldighed af liv og identiteter, der virkelig former Hamborg.
Bias: A Shadow in the AI Field
Et centralt aspekt af disse uoverensstemmelser er den såkaldte bias. Dette udtryk beskriver det faktum, at ikke alle grupper er lige repræsenteret i AI-repræsentationer. Sådanne forvrængninger opstår som følge af ukorrekte data og deres behandling, hvilket kan være til ulempe for især minoriteter. Eksempelvis viser et eksempel fra det amerikanske sundhedssystem, at afroamerikanske patienter er mindre tilbøjelige til at modtage den behandling, de har brug for, når de har den samme sygdomsbyrde. Dette viser, hvordan dybt rodfæstede skævheder påvirker de algoritmer, der bruges til at træffe vores beslutninger, som anti-bias.eu forklarer.
Kritikere af AI-teknologier påpeger, at AI'er ofte opfattes som neutrale og upartiske, men de er det modsatte, da de er baseret på menneskeskabte og til tider diskriminerende data. Lorenzo Medici fra a&f systems understreger, at diskrimination ikke kun kan ramme etniske grupper, men også sociale klasser og køn. De data, der behandles af AI'er, afspejler altid de kulturelle værdier af deres skabelse og kan ikke let betragtes som retfærdige. Dette gør det klart, hvor vigtigt det er at stille spørgsmålstegn ved algoritmerne og kontrollere deres oprindelse, som a&f systems anfører.
En delikat udfordring for samfundet
Debatten om kunstig intelligens og dens indvirkning på vores opfattelse er mere aktuel end nogensinde. I de senere år har brugen af kunstig intelligens udviklet sig hurtigt på mange områder, herunder tale- og ansigtsgenkendelse, jura og sundhedsvæsen. Dette bliver særligt bekymrende, når man tænker på, at andelen af diversitet i udviklerfællesskabet er meget begrænset. Kun 10% af AI-udviklere er kvinder, og størstedelen kommer fra vestlige, industrialiserede lande, hvilket kun forværrer problemet med bias.
For at imødekomme disse udfordringer er det ikke kun nødvendigt at øge bevidstheden om problemet, men også at udvikle AI'er, der er afhængige af en mere mangfoldig database. Forbedringer i denne retning er afgørende for at fremme ærlige og retfærdige beslutninger i en stadig mere digital verden. Vil det lykkes? Fremtiden for kunstig intelligens vil skulle måles på dette.