Klišeji i predrasude: Ovako AI prikazuje hamburgere na iskrivljen način!
Eppendorf je opisan kao klišej u t-online AI testu. U članku se ističe pristranost u podacima umjetne inteligencije i njezini učinci.

Klišeji i predrasude: Ovako AI prikazuje hamburgere na iskrivljen način!
U uzbudljivom testu, novinska platforma t-online ispitala je kako umjetna inteligencija (AI) može opisati tipične stanovnike Hamburga. Utvrđeno je da rezultati često ne odražavaju pravu sliku okruga. AI izvlači iz skupa digitalnih podataka temeljenih na društvenim medijima, portalima s vijestima i blogovima. To znači da su prikazi često iskrivljeni i da im nedostaje potrebna zastupljenost određenih skupina stanovništva. Raznolikost hamburških četvrti, poput Eppendorfa, Wilhelmsburga i St. Paulija, prikazana je više u klišejima nego u realističnim opisima, kao t-online izvješća.
Zanimljivo je da AI modeli, od ChatGPT-a do generatora slika, ne rade objektivno. Analiziraju obrasce i vjerojatnosti ignorirajući manje vidljive skupine. Dobar primjer su opisi okruga koji se na prvi pogled čine koherentnima, ali su klišejski: Eppendorf se povezuje s "ravnom kosom i bež prslukom", dok St. Pauli jednostavno znači "crne majice s kapuljačom i tetovaže". Takve atribucije daju malo prostora za raznolikost života i identiteta koji stvarno oblikuju Hamburg.
Pristranost: sjena u polju umjetne inteligencije
Ključni aspekt ovih odstupanja je takozvana pristranost. Ovaj izraz opisuje činjenicu da nisu sve skupine jednako zastupljene u reprezentacijama umjetne inteligencije. Takva iskrivljenja proizlaze iz netočnih podataka i njihove obrade, što može posebno štetiti manjinama. Na primjer, primjer iz američkog zdravstvenog sustava pokazuje da je manje vjerojatno da će afroamerički pacijenti dobiti liječenje koje im je potrebno ako imaju isti teret bolesti. Ovo pokazuje kako duboko ukorijenjene pristranosti utječu na algoritme koji se koriste za donošenje naših odluka, kao što anti-bias.eu objašnjava.
Kritičari AI tehnologija ističu da se umjetna inteligencija često percipira kao neutralna i nepristrana, ali je upravo suprotno jer se temelji na podacima koje je stvorio čovjek, a ponekad i diskriminirajućim. Lorenzo Medici iz a&f systems naglašava da diskriminacija može utjecati ne samo na etničke skupine, već i na društvene klase i spolove. Podaci koje obrađuje umjetna inteligencija uvijek odražavaju kulturne vrijednosti njihovog stvaranja i ne mogu se lako smatrati poštenima. Ovo jasno pokazuje koliko je važno ispitati algoritme i provjeriti njihovo podrijetlo, kao što a&f Systems navodi.
Delikatan izazov za društvo
Rasprava o umjetnoj inteligenciji i njezinom utjecaju na našu percepciju aktualnija je no ikad. Posljednjih godina upotreba umjetne inteligencije brzo se razvila u mnogim područjima, uključujući prepoznavanje govora i lica, pravo i zdravstvo. Ovo postaje posebno zabrinjavajuće kada uzmete u obzir da je udio raznolikosti u zajednici programera vrlo ograničen. Samo 10% programera umjetne inteligencije su žene, a većina dolazi iz zapadnih, industrijaliziranih zemalja, što samo pogoršava problem pristranosti.
Kako bismo odgovorili na te izazove, nije potrebno samo podići svijest o problemu, već i razviti umjetne inteligencije koje se oslanjaju na raznolikiju bazu podataka. Poboljšanja u ovom smjeru ključna su za promicanje poštenih i poštenih odluka u sve digitalnijem svijetu. Hoće li to uspjeti? Po tome će se morati mjeriti budućnost umjetne inteligencije.