Klisék és előítéletek: Így mutatja meg az AI eltorzítva a hamburgert!
Eppendorfot kliséként írják le a t-online AI-tesztben. A cikk kiemeli az AI-adatok torzítását és hatásait.

Klisék és előítéletek: Így mutatja meg az AI eltorzítva a hamburgert!
Egy izgalmas teszt során a t-online hírplatform azt vizsgálta, hogyan írja le a mesterséges intelligencia (AI) a tipikus hamburgi lakosokat. Megállapítást nyert, hogy az eredmények gyakran nem tükrözik a kerületek valós képét. Az AI a közösségi médián, hírportálokon és blogokon alapuló digitális adatokból merít. Ez azt jelenti, hogy a reprezentációk gyakran torzak, és hiányzik bizonyos népességcsoportok szükséges reprezentációja. Hamburg körzeteinek sokszínűsége, mint például Eppendorf, Wilhelmsburg és St. Pauli, inkább klisékben, mint valósághű leírásokban jelenik meg, hiszen t-online jelentések.
Az érdekes az, hogy az AI-modellek, a ChatGPT-től a képgenerátorokig, nem működnek objektíven. Elemeznek mintákat és valószínűségeket, miközben figyelmen kívül hagyják a kevésbé látható csoportokat. Jó példa erre a kerületek leírása, amelyek első pillantásra összefüggőnek tűnnek, de sablonosak: Eppendorfhoz „egyenes haj és bézs pehelymellény” társul, míg a St. Pauli egyszerűen „fekete kapucnis pulcsit és tetoválást jelent”. Az ilyen attribúciók kevés helyet kínálnak az élet és az identitások sokféleségének, amelyek valóban formálják Hamburgot.
The Bias: Egy árnyék az AI-mezőn
Ezen eltérések kulcsfontosságú aspektusa az úgynevezett torzítás. Ez a kifejezés azt a tényt írja le, hogy nem minden csoport egyformán képviselteti magát az AI-reprezentációkban. Az ilyen torzulások helytelen adatokból és azok feldolgozásából adódnak, ami különösen a kisebbségeket érintheti hátrányosan. Például az Egyesült Államok egészségügyi rendszeréből származó példa azt mutatja, hogy az afro-amerikai betegek kisebb valószínűséggel kapják meg a szükséges kezelést, ha ugyanaz a betegségteher. Ez azt mutatja, hogy a mélyen gyökerező torzítások milyen hatással vannak a döntéseink meghozatalához használt algoritmusokra, ahogyan az anti-bias.eu kifejti.
A mesterséges intelligencia-technológiák kritikusai rámutatnak, hogy az AI-t gyakran semlegesnek és elfogulatlannak tekintik, de ennek éppen az ellenkezője, mivel ember által létrehozott és néha diszkriminatív adatokon alapulnak. Lorenzo Medici az a&f rendszerektől hangsúlyozza, hogy a diszkrimináció nemcsak etnikai csoportokat, hanem társadalmi osztályokat és nemeket is érinthet. A mesterséges intelligencia által feldolgozott adatok mindig az általuk létrehozott kulturális értékeket tükrözik, és nem tekinthetők könnyen tisztességesnek. Ez világossá teszi, mennyire fontos megkérdőjelezni az algoritmusokat és ellenőrizni az eredetüket, ahogyan az a&f rendszerek állítják.
Kényes kihívás a társadalom számára
A mesterséges intelligenciáról és annak érzékelésünkre gyakorolt hatásáról folyó vita aktuálisabb, mint valaha. Az elmúlt években az AI használata gyorsan fejlődött számos területen, beleértve a beszéd- és arcfelismerést, a jogot és az egészségügyet. Ez különösen aggasztóvá válik, ha figyelembe vesszük, hogy a sokszínűség aránya a fejlesztői közösségben nagyon korlátozott. A mesterséges intelligencia fejlesztőinek mindössze 10%-a nő, és többségük nyugati, iparosodott országokból származik, ami csak súlyosbítja az elfogultság problémáját.
Ahhoz, hogy megfeleljünk ezeknek a kihívásoknak, nem csak a probléma tudatosítására van szükség, hanem olyan mesterséges intelligencia kifejlesztésére is, amelyek egy változatosabb adatbázisra támaszkodnak. Az ilyen irányú fejlesztések kulcsfontosságúak az őszinte és tisztességes döntések előmozdításához az egyre digitálisabbá váló világban. Ez sikerülni fog? A mesterséges intelligencia jövőjét ezen kell majd lemérni.