Klišės ir išankstiniai nusistatymai: štai kaip AI rodo mėsainius iškreiptai!
Eppendorfas t-online AI teste apibūdinamas kaip klišė. Straipsnyje pabrėžiamas AI duomenų šališkumas ir jų poveikis.

Klišės ir išankstiniai nusistatymai: štai kaip AI rodo mėsainius iškreiptai!
Įdomiame bandyme naujienų platforma t-online ištyrė, kaip dirbtinis intelektas (AI) gali apibūdinti tipiškus Hamburgo gyventojus. Nustatyta, kad rezultatai dažnai neatspindi tikrojo rajonų vaizdo. AI semiasi iš skaitmeninių duomenų rinkinio, pagrįsto socialine žiniasklaida, naujienų portalais ir tinklaraščiais. Tai reiškia, kad reprezentacijos dažnai yra iškraipytos ir trūksta tam tikrų gyventojų grupių atstovavimo. Hamburgo rajonų, tokių kaip Eppendorfas, Vilhelmsburgas ir Sent Paulis, įvairovė rodoma labiau klišėmis, o ne tikroviškais aprašymais, nes t-online ataskaitos.
Įdomu tai, kad dirbtinio intelekto modeliai, nuo „ChatGPT“ iki vaizdo generatorių, neveikia objektyviai. Jie analizuoja modelius ir tikimybes, ignoruodami mažiau matomas grupes. Geras pavyzdys yra rajonų aprašymai, kurie iš pirmo žvilgsnio atrodo nuoseklūs, bet yra klišiniai: Eppendorfas asocijuojasi su „tiesiais plaukais ir smėlio spalvos liemene“, o „St. Pauli“ reiškia tiesiog „juodus gobtuvus ir tatuiruotes“. Tokie priskyrimai suteikia mažai vietos gyvenimo įvairovei ir tapatybėms, kurios iš tikrųjų formuoja Hamburgą.
Šališkumas: šešėlis AI lauke
Pagrindinis šių neatitikimų aspektas yra vadinamasis šališkumas. Šis terminas apibūdina faktą, kad ne visos grupės yra vienodai atstovaujamos AI reprezentacijose. Tokie iškraipymai atsiranda dėl neteisingų duomenų ir jų apdorojimo, o tai gali pakenkti ypač mažumoms. Pavyzdžiui, JAV sveikatos priežiūros sistemos pavyzdys rodo, kad afroamerikiečiai pacientai mažiau linkę gauti reikiamą gydymą, kai jie turi tą pačią ligos naštą. Tai rodo, kaip giliai įsišakniję šališkumas veikia algoritmus, naudojamus priimant sprendimus, kaip paaiškinama anti-bias.eu.
AI technologijų kritikai pabrėžia, kad dirbtinis intelektas dažnai suvokiamas kaip neutralus ir nešališkas, tačiau jie yra priešingi, nes yra pagrįsti žmogaus sukurtais ir kartais diskriminuojančiais duomenimis. Lorenzo Medici iš a&f sistemų pabrėžia, kad diskriminacija gali paveikti ne tik etnines grupes, bet ir socialines klases bei lytis. AI tvarkomi duomenys visada atspindi jų kūrimo kultūrines vertybes ir negali būti lengvai laikomi sąžiningais. Tai aiškiai parodo, kaip svarbu abejoti algoritmais ir patikrinti jų kilmę, kaip nurodo a&f sistemos.
Subtilus iššūkis visuomenei
Diskusijos apie dirbtinį intelektą ir jo poveikį mūsų suvokimui yra aktualesnės nei bet kada. Pastaraisiais metais dirbtinio intelekto naudojimas sparčiai vystėsi daugelyje sričių, įskaitant kalbos ir veido atpažinimą, teisę ir sveikatos priežiūrą. Tai ypač kelia nerimą, kai manote, kad kūrėjų bendruomenės įvairovės dalis yra labai ribota. Tik 10 % AI kūrėjų yra moterys, o dauguma jų yra iš Vakarų, pramoninių šalių, o tai tik apsunkina šališkumo problemą.
Norint įveikti šiuos iššūkius, būtina ne tik didinti supratimą apie problemą, bet ir sukurti AI, kurie remiasi įvairesne duomenų baze. Patobulinimai šia kryptimi yra labai svarbūs skatinant sąžiningus ir sąžiningus sprendimus vis labiau skaitmeniniame pasaulyje. Ar tai pavyks? Dirbtinio intelekto ateitis turės būti matuojama tuo.