Klišejas un aizspriedumi: šādi AI rāda hamburgerus sagrozītā veidā!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Eppendorfs t-tiešsaistes AI testā ir aprakstīts kā klišeja. Rakstā ir uzsvērta neobjektivitāte AI datos un to ietekme.

Eppendorf wird im KI-Test von t-online als Klischee beschrieben. Der Artikel beleuchtet Bias in KI-Daten und ihre Auswirkungen.
Eppendorfs t-tiešsaistes AI testā ir aprakstīts kā klišeja. Rakstā ir uzsvērta neobjektivitāte AI datos un to ietekme.

Klišejas un aizspriedumi: šādi AI rāda hamburgerus sagrozītā veidā!

Aizraujošā testā ziņu platforma t-online pārbaudīja, kā mākslīgais intelekts (AI) var raksturot tipiskus Hamburgas iedzīvotājus. Tika konstatēts, ka rezultāti bieži vien neatspoguļo patieso ainu par novadiem. AI smeļas no digitālo datu kopas, kuras pamatā ir sociālie mediji, ziņu portāli un emuāri. Tas nozīmē, ka reprezentācijas bieži ir izkropļotas un tām trūkst vajadzīgā atsevišķu iedzīvotāju grupu pārstāvniecības. Hamburgas rajonu daudzveidība, piemēram, Ependorfa, Vilhelmsburga un Sentpauli, ir vairāk parādīta klišejās, nevis reālistiskos aprakstos, jo t-online ziņojumi.

Interesanti ir tas, ka AI modeļi, sākot no ChatGPT līdz attēlu ģeneratoriem, nedarbojas objektīvi. Viņi analizē modeļus un varbūtības, vienlaikus ignorējot mazāk redzamas grupas. Labs piemērs ir rajonu apraksti, kas no pirmā acu uzmetiena šķiet sakarīgi, taču ir klišejiski: Ependorfa asociējas ar “taisniem matiem un smilškrāsas dūnu vesti”, savukārt St. Pauli vienkārši nozīmē “melnas kapuces un tetovējumi”. Šādi atribūti piedāvā maz vietas dzīves daudzveidībai un identitātēm, kas patiešām veido Hamburgu.

Neobjektivitāte: ēna AI laukā

Galvenais šo neatbilstību aspekts ir tā sauktā neobjektivitāte. Šis termins apraksta faktu, ka ne visas grupas ir vienādi pārstāvētas AI attēlojumos. Šādus izkropļojumus rada nepareizi dati un to apstrāde, kas jo īpaši var radīt neizdevīgu stāvokli minoritātēm. Piemēram, ASV veselības aprūpes sistēmas piemērs parāda, ka afroamerikāņu pacientiem ir mazāka iespēja saņemt nepieciešamo ārstēšanu, ja viņiem ir tāds pats slimības slogs. Tas parāda, kā dziļi iesakņojušies aizspriedumi ietekmē mūsu lēmumu pieņemšanai izmantotos algoritmus, kā skaidro anti-bias.eu.

AI tehnoloģiju kritiķi norāda, ka mākslīgais intelekts bieži tiek uztverts kā neitrāls un objektīvs, taču tie ir tieši pretēji, jo to pamatā ir cilvēku radīti un dažkārt diskriminējoši dati. Lorenco Mediči no a&f sistēmām uzsver, ka diskriminācija var skart ne tikai etniskās grupas, bet arī sociālās klases un dzimumus. AI apstrādātie dati vienmēr atspoguļo to radīšanas kultūras vērtības, un tos nevar viegli uzskatīt par godīgiem. Tas skaidri parāda, cik svarīgi ir apšaubīt algoritmus un pārbaudīt to izcelsmi, kā norāda a&f sistēmas.

Smalks izaicinājums sabiedrībai

Debates par mākslīgo intelektu un tā ietekmi uz mūsu uztveri ir aktuālākas nekā jebkad agrāk. Pēdējos gados AI izmantošana ir strauji attīstījusies daudzās jomās, tostarp runas un sejas atpazīšanas, tiesību un veselības aprūpes jomā. Tas kļūst īpaši satraucoši, ja ņem vērā, ka daudzveidības īpatsvars izstrādātāju kopienā ir ļoti ierobežots. Tikai 10% AI izstrādātāju ir sievietes, un lielākā daļa nāk no rietumu, rūpnieciski attīstītām valstīm, kas tikai saasina aizspriedumu problēmu.

Lai risinātu šīs problēmas, ir ne tikai jāpalielina izpratne par problēmu, bet arī jāizstrādā AI, kas balstās uz daudzveidīgāku datu bāzi. Uzlabojumi šajā virzienā ir ļoti svarīgi, lai veicinātu godīgus un godīgus lēmumus arvien vairāk digitālajā pasaulē. Vai tas izdosies? Ar to būs jāmēra mākslīgā intelekta nākotne.