Cliché e pregiudizi: ecco come l'intelligenza artificiale mostra gli hamburger in modo distorto!
Eppendorf viene descritto come un cliché nel test AI di t-online. L’articolo evidenzia le distorsioni nei dati dell’intelligenza artificiale e i suoi effetti.

Cliché e pregiudizi: ecco come l'intelligenza artificiale mostra gli hamburger in modo distorto!
In un test entusiasmante, la piattaforma di notizie t-online ha esaminato come l'intelligenza artificiale (AI) può descrivere i tipici abitanti di Amburgo. È stato riscontrato che i risultati spesso non riflettono la reale immagine dei distretti. L’intelligenza artificiale attinge da un pool di dati digitali basati su social media, portali di notizie e blog. Ciò significa che le rappresentazioni sono spesso distorte e mancano della necessaria rappresentanza di alcuni gruppi di popolazione. La diversità dei quartieri di Amburgo, come Eppendorf, Wilhelmsburg e St. Pauli, si mostra più nei cliché che nelle descrizioni realistiche, come rapporto t-online.
Ciò che è interessante è che i modelli AI, da ChatGPT ai generatori di immagini, non funzionano in modo oggettivo. Analizzano modelli e probabilità ignorando i gruppi meno visibili. Un buon esempio sono le descrizioni dei quartieri, che a prima vista sembrano coerenti ma sono cliché: Eppendorf è associato a “capelli lisci e piumino beige”, mentre St. Pauli significa semplicemente “felpe con cappuccio nere e tatuaggi”. Tali attribuzioni offrono poco spazio alla diversità della vita e delle identità che realmente caratterizzano Amburgo.
Il pregiudizio: un'ombra nel campo dell'intelligenza artificiale
Un aspetto chiave di queste discrepanze è il cosiddetto bias. Questo termine descrive il fatto che non tutti i gruppi sono ugualmente rappresentati nelle rappresentazioni dell'IA. Tali distorsioni derivano da dati errati e dal loro trattamento, che possono svantaggiare soprattutto le minoranze. Ad esempio, un esempio tratto dal sistema sanitario statunitense mostra che i pazienti afroamericani hanno meno probabilità di ricevere le cure di cui hanno bisogno quando hanno lo stesso carico di malattia. Ciò dimostra come i pregiudizi profondamente radicati influenzino gli algoritmi utilizzati per prendere le nostre decisioni, come spiega anti-bias.eu.
I critici delle tecnologie di intelligenza artificiale sottolineano che le IA sono spesso percepite come neutre e imparziali, ma è il contrario, poiché si basano su dati creati dall’uomo e talvolta discriminatori. Lorenzo Medici di a&f Systems sottolinea che la discriminazione può colpire non solo i gruppi etnici, ma anche le classi sociali e il genere. I dati elaborati dalle IA riflettono sempre i valori culturali della loro creazione e non possono essere facilmente considerati equi. Ciò rende chiaro quanto sia importante mettere in discussione gli algoritmi e verificarne l’origine, come afferma a&f Systems.
Una sfida delicata per la società
Il dibattito sull’intelligenza artificiale e sul suo impatto sulla nostra percezione è più attuale che mai. Negli ultimi anni, l’uso dell’intelligenza artificiale si è sviluppato rapidamente in molti settori, tra cui il riconoscimento vocale e facciale, il diritto e l’assistenza sanitaria. Ciò diventa particolarmente preoccupante se si considera che la percentuale di diversità nella comunità degli sviluppatori è molto limitata. Solo il 10% degli sviluppatori di intelligenza artificiale sono donne e la maggioranza proviene da paesi occidentali e industrializzati, il che non fa che aggravare il problema dei pregiudizi.
Per affrontare queste sfide, non è solo necessario aumentare la consapevolezza del problema, ma anche sviluppare IA che si basino su un database più diversificato. I miglioramenti in questa direzione sono cruciali per promuovere decisioni oneste ed giuste in un mondo sempre più digitale. Riuscirà? Il futuro dell’intelligenza artificiale si dovrà misurare da questo.