Klisze i uprzedzenia: Tak AI pokazuje hamburgery w zniekształcony sposób!
Eppendorf jest opisywany jako banał w teście sztucznej inteligencji t-online. W artykule zwrócono uwagę na stronniczość danych AI i jej skutki.

Klisze i uprzedzenia: Tak AI pokazuje hamburgery w zniekształcony sposób!
W ekscytującym teście platforma informacyjna t-online sprawdziła, jak sztuczna inteligencja (AI) może opisać typowych mieszkańców Hamburga. Stwierdzono, że wyniki często nie odzwierciedlają prawdziwego obrazu powiatów. Sztuczna inteligencja czerpie z puli danych cyfrowych pochodzących z mediów społecznościowych, portali informacyjnych i blogów. Oznacza to, że reprezentacje są często zniekształcone i brakuje im niezbędnej reprezentacji niektórych grup ludności. Różnorodność dzielnic Hamburga, takich jak Eppendorf, Wilhelmsburg i St. Pauli, pokazana jest bardziej w kliszach niż w realistycznych opisach, jak raporty t-online.
Co ciekawe, modele AI, od ChatGPT po generatory obrazów, nie działają obiektywnie. Analizują wzorce i prawdopodobieństwa, ignorując mniej widoczne grupy. Dobrym przykładem są opisy dzielnic, które na pierwszy rzut oka wydają się spójne, ale banalne: Eppendorf kojarzy się z „prostymi włosami i beżową puchową kamizelką”, natomiast St. Pauli oznacza po prostu „czarne bluzy z kapturem i tatuaże”. Takie atrybucje oferują niewiele miejsca na różnorodność życia i tożsamości, które naprawdę kształtują Hamburg.
Odchylenie: cień w polu AI
Kluczowym aspektem tych rozbieżności jest tzw. stronniczość. Termin ten opisuje fakt, że nie wszystkie grupy są jednakowo reprezentowane w reprezentacjach AI. Takie zniekształcenia wynikają z nieprawidłowych danych i ich przetwarzania, co może być szczególnie niekorzystne dla mniejszości. Na przykład przykład z amerykańskiego systemu opieki zdrowotnej pokazuje, że pacjenci pochodzenia afroamerykańskiego mają mniejsze szanse na otrzymanie potrzebnego leczenia, jeśli cierpią na takie same choroby. Pokazuje to, jak głęboko zakorzenione uprzedzenia wpływają na algorytmy stosowane przy podejmowaniu naszych decyzji, jak wyjaśnia anti-bias.eu.
Krytycy technologii sztucznej inteligencji zwracają uwagę, że sztuczna inteligencja jest często postrzegana jako neutralna i bezstronna, choć jest odwrotnie, ponieważ opiera się na danych tworzonych przez człowieka, a czasem dyskryminujących. Lorenzo Medici z a&f Systems podkreśla, że dyskryminacja może dotyczyć nie tylko grup etnicznych, ale także klas społecznych i płci. Dane przetwarzane przez sztuczną inteligencję zawsze odzwierciedlają wartości kulturowe ich stworzenia i nie można ich łatwo uznać za uczciwe. To wyjaśnia, jak ważne jest kwestionowanie algorytmów i sprawdzanie ich pochodzenia, jak stwierdza a&f systemy.
Delikatne wyzwanie dla społeczeństwa
Debata na temat sztucznej inteligencji i jej wpływu na naszą percepcję jest bardziej aktualna niż kiedykolwiek. W ostatnich latach wykorzystanie sztucznej inteligencji szybko rozwinęło się w wielu obszarach, w tym w rozpoznawaniu mowy i twarzy, prawie i opiece zdrowotnej. Staje się to szczególnie niepokojące, gdy weźmie się pod uwagę, że odsetek różnorodności w społeczności programistów jest bardzo ograniczony. Tylko 10% twórców sztucznej inteligencji to kobiety, a większość pochodzi z zachodnich, uprzemysłowionych krajów, co tylko pogłębia problem uprzedzeń.
Aby sprostać tym wyzwaniom, konieczne jest nie tylko podnoszenie świadomości problemu, ale także rozwój sztucznej inteligencji opierającej się na bardziej zróżnicowanej bazie danych. Ulepszenia w tym kierunku mają kluczowe znaczenie dla promowania uczciwych i sprawiedliwych decyzji w coraz bardziej cyfrowym świecie. Czy to się uda? Na tej podstawie trzeba będzie zmierzyć przyszłość sztucznej inteligencji.