Klischees und Vorurteile: So verzerrt zeigt KI die Hamburger!

Klischees und Vorurteile: So verzerrt zeigt KI die Hamburger!
In einem spannenden Test hat die Nachrichtenplattform t-online untersucht, wie Künstliche Intelligenz (KI) typischen Hamburger Bewohnern beschreiben kann. Dabei fand man heraus, dass die Ergebnisse oft nicht das wahre Bild der Stadtteile widerspiegeln. Die KI schöpft aus einem Pool von digitalen Daten, die auf sozialen Medien, Nachrichtenportalen und Blogs basieren. Dies führt dazu, dass die Darstellungen häufig verzerrt und ohne die notwendige Repräsentation bestimmter Bevölkerungsgruppen sind. Die Verschiedenheit der Hamburger Stadtteile, wie etwa Eppendorf, Wilhelmsburg und St. Pauli, zeigt sich also eher in Klischees als in realistischen Beschreibungen, wie t-online berichtet.
Interessant ist, dass die KI-Modelle, von ChatGPT bis zu Bildgeneratoren, nicht objektiv arbeiten. Sie analysieren Muster und Wahrscheinlichkeiten, während sie weniger sichtbare Gruppen blass ausblenden. Ein gutes Beispiel sind die auf den ersten Blick schlüssigen, aber klischeehaften Beschreibungen der Stadtteile: Eppendorf wird so mit „glatter Haarpracht und beige Daunenweste“ verknüpft, während St. Pauli schlicht „schwarze Kapuzenpullis und Tattoos“ bedeutet. Solche Zuschreibungen bieten wenig Raum für die Vielfalt des Lebens und der Identitäten, die Hamburg wirklich prägen.
Der Bias: Ein Schatten im KI-Bereich
Ein wesentlicher Aspekt dieser Diskrepanzen ist der sogenannte Bias. Dieser Begriff beschreibt die Tatsache, dass nicht alle Gruppen in den KI-Darstellungen gleich stark vertreten sind. Solche Verzerrungen entstehen durch fehlerhafte Daten und deren Verarbeitung, was gerade Minderheiten benachteiligen kann. So wird etwa in einem Beispiel aus dem Gesundheitswesen der USA deutlich, dass afroamerikanische Patienten bei identischer Krankheitslast seltener eine benötigte Behandlung vorgeschlagen bekommen. Das zeigt, wie tief verwurzelte Vorurteile die Algorithmen, die für unsere Entscheidungen herangezogen werden, beeinflussen, wie anti-bias.eu erklärt.
Die Kritiker der KI-Technologien verweisen darauf, dass KIs oft als neutral und unvoreingenommen wahrgenommen werden, dabei sind sie das Gegenteil, da sie auf Menschen geschaffenen und teils diskriminierenden Daten basieren. Lorenzo Medici von a&f systems hebt hervor, dass Diskriminierung nicht nur ethnische Gruppen, sondern auch soziale Schichten und Geschlechter betreffen kann. Die Daten, die von KIs verarbeitet werden, spiegeln immer die kulturellen Werte ihrer Entstehung wider und können nicht ohne Weiteres als fair betrachtet werden. Das macht deutlich, wie wichtig es ist, die Algorithmen zu hinterfragen und deren Herkunft zu überprüfen, so wie a&f systems feststellt.
Eine heikle Herausforderung für die Gesellschaft
Die Debatte um Künstliche Intelligenz und ihre Auswirkungen auf unsere Wahrnehmung ist aktueller denn je. In den letzten Jahren hat sich der Einsatz von KI in vielen Bereichen rasant entwickelt, darunter in der Sprach- und Gesichtserkennung, Rechtsprechung sowie in der Gesundheitsversorgung. Besonders bedenklich wird es, wenn man bedenkt, dass der Anteil von Diversität in der Entwicklergemeinde stark limitiert ist. Nur 10% der KI-Entwickler sind Frauen und die Mehrheit kommt aus westlichen, industrialisierten Ländern, was das Problem der Vorurteile nur verstärkt.
Um diesen Herausforderungen zu begegnen, bedarf es nicht nur einer Sensibilisierung für die Problematik, sondern auch der Entwicklung von KIs, die auf eine diversere Datenbasis zurückgreifen. Verbesserungen in dieser Richtung sind entscheidend, um ehrliche und gerechte Entscheidungen in einer zunehmend digitalisierten Welt zu fördern. Ob das gelingt? Daran wird sich die Zukunft der Künstlichen Intelligenz messen lassen müssen.