陈词滥调和偏见:这就是人工智能以扭曲的方式显示汉堡包的方式!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Eppendorf 在 t-online AI 测试中被描述为陈词滥调。这篇文章强调了人工智能数据中的偏见及其影响。

Eppendorf wird im KI-Test von t-online als Klischee beschrieben. Der Artikel beleuchtet Bias in KI-Daten und ihre Auswirkungen.
Eppendorf 在 t-online AI 测试中被描述为陈词滥调。这篇文章强调了人工智能数据中的偏见及其影响。

陈词滥调和偏见:这就是人工智能以扭曲的方式显示汉堡包的方式!

在一项激动人心的测试中,新闻平台 t-online 检验了人工智能 (AI) 如何描述典型的汉堡居民。人们发现,结果往往不能反映各地区的真实情况。人工智能从基于社交媒体、新闻门户和博客的数字数据池中提取数据。这意味着代表性常常被扭曲并且缺乏某些人口群体的必要代表性。汉堡地区的多样性,如埃彭多夫(Eppendorf)、威廉斯堡(Wilhelmsburg)和圣保利(St. Pauli),更多的是在陈词滥调中表现出来,而不是在现实描述中,如t-online reports

有趣的是,从 ChatGPT 到图像生成器的 AI 模型并不能客观地工作。他们分析模式和概率,同时忽略不太明显的群体。一个很好的例子是对各地区的描述,乍一看似乎连贯,但却很陈词滥调:埃彭多夫与“直发和米色羽绒背心”联系在一起,而圣保利则仅仅意味着“黑色连帽衫和纹身”。这种归因几乎没有为真正塑造汉堡的生活和身份的多样性提供空间。

偏见:AI领域的阴影

这些差异的一个关键方面是所谓的偏见。该术语描述了这样一个事实:并非所有群体在人工智能表征中都得到平等的代表。这种扭曲是由不正确的数据及其处理造成的,这对少数群体尤其不利。例如,美国医疗保健系统的一个例子表明,当非洲裔美国患者有相同的疾病负担时,他们获得所需治疗的可能性较小。这表明根深蒂固的偏见如何影响我们做出决定的算法,正如 anti-bias.eu 所解释的

人工智能技术的批评者指出,人工智能通常被认为是中立和公正的,但事实恰恰相反,因为它们基于人类创建的数据,有时甚至是歧视性的数据。 a&f Systems 的 Lorenzo Medici 强调,歧视不仅会影响种族群体,还会影响社会阶层和性别。人工智能处理的数据总是反映其创作的文化价值,不能轻易被认为是公平的。这清楚地表明质疑算法并检查其起源是多么重要,正如 a&f Systems 所说

对社会的微妙挑战

关于人工智能及其对我们认知的影响的争论比以往任何时候都更加激烈。近年来,人工智能的应用在许多领域迅速发展,包括语音和面部识别、法律和医疗保健。当您考虑到开发者社区的多样性比例非常有限时,这一点变得尤其令人担忧。只有 10% 的人工智能开发人员是女性,大多数来自西方工业化国家,这只会加剧偏见问题。

为了应对这些挑战,不仅需要提高对问题的认识,还需要开发依赖于更加多样化的数据库的人工智能。这方面的改进对于在日益数字化的世界中促进诚实和公平的决策至关重要。那会成功吗?人工智能的未来必须以此来衡量。