研究发现AI模型对方言存在偏见 - ForkLog:加密货币、AI、奇点、未来

ИИ угрожает человечеству AI# 研究发现AI模型对方言存在偏见

大型语言模型对方言使用者存在偏见,赋予他们负面刻板印象。德国和美国的科学家得出这一结论,DW报道

“我认为,我们看到的确令人震惊的修饰语,赋予方言使用者的标签,”——研究的主要作者之一闵杜克·布伊在接受媒体采访时表示

约翰内斯·古腾堡大学的分析显示,十个测试模型,包括ChatGPT-5 mini和Llama 3.1,将德国方言使用者(巴伐利亚语、科隆方言)描述为“无知的”、“在农场工作的人”和“易怒的”。

当AI明确指出使用方言时,偏见进一步加剧。

其他案例

科学家们在全球范围内也发现了类似问题。2024年加州大学伯克利分校的一项研究比较了ChatGPT对不同英语方言(印度英语、爱尔兰英语、尼日利亚英语)的回答

结果显示,聊天机器人对这些方言的回应带有更强烈的刻板印象、贬低内容和居高临下的语气,与使用标准美式或英式英语的回应相比更为明显。

美国康奈尔大学信息学研究生艾玛·哈维称对方言的偏见“具有重要性且令人担忧”。

2025年夏天,她和同事们还发现,亚马逊的购物助手Rufus在回答使用非裔美国人英语方言的人时,给出了模糊甚至错误的回答。如果请求中有错误,模型会粗鲁地回应。

另一个神经网络偏见的明显例子是,一名来自印度的求职者用英语向ChatGPT核查简历,结果聊天机器人将他的姓氏改成了与更高阶层相关的姓氏。

“大规模引入语言模型不仅可能固化既有偏见,还可能大幅增强偏见。技术如果不能减轻危害,反而可能使其系统化,”——哈维表示。

但危机不仅限于偏见——一些模型根本无法识别方言。例如,7月,德比市议会的AI助手(英国)未能识别广播主持人在直播中使用的词语,如mardy(“爱发牢骚的人”)和duck(“亲爱的”)。

如何应对?

问题不在于AI模型本身,而在于它们的训练方式。聊天机器人通过阅读互联网海量文本,然后基于这些内容生成回答。

“关键问题是——谁在写这些文本。如果其中存在对方言使用者的偏见,AI就会复制这些偏见,”——汉堡大学的卡罗琳·霍尔特曼解释道。

她同时强调,技术具有优势:

“与人不同,AI系统的偏见可以被发现并‘关闭’。我们可以积极应对这些表现。”

一些科学家建议,创建针对特定方言的定制模型作为优势。2024年8月,Acree AI公司已推出Arcee-Meraj模型,支持多种阿拉伯方言。

霍尔特曼表示,随着新型、更适应的LLM出现,可以将AI“看作不是方言的敌人,而是一个不完美但可以不断改进的工具”。

提醒一下,《经济学人》的记者曾警告过AI玩具对儿童心理的风险。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)