研究揭示了人工智慧模型對方言的偏見 - ForkLog:加密貨幣、人工智慧、奇點、未來

ИИ угрожает человечеству AI# 研究顯示AI模型對方言存在偏見

大型語言模型對方言持有偏見,將負面刻板印象歸於使用方言的人。德國和美國的科學家得出這樣的結論,DW報導

「我認為,我們看到的確令人震驚的形容詞,歸於使用方言的人」,— 研究的主要作者之一閔杜克·布伊在接受採訪時表示

約翰內斯·古騰堡大學的分析顯示,十個測試模型,包括ChatGPT-5 mini和Llama 3.1,將使用德國方言的使用者(巴伐利亞、科隆)描述為「未受教育」、「在農場工作」和「易怒」。

當明確指出是方言時,偏見進一步加劇。

其他案例

科學家在全球範圍內也觀察到類似問題。2024年,加州大學伯克利分校的一項研究比較了ChatGPT對不同英語方言(印度、愛爾蘭、尼日利亞)的回答。

結果顯示,該聊天機器人在回答這些方言時,表現出更強烈的刻板印象、貶低內容和居高臨下的語氣,與使用標準美式或英式英語相比。

美國康奈爾大學計算機科學系的研究生艾瑪·哈維稱對方言的偏見「具有重要性且令人擔憂」。

2025年夏天,她和同事還發現,亞馬遜購物助手Rufus在回答使用非標準英語的非裔美國人時,給出模糊甚至錯誤的回答。如果請求中有錯誤,模型會粗魯回應。

另一個明顯的神經網絡偏見例子是來自印度的求職者,他用英文向ChatGPT檢查履歷,結果聊天機器人將他的姓氏改成與較高階層相關的姓氏。

「大規模推廣語言模型不僅可能鞏固既有偏見,還可能大幅放大偏見。這些技術若不能消除危害,反而可能使其系統化」,— 哈維說。

然而,危機不僅限於偏見——一些模型根本無法辨識方言。例如,2023年7月,英國德比市議會的AI助手(未能辨識電台主持人在直播中使用的方言詞彙,如mardy)「愛抱怨的人」(和duck)「親愛的」(。

怎麼辦?

問題不在於AI模型本身,而在於它們的訓練方式。聊天機器人從互聯網上讀取大量文本,然後基於這些資料生成回答。

「最關鍵的問題是——誰在撰寫這些文本。如果其中存在對方言使用者的偏見,AI就會學到這些偏見」,— 哈姆堡大學的卡羅琳·霍爾特曼解釋。

她同時強調,這項技術具有優勢:

「與人類不同,AI系統的偏見可以被發現並『關閉』。我們可以積極對抗這些偏見」

一些科學家建議,為特定方言打造定制化模型作為一個優勢。2024年8月,Acree AI已推出Arcee-Meraj模型,支持多種阿拉伯方言。

霍爾特曼表示,隨著新型、更適應的LLM出現,可以將AI「看作不是方言的敵人,而是一個不完美但可以改進的工具」。

提醒一下,《經濟學人》的記者曾警告過AI玩具對兒童心理的風險。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)