親愛的廣場用戶們,新年即將開啟,我們希望您也能在 Gate 廣場上留下專屬印記,把 2026 的第一句話,留在 Gate 廣場!發布您的 #我的2026第一帖,记录对 2026 的第一句期待、願望或計劃,與全球 Web3 用戶共同迎接全新的旅程,創造專屬於你的年度開篇篇章,解鎖廣場價值 $10,000 新年專屬福利!
活動時間:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活動獎勵:多發多獎,曝光拉滿!
1️⃣ 2026 幸運大獎:從全部有效貼文中隨機抽取 1 位,獎勵包含:
2026U 仓位體驗券
Gate 新年限定禮盒
全年廣場首頁推薦位曝光
2️⃣ 人氣新年貼 TOP 1–10:根據發帖量及互動表現綜合排名,獎勵包含:
Gate 新年限定禮盒
廣場精選貼 5 篇推薦曝光
3️⃣ 新手首貼加成獎勵:活動前未在廣場發帖的用戶,活動期間首次發帖即可獲得:
50U 仓位體驗券
進入「新年新聲」推薦榜單,額外曝光加持
4️⃣ 基礎參與獎勵:所有符合規則的用戶中隨機抽取 20 位,贈送新年 F1 紅牛周邊禮包
參與方式:
1️⃣ 帶話題 #我的2026第一条帖 發帖,內容字數需要不少於 30 字
2️⃣ 內容方向不限,可以是以下內容:
寫給 2026 的第一句話
新年目標與計劃
Web3 領域探索及成長願景
注意事項
• 禁止抄襲、洗稿及違
研究揭示了人工智慧模型對方言的偏見 - ForkLog:加密貨幣、人工智慧、奇點、未來
大型語言模型對方言持有偏見,將負面刻板印象歸於使用方言的人。德國和美國的科學家得出這樣的結論,DW報導
約翰內斯·古騰堡大學的分析顯示,十個測試模型,包括ChatGPT-5 mini和Llama 3.1,將使用德國方言的使用者(巴伐利亞、科隆)描述為「未受教育」、「在農場工作」和「易怒」。
當明確指出是方言時,偏見進一步加劇。
其他案例
科學家在全球範圍內也觀察到類似問題。2024年,加州大學伯克利分校的一項研究比較了ChatGPT對不同英語方言(印度、愛爾蘭、尼日利亞)的回答。
結果顯示,該聊天機器人在回答這些方言時,表現出更強烈的刻板印象、貶低內容和居高臨下的語氣,與使用標準美式或英式英語相比。
美國康奈爾大學計算機科學系的研究生艾瑪·哈維稱對方言的偏見「具有重要性且令人擔憂」。
2025年夏天,她和同事還發現,亞馬遜購物助手Rufus在回答使用非標準英語的非裔美國人時,給出模糊甚至錯誤的回答。如果請求中有錯誤,模型會粗魯回應。
另一個明顯的神經網絡偏見例子是來自印度的求職者,他用英文向ChatGPT檢查履歷,結果聊天機器人將他的姓氏改成與較高階層相關的姓氏。
然而,危機不僅限於偏見——一些模型根本無法辨識方言。例如,2023年7月,英國德比市議會的AI助手(未能辨識電台主持人在直播中使用的方言詞彙,如mardy)「愛抱怨的人」(和duck)「親愛的」(。
怎麼辦?
問題不在於AI模型本身,而在於它們的訓練方式。聊天機器人從互聯網上讀取大量文本,然後基於這些資料生成回答。
她同時強調,這項技術具有優勢:
一些科學家建議,為特定方言打造定制化模型作為一個優勢。2024年8月,Acree AI已推出Arcee-Meraj模型,支持多種阿拉伯方言。
霍爾特曼表示,隨著新型、更適應的LLM出現,可以將AI「看作不是方言的敵人,而是一個不完美但可以改進的工具」。
提醒一下,《經濟學人》的記者曾警告過AI玩具對兒童心理的風險。