亲爱的广场用户们,新年即将开启,我们希望您也能在 Gate 广场上留下专属印记,把 2026 的第一句话,留在 Gate 广场!发布您的 #我的2026第一帖,记录对 2026 的第一句期待、愿望或计划,与全球 Web3 用户共同迎接全新的旅程,创造专属于你的年度开篇篇章,解锁广场价值 $10,000 新年专属福利!
活动时间:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活动奖励:多发多奖,曝光拉满!
1️⃣ 2026 幸运大奖:从全部有效帖子中随机抽取 1 位,奖励包含:
2026U 仓位体验券
Gate 新年限定礼盒
全年广场首页推荐位曝光
2️⃣ 人气新年帖 TOP 1–10:根据发帖量及互动表现综合排名,奖励包含:
Gate 新年限定礼盒
广场精选帖 5 篇推荐曝光
3️⃣ 新手首帖加成奖励:活动前未在广场发帖的用户,活动期间首次发帖即可获得:
50U 仓位体验券
进入「新年新声」推荐榜单,额外曝光加持
4️⃣ 基础参与奖励:所有符合规则的用户中随机抽取 20 位,赠送新年 F1 红牛周边礼包
参与方式:
1️⃣ 带话题 #我的2026第一条帖 发帖,内容字数需要不少于 30 字
2️⃣ 内容方向不限,可以是以下内容:
写给 2026 的第一句话
新年目标与计划
Web3 领域探索及成长愿景
注意事项
• 禁止抄袭、洗稿及违规
研究发现AI模型对方言存在偏见 - ForkLog:加密货币、AI、奇点、未来
大型语言模型对方言使用者存在偏见,赋予他们负面刻板印象。德国和美国的科学家得出这一结论,DW报道
约翰内斯·古腾堡大学的分析显示,十个测试模型,包括ChatGPT-5 mini和Llama 3.1,将德国方言使用者(巴伐利亚语、科隆方言)描述为“无知的”、“在农场工作的人”和“易怒的”。
当AI明确指出使用方言时,偏见进一步加剧。
其他案例
科学家们在全球范围内也发现了类似问题。2024年加州大学伯克利分校的一项研究比较了ChatGPT对不同英语方言(印度英语、爱尔兰英语、尼日利亚英语)的回答
结果显示,聊天机器人对这些方言的回应带有更强烈的刻板印象、贬低内容和居高临下的语气,与使用标准美式或英式英语的回应相比更为明显。
美国康奈尔大学信息学研究生艾玛·哈维称对方言的偏见“具有重要性且令人担忧”。
2025年夏天,她和同事们还发现,亚马逊的购物助手Rufus在回答使用非裔美国人英语方言的人时,给出了模糊甚至错误的回答。如果请求中有错误,模型会粗鲁地回应。
另一个神经网络偏见的明显例子是,一名来自印度的求职者用英语向ChatGPT核查简历,结果聊天机器人将他的姓氏改成了与更高阶层相关的姓氏。
但危机不仅限于偏见——一些模型根本无法识别方言。例如,7月,德比市议会的AI助手(英国)未能识别广播主持人在直播中使用的词语,如mardy(“爱发牢骚的人”)和duck(“亲爱的”)。
如何应对?
问题不在于AI模型本身,而在于它们的训练方式。聊天机器人通过阅读互联网海量文本,然后基于这些内容生成回答。
她同时强调,技术具有优势:
一些科学家建议,创建针对特定方言的定制模型作为优势。2024年8月,Acree AI公司已推出Arcee-Meraj模型,支持多种阿拉伯方言。
霍尔特曼表示,随着新型、更适应的LLM出现,可以将AI“看作不是方言的敌人,而是一个不完美但可以不断改进的工具”。
提醒一下,《经济学人》的记者曾警告过AI玩具对儿童心理的风险。