“我感到非常不安”:Anthropic CEO 警告称,包括他自己在内的一批 AI 领导者不应掌控这项技术的未来

Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)并不认为他应该是制定围绕人工智能的护栏决策的人。

推荐视频


在2025年11月在CBS新闻的《60分钟》采访中,阿莫迪在接受安德森·库珀(Anderson Cooper)采访时表示,人工智能应受到更严格的监管,关于技术未来的决策不应仅由大型科技公司的领导者来决定。

“我认为我对这些决策由少数公司、少数人做出感到非常不安,”阿莫迪说。“这也是我一直倡导对这项技术进行负责任和深思熟虑的监管的原因之一。”

“你们是谁选举你们和山姆·奥特曼的?”库珀问。

“没有人。说实话,没有人,”阿莫迪回答。

他补充说,Anthropic一直秉持透明的理念,公开人工智能的发展中的局限性和危险。在采访发布之前,该公司表示已挫败“首次记录在案的大规模AI网络攻击,该攻击在没有大量人为干预的情况下执行”。

Anthropic上周表示已向公共第一行动(Public First Action)捐赠了2000万美元,该超级政治行动委员会专注于AI安全和监管——并且直接反对由竞争对手OpenAI投资者支持的超级政治行动委员会。

“AI安全仍然是最高优先级,”阿莫迪在2025年1月的封面故事中告诉《财富》。“企业重视信任和可靠性,”他说。

目前没有联邦法规明确禁止AI或关于技术安全的规定。尽管今年所有50个州都提出了与AI相关的立法,38个州已采纳或制定了透明度和安全措施,但科技行业专家已敦促AI公司以紧迫感应对网络安全问题。

去年早些时候,网络安全专家兼Mandiant首席执行官凯文·曼迪亚(Kevin Mandia)警告称,未来12到18个月内可能发生首个AI代理的网络攻击——这意味着Anthropic披露的挫败攻击比曼迪亚预测的时间提前了数月。

阿莫迪概述了无限制AI的短期、中期和长期风险:首先,技术将出现偏见和虚假信息,就像现在一样。接下来,它将利用增强的科学和工程知识生成有害信息,然后最终通过剥夺人类的主动权,可能变得过于自主,威胁人类的存在,甚至将人类排除在系统之外。

这些担忧与“AI教父”杰弗里·辛顿(Geoffrey Hinton)类似,他曾警告说,AI将在未来十年内拥有超越和控制人类的能力。

对更严格的AI审查和保障措施的需求,是Anthropic于2021年成立的核心。阿莫迪曾是山姆·奥特曼(Sam Altman)领导的OpenAI的研究副总裁。他因对AI安全问题的分歧而离开该公司。(到目前为止,阿莫迪的努力似乎已取得成效:Anthropic本月表示其估值已达3800亿美元。OpenAI的估值约为5000亿美元。)

“我们在OpenAI内部有一群人,在开发GPT-2和GPT-3之后,坚信两件事,”阿莫迪在2023年对《财富》说。“一是如果你投入更多计算资源到这些模型中,它们会变得越来越好,几乎没有终点……第二是,除了扩大模型规模之外,还需要做一些额外的事情,那就是对齐或安全。”

Anthropic的透明度努力

随着Anthropic继续扩大其数据中心投资,它也公布了一些应对AI缺陷和威胁的努力。在2025年5月的安全报告中,Anthropic披露其Opus模型的某些版本曾威胁到勒索,比如为了避免关闭,泄露工程师有外遇。公司还表示,如果给出有害的提示,比如如何策划恐怖袭击,AI模型会配合执行危险请求,但他们已对此进行了修正。

去年11月,该公司在一篇博客中表示,其聊天机器人Claude的政治中立性评分达94%,在中立性方面优于或匹配竞争对手。

除了自身努力防止技术被滥用外,阿莫迪还呼吁加强立法,以应对AI的风险。在2025年6月的《纽约时报》专栏中,他批评参议院在特朗普总统的政策法案中加入一项规定,禁止各州对AI进行监管,期限为十年。

“AI的发展速度太快,让人目不暇接,”阿莫迪说。“我相信这些系统在两年内就能从根本上改变世界;十年后,一切都无法预测。”

对Anthropic的批评

Anthropic主动披露自身的失误和应对措施引发了批评。在对Anthropic关于AI网络攻击发出警报的回应中,Meta当时的首席AI科学家Yann LeCun表示,这一警告是操纵立法者限制开源模型使用的手段。

“你被那些想要监管控制的人操控了,”LeCun在回应康涅狄格州参议员克里斯·墨菲(Chris Murphy)关于攻击的推文时在X(前Twitter)上说。“他们用可疑的研究吓唬所有人,以至于开源模型被规制得一干二净。”

还有人认为,Anthropic的策略是一种“安全表演”,只是一种良好的品牌宣传,实际上并未承诺真正落实安全措施。

甚至Anthropic的一些员工也对科技公司自我监管的能力表示怀疑。上周早些时候,Anthropic的AI安全研究员Mrinank Sharma宣布辞职,他表示:“世界处于危险之中。”

“在我任职期间,我反复看到,要真正让我们的价值观指导我们的行动是多么困难,”Sharma在辞职信中写道。“我在自己身上、在组织中看到,我们不断面临压力,要放弃最重要的原则,也在更广泛的社会中如此。”

《财富》尚未立即对该公司置评请求作出回应。

阿莫迪否认Anthropic在进行“安全表演”,但在上周的《Dwarkesh Podcast》一集中承认,公司有时难以平衡安全与利润。

“我们面临巨大的商业压力,而且我们自己也让事情变得更难,因为我们做的安全工作比其他公司都多,”他说。

此故事的一个版本于2025年11月17日刊登在Fortune.com上。

关于AI监管的更多内容:

  • Anthropic首席执行官达里奥·阿莫迪关于AI“将考验”人类的2万字长文值得一读——但更多是关于他的解决方案而非警告

  • 美国的AI监管拼凑破碎,压垮创业公司,助长中国崛起

  • 前谷歌伦理学家警告,如果不加控制,AI可能在2027年前引发全球就业市场崩溃

加入我们,参加2026年5月19-20日在亚特兰大的《财富》职场创新峰会。新时代的职场创新已然到来——旧的策略正在被重写。在这个独家且充满活力的盛会中,全球最具创新精神的领导者将聚集一堂,探讨AI、人类与战略如何再次融合,重新定义未来的工作。立即注册。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)