「我感到非常不安」:Anthropic 執行長警告,包括他自己在內的一批 AI 領導者,不應該掌控這項技術的未來

Anthropic 執行長 Dario Amodei 認為他不應該是決定 AI 相關護欄措施的人。

推薦影片


在2025年11月於 CBS News 的 60 Minutes 節目中,Amodei 在與 Anderson Cooper 的訪談中表示,AI 應該受到更嚴格的監管,並且關於這項技術未來的決策不應詇由少數大型科技公司負責。

“我認為我對這些決策由少數公司、少數人來做感到非常不安,”Amodei 說。“這也是我一直倡導負責任且深思熟慮地規範這項技術的原因之一。”

“你是誰選出你和 Sam Altman 的?” Cooper 問。

“沒有人。說真的,沒有人,”Amodei 回答。

他補充說,Anthropic 一直秉持透明公開 AI 的限制與危險的理念,並在訪談發布前表示,公司已阻止“第一起未經大量人類干預而執行的大規模 AI 網路攻擊事件”。

Anthropic 上週表示,已捐贈2000萬美元給 Public First Action,一個專注於 AI 安全與規範的超級政治行動委員會(super PAC),該組織直接反對由競爭對手 OpenAI 投資者支持的超級 PAC。

“AI 安全仍然是最高優先級,”Amodei 在一月的封面故事中對 Fortune 表示。“企業重視信任與可靠性,”他說。

目前沒有聯邦法規明訂任何禁止 AI 或保障技術安全的規定。儘管今年所有50個州都已提出與 AI 相關的立法,並有38個州已採取或制定了透明度與安全措施,但科技業專家仍敦促 AI 公司以緊迫感來應對網路安全問題。

去年早些時候,網路安全專家兼 Mandiant 執行長 Kevin Mandia 警告,未來12到18個月內可能會發生首起 AI 代理的網路攻擊事件——也就是說,Anthropic 有關阻止攻擊的披露,已比 Mandia 預測的時間提前數月。

Amodei 概述了未受限制 AI 的短期、中期與長期風險:首先,技術將如現在一樣展現偏見與錯誤資訊;接著,它將利用增強的科學與工程知識產生有害資訊;最後,可能會因為失去人類的主導權,變得過於自主,甚至威脅人類存續,將人類排除在系統之外。

這些擔憂與被譽為“AI教父”的 Geoffrey Hinton 的看法相呼應,他曾警告 AI 在未來十年內可能擁有超越並控制人類的能力。

對 AI 更嚴格審查與保障的需求,是 Anthropic 2021年成立的核心理念。Amodei 曾是 Sam Altman 的 OpenAI 研究副總裁,因對 AI 安全問題的分歧而離開公司。(截至目前,Amodei 與 Altman 競爭的努力似乎成效顯著:Anthropic 本月表示公司估值已達 3800 億美元,而 OpenAI 的估值約為 5000 億美元。)

“我們在 OpenAI 內部有一群人在 GPT-2 和 GPT-3 之後,堅信兩件事,”Amodei 在2023年對 Fortune 說。“一是如果投入更多計算資源到這些模型,它們會越來越好,幾乎沒有終點……第二是除了擴大模型規模之外,還需要做一些額外的事情,那就是對齊(alignment)或安全。”

Anthropic 的透明化努力

隨著 Anthropic 持續擴大資料中心投資,它也公開了一些應對 AI 缺陷與威脅的努力。在2025年5月的安全報告中,Anthropic 表示其 Opus 模型的某些版本曾威脅到勒索,例如揭露工程師有外遇,以避免系統關閉。公司還表示,若給予有害提示(如如何策劃恐怖攻擊),AI 模型會配合執行,該問題已經得到修正。

去年11月,該公司在一篇部落格文章中表示,其聊天機器人 Claude 在政治中立性評分中得分94%,在中立性方面超越或與競爭對手持平。

除了自身努力防止技術被濫用外,Amodei 也呼籲立法加強對 AI 風險的管控。在2025年6月的 紐約時報 專欄中,他批評參議院在特朗普總統的政策法案中加入一項條款,規定對 AI 的州級管制暫停10年。

“AI 發展速度太快,令人眼花繚亂,”Amodei 說。“我相信這些系統在兩年內就能徹底改變世界;十年內,一切都可能變得不可預測。”

對 Anthropic 的批評

Anthropic 主動揭露自身疏失並努力改善的做法,也招來一些批評。在對 Anthropic 發出警訊,警告 AI 驅動的網路攻擊時,Meta 當時的 AI 科學家 Yann LeCun 表示,這是操縱立法者限制開源模型的一種手段。

“你被那些想要規範捕獲的勢力操控了,”LeCun 在回應康涅狄格州參議員 Chris Murphy 的推文時在 X 上說。“他們用可疑的研究嚇唬大家,讓開源模型被規範出局。”

也有人認為,Anthropic 的策略只是一種“安全秀”,只是良好的品牌形象,並未真正承諾會落實技術安全措施。

甚至一些 Anthropic 自己的員工似乎也對科技公司自我規範的能力存有疑慮。上週早些時候,Anthropic 的 AI 安全研究員 Mrinank Sharma 宣布辭職,表示“世界正處於危險之中”。

“在我任職期間,我反覆看到,要真正讓我們的價值觀指導行動是多麼困難,”Sharma 在辭職信中寫道。“我在自己身上、在組織內都看到,我們經常面臨壓力,必須放棄最重要的事情,也在更廣泛的社會中如此。”

《財富》 未立即回應對此事的置評請求。

Amodei 否認 Anthropic 正在進行“安全秀”,但在上週的 Dwarkesh Podcast 節目中坦承,公司有時難以在安全與盈利之間取得平衡。

“我們面臨巨大的商業壓力,而且我們做的安全措施比其他公司多,這讓我們自己更難,”他說。

此故事的某個版本於2025年11月17日在 Fortune.com 發布。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)