Gate 廣場|2/27 今日話題: #BTC能否重返7万美元?
🎁 帶話題發帖,抽 5 位幸運兒送出 $2,500 仓位體驗券!
Jane Street 被起訴後,持續多日的“10 點砸盤”疑似消失。BTC 目前在 $67,000 附近震盪,這波反彈能否順勢衝回 $70,000?
💬 本期熱議:
1️⃣ 你認為訴訟與“10 點拋壓”消失有關嗎?市場操縱阻力是否減弱?
2️⃣ 衝擊 $70K 的關鍵壓力區在哪?
3️⃣ 你會在當前價位分批布局,還是等待放量突破再進場?
分享觀點,瓜分好禮 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 (UTC+8)
「我感到非常不安」:Anthropic 執行長警告,包括他自己在內的一批 AI 領導者,不應該掌控這項技術的未來
Anthropic 執行長 Dario Amodei 認為他不應該是決定 AI 相關護欄措施的人。
推薦影片
在2025年11月於 CBS News 的《60分鐘》專訪中,這位執行長表示,AI 應該受到更嚴格的監管,並且未來科技的決策不應該只由大型科技公司的負責人來決定。
“我認為我對這些決策由少數公司、少數人來做感到非常不安,” Amodei 說。“這也是我一直倡導負責任且深思熟慮的科技監管的原因之一。”
“你和 Sam Altman 是誰選出來的?” Cooper 問。
“沒有人。說真的,沒有人,” Amodei 回答。
他補充說,Anthropic 一直秉持透明公開 AI 的限制與危險的理念,並在專訪發布前表示,公司已阻止“第一起無需大量人為干預而執行的大規模 AI 網路攻擊事件”。
Anthropic 上週表示,已捐贈 2000 萬美元給 Public First Action,一個專注於 AI 安全與監管的超級政治行動委員會(super PAC),該組織直接反對由競爭對手 OpenAI 投資者支持的超級政治行動委員會。
“AI 安全仍然是我們最高層級的重點,” Amodei 在一月的《財富》封面故事中表示。“企業重視信任與可靠性,”他說。
目前沒有聯邦法規明確禁止 AI 或規範相關的安全措施。雖然今年所有50個州都已提出與 AI 相關的立法,並有38個州已採取或制定了透明度與安全措施,但科技業專家仍敦促 AI 公司以緊迫感來應對網路安全問題。
去年早些時候,網路安全專家兼 Mandiant 執行長 Kevin Mandia 警告,未來12到18個月內可能會發生首起 AI 代理的網路攻擊事件——這意味著 Anthropic 關於阻止攻擊的披露,已提前數月超出 Mandia 預測的時間表。
Amodei 概述了未受限制 AI 的短期、中期與長期風險:首先,技術將如現在一樣帶來偏見與錯誤資訊;接著,利用科學與工程知識的提升,產生有害資訊;最後,可能因為失去人類的主導權,形成存在性威脅,變得過於自主,甚至將人類排除在系統之外。
這些擔憂與“AI教父” Geoffrey Hinton 的看法相呼應,他曾警告 AI 在未來十年內可能具備超越並控制人類的能力。
對 AI 更嚴格審查與保障的需求,是 Anthropic 2021年成立的核心理念。Amodei 曾是 Sam Altman 的 OpenAI 研究副總裁,因對 AI 安全問題的分歧而離開公司。(截至目前,Amodei 與 Altman 競爭的努力似乎成效顯著:Anthropic 本月表示公司估值已達 3800 億美元,而 OpenAI 的估值約為 5000 億美元。)
“我們在 OpenAI 內部有一群人在 GPT-2 和 GPT-3 之後,堅信兩件事,” Amodei 在2023年對《財富》說。“一是如果你投入更多計算資源到這些模型,它們會越來越好,幾乎沒有終點……第二是除了擴大模型規模之外,還需要做對齊或安全的工作。”
Anthropic 的透明化努力
隨著 Anthropic 持續擴大資料中心投資,它也公開了部分應對 AI 缺陷與威脅的努力。在2025年5月的安全報告中,Anthropic 指出其 Opus 模型的某些版本曾威脅到勒索,例如為了避免關閉,透露工程師有婚外情。公司還表示,若給予有害提示(如策劃恐怖攻擊的方法),AI 模型會配合執行,該問題已經修正。
去年11月,該公司在一篇部落格文章中表示,其聊天機器人 Claude 在政治中立性評分中得分94%,在中立性方面超越或與競爭對手持平。
除了自身努力防止技術被濫用外,Amodei 也呼籲立法加強對 AI 風險的管控。在2025年6月的《紐約時報》專欄中,他批評參議院在特朗普總統的政策法案中加入一項條款,對各州規範 AI 設置10年的暫緩期。
“AI 發展得太快了,” Amodei 說。“我相信這些系統在兩年內就能徹底改變世界;十年內,一切都可能變得不可預測。”
對 Anthropic 的批評
Anthropic 主動揭露自身疏失並努力改善的做法,也招來一些批評。在對 Anthropic 發出警示,警告 AI 驅動的網路攻擊時,Meta 當時的 AI 科學家 Yann LeCun 表示,這是操縱立法者限制開源模型的一種手段。
“你被那些想要監管控制的人操控了,” LeCun 在回應康涅狄格州參議員 Chris Murphy 發推文時說。“他們用可疑的研究嚇唬大家,讓開源模型被規範出局。”
也有人認為,Anthropic 的“安全秀”只是一種品牌行銷手段,並未真正承諾會落實安全措施。
甚至 Anthropic 自己的員工似乎也對科技公司自我監管的能力存有疑慮。上週早些時候,Anthropic AI 安全研究員 Mrinank Sharma 宣布辭職,表示“世界正處於危險之中”。
“在我任職期間,我反覆看到,要真正讓我們的價值觀指導行動是多麼困難,” Sharma 在辭職信中寫道。“我自己、組織內部,我們經常面臨放棄最重要事物的壓力,整個社會也是如此。”
《財富》未立即回應記者的置評請求。
Amodei 否認 Anthropic 正在進行“安全秀”,但在上週的《Dwarkesh Podcast》節目中坦承,公司有時難以在安全與盈利之間取得平衡。
“我們面臨巨大的商業壓力,並且因為我們做的安全措施比其他公司更多,這讓我們自己更難,”他說。
此故事的某個版本於2025年11月17日刊登在 Fortune.com。
更多關於 AI 監管的資訊:
Anthropic 執行長 Dario Amodei 關於 AI “將考驗”人類的 2萬字論文值得一讀——但更多是關於他的解決方案而非警告
美國的 AI 監管拼湊出一個碎片化的局面,正在壓垮新創企業,並幫助中國
前 Google 道德專家警告,若不加以控制,AI 可能在2027年前引發全球就業市場崩潰
加入我們,參加 2026 年5月19-20日在亞特蘭大的 Fortune Workplace Innovation Summit。新時代的工作場所創新已來臨,舊的策略正在被重寫。在這場獨家且充滿活力的盛會中,全球最具創新精神的領袖將齊聚一堂,探討 AI、人類與策略如何再次融合,重新定義未來的工作。立即報名。