OpenAI 的「撒谎門」背後:一場制度性失敗的經典範本

撰文:Web 4 研究中心

最大的哲學問題不是"能否信任某人",而是"如何設計一個讓信任變得多餘的制度"。否則,我們就是在用 19 世紀的治理架構,應對一場 21 世紀最強大的權力遊戲。

01 一份震動矽谷的調查報導

2026 年 4 月 6 日,《紐約客》發表了一篇歷時 18 個月完成的深度調查報導,揭露了 OpenAI 內部一段至今仍讓許多知情人士心有餘悸的往事。

這份報導的核心素材,是 OpenAI 前首席科學家 Ilya Sutskever 在 2023 年秋天彙編的一份長達七十頁的內部備忘錄,以及 Anthropic 聯合創始人 Dario Amodei 保留的超過兩百頁私人筆記。報導刊出後,所有證據指向同一個結論:OpenAI 的掌舵者 Sam Altman,存在"一貫撒謊"的行為模式。

這不是一條普通的科技八卦。這是關於人類歷史上最強大的技術公司之一,其最高管理者是否值得被信任的系統性質疑。

02 這不是 Altman 一個人的問題

如果你只從這個角度理解這件事,那你就錯過了真正重要的問題。

主流媒體在追問:Altman 值得被信任嗎?

但真正值得問的問題是:當一項足以改變人類文明的技術,被託付給一套"靠自覺"的制度設計時,危機不是意外,而是必然。

我們給這種現象起了個名字:AI 治理的結構性失靈。

這不是 Altman 一個人的問題。這是整個 AI 行業的通病。

信任,是 AI 領域出現頻率最高的詞彙之一。幾乎每一家 AI 公司都會告訴你:信任我們,我們以安全為先,信任我們的技術會造福人類。但《紐約客》的調查揭示了一個殘酷的事實:OpenAI 從未建立任何讓信任變得多餘的制度結構。

這個機構的核心決策,由一個人做出,或至多由幾個人做出。沒有外部制衡。沒有強制性的透明機制。承諾是工具,不是約束。

加缪在《西西弗斯神話》中寫道:“判斷人生是否值得活下去,等價於回答哲學的根本問題。” 同樣的邏輯適用於 AI 領域:當技術足以改變文明,而制度約束如此脆弱時,我們如何建立一套不需要依賴個人誠信的系統?

03 被背叛的承諾清單

《紐約客》的調查報導,列出了一份完整的"承諾背叛清單"。

第一項是 2019 年的微軟談判。當時 OpenAI 正從非營利組織轉型為"有上限利潤"實體,Anthropic 聯合創始人 Dario Amodei 在談判中提出了核心安全條款"合併與協助"——即若有其他公司在安全性上更接近 AGI,OpenAI 需停止競爭並並入對方。這是他參與談判的底線。合同簽署後,Amodei 發現微軟擁有該合併的否決權,條款形同虛設。當他向 Altman 當面核實時,Altman 起初否認該條款存在,直到 Amodei 請同事當場佐證,Altman 才承認,並辯稱"不記得"。Amodei 在私人筆記中寫道:“憲章的 80% 被背叛了。”

第二項是 2023 年的算力承諾。OpenAI 曾高調宣布成立"超級對齊團隊",承諾將公司 20%的算力投入其中。但內部人士透露,該團隊實際拿到的算力只有 1%到 2%,而且用的是最老舊、最差的芯片。當負責人 Jan Leike 抗議時,高管的回覆冷酷無情:“這個承諾從來就不現實。” 注意這裡的選擇性記憶:承諾做 20%,實際給 1%-2%,然後宣稱"承諾不現實"。不是執行偏差,是系統性遺忘。

這不是誠信問題。這是制度失效的必然表現。當權力集中在一個人手中,而這個人對承諾的約束力有著本能的弱化傾向時,承諾一定會系統性地被遺忘、被重新定義、被合理化。這不是 Altman 一個人的缺陷,這是任何中心化權力結構的共同特徵。

04 為何吹哨人總是失敗

Ilya Sutskever 在提交給董事會的備忘錄中寫過一段話,大意是:任何致力於構建可能改變文明的技術的人,將承擔前所未有的責任,但最終處於這些位置的人,往往是對權力感興趣的人。

這裡有一個深刻的悖論:最需要被約束的人,往往是那些最渴望獲得權力的人。而現有的制度設計,對這個悖論毫無防備。

當 Ilya 決定從內部發出警告時,他沒有向外部監管機構舉報,因為 AI 行業幾乎沒有外部監管;他也沒有組織員工集體行動,因為他是個科學家,不是活動家。他的全部籌碼,是一份文件,以及董事會中可能存在的是非之心。

結果我們都知道了:2023 年 11 月,董事會的確開除了 Altman,但五天之後,在資本、輿論和員工利益的三重壓力下,董事會徹底瓦解,Altman 王者歸來,而試圖吹哨的 Ilya 被踢出權力核心。

這不只是一個"Altman 太強大"的故事。這是關於制度設計的故事:在一個權力高度集中的組織內部,吹哨機制的失效是結構性的,不是偶然的。理由很簡單——吹哨人的籌碼,是與雇主共謀的聲譽和職業前景。一旦組織選擇否認、拖延和邊緣化,個人幾乎無法抵抗。中心化結構的本質,就是讓外部聲音難以進入、內部聲音難以放大的系統。

同樣的故事,也發生在 Dario Amodei 身上。當他發現無法從內部改變 OpenAI 的安全文化時,他選擇了另一條路:離開,創辦 Anthropic,用自己的機構實踐自己的價值觀。這是一種光榮的撤退,但不是系統的勝利——因為這依賴於創始人的個人信念,而不依賴於任何制度保障。

AI 治理的核心問題,不是"如何培養更多有良知的 AI 領袖",而是"如何設計一套即使領袖缺乏良知也能正常運轉的制度"。

05 區塊鏈不是萬靈藥,但缺失的那塊拼圖

我在這裡提出一個也許會讓區塊鏈圈外讀者感到意外的判斷:區塊鏈的核心價值,不是發幣,不是 Web 3 投機,而是一種治理技術的範式創新——信任外部化。

信任外部化是什麼意思?傳統制度依賴的是"信任某個機構或某個人"。區塊鏈的解決思路完全不同:把信任從人轉移到規則和程式上。不依賴可信的第三方,而是依賴透明的規則和可驗證的證明。

AI 治理的缺陷,恰恰在於它完全缺乏這種外部化的信任機制。OpenAI 的承諾,由 OpenAI 自己來評判執行情況。這不是監管,這是自我評分。外部世界無法獨立驗證他們是否真的把 20%的算力用在了安全研究上,無法獨立核實他們的模型發布流程是否真的經過了安全委員會的審批。透明度是一種可選項,而不是一種結構性要求。

區塊鏈提供了一種可能的解決路徑。不是說把 AI 模型上鏈就能解決問題——技術解決不了制度問題,而是說,透明和可驗證的記錄機制,可以讓 AI 系統的行為更加透明、可審計。例如,一個基於區塊鏈的 AI 決策日誌,可以讓每一次關鍵模型更新、每一次算力分配決策,都被記錄在鏈上且不可篡改。這不會讓 AI 系統變得完美,但至少讓"系統性遺忘承諾"變得更難。

當然,這只是一個方向,不是靈藥。技術本身不能取代治理。但在這個 AI 治理幾乎一片空白的時代,任何能讓權力更透明、制衡更結構化的方案,都值得被認真討論。

06 一個更深的拷問

OpenAI 危機的真正教訓,不在於 Altman 是個怎樣的人。

而在於:當一項可能決定人類文明走向的技術,落入了一個"靠自覺"的制度框架中時,風險不是來自技術的失控,而是來自制度的失靈。

人類歷史上,每一次重大技術革命,都伴隨著治理模式的迭代。核能帶來了國際原子能機構和核不擴散體系。互聯網帶來了數據保護和網絡安全法規。每一項足以改變權力結構的技術,都迫使人類建立新的制度框架來管理它。

AGI,是第一項人類尚未為其建立有效治理框架就可能改變文明的技術。這個框架不能依賴於任何一個創始人的個人品德,不能依賴於任何一家公司自我承諾。它必須是一套結構性的、制衡性的、不依賴於任何人自覺性的制度體系。

而我們目前還沒有。

關於 Ilya Sutskever 的那份七十頁備忘錄,《紐約客》的調查報導還原了其中的核心內容:Ilya 向董事會明確表達了他的判斷——他認為 Altman 不應該成為掌握 AGI 按鈕的人。

這份文件,構成了 2023 年那場震驚全球的 OpenAI"宮鬥事件"的導火索。董事會的確據此做出了開除決定。但隨後的五天裡,整個行業的權力結構做出了它的選擇。

這不是一個關於好人戰勝壞人、或者壞人戰勝好人的故事。這是關於制度的故事。在一個好的制度下,Altman 的某些行為會受到制約;在一個失靈的制度下,即使是最善意的吹哨人,也會被權力反噬。

人類正在進入一個 AGI 可能改變文明的時代。而我們用以管理這個時代的制度,還停留在 19 世紀。

這不是任何一個人的失敗。這是一套制度設計的經典失敗案例。

而真正的教訓不是"不要相信 Altman"——而是要建立一套讓任何人都可以被質疑、都被制衡、都無法脫離透明約束的制度。

信任是必要的。但在 AI 時代,信任遠遠不夠。我們需要的,是讓信任變得多餘的那套制度。

(本文綜合自《紐約客》2026 年 4 月 6 日調查報導、OpenAI 官方聲明及公開資料整理。數據截至 2026 年 4 月。)

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言