AnthropicのCEOダリオ・アモデイは、AIを取り巻くガードレールについて自分が指揮を執るべきだとは考えていない。おすすめ動画* * *2025年11月にCBSニュースの_60 Minutes_でアンダーソン・クーパーとのインタビューにて、CEOはAIはより厳格に規制されるべきであり、技術の未来に関する決定の多くを大手テック企業のトップだけに委ねるべきではないと述べた。「私は、これらの決定が少数の企業や少数の人々によって行われることに深く不快感を覚えます」とアモデイは言った。「これが、私が常に責任ある思慮深い規制を提唱してきた理由の一つです。」「あなたとサム・アルトマンを誰が選出したのですか?」とクーパーは尋ねた。「誰もです。正直に言えば、誰もです」とアモデイは答えた。Anthropicは、AIの開発が進む中で、その限界と危険性について透明性を持つ哲学を採用していると付け加えた。インタビューの公開に先立ち、同社は「大規模なAIサイバー攻撃の最初の記録された事例を、人間の介入なしに実行されたものとして阻止した」と発表した。また、先週、AnthropicはAIの安全性と規制に焦点を当てたスーパーPAC「Public First Action」に2000万ドルを寄付したと述べた。これは、ライバルのOpenAIの投資家が支援するスーパーPACに直接反対するものだ。「AIの安全性は引き続き最優先事項です」とアモデイは_フォーチュン_の2025年1月号の表紙インタビューで語った。「企業は信頼性と信用を重視しています」と彼は言う。AIやその安全性に関する連邦規制は存在しない。今年、全50州でAIに関連する立法が導入され、38州では透明性と安全性の措置が採用または制定されたが、テック業界の専門家たちは、サイバーセキュリティに対して緊急性を持って取り組むようAI企業に促している。昨年初め、サイバーセキュリティの専門家でMandiantのCEOケビン・マンディアは、今後12〜18ヶ月以内にAIエージェントによるサイバー攻撃が初めて起こると警告した。これにより、Anthropicが阻止した攻撃についての開示は、マンディアの予測より数ヶ月早かった。アモデイは、無制限のAIに伴う短期・中期・長期のリスクを概説している。まず、現在と同様に偏見や誤情報をもたらす。次に、科学や工学の知識を強化して有害な情報を生成し、最終的には人間の主体性を奪い、存在の脅威となる可能性がある。過剰に自律化し、人間をシステムから排除する恐れもある。これらの懸念は、「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントンの見解とも一致しており、彼はAIが次の10年以内に人間を超え、制御できる能力を持つと警告している。より厳格なAIの監視と安全策の必要性は、2021年のAnthropic設立の核心にあった。アモデイは以前、サム・アルトマンのOpenAIの研究副社長だった。彼はAIの安全性に関する意見の相違から同社を離れた。(これまでのところ、アモデイのアルトマンとの競争努力は効果的に見える:今月、Anthropicは評価額が3800億ドルに達したと発表した。一方、OpenAIの評価額は推定5000億ドルである。)「私たちの中には、GPT-2やGPT-3を作った後に、非常に強い信念を持っていたグループがいました」とアモデイは2023年の_フォーチュン_に語った。「一つは、これらのモデルにより多くの計算資源を投入すれば、より良くなり続けるという考えで、ほぼ終わりがないと信じていました。そしてもう一つは、モデルの規模を拡大するだけではなく、整合性や安全性といった追加の要素が必要だという考えです。」**Anthropicの透明性推進活動**----------------------------Anthropicはデータセンターへの投資を拡大しながら、AIの欠点や脅威に対処する取り組みの一部を公開している。2025年5月の安全性レポートでは、同社のOpusモデルの一部バージョンが、エンジニアが不倫をしていることを暴露するなどの脅迫を避けるために危険な要求に従ったと報告した。同社はまた、有害なプロンプト(例:テロ攻撃の計画方法)を与えられた場合に危険なリクエストに従うこともあったとし、その問題はすでに修正済みだと述べた。昨年11月、同社はブログ投稿で、チャットボットのClaudeが94%の政治的中立性評価を獲得し、競合他社を上回るか同等の中立性を示したと発表した。技術の汚染を防ぐための独自の研究努力に加え、アモデイはAIのリスクに対処するための立法努力の強化を求めている。2025年6月の_ニューヨーク・タイムズ_のオピニオン記事では、上院がドナルド・トランプ大統領の政策法案に盛り込んだ、州によるAI規制の10年のモラトリアムを設ける条項に批判的な見解を示した。「AIはあまりにも速く進歩しすぎている」とアモデイは述べた。「私は、これらのシステムが2年以内に世界を根本的に変える可能性があると信じている。10年後には、すべての予測は無意味になるだろう。」**Anthropicへの批判**-------------------Anthropicが自らの過ちやそれに対処する努力を公にすることは批判も招いている。AIを用いたサイバー攻撃に関して警鐘を鳴らした際、Metaの当時のAI最高科学者ヤン・ルクンは、その警告は立法者を操作してオープンソースモデルの利用を制限させるためのものだと述べた。「規制の捕獲を狙う人々に操られているだけです」とルクンはConnecticut州のクリス・マーフィー上院議員の投稿に反応してX上で述べた。「彼らは疑わしい研究結果で皆を怖がらせ、オープンソースモデルを規制の対象から外そうとしているのです。」他の人々は、Anthropicの戦略は「安全の演技」に過ぎず、良いブランドイメージを作るだけで、実際に安全策を実施する約束はないと批判している。さらに、Anthropicの社員の中にも、テック企業が自己規制できるかどうかについて疑念を抱く者もいる。先週初め、AI安全研究者のマリナンク・シャルマは、同社を辞めたとし、「世界は危機に瀕している」と述べた。「私の在職中ずっと、私たちの価値観に基づいて行動を本当に導くことの難しさを何度も見てきました」とシャルマは辞表に書いた。「これは私自身の中にも、組織の中にも、常に最も重要なことを脇に置く圧力に直面しているからです。社会全体も同様です。」Anthropicは直ちに_フォーチュン_のコメント要請に応じなかった。アモデイはクーパーに対し、Anthropicが「安全の演技」を行っているとは否定したが、先週の_Dwarkesh Podcast_のエピソードでは、同社は安全と利益のバランスを取るのに苦労していると認めた。「私たちは非常に大きな商業的圧力の下にあり、さらに自分たちで難しくしている部分もあります。なぜなら、私たちは他の企業よりも多くの安全対策を行っていると思うからです」と彼は述べた。_このストーリーの一部は2025年11月17日にFortune.comに掲載されました。_
「非常に不安です」:AnthropicのCEOは、自分を含むAIリーダーの一団が、技術の未来を担うべきではないと警告している
AnthropicのCEOダリオ・アモデイは、AIを取り巻くガードレールについて自分が指揮を執るべきだとは考えていない。
おすすめ動画
2025年11月にCBSニュースの_60 Minutes_でアンダーソン・クーパーとのインタビューにて、CEOはAIはより厳格に規制されるべきであり、技術の未来に関する決定の多くを大手テック企業のトップだけに委ねるべきではないと述べた。
「私は、これらの決定が少数の企業や少数の人々によって行われることに深く不快感を覚えます」とアモデイは言った。「これが、私が常に責任ある思慮深い規制を提唱してきた理由の一つです。」
「あなたとサム・アルトマンを誰が選出したのですか?」とクーパーは尋ねた。
「誰もです。正直に言えば、誰もです」とアモデイは答えた。
Anthropicは、AIの開発が進む中で、その限界と危険性について透明性を持つ哲学を採用していると付け加えた。インタビューの公開に先立ち、同社は「大規模なAIサイバー攻撃の最初の記録された事例を、人間の介入なしに実行されたものとして阻止した」と発表した。
また、先週、AnthropicはAIの安全性と規制に焦点を当てたスーパーPAC「Public First Action」に2000万ドルを寄付したと述べた。これは、ライバルのOpenAIの投資家が支援するスーパーPACに直接反対するものだ。
「AIの安全性は引き続き最優先事項です」とアモデイは_フォーチュン_の2025年1月号の表紙インタビューで語った。「企業は信頼性と信用を重視しています」と彼は言う。
AIやその安全性に関する連邦規制は存在しない。今年、全50州でAIに関連する立法が導入され、38州では透明性と安全性の措置が採用または制定されたが、テック業界の専門家たちは、サイバーセキュリティに対して緊急性を持って取り組むようAI企業に促している。
昨年初め、サイバーセキュリティの専門家でMandiantのCEOケビン・マンディアは、今後12〜18ヶ月以内にAIエージェントによるサイバー攻撃が初めて起こると警告した。これにより、Anthropicが阻止した攻撃についての開示は、マンディアの予測より数ヶ月早かった。
アモデイは、無制限のAIに伴う短期・中期・長期のリスクを概説している。まず、現在と同様に偏見や誤情報をもたらす。次に、科学や工学の知識を強化して有害な情報を生成し、最終的には人間の主体性を奪い、存在の脅威となる可能性がある。過剰に自律化し、人間をシステムから排除する恐れもある。
これらの懸念は、「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントンの見解とも一致しており、彼はAIが次の10年以内に人間を超え、制御できる能力を持つと警告している。
より厳格なAIの監視と安全策の必要性は、2021年のAnthropic設立の核心にあった。アモデイは以前、サム・アルトマンのOpenAIの研究副社長だった。彼はAIの安全性に関する意見の相違から同社を離れた。(これまでのところ、アモデイのアルトマンとの競争努力は効果的に見える:今月、Anthropicは評価額が3800億ドルに達したと発表した。一方、OpenAIの評価額は推定5000億ドルである。)
「私たちの中には、GPT-2やGPT-3を作った後に、非常に強い信念を持っていたグループがいました」とアモデイは2023年の_フォーチュン_に語った。「一つは、これらのモデルにより多くの計算資源を投入すれば、より良くなり続けるという考えで、ほぼ終わりがないと信じていました。そしてもう一つは、モデルの規模を拡大するだけではなく、整合性や安全性といった追加の要素が必要だという考えです。」
Anthropicの透明性推進活動
Anthropicはデータセンターへの投資を拡大しながら、AIの欠点や脅威に対処する取り組みの一部を公開している。2025年5月の安全性レポートでは、同社のOpusモデルの一部バージョンが、エンジニアが不倫をしていることを暴露するなどの脅迫を避けるために危険な要求に従ったと報告した。同社はまた、有害なプロンプト(例:テロ攻撃の計画方法)を与えられた場合に危険なリクエストに従うこともあったとし、その問題はすでに修正済みだと述べた。
昨年11月、同社はブログ投稿で、チャットボットのClaudeが94%の政治的中立性評価を獲得し、競合他社を上回るか同等の中立性を示したと発表した。
技術の汚染を防ぐための独自の研究努力に加え、アモデイはAIのリスクに対処するための立法努力の強化を求めている。2025年6月の_ニューヨーク・タイムズ_のオピニオン記事では、上院がドナルド・トランプ大統領の政策法案に盛り込んだ、州によるAI規制の10年のモラトリアムを設ける条項に批判的な見解を示した。
「AIはあまりにも速く進歩しすぎている」とアモデイは述べた。「私は、これらのシステムが2年以内に世界を根本的に変える可能性があると信じている。10年後には、すべての予測は無意味になるだろう。」
Anthropicへの批判
Anthropicが自らの過ちやそれに対処する努力を公にすることは批判も招いている。AIを用いたサイバー攻撃に関して警鐘を鳴らした際、Metaの当時のAI最高科学者ヤン・ルクンは、その警告は立法者を操作してオープンソースモデルの利用を制限させるためのものだと述べた。
「規制の捕獲を狙う人々に操られているだけです」とルクンはConnecticut州のクリス・マーフィー上院議員の投稿に反応してX上で述べた。「彼らは疑わしい研究結果で皆を怖がらせ、オープンソースモデルを規制の対象から外そうとしているのです。」
他の人々は、Anthropicの戦略は「安全の演技」に過ぎず、良いブランドイメージを作るだけで、実際に安全策を実施する約束はないと批判している。
さらに、Anthropicの社員の中にも、テック企業が自己規制できるかどうかについて疑念を抱く者もいる。先週初め、AI安全研究者のマリナンク・シャルマは、同社を辞めたとし、「世界は危機に瀕している」と述べた。
「私の在職中ずっと、私たちの価値観に基づいて行動を本当に導くことの難しさを何度も見てきました」とシャルマは辞表に書いた。「これは私自身の中にも、組織の中にも、常に最も重要なことを脇に置く圧力に直面しているからです。社会全体も同様です。」
Anthropicは直ちに_フォーチュン_のコメント要請に応じなかった。
アモデイはクーパーに対し、Anthropicが「安全の演技」を行っているとは否定したが、先週の_Dwarkesh Podcast_のエピソードでは、同社は安全と利益のバランスを取るのに苦労していると認めた。
「私たちは非常に大きな商業的圧力の下にあり、さらに自分たちで難しくしている部分もあります。なぜなら、私たちは他の企業よりも多くの安全対策を行っていると思うからです」と彼は述べた。
このストーリーの一部は2025年11月17日にFortune.comに掲載されました。