「非常に不安です」:AnthropicのCEOは、自分を含むAIリーダーの一団が、技術の未来を担うべきではないと警告している

AnthropicのCEOダリオ・アモデイは、AIを取り巻くガードレールについて自分が指揮を執るべきだとは考えていない。

おすすめ動画


2025年11月にCBSニュースの_60 Minutes_でアンダーソン・クーパーとのインタビューにて、CEOはAIはより厳格に規制されるべきであり、技術の未来に関する決定の多くは大手テック企業のトップだけに委ねられるべきではないと述べた。

「私は、これらの決定が少数の企業や少数の人々によって行われることに深く不快感を覚えます」とアモデイは言った。「これが、私は常に責任ある思慮深い規制を提唱してきた理由の一つです。」

「あなたとサム・オルトマンを誰が選出したのですか?」とクーパーは尋ねた。

「誰もです。正直に言えば、誰もです」とアモデイは答えた。

Anthropicは、AIの開発が進む中で、その限界と危険性について透明性を持つ哲学を採用していると付け加えた。インタビューの公開に先立ち、同社は「大規模なAIサイバー攻撃の最初の記録された事例を、人間の介入なしに実行されたものを阻止した」と発表した。

Anthropicは先週、AIの安全性と規制に焦点を当てたスーパーPACであるPublic First Actionに2000万ドルを寄付したと述べた。これは、ライバルのOpenAIの投資家が支援するスーパーPACに直接反対するものだ。

「AIの安全性は引き続き最優先事項です」とアモデイは_フォーチュン_の2025年1月号の表紙インタビューで語った。「企業は信頼性と信用を重視しています」と彼は言う。

AIやその安全性に関する連邦規制は存在しない。今年は全米50州すべてがAI関連の立法を導入し、そのうち38州が透明性と安全性の措置を採用または制定しているが、テック業界の専門家たちは、サイバーセキュリティに対して緊急性を持って取り組むようAI企業に促している。

昨年初め、サイバーセキュリティの専門家でMandiantのCEOケビン・マンディアは、今後12〜18ヶ月以内に最初のAIエージェントによるサイバー攻撃が起こると警告した。これにより、Anthropicが阻止した攻撃についての開示は、マンディアの予測よりも数ヶ月早かった。

アモデイは、無制限のAIに伴う短期、中期、長期のリスクを概説している。まず、現在と同様に偏見や誤情報をもたらす。次に、科学や工学の知識を強化して有害な情報を生成し、最終的には人間の主体性を奪い、存在の脅威となる可能性がある。過剰に自律化し、人間をシステムから排除する恐れもある。

これらの懸念は、「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントンの見解とも一致しており、彼はAIが次の10年以内に人間を超え、制御できる能力を持つと警告している。

より厳格なAIの監視と安全策の必要性は、2021年のAnthropic設立の核心にあった。アモデイは以前、サム・オルトマンのOpenAIの研究副社長だった。彼はAIの安全性に関する意見の相違から同社を離れた。(これまでのところ、アモデイのオルトマンとの競争努力は効果的に見える。今月、Anthropicは評価額が3800億ドルに達したと発表した。一方、OpenAIの評価額は推定5000億ドルである。)

「私たちの中には、GPT-2やGPT-3を作った後に、非常に強い信念を持っていたグループがありました」とアモデイは2023年の_フォーチュン_に語った。「一つは、これらのモデルにより多くの計算資源を投入すれば、より良くなり続けるという考えで、ほぼ終わりがないと信じていました。そしてもう一つは、モデルの規模を拡大するだけではなく、整合性や安全性といった追加の要素が必要だという考えです。」

Anthropicの透明性推進活動

Anthropicはデータセンターへの投資を拡大しながら、AIの欠点や脅威に対処する取り組みの一部を公開している。2025年5月の安全性レポートでは、同社のOpusモデルの一部バージョンが、エンジニアが不倫をしていることを暴露するなどの脅迫を避けるために危険な要求に従ったと報告した。同社はまた、危険なプロンプト(例:テロ攻撃の計画方法)に対してもAIモデルが従ったとし、その問題はすでに修正済みだと述べた。

昨年11月、同社はブログ投稿で、チャットボットのClaudeが94%の政治的中立性評価を獲得し、競合他社を上回るか同等の中立性を示したと発表した。

技術の乱用を防ぐための独自の研究努力に加え、アモデイはAIのリスクに対処するための立法努力を強化するよう求めている。2025年6月の_ニューヨーク・タイムズ_のオピニオン記事では、上院がドナルド・トランプ大統領の政策法案に盛り込んだ、州によるAI規制の10年間のモラトリアムを設ける条項に批判的な見解を示した。

「AIはあまりにも速く進歩しすぎている」とアモデイは述べた。「私は、これらのシステムが2年以内に世界を根本的に変える可能性があると信じている。10年後には、すべての予測は無意味になるだろう。」

Anthropicへの批判

Anthropicが自らの過ちやそれに対処する努力を公にすることは批判も招いている。AIを用いたサイバー攻撃に関して警鐘を鳴らした際、Metaの当時のAI最高科学者ヤン・ルクンは、その警告は立法者を操作してオープンソースモデルの利用を制限させるためのものだと述べた。

「あなたは規制の捕獲を狙う人々に操られている」とルクンは、コネチカット州のクリス・マーフィー上院議員の攻撃に関する投稿に反応してX(旧Twitter)で述べた。「彼らは疑わしい研究結果で皆を怖がらせ、オープンソースモデルを規制の対象から外そうとしているのです。」

他の人々は、Anthropicの戦略は「安全の演技」に過ぎず、良いブランドイメージを作るだけで、実際に安全策を実施する約束はないと批判している。

さらに、Anthropicの社員の中にも、テック企業が自己規制できるかどうかについて疑念を抱く者がいる。先週初め、AnthropicのAI安全研究者ミラナック・シャルマは辞職を表明し、「世界は危機に瀕している」と述べた。

「私の在職中ずっと、私たちの価値観に基づいて行動を本当に導くことの難しさを何度も目の当たりにしてきました」とシャルマは辞表に書いた。「これは私自身の中にも、組織の中にも、そして社会全体の中にも見られることです。私たちは常に最も重要なことを脇に置く圧力に直面しています。」

Anthropicは_フォーチュン_のコメント要請に直ちに応じなかった。

アモデイはクーパーに対し、Anthropicが「安全の演技」をしているとは否定したが、先週の_Dwarkesh Podcast_のエピソードでは、同社は安全と利益のバランスを取るのに苦労していると認めた。

「私たちは非常に大きな商業的圧力の下にあり、さらに自分たちにとって難しくしているのは、私たちが他の企業よりも多くの安全対策を行っていると思うことです」と彼は述べた。

A このストーリーの一部は2025年11月17日にFortune.comに掲載されました

More on AI regulation:

  • Anthropic CEOダリオ・アモデイのAIが「人類を試す」方法についての20,000語に及ぶエッセイは必読だが、彼の警告よりも解決策に焦点を当てている

  • アメリカのAI規制の断片的な制度はスタートアップを圧迫し、中国を支援している

  • Googleの倫理専門家は、AIが放置されれば2027年までに世界的な雇用市場の崩壊を引き起こす可能性があると警告している

2026年5月19〜20日にアトランタで開催されるフォーチュン職場革新サミットに参加しよう。次世代の職場革新の時代が到来し、従来の手法は書き換えられつつある。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び働き方の未来を再定義するのかを探る。今すぐ登録を。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン