人工知能を支配しようとする世界的な競争は白熱しているが、世界有数のコンピューター科学者の一人は、ビッグテックが人類の未来を無謀に賭けていると警告している。おすすめ動画* * *AIにおいて最も声高に叫ばれる意見は二つに分かれることが多い:技術を世界を変えるものと称賛する者と、その暴走を防ぐために自制や封じ込めを求める者だ。カリフォルニア大学バークレー校の先駆的なAI研究者、スチュアート・ラッセルは後者の立場に堅く属している。彼の主な懸念の一つは、政府や規制当局が技術の急速な展開に追いつけず、民間セクターが最終的に冷戦時代以来見られなかったような危険な競争に陥るリスクを孕んでいることだ。「政府が民間企業に対して、地球上のすべての人間とロシアンルーレットをさせることを許すのは、私の見解では完全な義務怠慢です」と、ラッセルはニューデリーで開催されたAIインパクトサミットでAFPに語った。技術企業のCEOたちは次世代の最良のAIモデルを開発するための「軍拡競争」に巻き込まれているが、その目的は最終的に医療研究や生産性の大きな進歩をもたらすと業界は主張している一方、多くはリスクを無視したり軽視したりしているとラッセルは指摘する。最悪のシナリオでは、規制のないまま革新の速度が加速しすぎることで、人類の絶滅に至る可能性もあると彼は考えている。ラッセルはAIの急速な展開に潜む存在の危険性について熟知している。英国生まれのコンピューター科学者で、40年以上にわたりAIを研究し、1995年にはこの分野で最も権威のある教科書の一つを出版している。2016年にはバークレーにAIの安全性に焦点を当てた研究センターを設立し、「証明可能に有益な」AIシステムを人類のために推進している。ニューデリーで、ラッセルは企業や政府がその目標からいかに遠く離れているかについて言及した。彼の批評は、最終的に創造者を凌駕するシステムの急速な開発に焦点を当てており、その過程で人類文明が「巻き添え損害」となる可能性を指摘している。主要なAI企業のトップたちはこれらの存在的危険性を認識しているが、市場の力によって自らを縛ることはできずにいる。「主要なAI企業のCEOたちは皆、武装解除を望んでいると思うが」とラッセルは語るが、「一方的に」それを行うことはできない。なぜなら、その立場は競合他社に奪われ、投資家から即座に追放される危険があるからだ。**新冷戦**--------------------存在の危険性や人類の絶滅の可能性についての議論は、かつては冷戦時代の核兵器の暴走の脅威に限定されていた。大国が武器を蓄積し、ライバルがそれを超えることを恐れたためだ。しかし、スチュアート・ラッセルのような懐疑論者は、次第にその枠組みを人工知能の時代に適用し始めている。米中間の競争はしばしばAIの「軍拡競争」と表現され、秘密主義や緊迫感、そして20世紀後半のワシントンとモスクワの核対立を特徴づけた高いリスクとともに語られる。ロシアのプーチン大統領は、ほぼ10年前にその巨大なリスクを端的に表現した。「この分野でリーダーシップを握る者が世界の支配者になる」と2017年の演説で述べた。現在の軍拡競争は兵器の数で測れるものではないが、その規模は膨大な資本投入に表れている。各国や企業は、AIの訓練と運用のために数百億ドルを投じている。米国だけでも、今年のAIに対する資本支出は6000億ドルを超えると予測されている。しかし、ラッセルは、積極的な企業の行動に対して規制による自制が追いついていないと指摘する。「各国政府がこの問題を理解していることが非常に重要です。だからこそ私はここにいるのです」と、彼はインドのサミットについて述べた。中国やEUは、技術の規制に対してより厳しい姿勢を取っている。一方、他の地域では規制は比較的緩やかだ。インド政府は主に規制緩和の方針を採用している。米国では、トランプ政権がAIに対して市場原理主義を推進し、多くの州レベルの規制を撤廃し、企業に自由な裁量を与えようとしている。**私たちとともにフォーチュン職場革新サミットに参加しませんか** 2026年5月19日〜20日、アトランタで開催される。次なる職場革新の時代が到来し、従来のやり方は書き換えられている。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び未来の働き方を再定義するのかを探る。今すぐ登録しよう。
AIの軍拡競争で「ロシアンルーレット」をしているビッグテック幹部は、人類絶滅の危険を伴う可能性があると、トップ研究者が警告
人工知能を支配しようとする世界的な競争は白熱しているが、世界有数のコンピューター科学者の一人は、ビッグテックが人類の未来を無謀に賭けていると警告している。
おすすめ動画
AIにおいて最も声高に叫ばれる意見は二つに分かれることが多い:技術を世界を変えるものと称賛する者と、その暴走を防ぐために自制や封じ込めを求める者だ。カリフォルニア大学バークレー校の先駆的なAI研究者、スチュアート・ラッセルは後者の立場に堅く属している。彼の主な懸念の一つは、政府や規制当局が技術の急速な展開に追いつけず、民間セクターが最終的に冷戦時代以来見られなかったような危険な競争に陥るリスクを孕んでいることだ。
「政府が民間企業に対して、地球上のすべての人間とロシアンルーレットをさせることを許すのは、私の見解では完全な義務怠慢です」と、ラッセルはニューデリーで開催されたAIインパクトサミットでAFPに語った。
技術企業のCEOたちは次世代の最良のAIモデルを開発するための「軍拡競争」に巻き込まれているが、その目的は最終的に医療研究や生産性の大きな進歩をもたらすと業界は主張している一方、多くはリスクを無視したり軽視したりしているとラッセルは指摘する。最悪のシナリオでは、規制のないまま革新の速度が加速しすぎることで、人類の絶滅に至る可能性もあると彼は考えている。
ラッセルはAIの急速な展開に潜む存在の危険性について熟知している。英国生まれのコンピューター科学者で、40年以上にわたりAIを研究し、1995年にはこの分野で最も権威のある教科書の一つを出版している。2016年にはバークレーにAIの安全性に焦点を当てた研究センターを設立し、「証明可能に有益な」AIシステムを人類のために推進している。
ニューデリーで、ラッセルは企業や政府がその目標からいかに遠く離れているかについて言及した。彼の批評は、最終的に創造者を凌駕するシステムの急速な開発に焦点を当てており、その過程で人類文明が「巻き添え損害」となる可能性を指摘している。
主要なAI企業のトップたちはこれらの存在的危険性を認識しているが、市場の力によって自らを縛ることはできずにいる。「主要なAI企業のCEOたちは皆、武装解除を望んでいると思うが」とラッセルは語るが、「一方的に」それを行うことはできない。なぜなら、その立場は競合他社に奪われ、投資家から即座に追放される危険があるからだ。
新冷戦
存在の危険性や人類の絶滅の可能性についての議論は、かつては冷戦時代の核兵器の暴走の脅威に限定されていた。大国が武器を蓄積し、ライバルがそれを超えることを恐れたためだ。しかし、スチュアート・ラッセルのような懐疑論者は、次第にその枠組みを人工知能の時代に適用し始めている。米中間の競争はしばしばAIの「軍拡競争」と表現され、秘密主義や緊迫感、そして20世紀後半のワシントンとモスクワの核対立を特徴づけた高いリスクとともに語られる。
ロシアのプーチン大統領は、ほぼ10年前にその巨大なリスクを端的に表現した。「この分野でリーダーシップを握る者が世界の支配者になる」と2017年の演説で述べた。
現在の軍拡競争は兵器の数で測れるものではないが、その規模は膨大な資本投入に表れている。各国や企業は、AIの訓練と運用のために数百億ドルを投じている。米国だけでも、今年のAIに対する資本支出は6000億ドルを超えると予測されている。
しかし、ラッセルは、積極的な企業の行動に対して規制による自制が追いついていないと指摘する。「各国政府がこの問題を理解していることが非常に重要です。だからこそ私はここにいるのです」と、彼はインドのサミットについて述べた。
中国やEUは、技術の規制に対してより厳しい姿勢を取っている。一方、他の地域では規制は比較的緩やかだ。インド政府は主に規制緩和の方針を採用している。米国では、トランプ政権がAIに対して市場原理主義を推進し、多くの州レベルの規制を撤廃し、企業に自由な裁量を与えようとしている。
私たちとともにフォーチュン職場革新サミットに参加しませんか 2026年5月19日〜20日、アトランタで開催される。次なる職場革新の時代が到来し、従来のやり方は書き換えられている。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び未来の働き方を再定義するのかを探る。今すぐ登録しよう。