Googleは「インテリジェントエージェント時代」を迎えるにあたり、人工知能半導体戦略を変更しました。従来の学習と推論を同時に処理する単一の汎用チップの使用を脱却し、大規模学習用の「TPU 8t」と高並列推論用の「TPU 8i」をそれぞれ導入しました。Googleは23日(現地時間)、米国ラスベガスで開催された「Google Cloud Next 2026」にて、2種類のカスタムAI半導体を公開しました。同社は、AI市場が「モデル構築段階」と「モデルの実運用段階」に急速に分かれていると述べ、新型TPUはこの需要変化に対応するために設計されたと説明しました。従来の「Ironwood TPU」が推論時代の単一フラッグシッププラットフォームであったのに対し、今回の新世代製品の特徴は、その構造自体が二元化されている点にあります。これは、AIインテリジェントエージェントの普及に伴い、大規模モデルの訓練に必要なインフラと、クラウド上でこれらのモデルを高速に動作させる推論インフラの両方の需要が同時に増加しているとGoogleが判断したことを示しています。### TPU 8t:大規模AI訓練性能とコスト効率の強化TPU 8tは、大規模な事前訓練と埋め込み中心のワークロードに焦点を当てたチップです。Googleは、この製品が「3Dリングトポロジー」ネットワーク構造を採用し、大規模クラスターの拡張性を向上させていると述べています。単一のPodで接続可能なチップ数は9600個で、Ironwoodの9216個を上回っています。このチップの核心は、「SparseCore」と4ビット浮動小数点演算のサポートにあります。SparseCoreは、大規模言語モデルの検索過程で頻繁に発生する不規則なメモリアクセスを処理するための専用アクセラレータです。Googleは、低ビット演算と組み合わせることでメモリ帯域幅の負荷を軽減し、より少ないメモリ容量でも高精度を維持しながら、スループットを倍増させることに成功したと主張しています。これは、「量子化」と呼ばれる技術トレンドに沿ったものです。パラメータあたりのビット数を減らすことで、比較的低スペックのシステムでもより大きなモデルを動作させられるだけでなく、省電力化やスペース削減も実現します。Googleは、大規模訓練環境において、TPU 8tはIronwoodと比べて最大2.7倍の性能向上を実現していると述べています。### TPU 8i:推論速度と並列処理能力に焦点TPU 8iは、訓練済みモデルを実運用に投入する推論段階に特化した設計です。大規模モデルの後処理や、多数のユーザーからの同時リクエストを処理する高並列推論において特に優れています。Googleによると、TPU 8iはIronwoodよりも静的ランダムアクセスメモリ(SRAM)が3倍多く搭載されており、大規模言語モデルの推論に必要な「キー・バリューキャッシュ」をより大きく保持できるため、テキスト生成速度が向上します。さらに、「Collectives Acceleration Engine」と呼ばれる推論システムを採用し、自回帰デコードや「思考連鎖(Chain of Thought)」推論に必要な同期・集約演算を高速化しています。また、チップ間の接続構造も再設計され、「Boardfly ICI」と呼ばれるカスタムネットワークトポロジーにより、最大1152個のチップを相互接続可能にしています。この設計は、すべてのチップがより効率的に相互参照できるようにし、データパケットの伝送距離とジャンプ数を削減することを目的としています。Googleは、専門家混合モデルを用いた大規模言語モデルや推論モデルに必要な「All-to-All」通信において、総ジャンプ数を最大50%削減できると述べています。コスト効率も重要なポイントです。Googleは、TPU 8iの設計により、低遅延環境下でIronwoodと比べて約80%のコストパフォーマンス向上を実現し、超大型の専門家混合最先端モデルのサービスに特に適していると説明しています。### Googleの勝負所:NVIDIA中心の市場を揺るがせるか?Googleは、TPU 8tとTPU 8iの両方が、前世代と比べて1ワットあたりの性能を2倍に向上させたと付け加えました。エネルギー効率は、大規模AIデータセンターの収益性を左右する重要な要素であり、この向上は非常に意義深いです。今回の発表は、新しい半導体製品のリリースだけでなく、GoogleがAIインフラ戦略を「訓練」と「推論」に明確に分けたことのシグナルとも捉えられます。AIサービスの競争がモデル性能から運用コスト、応答速度、並列処理能力へとシフトする中、GoogleはTPUを通じてクラウド事業の比重をさらに高めようとしています。市場では、最終的な成功の鍵は実際の顧客採用速度と、NVIDIAを中心としたエコシステムとのソフトウェア互換性にかかると見られています。しかし、AIインテリジェントエージェントの普及に伴い、訓練用半導体と推論用半導体の需要はともに増加しており、Googleの今回のTPU二元化戦略は、今後のAIインフラ競争において重要な転換点となる可能性があります。### TP AI 注意事項本文はTokenPost.aiの言語モデルを用いて要約されたものです。主要内容に抜けや事実と異なる点が存在する可能性があります。
GoogleはAIの学習と推論を分離したTPU 8t・8iを公開…これがNVIDIA中心の市場を揺るがすことができるか
Googleは「インテリジェントエージェント時代」を迎えるにあたり、人工知能半導体戦略を変更しました。従来の学習と推論を同時に処理する単一の汎用チップの使用を脱却し、大規模学習用の「TPU 8t」と高並列推論用の「TPU 8i」をそれぞれ導入しました。
Googleは23日(現地時間)、米国ラスベガスで開催された「Google Cloud Next 2026」にて、2種類のカスタムAI半導体を公開しました。同社は、AI市場が「モデル構築段階」と「モデルの実運用段階」に急速に分かれていると述べ、新型TPUはこの需要変化に対応するために設計されたと説明しました。
従来の「Ironwood TPU」が推論時代の単一フラッグシッププラットフォームであったのに対し、今回の新世代製品の特徴は、その構造自体が二元化されている点にあります。これは、AIインテリジェントエージェントの普及に伴い、大規模モデルの訓練に必要なインフラと、クラウド上でこれらのモデルを高速に動作させる推論インフラの両方の需要が同時に増加しているとGoogleが判断したことを示しています。
TPU 8t:大規模AI訓練性能とコスト効率の強化
TPU 8tは、大規模な事前訓練と埋め込み中心のワークロードに焦点を当てたチップです。Googleは、この製品が「3Dリングトポロジー」ネットワーク構造を採用し、大規模クラスターの拡張性を向上させていると述べています。単一のPodで接続可能なチップ数は9600個で、Ironwoodの9216個を上回っています。
このチップの核心は、「SparseCore」と4ビット浮動小数点演算のサポートにあります。SparseCoreは、大規模言語モデルの検索過程で頻繁に発生する不規則なメモリアクセスを処理するための専用アクセラレータです。Googleは、低ビット演算と組み合わせることでメモリ帯域幅の負荷を軽減し、より少ないメモリ容量でも高精度を維持しながら、スループットを倍増させることに成功したと主張しています。
これは、「量子化」と呼ばれる技術トレンドに沿ったものです。パラメータあたりのビット数を減らすことで、比較的低スペックのシステムでもより大きなモデルを動作させられるだけでなく、省電力化やスペース削減も実現します。Googleは、大規模訓練環境において、TPU 8tはIronwoodと比べて最大2.7倍の性能向上を実現していると述べています。
TPU 8i:推論速度と並列処理能力に焦点
TPU 8iは、訓練済みモデルを実運用に投入する推論段階に特化した設計です。大規模モデルの後処理や、多数のユーザーからの同時リクエストを処理する高並列推論において特に優れています。
Googleによると、TPU 8iはIronwoodよりも静的ランダムアクセスメモリ(SRAM)が3倍多く搭載されており、大規模言語モデルの推論に必要な「キー・バリューキャッシュ」をより大きく保持できるため、テキスト生成速度が向上します。さらに、「Collectives Acceleration Engine」と呼ばれる推論システムを採用し、自回帰デコードや「思考連鎖(Chain of Thought)」推論に必要な同期・集約演算を高速化しています。
また、チップ間の接続構造も再設計され、「Boardfly ICI」と呼ばれるカスタムネットワークトポロジーにより、最大1152個のチップを相互接続可能にしています。この設計は、すべてのチップがより効率的に相互参照できるようにし、データパケットの伝送距離とジャンプ数を削減することを目的としています。Googleは、専門家混合モデルを用いた大規模言語モデルや推論モデルに必要な「All-to-All」通信において、総ジャンプ数を最大50%削減できると述べています。
コスト効率も重要なポイントです。Googleは、TPU 8iの設計により、低遅延環境下でIronwoodと比べて約80%のコストパフォーマンス向上を実現し、超大型の専門家混合最先端モデルのサービスに特に適していると説明しています。
Googleの勝負所:NVIDIA中心の市場を揺るがせるか?
Googleは、TPU 8tとTPU 8iの両方が、前世代と比べて1ワットあたりの性能を2倍に向上させたと付け加えました。エネルギー効率は、大規模AIデータセンターの収益性を左右する重要な要素であり、この向上は非常に意義深いです。
今回の発表は、新しい半導体製品のリリースだけでなく、GoogleがAIインフラ戦略を「訓練」と「推論」に明確に分けたことのシグナルとも捉えられます。AIサービスの競争がモデル性能から運用コスト、応答速度、並列処理能力へとシフトする中、GoogleはTPUを通じてクラウド事業の比重をさらに高めようとしています。
市場では、最終的な成功の鍵は実際の顧客採用速度と、NVIDIAを中心としたエコシステムとのソフトウェア互換性にかかると見られています。しかし、AIインテリジェントエージェントの普及に伴い、訓練用半導体と推論用半導体の需要はともに増加しており、Googleの今回のTPU二元化戦略は、今後のAIインフラ競争において重要な転換点となる可能性があります。
TP AI 注意事項
本文はTokenPost.aiの言語モデルを用いて要約されたものです。主要内容に抜けや事実と異なる点が存在する可能性があります。