GoogleがGemini Deep Research Maxをアップグレード:MCPを統合し、企業内部データベースやネイティブチャートに接続、アナリストのデューデリジェンスを実現

robot
概要作成中

Google は昨日(21日)に Gemini Deep Research の大規模アップグレードを発表し、同時に2つのエージェント:Deep Research(速度優先)と Deep Research Max(品質優先)をリリースしました。これらは Gemini 3.1 Pro を全面的に統合し、初めて Gemini API の有料プランを通じて一般公開テストに参加しています。

Max とは何か:より長い時間をかけて考えることで、より深い答えを得る

Deep Research Max の核心的な違いは「拡張されたテスト時間の計算能力」にあります。エージェントは一度実行して終了するのではなく、繰り返し推論、検索、修正を行い、まるで眠らない研究助手のように、報告の品質が満足できるまで作業を続け、最終的に出力します。

Google の公式発表によると、Max は業界標準の抽出と推論能力において「飛躍的」な進歩を遂げており、昨年12月のプレビュー版と比較して、情報源の数が大幅に増加し、従来見落としがちな重要な差異も捉えることができるようになっています。また、証拠の衝突を判断する際には、SECの申告書や同行査読ジャーナルなどの権威ある情報源を積極的に引用します。

ユーザーは夜間に一度スケジュールを設定し、翌朝には分析チームが到着した時点ですでに詳細な調査報告書が受信箱に届いている状態を想定しています。速度は重要ではなく、深さこそが鍵です。

一方、標準版の Deep Research は遅延とコストの大幅な削減に焦点を当てており、12月のプレビュー版に代わり、インタラクティブなシナリオのデフォルトオプションとなっています(リアルタイムの質問応答には Max のような深掘りは不要な場合)。

MCP 支援:ネット検索から「あらゆるデータベースの検索」へ進化

今回の Deep Research のアップグレードでは、MCP(Model Context Protocol)へのネイティブサポートも追加されました。従来、エージェントは公開ウェブ情報のみを取得していましたが、MCPを通じて企業のカスタムデータソースや専門的なデータフローにシームレスに接続できるようになっています。

具体的には、財務部門は内部のERPシステムや市場データ供給者のプライベートAPIをMCPサーバー経由で接続し、Deep Researchは同一の研究フロー内で公開情報、Bloomberg端末のデータ、自社データベースを同時に検索可能となります。これにより、ツールの切り替えを必要とせず、三つの情報源を並行して利用できます。

Google はまた、FactSet、S&P Global、PitchBook との協力により、これらのプラットフォームの財務・市場データを直接 Deep Research のワークフローに統合できる MCPサーバーを共同設計しています。投資銀行、プライベートエクイティ、調査機関にとって、この橋渡しの意義は計り知れません。

ツールセットとしては、Google Search、リモート MCP、URL Context、Code Execution、File Search を同時に有効化できるほか、ネットワークを完全にオフにしてエージェントをカスタムデータベース内だけで動作させることも可能です。これは、情報漏洩の懸念がある企業にとって特に重要です。

三大機能の革新:図表、協働計画、リアルタイムストリーミング

第一はネイティブな図表と情報グラフィックです。これは Gemini API 上では初の試みであり、Deep Research はもはや文字だけを吐き出すだけでなく、HTMLの図表やNano Banana infographicを直接生成できるようになり、研究報告を視覚的な分析資料へと進化させています。

第二は協働計画です。エージェントは研究を開始する前に、研究計画を作成し、ユーザーはそれを確認・誘導・修正してからエージェントに実行させることができます。これにより、調査範囲のコントロールがより細かくなり、「質問を投げて報告を待つ」黒箱的な作業から、ヒューマンとAIが共同で研究フレームを定義する形へと変わります。

第三はリアルタイムストリーミングです。システムはエージェントの中間推論ステップを追跡し、ライブの思考サマリーを提供します。これにより、待機中でもエージェントが何をしているのかを確認でき、文字や映像が生成・送信される過程をリアルタイムで見られるため、長時間の待ちによる不確実性を大きく低減します。

マルチモーダルな grounding に関して、Deep Research は今や PDF、CSV、画像、音声、動画を入力として受け入れ、フォーマットを超えたデータ統合も手動の前処理なしで可能になっています。

AIエージェントは「検索アシスタント」の門を越える

Deep Research Max の登場は、ある意味で AIエージェントが企業の研究ワークフローにおいて新たな成熟段階に入ったことを示しています。これまでは、「ファイルの要約」や「記事の検索」程度の自動化された検索助手の域を出ませんでした。

しかし、エージェントが繰り返し推論し、証拠の衝突を自主的に判断し、SEC申告書を引用し、MCPを通じてプライベート財務データベースにアクセスできるようになれば、その仕事は初級のアナリストが行うデューデリジェンスにかなり近づきます。

もちろん、「近づく」ことと「置き換える」ことは異なります。エージェントの推論ロジックの検証や、プライベートデータへのアクセス権管理、規制下でのAI生成研究結果の利用方法など、企業はまだ模索中です。しかし、Googleが今日示したメッセージは明確です:技術的には、すでにその道は開かれているということです。

Deep Research と Deep Research Max は、現在 Gemini API の有料プランを通じてパブリックプレビューに入っており、Google Cloud 版もまもなく追随します。詳細な発表内容は Google Blog の公式説明をご覧ください。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン