Google Cloud(グーグル・クラウド)は4月22日~24日の期間、米ラスベガスで年次カンファレンス「Google Cloud NEXT 2026」を開催している。カンファレンスは企業がAIを利用する時代から、AIエージェントが業務を担う「Agentic Enterprise」へ移行するための設計図を示す場となった。本稿では、今回の目玉ともいえる「Gemini Enterprise Agent Platform」と、同社独自開発のAIチップであるTPU(Tensor Processing Unit)の新モデルを中心に紹介する。カンファレンスにはグローバルから期間中に3万人が集い、日本からは約1000人が参加した。
Google Cloud Next 2026で示された「Agentic Enterprise」構想
キーノート冒頭に登壇した、Google Cloud CEOのThomas Kurian(トーマス・クリアン)氏は「顧客の約75%が、AI関連製品を自社ビジネスの中核として活用しています。数千規模のAIエージェントやサービスが導入されており、グローバルなパートナーネットワークを通じて、数十億人規模にリーチしています。PoC(概念実証)や実験段階はすでに過去のものとなり、企業全体での本番導入が主になり、課題は“導入できるか”ではなく“どうスケールさせ、運用するか”に移っています」と話す。
そして、AlphabetおよびGoogleのCEOであるSundar Pichai(スンダー・ピチャイ)氏がビデオメッセージで登場し、AIを巡る急速な変化と、同社が描くエンタープライズの将来像について語った。
まず、ピチャイ氏は技術革新のスピードが過去に例を見ない水準に達していると指摘。AIを巡る状況は依然として「混沌としたフェーズ」にあるとしながらも、その一方で次のイノベーションの波を生み出すための基盤となる要素が、ようやく出揃いつつあるとの認識を示した。
同氏は「現在、顧客による直接API利用だけで1分あたり160億トークン以上を処理しています。この成長を支え、さらに加速させるため、2026年にはGoogle全体の機械学習向け計算投資のうち、過半数をクラウド事業に充てる計画です」と宣言。
ピチャイ氏が特に強調したのが「Agentic(エージェンティック)」という概念が、もはや実験段階ではなく、本番環境で機能する企業の前提になりつつあるという点だ。昨年に発表した「Gemini Enterprise」を通じて、あらゆる従業員がAIを活用して仕組みを作る“ビルダー"になれる環境が整った一方で、企業が直面する課題は「エージェントを作れるかどうか」から「数千規模のエージェントをどう管理・運用するか」へと質的に変化しているとの見立てだ。
こうした課題意識を背景に、ピチャイ氏は「Gemini Enterprise Agent Platform」を発表。同プラットフォームは、エージェントを構築・拡張するための単なる開発基盤ではなく、エージェンティック・エンタープライズ全体を統制するミッションコントロールとしての役割を担うと説明した。データ、モデル、アプリケーション、そしてセキュリティをつなぐフルスタックの“接着剤”となることで、複雑化するエージェント運用を現実的なものにする狙いがあるという。
また、同氏はGoogle自身が自社技術のカスタマー・ゼロ(最初の顧客)として同プラットフォームを活用したと明かした。新たに書かれるコードの約75%がAIによって生成され、それをエンジニアがレビューし、承認している。社内ではソフトウェア開発やセキュリティ運用、業務ワークフローの高速化にAIが組み込まれており、その実体験こそが顧客やパートナーに提供する技術の裏付けになっているとのことだ。
ピチャイ氏のメッセージを通して浮かび上がるのは、AIを「使う」段階はすでに終わり、AIエージェントが企業活動を担う時代が現実のものになったという強い認識だ。今回のカンファレンスは、その前提に立ったうえで、企業がどのようにAIを運用し、スケールさせ、責任をもって制御していくかを示していた。
「Gemini Enterprise Agent Platform」の全体像
ピチャイ氏のビデオメッセージ後に再び登壇したクリアン氏は、Gemini Enterprise Agent Platformについて「データ、人、そして目標をつなぐ“接着剤”であり、分断された業務プロセスを単一のインテリジェントな流れへと変革します。これこそが、私たちが示す“Agentic Enterpriseの設計図”です。これを実現するためにはコンテキストとアクションが必要です。知能はデータから生まれ、自動化はエージェントによって駆動されます。この方程式をスケールさせるには、完全に統合されたシステムが不可欠です」と説く。
Gemini Enterprise Agent Platformは「Vertex AI」の機能をベースにAIエージェントの構築から運用、管理、最適化までを一貫して行える包括的な新しいプラットフォームだ。Vertex AIの機能に加え、最新機能を統合し「Build(ビルド)」「Scale(スケール)」「Govern(ガバナンス)」「Optimize(最適化)」の4つにフォーカスしている。
プラットフォームは「AI Hypercomputer」「Agentic Data Cloud」「Agentic Defense」「Agentic Platform & Models」「Agentic Taskforce」の5つの階層で構成。従来から提供していたGemini Enterpriseは「Gemini Enterprise app」とし、エージェントの構築・スケール・ガバナンス・最適化を可能にする新たな機能群を提供していく。
最先端モデルへの対応として「Gemini 3.1 Pro」や「NanoBanana 2」「Veo 3.1 Lite」「Lyria 3 Pro」など、自社のモデルに加え、Anthropicの主要モデル「Claude Opus」「Sonnet」「Haiku」、基調講演当日には「Claude Opus 4.7」への対応を発表した。
クリアン氏は「これらのモデルは知能という点では飛躍的な進化ですが、真の価値は現場で運用され、ミッションクリティカルな課題を解決することで初めて生まれます」と語る。
同氏が指摘するように、企業での価値を発揮するためにはエージェントのライフサイクル管理が欠かせない。そのため、Gemini Enterprise Agent Platformでは「Agent Studio」「Agent Registry」「Agent Identity」「Agent Gateway」「Agent Observability」といった機能を用意している。
Agent Studioは自然言語を使い、すべての従業員がエージェントの構築・展開を可能とし、Agent Registryは組織内のすべてのエージェントとツールを可視化・管理する。また、各エージェントに対して固有の暗号学的IDを付与し、認可ポリシーを明確化、全アクションを追跡・監査できるAgent Identityのほか、Agent Gatewayでは組織全体のポリシーを集中管理することが可能だ。Agent Observabilityは、OTel準拠のテレメトリでエージェントの実行経路を完全可視化し、トレースの取得、ツール利用の監視、推論ループの診断ができるという。
さらに、エージェント間のオーケストレーションやゼロトラストセキュリティへの対応に加え、MCP(Model Context Protocol)へのネイティブ対応により、あらゆるMCPサーバと接続でき、Google Cloudの全サービスもMCPとして提供する。
クリアン氏は「企業は、これまでワークフローの再設計を中心にAIを導入してきました。いまや、日常業務を担う従業員そのものをAIビルダーへと転換し、中央集権的な専門チームに依存するのではなく、業務領域ごとに特化したエージェントを生み出しています。Gemini Enterpriseは、このボトムアップ型のエージェント化を加速させる標準レイヤーであり、AIへの入口です」と述べている。
実際の導入事例として、ドイツの保険会社であるSignal Idunaは、Gemini Enterpriseの導入から数週間で利用率が80%に達し、1万1000人の従業員が専門エージェントを構築。100年分の保険契約データにもとづいて、補償内容を自動確認するヘルスケア向けエージェントは、週間アクティブユーザー数を400%増加させ、回答速度を37%短縮したという。
第8世代TPU「8t」「8i」を発表 - 学習と推論の分岐に最適化
続いて、Google SVP, Chief Technologist AI and InfrastructureのAmin Vahdat氏が登壇。同社ではチップからエージェントまでAIのフルスタックを揃えており、その基盤を支えるインフラへの取り組みは欠かせない。今回、その肝となる第8世代のTPUとして用途別に利用できるAIチップの学習用に8t、推論用に8iをそれぞれ発表した。
Vahdat氏は「アスリートがプレーを理解するために使う最先端技術と同じ基盤が、企業の意思決定を根本から変えるために使われる時代に入っています。そのためには、膨大な映像を処理して数十年分の履歴データを推論し、世界中のフライトをほぼリアルタイムで守るような、統合されたAIシステムが必要です。グローバル規模のAIインフラは、ソフトウェア、ハードウェア、電力、冷却、さらには光速という物理法則に制約される物理の問題でもあるのです」と話す。
こうした状況に対し、Google CloudではAI Hypercomputerを提示。これはクリーンエネルギー、巨大な物理スケール、用途特化型インフラを単一の効率的なエンジンとして統合したコンセプトだ。同氏は「エージェント時代においてコンピュートの定義は再構築され、チップ単体ではなくデータセンター全体が計算資源となります。そのため、重要なことは用途に応じた最適なアーキテクチャを選べる柔軟性です」と力を込める。
TPUはクラウド経由でも利用できることから、国内外の企業が導入している。日本では、トヨタ自動車の完全子会社であるウーブン・バイ・トヨタ(WbyT)が複雑な交通事象を予測するモデルの学習を42%高速化したほか、モビリティと交通予測ワークロードにおける性能向上を実証している。
そして、Vahdat氏はエージェント時代に突入する中で、学習と推論の要求が完全に分岐したことを認識し、この爆発的なワークロードの要求性能に応えるため、第8世代TPUとして学習用の8tと推論用の8iを発表した。
8tは、最先端モデルの開発サイクルを数カ月から数週間に短縮するために構築し、前世代比でポッドあたり約3倍の演算性能を持つ。計算スループット、共有メモリ、チップ間帯域幅と、電力効率・有効計算時間を高いレベルで両立させており、新しいインターコネクト技術を採用し、従来比2倍の帯域を実現。
最大9600基のTPUを3D Torusトポロジーで接続することで、121エクサフロップスの演算能力を提供し、複雑なモデルであっても大規模なメモリプールを活用できるという。
また、2PB(ペタバイト)の共有高帯域メモリまで拡張可能で、チップ間帯域幅は前世代の2倍に向上させたほか、10倍高速なストレージアクセスを統合し、データをTPUに直接取り込むTPUDirectと組み合わせることで、エンドツーエンドシステムの稼働率を最大化している。
8iは、多数の特殊なエージェントが複雑なフローの中で連携し、困難なタスクに対してソリューションや洞察を提供する、複雑で反復的な共同作業を処理するように設計。
プロセッサのアイドル状態を防ぐため288GBの高帯域メモリと、前世代の3倍となる384MBのオンチップSRAM(Static Random Access Memory)を搭載、モデルのアクティブなワーキングセットを完全にオンチップに保持するとのこと。
Virgo Networkなどで強化するAIインフラ
TPUのほか、汎用ワークロード向けの「Google Cloud Axion」はカスタム設計のArm CPUを搭載し、x86アーキテクチャの汎用CPUインスタンスとの価格性能比で最大2倍、消費電力あたりの性能が80%向上しているという。
さらに、Google Cloud上で次世代データセンター向けGPUプラットフォーム「NVIDIA Vera Rubin NVL72」を近日中に提供開始することを発表。高い対話性と長文コンテキストワークロード向けに最適化し、10倍の性能効率を実現するとのこと。Vahdat氏は「NVIDIA GPUを利用するための最適なクラウドです」とアピールしていた。
チップだけではない。ネットワークでは「Virgo Network」がアナウンスされた。13万4000のTPUを最大47ペタビット/秒のノンブロッキング帯域で接続し、数カ月を要していた学習を数週間に短縮できるという。NVIDIA Vera Rubin NVL72でも利用が可能であり、最大96万GPUをサポートする。
Google Cloudが強調したのは、エージェント時代の競争軸が「作れるか」ではなく「数千規模を安全に運用し、継続的に最適化できるか」へ移った点だ。
Gemini Enterprise Agent Platformは、データ、モデル、アプリケーション、セキュリティを束ねて統制するミッションコントロールを志向し、ガバナンスと可観測性を前提に据えている。
他方で、TPU 8t/8iやCPU、GPU、ネットワークの強化は、その運用を現実にする土台となる。あとは各社が自社データと業務に即して、適用範囲と責任分界を設計できるかが成否を分けそうだ。










