グーグル・クラウド・ジャパンは8月5日、「Google Cloud Next Tokyo」の開催に伴い、会場である東京ビッグサイト(東京都江東区)でデータベース関連の製品アップデートに関する記者説明会を実施した。説明会には、米国本社からGoogle Cloud VP & GM、クラウド プラットフォーム & テクニカル インフラストラクチャのブラッド・カルダー氏と、同GM & VP、データ クラウドのアンディ・ガットマンズ氏が出席した。
「Cloud Run GPU」で1日あたり1000万件以上のリクエストと1000億トークンを処理
まず、カルダー氏が登壇し、「Google Kubernetes Engine」(GKE)のアップデートを解説した。GKEは一般提供の開始から今年で10周年を迎え、同社が提供するKubernetesのマネージドサービス。コンテナ化されたアプリケーションのデプロイ・管理・スケーリングを簡単に行えるように設計されている。
カルダー氏はGKEについて「AIワークロードにおける強みは低コスト・レイテンシでのサービングやメガスケールでの高速トレーニング、GPUとTPUへの経済的なアクセスを可能としている」と話す。
次に、生成AIがどのようにWebページを処理し、AIモデルが扱える形式に変換するかについて話は移った。同氏によると、生成AIはWeb上の膨大で構造化されていない情報と、AIシステムのデータ要求のギャップを埋めるために設計されているという。
Google Cloudのフルマネージドなサーバーレス実行環境である「Cloud Run」がGPU対応した「Cloud Run GPU」は、コンピュートリソースのスケーリング、NDP(ネットワークデータプレーン)、リクエスト処理能力を提供。
GKEとの連携でトラフィックの急増にも迅速に対応できるほか、Googleのネットワークによって支えられた強力なDDoS攻撃からアプリケーションを保護する役割も果たすとしている。
先日には、Cloud Run GPUを活用したJina Ai Readerの事例が公開。Jina Ai ReaderはURLやローカルファイルから取得した未加工のWebコンテンツを、クリーンで構造化されたLLM(大規模言語モデル)フレンドリーな形式に変換する専用ツールだ。Cloud Run GPUを活用し、1日あたり1000万件以上のリクエストと1000億トークンの処理を実現している。
カルダー氏は「私たちはCloud Run GPUを活用して、1日あたり1000万以上のWebページを処理するサービスを構築した。生成AIにとって、Cloud Run GPUは唯一の選択肢であり、必要な処理能力をオンデマンドで提供できることが重要だった」と振り返る。
また、同氏は「複雑なプロジェクトには、開発者の生産性向上が不可欠であり、その点Geminiは高速性能、大きなコンテキストウィンドウ、推論、コーディングエージェントを有する。Google社内では、AIによるコード生成が急速に普及しており、現在ではコードの30%以上がAIによって生成されている」と社内の事例を紹介した。
「Gemini CLI GitHub Actions」のプレビュー版を発表
GeminiはVS CodeやIntelliJ IDEA、「Gemini CLI」などのコーディングツールの開発環境を支える共通エンジンであり、マークダウン形式の指示バーを使い、開発ワークロードをカスタマイズできる。
さらに、Google検索が組み込まれており、最新の公開ドキュメントにもとづいた回答を提供するほか、すべてGemini CLIに構築してGeminiモデルへのアクセスを可能にしている。なお、Gemini CLIはバイブコーディングを実践するツールとして無料で始めることができ、無料で使える枠が幅広いのが特徴。Googleアカウントさえあれば始められる。
加えて、Geminiを開発者が日常的に使う環境であるシェルにもたらすことで、コード生成だけでなく、システム情報の整理、データベース操作、メディア生成、クラウドインフラやアプリケーション、ストレージの管理にも活用できるという。
そこで、今回「Gemini CLI GitHub Actions」のプレビュー版の提供をアナウンスした。これは新規イシューを分析し、ラベル付け、優先順位を決定することに加え、テストを記述して明確な変更・バグ修正を実装。また、品質やスタイル、正確性についてプルリクエストとしてレビューする。
その詳細について、カルダー氏は「アクションを通じてラベルを分析し、優先順を付け、プルリクエストの品質やスタイルをレビューし、テストの作成、明確な変更や修正、予算ルールの実装などのタスクを任せることができる。これらのアクションは開発プロジェクトの全コンテキストを活用し、バックグラウンドで非同期的に動作することで複雑な作業や意思決定に集中できるようにする」と説明していた。
Gemini CLIのエージェントモードを使えば、プログラミング作業をバックグラウンドで自動化・実行することができるという。ソフトウェア開発において高性能なモデルの1つであり、主要な開発環境(Aider、Cursor、GitHub Copilot、Tabnine、Windsurfなど)で採用されている。
企業ITの未来を変えるGoogle Cloudのデータクラウド戦略
続いて、ガットマンズ氏にスピーカーは移り、開口一番に「企業のITアーキテクチャの根本的な変化が現在の業務を変革し、そこに登場するものがインテリジェントで自律的なエージェント体験だ」と述べた。
エージェント体験への移行は、開発者やデータ専門家が従来とは異なる働き方をするために不可欠ではあるが、開発者が不要になるわけではなく、より創造的かつ効果的に仕事を進められるよう支援することが可能になるという。
そのためには、従来の分断されたツールの寄せ集めではなく、すべてのデータをAIに活用できる統合されたAI対応データプラットフォームが必要との見立てだ。それこそが、同社における「データクラウド」の目的とのこと。
データクラウドは、さまざまなデータ機能を単一のプラットフォームに統合し、あらかじめ統合された状態で提供され、AIが組み込まれている。同氏は「統合や管理に時間を使うことなく、イノベーションに集中することができ、私たちが提供する価値の核心」と強調した。
日本企業ではリクルートがトップクラスのフルマネージドのデータウェアハウス(DWH)「BigQuery」のユーザーであり、Lookerの活用を拡大するだけでなく、社内全体で会話型エージェントやデータエージェントを使った対話型体験の構築にも積極的に取り組んでいる。また、楽天は、大規模なECデータプラットフォームをBigQueryに移行することで、顧客行動の高度な分析を実現。LIXILはオンプレミスで稼働していた大規模な製造システムをGoogle Cloudに移行することで、安定性とパフォーマンスを向上させただけでなく、インフラコストを53%削減するという成果を上げている。
3つの領域に対す新たなツールを発表
ガットマンズ氏は「最適化されたAIエージェント」「データとAIのための統合クラウドプラットフォーム」「最大限の柔軟性を実現するオープンなエコシステム」の3つの領域に対して、新たなツールを発表した。
最適化されたAIエージェント
最適化されたAIエージェントでは「BigQueryでのデータエンジニアリングエージェント」、「BigQuery Notebooksでのデータサイエンスエージェント」、「対話型分析エージェント+コードインタプリタ」「対話型分析API」のプレビュー版を提供に加え、MCP(Model Context Protocol)対応を強化。
データエンジニアリングエージェントは、複雑なデータパイプラインの構築を簡素化・自動化し、信頼性とデータ品質を維持しながら、より高速に処理を行う。これまで手作業で行っていた煩雑なパイプライン構築や、膨大なコード記述を支援する。
データサイエンスエージェントは、データサイエンティストが複雑な環境やツール、運用上の課題に悩まされることなく、モデル構築やインサイト生成に集中できるよう支援し、データ探索からモデル学習まで迅速に実験できるという。
ビジネスユーザー向けの新機能である対話型分析エージェント+コードインタプリタは、日本語を含む自然言語で質問をすることができ、例えば「先月、東京で最も売れた商品は?」といった質問に対して、即座に信頼できる回答を得ることが可能。単純な質問をSQLに変換するだけでなく、コードインタープリタも新たに導入し、複雑な質問やコード実行が必要な処理にも対応可能となり、高度な分析体験を提供するとしている。
会話型分析APIは、開発者がエージェント体験を既存の業務アプリケーションに組み込めるように提供する。
MCPの対応強化ではMongoDBなどのサードパーティ製データベースを含む、データベースをMCPとしてエージェント体験に統合できるほか、Looker MCPサーバも提供開始することで、Lookerのセマンティックモデルをエージェント体験に活用できるという。
データとAIのための統合クラウドプラットフォーム
次にデータとAIのための統合クラウドプラットフォームだ。ガットマンズ氏は「単にエージェントを提供するだけでなく、AIの機能をデータクラウドとデータプラットフォームに直接組み込む。AI対応プラットフォームの重要な要素の1つが、AI対応のマルチモーダル検索機能を各種データベースに組み込むことだ」と話す。
ここでは「BigQueryでの自動エンベディング生成とインデックス作成」、「BigQueryでのAIクエリエンジン」、「Spannerカラム型エンジン」が説明された。
自動エンベディング生成とインデックス作成は、自動的な埋め込み生成とインデックス作成が可能となり、データ専門家が非構造化データをベクトル検索に対応させる作業が簡素化されるとのこと。
また、AIクエリエンジンはSQLクエリの中で直接AI機能を活用できる。一例として、SQL内でカスタマーサポートのチケットに対する感情分析を行ったり、文書からテキストを抽出したりすることが可能とし、SQLユーザーはGeminiなどのAIモデルをクエリ入力の中で直接活用できるようになるという。
Spannerは分散型のフルマネージドリレーショナルデータベース(RDB)。今回、分析用カラムエンジンを導入し、ライブデータに対する運用分析を最大200倍高速化。また、BigQueryユーザーがSpannerのライブデータに完全なワークロード分離を保ちながらアクセスできる技術「Data Boost」とも直接連携する。
最大限の柔軟性を実現するオープンなエコシステム
そして、オープンで柔軟なプラットフォームの提供について。同社はオープンソースのテーブルフォーマット「Apache Iceberg」をポートフォリオの中で正式に採用。Icebergをネイティブなストレージエンジンとして利用できるように設計した。そのため、BigQueryの性能、AI/ML、拡張性をBiglake Icebergストレージでも実現しており、Google CloudにおけるApche Icebergの利用が3倍に拡大しているという。
これまでプロプライエタリなDWHでしか使えなかったような機能(高スループットのストリーミング取り込み、マルチテーブルトランザクション、機械学習推論など)を、Iceberg形式でも利用が可能。また、Icebergデータを一貫して管理・最適化・保護できる統合管理レイヤも発表し、BigQuery、「Apache Spark」など、どのエンジンを使っていても利用できる。
ガットマンズ氏は「これは単なるデータ形式の話ではなく、オープン性とエンジン間の相互運用性を実現するための取り組み」と述べている。
加えて、多くの企業がSparkを重要なデータ処理に利用していることからSparkユーザー向けに「Lightning Engine」としてOSSベースの高パフォーマンスベクトル化クエリ実行エンジンを提供する。
オープンソース版のSparkより最大4倍高速な高性能ランタイムであり、継続的に性能改善を行っている。さらに、機械学習との統合も強化されており、AIライブラリのプリパッケージ化、GPUアクセラレーション、最新のMLランタイムをサポートしている。
一方、国内向けの取り組みとしてオラクルとの連携について触れた。同氏は「オープンクラウドの実現には、お客さまの現状に対応することも重要。多くの企業がオラクルのワークロードを抱えているため、GoogleはOracleとのパートナーシップを強化している」という。
直近では、東京リージョンでオラクルの連携を開始し、同社のデータベースプラットフォーム「Exadata」を含む、同社のワークロードをGoogle Cloud上で利用可能になり、2026年初頭には大阪リージョンでも提供開始を予定している。
最後にガッツ氏は「インテリジェントエージェントによるデータ活用の強化に加え、統合型データプラットフォームの構築による特に非構造化データを中心にAIの活用を進めるべきだ。そして、オープンで柔軟なプラットフォームの提供によるエンジン間の相互運用性を確保していくことが望ましい」と語っていた。











