Googleは5月20日から21日(米国時間)にかけて年次開発者会議「Google I/O 2025」を開催した(参考「Google I/O 2025: News and announcements」「Google I/O 2025」)。以下、注目すべき発表のポイントを紹介しよう。

  • Google I/O 2025

    Google I/O 2025

Pichai氏がビデオ通信プラットフォーム「Google Beam」発表

Googleの最高経営責任者(CEO: Chief Executive Officer)を務めるSundar Pichai氏は、基調講演の中でGoogleが注力している生成AI「Gemini」の急速な進化について伝えた。GeminiモデルはGoogleの世界最高水準のインフラストラクチャに支えられ、低価格かつ高速に動作すること強調し、今後も優れたコストパフォーマンスで提供を続ける方針を示した。

現在、そのアクティブユーザー数は4億人以上に達し、特にGemini 2.5シリーズではさらなる成長がみられるという。同氏はこれらの進歩が次の成長につながったとして、新製品「Google Beam」を発表した。

Google BeamはAIを中核に据え、Project Starlineとして知られるビデオ通信技術を利用する新しいビデオ通信プラットフォーム。6台のカメラとAIを使用してビデオストリームを結合し、まるでそこにいるような臨場感あふれる自然な会話を実現する。

他にもGoogle Meetへのリアルタイム音声翻訳機能の導入、AIエージェントのプロトタイプ「Project Astra」を組み込んだ「Gemini Live」のiOSへの提供開始、Gemini APIの開発者に向けてAIエージェントのプロトタイプ「Project Mariner」の提供開始、過去のメールやGoogleドライブの情報から学習して適切なメールの返信を支援する「Smart Replies」などが発表された。

より人間に近いAIへの取り組み

Google DeepMindの最高経営責任者(CEO)を務めるDemis Hassabis氏は、AGIの取り組みについて伝えた。現在は囲碁やStarCraftなど複雑なゲームの習得、3D環境の生成を目指す「Genie 2」の開発に注力しており、その成果が出始めているという。

研究はAIエージェントのプロトタイプ「Project Astra」および「Project Mariner」の開発においても行われ、前者では自然な音声出力、記憶機能の強化、コンピューターの制御を実現。後者では情報の検索、予約、ショッピング、調査などさまざまな作業を同時に処理することが可能になったとしている。

Gemini 2.5 Proに新機能を追加

GeminiチームのTulsee Doshi氏は、Gemini 2.5モデルシリーズのアップデート情報を伝えた。同氏は5月6日にGemini 2.5 Pro Preview(I/O edition)の早期リリースを発表しているが、今回は高度な推論モード「Deep Think」のテスト開始を発表した。

Deep Thinkは難易度の高い数学のベンチマーク「2025 USAMO」で優れたスコアを獲得し、コーディングのベンチマーク「LiveCodeBench」では首位を獲得、マルチモーダル推論テストの「MMMU」では84.0%のスコアを記録したという。最先端の技術を追求していることもあり安全性に配慮する必要があるとして、一般公開の前にGemini APIを通じたテスターから提供を開始する予定。

Gemini 2.5の新機能としては、Live APIに対話機能のプレビュー版の導入、2.5 Proおよび2.5 Flashにテキスト読み上げ機能の新しいプレビュー版の提供が発表された。対話機能は話し方、アクセント、スタイルを指示することが可能で、語り口調をドラマチックにできるという。テキスト読み上げ機能は複数の話者に対応。ネイティブ音声出力により2人の音声によるテキスト読み上げが可能とされる。

最新の動画生成モデル「Veo 3」登場

Google DeepMindのバイスプレジデントを務めるEli Collins氏は、最新の動画生成モデル「Veo 3」と映像制作ツール「Flow」を発表した。

Veo 3は音声付き動画の生成を初めて実現。現実世界の物理法則の反映に加え、キャラクターの正確なリップシンクに対応した。ユーザーは簡単なストーリーを入力するだけで環境音やキャラクター同士の自然な会話を含む、まるで撮影したかのような動画を生成することができる。

Flowはクリエイター向けのAI映像制作ツール。Veo、Imagen、Geminiを統合し、魅力的なクリップ、シーン、ストーリーをシームレスに生成することができる。これら新機能は発表と同時に米国から提供が開始され、それ以外の国や地域には近日中の提供が予定されている。

Geminiの新しいサブスクリプションプラン発表

Google LabsおよびGoogle Geminiのバイスプレジデントを務めるJosh Woodward氏は、Geminiアプリが可能にするさまざまな機能に加え、新しいサブスクリプションプランを発表した。

新しく追加されるプランは「Google AI Pro」と「Google AI Ultra」の2つ。Google AI ProはこれまでのGemini Advancedを置き換えるもので、AIツール一式を提供する。月額は2,900円。

Google AI Ultraは高性能モデルへの最大の利用上限アクセスと共に、実験的なAI機能への早期アクセスも優先的に提供する。具体例としては、近日公開予定のVeo 3、Gemini 2.5 Pro Deep Thinkおよびデスクトップ向け機能のAgent Modeへの早期アクセスが予定されている。米国から提供を開始し、月額は249.99ドル(日本向け価格は未発表)。

AIを搭載したスマートグラス

Google XR(eXtended Reality: 拡張現実)のバイスプレジデントを務めるShahram Izadi氏は、10年以上に渡り開発を続けているスマートグラスの進捗状況を伝えた。

現在はXRデバイス向けAndroidプラットフォームの「Android XR」を搭載し、Geminiとの連携を可能にしており、ユーザーが見ている世界を把握できるという。すでに現実世界における道案内やリアルタイムの翻訳が可能としている。

この取り組みの一環としてSamsungとのパートナーシップをさらに深め、スマートグラスのソフトウェアとリファレンスハードウェアプラットフォームの基盤を共同で構築し、今年後半から開発者向けに提供を開始する予定。

Google検索のAI Modeを一般公開

Google Searchのバイスプレジデントを務めるElizabeth Reid氏は、これまでLabsの登録ユーザーのみに提供していたGoogle検索の「AI Mode」を未登録の米国ユーザーにも展開すると発表した。

AI Modeは従来のGoogle検索よりも深くWebを探索し、膨大な情報から質問との関連性が高いコンテンツを見つけ出すことができるとされる。このAI Modeに一度でも触れたユーザーは高い満足度を得られ、より頻繁に活用する傾向がみられるという。

また、このAI ModeにDeep Searchを導入することも発表された。数百の検索を同時に実行し、収集したデータを横断的に分析、専門家レベルのレポートを生成できるという。この他にもGoogle検索からレストランの予約やチケットの購入を可能にするAIエージェントの導入、過去の検索履歴に基づいた最適な提案、回答データの視覚化などが発表された。

Google I/O 2025ではこれら以外にもAIを中心とした新製品および最新技術を発表している。GoogleのAIに対する取り組みは多角化しており、今後も幅広い分野にAIを適用していくものとみられる。