Googleは11月5日(米国時間)、Googleマップのナビゲーション機能を強化したと発表した。AIを導入することでGoogleマップ初となるハンズフリーの会話型エクスペリエンスを提供し、スマートなナビゲーションを実現する。

  • Google Maps launches Gemini features、including landmark navigation

    Google Maps launches Gemini features, including landmark navigation

GoogleマップにAIアシスタント「Gemini」が登場

GoogleマップにAIアシスタント「Gemini」が登場する。ユーザーはルート検索や施設の案内、到着予定時刻の確認などを音声だけで操作できるようになる。

ルート検索は詳細な指定が可能。経路や距離、目的地や施設の条件、駐車場の有無の確認など複数のタスクを音声で一度に伝えることができる。さらにアプリを超えた指示も可能で、Geminiが支援可能な操作であればカレンダー予約なども受け付けるという。

これらは運転中のハンズフリー操作を可能にする目的がある。運転中のスマートフォンの操作は危険な行為とされ、国内では道路交通法で禁止されている(参考:「やめよう!運転中の「ながらスマホ」違反すると一発免停も! | 政府広報オンライン」)。

これまではルートの再検索(手動によるリルート)や条件の再設定などを運転中に行うことができず、休憩施設を目視で発見する必要があった。今後は音声によるハンズフリー操作が可能になり、運転中でも安全に操作できる。

音声による操作は交通渋滞の報告にも利用できる。Googleによると「事故が見えました」や「洪水のようです」などの発声だけで道路状況を報告できるという。この情報は進行方向のトラブルの通知など、他のユーザーの渋滞回避などに利用することが想定されている。

  • 新しいGoogleマップのナビゲーション利用の様子 - 引用:Google

    新しいGoogleマップのナビゲーション利用の様子 引用:Google

現実世界のランドマークに対応

Geminiは現実世界のランドマークや信号機、標識などの表示および音声案内をサポートする。「500m先で右折」などの抽象的でわかりにくい案内だけでなく、「レストランの先で右折」などのわかりやすい音声による案内を提供することができる。

ナビゲーション中に選択されるランドマークは、Googleが保有するストリートビュー画像と2億5000万カ所の最新情報の分析によって選択される。Googleは正確かつ役立つ案内を提供できると自信をみせている。

Googleレンズをサポート

GoogleマップのGeminiはGoogleレンズをサポートする。Googleマップの検索バーに表示されたカメラアイコンをタップし、目的の施設を画面に入れるだけで施設を特定することが可能。ピン(施設アイコン)が表示された状態でマイクアイコンをタップすると、音声入力が開始され、施設に関する質問などができる。

Googleは施設の特徴や雰囲気などを入店前に確認することができ、現実世界のエクスペリエンスの向上につながると説明している。これら機能を有効に活用できれば、Googleマップ1つで有意義な旅行を実現できる。

まもなく展開を開始

ハンズフリーナビゲーション機能は、Geminiが利用可能な地域を対象に今後数週間以内に展開が開始される予定だ。対象プラットフォームはAndroidおよびiOSで、Android Autoも近日中のサポートが予定されている。

その他の機能の展開予定は次のとおり。

  • Geminiを活用したランドマーク機能 - 米国のAndroidおよびiOS向けに展開を開始
  • 交通情報アラート(渋滞情報など) - 米国のAndroid向けに展開を開始
  • Googleレンズのサポート - 11月後半に米国のAndroidおよびiOS向けに段階的な展開を予定

ハンズフリーナビゲーションは日本国内の展開が予定されている。しかしながら、その他の機能については国内の展開時期を確認できていない。快適な旅行を実現するためにも、Googleにはすべての機能の早期提供が望まれている。