Googleが、iOSとAndroidにおけるGoogle検索とGoogle翻訳の新たな機能を、日本を含む多くの地域に拡大した。

Google検索では音声とカメラの両方を使ってAIモードとの対話ができるようになる。カメラに映っているものを認識し、リアルタイムで質問に答えたりしてくれる。また、Google翻訳ではライブ翻訳が可能になり、リアルタイムで翻訳結果を聞けるようになった。まさに同時通訳だ。

関連記事:Google、会話でAI検索「検索 Live」を日本で提供開始 ヘッドホンで「ライブ翻訳」も

双方ともにサービスインしているようだが、手元にある端末ではSamsung Galaxy S26とGoogle Pixel 10 ProだけにGoogle翻訳がやってきている。

Google翻訳のバージョンは同じだが、機能が有効になるかどうかは端末ごとに異なるらしく、他の端末については有効になるのを待つしかない。おそらくは何週間かかけて順次有効になっていくのだろう。

ニュアンスも再現する「ライブ翻訳」がすごい

ライブ翻訳を試してみたが、これはいい。

Google翻訳を開いて、ライブ翻訳ボタンをタップすると、モードの選択画面になる。相手の言語と自分の言語を選択し、

  • 【A】外国語から自分の言語への翻訳がヘッドフォンで再生される。
  • 【B】外国語から自分の言語への翻訳がヘッドフォンで再生され、自分の言語はスピーカーから相手の言語で再生される。
  • 【C】スピーカーは使わず双方の翻訳がテキストで表示される。

の3つのモードから任意のものを選ぶ。

スマホにイヤホンやヘッドホンが接続されていない場合はAのモードは使えない。またその場合、Bのモードでは自分と相手両方の翻訳がスピーカーから再生される。

この機能はGoogleのAIであるGeminiの新しい音声対訳機能を利用することで実現されている。特に出色なのは、話し手の声のトーンや、強調、リズムを維持して、より自然な翻訳を実現することだ。

たとえば話者の声色を認識し、それに近いニュアンスで翻訳する。興奮してニュースを伝えるレポーターの発話などで試してみてほしい。なかなかのものだと感心する。

まだ、たまに女性の声を男性が発声したりすることがあるようだが、だんだん落ち着いていくだろう。この表現力は、デモンストレーションビデオによれば「ささやき声」も出せるというのでやってみたら本当だった。

外国語を“聞き続ける”用途にドンピシャ

これまでの翻訳機能は会話に重点が置かれていて、相手が一方的に喋り続けるようなシーンにはうまく対応できなかったことが少なくない。すぐに翻訳をストップしてしまうのだ。

だが、われわれの日常で外国語と接するシーンは、セミナーを聴講したり、海外ニュースを視聴したり、洋画を楽しんだりといったものが多い。外国にいても乗り物内でのアナウンスなどを聞き取りたいことがある。自分と相手が交代しながら会話をするというシーンは意外と少ないのだ。

だから、発話が交代するたびにボタンで切り替えるといったことをしなくても、そこでかわされる外国語が順次、リアルタイムで翻訳される機能は大歓迎だ。

Galaxy独自の通訳アプリには、リスニングモードというモードが用意されていて、同等のことができていた。ただ、イヤホンを使って通訳結果を聞くにはGalaxy Budsが必要だった。

だが、今回のGoogle翻訳ではイヤホンを選ばない。どこのメーカーの製品でも再生できる。スマホ画面で翻訳結果を読めばいいのだが、視線は話者に向けたいものだから、多少のタイムラグはあってもリアルタイム翻訳再生はありがたい。

日常生活に浸透、身近な距離にいるAI

こうなると、環境音が普通に聞こえるオープンエアーのイヤホンで、常時耳につけていても気にならないイヤーカフ型のイヤホンが重宝する。

翻訳のみならず、スマホのAIとの対話が格段に便利なものになる。以前、ここでも紹介したファーウェイのFreeClip 2などはつけていることを忘れてしまうほどという点で格好の製品だといえる。

多くのイヤホンは特定の操作で、スマホのAIを呼び出して対話できる。あるいはAndroidスマホなら、ポケットの中に入れたままでも電源ボタンの長押しでGeminiを呼び出せる。

AIとは、このくらいの距離感でコミュニケーションができれば楽しいし便利だ。AIが特別な存在なのではなく、身近な存在として日常生活に浸透していく実感がある。実にエキサイティングな時代だ。