グーグルは、5月17日より、本社キャンパスの隣にある屋外劇場で、年次開発者会議を開催した。基調講演でグーグルCEOのサンダー・ピチャイ氏が披露したのが、Google Lensだ。GoogleアシスタントとGoogleフォトでの活用を開始し、その後、対応製品を拡げていく計画だ。アプリ内で呼び出して活用する技術プラットホーム、という位置づけと見られる。

Google Lensとは?

基調講演で示された活用例を挙げていくと、Google Lensによって何が起きるかが分かる。

例えば、Googleアシスタントからカメラを起動し、ユリの花に向けると、花の名前の候補を挙げてくれる。Wi-Fiのネットワーク名とパスワードが書かれたステッカーにカメラを向けると、スマートフォンに、そのWi-Fi設定が読み込まれ、自動的に接続を済ませてくれる。街を歩いているときに、通りに並ぶ店にカメラを合わせると、その店の名前や評価を画面内に表示する。

11分9秒からGoogle Lensの機能が紹介されている

ここで行われていることは、カメラで入力された画像やビデオの画像認識であり、同時に認識した画像の意味を解析し、適切な結果を返したり、設定を行ったり、検索を行ってくれるのだ。

こうした機能は、いくつかの、インターネットに接続されたスマートフォンを持っている我々の生活における「困難」を解決することになる。

本稿で挙げた3つの事例以外にも、カメラを通じてイベントチケットの予約ができるなどの活用法もある(画像:Google Official Blog5月17日投稿より)

まず1つ目の例では、目の前の花について詳しく知りたくても、その花の名前が分からなければ、詳しい情報にたどり着くことができなかった。目の前の物体から検索する仕組みは、今まで知り得なかった情報にたどり着く新たな手段を提供した。

またWi-Fiの設定の例は、今まで一度人の目で確認して、スマートフォンのキーボードを通じて入力していた、非常にミスの起きやすい状況を解決してくれるものだ。しかも、Google Lensは、目の前にあるランダムな文字列が、Wi-Fiの設定情報だと理解し、スマホをネットワーク接続に導いてくれている。

3つ目の例も、非常にスマートフォンらしい機能だ。スマートフォンのGPS等による位置情報によって、その人がどこにいるかは分かる。そしてどちらを向いているのかもわかり、画像認識をサポートすることで、カメラに映した店の情報を適切に表示している。これも、いちいち店の名前を調べて入力する手間から解放されている。