Googleは5月17日(米国時間)、Googleの開発者カンファレンス「Google I/O 2017」の一般基調講演にて、スマートフォンのカメラに写した画像をAIで解析し、情報の表示したり、ユーザーの行動をサポートする新機能「Google Lens」を発表した。今後、数カ月のうちに利用できるという。

「Google Lens」は、対話型デジタルアシスタント機能「Google Assistant」の拡張機能として追加されるもので、カメラに写った画像をAIで解析して情報を表示する。例えば、花を写すとその名前が表示されるほか、店舗の看板などを写すとその店についての情報が表示される。

花をカメラで写すと名前が表示される

店舗の看板や外観を写すと、その店舗についての情報が表示される

「Google Lens」は、単に情報を表示させるだけではない点も特徴だ。その情報を元にユーザーの行動をサポートすることも可能だ。Wi-FiのSSIDとパスワードを表示した紙を写すと、自動でそのアクセスポイントに接続する様子や、「たこ焼き 6個入り 130円」と書かれたテキストをカメラに写して「翻訳」したり、「たこ焼き」について調べるなどのデモなどが披露された。

「たこ焼き 6個入り 130円」というテキストを翻訳

SSIDとパスワードをテキストから読みってアクセスポイントに接続する

コンサートの日時が書かれた看板を写して、「カレンダーに追加する」と音声で入力するとGoogleカレンダーに予定が追加される

なお、Yoichi Yamashita氏の記事にあるように、Google Assistantのサポート言語の追加も発表され、2017年夏には日本語でも利用できるようになるという。