【レポート】

Google I/O基調講演、「AIファースト」で次代のクラウド制覇を狙うGoogle

2 マルチタッチ、音声の次はビジュアル・インターフェイス

2/4

AI優先は、私たちの生活にどのような変化をもたらすのか。すでに現実になっているのが自然言語によるデジタルアシスタントとのやり取りである。PC時代のキーボード&マウスからモバイルでマルチタッチが普及し、Google Homeのようなスマートスピーカーで音声にインターフェイスが広がっている。そして、次はビジョンである。話し言葉、画像や動画の内容をAIが認識する精度が高まることで、「話す/聞く」「見せる/見る」といった手軽な方法で、私たちはAIやサービスとインタラクトできるようになる。

キーボード&マウス、マルチタッチ、音声、そしてビジョンに、インターフェイスがスケールアップ、それと共にスマートなデバイスも拡大

改善が難しくなる10%を下回ってからも、スピーチ認識のエラー率は順調に縮小している

アルゴリズムによるイメージ認識の精度はすでに人の判断を上回っている

すでに実現している機械学習を活用した暗所ノイズの効果的な除去

それほど遠くない将来に、金網越しの写真から自動的に金網を取り除くような処理も自動化される

最初の発表は「Google Lens」だった。モバイルデバイスのカメラでキャプチャしたビジュアルをAIが解析し、画像や映像に基づいたアシスタントをGoogle Assistantが提供する。AR(拡張現実)を取り込んだGoogle Assistantと呼べるようなサービスだ。たとえば、プリセットの長い文字列を入力しなければならないワイヤレスルーターの接続設定。Google Lensでルーターに貼られたバーコードを撮影すると、AIが機種を認識してGoogle Assistantが自動的に設定を完了させるということが可能になる。

Google Lensを使ってバーコードを読み込んでワイヤレス設定を完了

店にカメラを向けるだけで、その店の情報やレビュー、ソーシャルデータをGoogle Assistantが引き出す

2/4

インデックス

目次
(1) Androidのアクティブデバイス数が20億台突破
(2) マルチタッチ、音声の次はビジュアル・インターフェイス
(3) 「AI優先」のためにデータセンターを再設計
(4) 「AI優先」時代のGoogleのビジネスモデルは?
関連キーワード

人気記事

一覧

新着記事