グーグル合同会社は2月4日、2019年10月24日の発売時からこれまで、日本で利用できなかったGoogle Pixel 4の「モーションコントロール機能」が、2月4日から順次利用可能になったと発表しました。

  • グーグルはモーションセンスに関する機能説明会を都内で実施しました。当日のGoogle Pixel 4デモ機は当然ながら「封印解除済」。すべてモーションコントロール機能が使える状態でした

元々Pixel 4にはミリ波レーダー(60GHz帯)を使ったモーションセンス機能が搭載されていましたが、日本では電波法の制限で利用できませんでした。自動車の自動ブレーキなどで60GHz帯のレーダーが使われているのですが、指の動きを判断するといった利用は認められていなかったのです。このため位置情報を使って、モーションセンス機能は「封印」されていたのですが、日本で法律上の問題がないということとなり、本日から利用可能となったわけです。

モーションセンス機能が使えるかどうかは、Pixel 4の設定メニューの下の方にある「システム」を見ればわかります。Motion Senseと言う項目がグレーアウトしている人はまだ使えません(ファームウェアアップデートとは別に設定データが届くようで「気が付いたら使えるようになる」との事です)。

  • 手元のPixel 4はまだ「封印中」。システムのMotion Senseはグレーアウトされており、さらにブルーの注意マークも付いています

  • モーションセンス機能は国ごとにON/OFFがなされており、海外で買ってきたとしても日本では使えませんでした

  • 本日から順次Pixel4でモーションセンスが使えるようになり、メニュー画面が黒く表示されます

  • Motion Senseの項目をタップすると設定画面が表示されます

  • Pixel 4向けの新しいGoogleアシスタントも順次公開されます。違いはGoogleアシスタント画面を表示させた時、下部にレインボーのバーが出ていると新バージョンです

「人間のボディランゲージ」を理解する

2月4日に開催されたモーションセンス説明会で、機能説明を行ったプロダクト マネージャーのBrandon Barbello氏によると、Pixel4でのモーションセンサーはグーグル社内にある先端技術の研究開発部門「ATAP(Advanced Technology and Projects)」で開発された「Soli」というプロジェクトから生まれました。

Pixel 4ではタッチやカメラに変わるUI(ユーザーインターフェース)として活用されており、「プレゼンス」、「リーチ」、「スワイプジェスチャー」の3つの用途で使われているそうです。

  • プロダクト マネージャーのBrandon Barbello氏

「プレゼンス」はスマホの近くに人がいるかいないかを判断します。60cm以内に人が近づくと人がいるという事を察知し、従来ならばAllways On(常時点灯)で時計を表示させていたものを「いる時だけ表示する」ようになります(それだけ省電力に貢献します)。

さらに近づくと「リーチ」となります。近くにいるというだけでなく、これからスマホを使う可能性が高い事を、センサーが認識します。そのため顔認証のカメラをリーチの段階でONにすることによって、フェイスアンロックがさらに高速化します。

最後の「ジェスチャー」ですが、従来タッチ操作で行っていた操作を、画面に触ることなくボディランゲージで行えるようになります。たとえば「アラームが鳴る」「電話が鳴る」状態のとき、手を振るだけで音を消すことができます。

「私たちの生活でも『手を振る』ことは“静かに”を意味します。この非言語的コミュニケーション(ジェスチャ)を理解することで、よろい人間的に使えることを目指します」(Brandon Barbello氏)。センサー自体は細かい操作も検知できるとのことですが、現時点でのPixel 4はまだ対応していません。

  • モーションセンサーによって、スマホにタッチすることなく「プレゼンス」、「リーチ」(画面実線)、「スワイプジェスチャー」がわかるようになります

レーダーを使うメリットは、あらゆるものの動きを細かく検知できること。また、Pixel 4のSoliセンサーは、判断処理がデバイス内で完結しているため、速度も速く、データをクラウドと連携させるマイクやカメラと異なり、プライバシー侵害につながらない点も挙げられていました。

現在Google製の数十のアプリでモーションセンサーが利用できるようになっていますが、モーションセンサーAPIは現時点では他社に公開していないとのことでした。ただし、検討中ではあるといいます。

  • Project Soli初期のモジュールは非常に大きく、スマホに入るサイズではありませんでした

  • モジュールは1年ごとに小型化。開発には5年を要しました

  • 画像でも音声でもないモーションセンサーからの信号処理には苦労したようです

Soliの技術を使えば、このようなUIも可能だといいます

処理がより高速化した新しいGoogleアシスタント

同日、Pixel 4向けの新しいGoogleアシスタントも公開されました(こちらも順次提供)。新しいGoogleアシスタントではアプリの起動やWi-Fiの設定などを、音声で素早く行えるようになったのが特徴です。起動も「OK google」のウェイクワードや画面下部を握る「Active Edge」に加えて、ホーム画面の下コーナーから斜め上にスワイプでも対応します。こちらはソフトウェアの機能なので、将来は他機種(他メーカー製品を含む)への展開も期待できそうです。

  • グーグル ソフトウェア エンジニアの池田大介氏

  • 新しいGoogleアシスタントでは起動方法やPixel4の設定操作が追加されました。本体だけでは難しい作業はクラウドに任せることでスピードもアップ

  • スマホ向けのGoogleアシスタントは翻訳機能があり、44言語の会話をサポートします

  • ビジネス向けにはNest製品を通訳装置として利用可能になります(現在パイロットプログラムを実施しており、年内公開予定)

2019年12月13日に追加された、Googleアシスタントの通訳モード。「OK Google、英語を通訳して」などの声掛けで、Googleアシスタントが通訳モードになります。実際に編集部で試用しても、かなり精度が高い印象。動画は説明会で披露されたデモです