グーグル合同会社は2月4日、2019年10月24日の発売時からこれまで、日本で利用できなかったGoogle Pixel 4の「モーションコントロール機能」が、2月4日から順次利用可能になったと発表しました。
元々Pixel 4にはミリ波レーダー(60GHz帯)を使ったモーションセンス機能が搭載されていましたが、日本では電波法の制限で利用できませんでした。自動車の自動ブレーキなどで60GHz帯のレーダーが使われているのですが、指の動きを判断するといった利用は認められていなかったのです。このため位置情報を使って、モーションセンス機能は「封印」されていたのですが、日本で法律上の問題がないということとなり、本日から利用可能となったわけです。
モーションセンス機能が使えるかどうかは、Pixel 4の設定メニューの下の方にある「システム」を見ればわかります。Motion Senseと言う項目がグレーアウトしている人はまだ使えません(ファームウェアアップデートとは別に設定データが届くようで「気が付いたら使えるようになる」との事です)。
「人間のボディランゲージ」を理解する
2月4日に開催されたモーションセンス説明会で、機能説明を行ったプロダクト マネージャーのBrandon Barbello氏によると、Pixel4でのモーションセンサーはグーグル社内にある先端技術の研究開発部門「ATAP(Advanced Technology and Projects)」で開発された「Soli」というプロジェクトから生まれました。
Pixel 4ではタッチやカメラに変わるUI(ユーザーインターフェース)として活用されており、「プレゼンス」、「リーチ」、「スワイプジェスチャー」の3つの用途で使われているそうです。
「プレゼンス」はスマホの近くに人がいるかいないかを判断します。60cm以内に人が近づくと人がいるという事を察知し、従来ならばAllways On(常時点灯)で時計を表示させていたものを「いる時だけ表示する」ようになります(それだけ省電力に貢献します)。
さらに近づくと「リーチ」となります。近くにいるというだけでなく、これからスマホを使う可能性が高い事を、センサーが認識します。そのため顔認証のカメラをリーチの段階でONにすることによって、フェイスアンロックがさらに高速化します。
最後の「ジェスチャー」ですが、従来タッチ操作で行っていた操作を、画面に触ることなくボディランゲージで行えるようになります。たとえば「アラームが鳴る」「電話が鳴る」状態のとき、手を振るだけで音を消すことができます。
「私たちの生活でも『手を振る』ことは“静かに”を意味します。この非言語的コミュニケーション(ジェスチャ)を理解することで、よろい人間的に使えることを目指します」(Brandon Barbello氏)。センサー自体は細かい操作も検知できるとのことですが、現時点でのPixel 4はまだ対応していません。
レーダーを使うメリットは、あらゆるものの動きを細かく検知できること。また、Pixel 4のSoliセンサーは、判断処理がデバイス内で完結しているため、速度も速く、データをクラウドと連携させるマイクやカメラと異なり、プライバシー侵害につながらない点も挙げられていました。
現在Google製の数十のアプリでモーションセンサーが利用できるようになっていますが、モーションセンサーAPIは現時点では他社に公開していないとのことでした。ただし、検討中ではあるといいます。
Soliの技術を使えば、このようなUIも可能だといいます
処理がより高速化した新しいGoogleアシスタント
同日、Pixel 4向けの新しいGoogleアシスタントも公開されました(こちらも順次提供)。新しいGoogleアシスタントではアプリの起動やWi-Fiの設定などを、音声で素早く行えるようになったのが特徴です。起動も「OK google」のウェイクワードや画面下部を握る「Active Edge」に加えて、ホーム画面の下コーナーから斜め上にスワイプでも対応します。こちらはソフトウェアの機能なので、将来は他機種(他メーカー製品を含む)への展開も期待できそうです。
-
スマホ向けのGoogleアシスタントは翻訳機能があり、44言語の会話をサポートします
-
ビジネス向けにはNest製品を通訳装置として利用可能になります(現在パイロットプログラムを実施しており、年内公開予定)
2019年12月13日に追加された、Googleアシスタントの通訳モード。「OK Google、英語を通訳して」などの声掛けで、Googleアシスタントが通訳モードになります。実際に編集部で試用しても、かなり精度が高い印象。動画は説明会で披露されたデモです