Googleは9月23日(米国時間)、Android向けの新機能として顔の表情や目の動きを検知してスマートフォンを操作する、新しいアクセシビリティ機能を発表した。筋萎縮性側索硬化症(ALS)、筋ジストロフィーといった難病を抱えている人など、言語障害や運動障害を持つ利用者を想定したユーザー補助機能だ。

発表された機能のうちの1つは「CameraSwitches」という機能。Androidスマートフォンの前面カメラを使い、右を見る、笑う、口を開くなど目や顔の動きに基づく、6つのジェスチャーを検知。「ホーム画面に戻る」や「通知を開く」といった指示を各ジェスチャーに割り当てることで、直接スマートフォンを触らなくとも希望した操作ができるようになる。同機能は設定の「ユーザー補助」もしくはアプリ「Android Accessibility Suite」から利用可能になる予定。提供は9月30日からとのこと。

また、「Project Activate」という新機能は、Androidアプリとして提供される。こちらも前面カメラを活用した機能で、ユーザーの顔のジェスチャーを利用し、事前に登録したフレーズを再生したり、メッセージを送ったり、電話の発信操作をしたりできる。

フェイス・ジェスチャーを使うことで、障害のある人々が会話に参加する際に、物理的なスイッチを使って文字入力するよりも素早く反応を返せるとする。「Project Activate」の利用環境は現時点では英語のみ。米国、英国、カナダ、オーストラリアのGooglePlayストアからダウンロードできる。