「Android P」は、年内にリリースが予定されているAndroidの次バージョンです。まだ、OreoことAndroid 8.0のマシンも多くはないのに、すでにその次ですか? と思ってらっしゃる方も少ないないかとおもいますが、常に新しいバージョンを出していかねば、製品としての進化がなく、停滞したシステムになってしまいます。Windowsでさえ年2回のアップデートが出るこのご時世、オペレーティングシステムとしては、年一回ぐらいは、アップデートしないと、置いて行かれてしまいます。
Android Pは、現在、ベータ版という状態。Googleのドキュメントを見ても、たいした機能がないようですが、Google IOで基本的なコンセプトや主な改良点が発表されました。ここでは、発表とベータ版を元にAndroid Pを見ていこうと思います。
基本コンセプト
Google IOの発表によれば、基本コンセプトは、
- Inteligence
- Simplicity
- Digital wellbeing
の3つです(写真01)。InteligenceとはAI技術などを使って「知性的」な振る舞いを実現すること、Simplicityは、操作などを簡単にすることです。最後のDigital wellbeingとは、簡単にいうと「スマホ依存対策」です。利用時間による制限など、スマホの使いすぎなどを防止し「健康で幸福な状態(wellbeing)」を実現するものだといいます。
Inteligenceには、
- Adaptive Battery
- Adaptive Brightness
- App Actions
- Slice
- ML Kit
といった機能があります。
「Adaptive Battery」(写真02)は、AIにより、ユーザーの利用方法を学習し、利用頻度の低いアプリの電力消費を抑えることで、バッテリ寿命の延長を狙う技術です。Googleによれば、アプリによるスリープ解除を30%減らしたといいます(写真03)。Androidに限らず、スマートフォンにとって消費電力は一番の問題です。Androidでもバックグラウンドでの動作などをたびたび変更して、不要な電力を消費させないようにしてきました。しかし、イベントや通信のリクエストなどはっきりとわかる挙動を押さえても、これ以上は難しいという段階に来たのだと思われます。おそらくは、ユーザーがほとんどフォアグラウンドにすることがないアプリなどは、停止にしたり、スリープの抑制などを無効にすることで、電力消費を抑えるのだと思われます。
これにより、いくつかのアプリで問題が出てきそうです。たとえば、ユーザーがアプリを開いたときに新着情報をすぐに提示できるようにバックグラウンドで常にチェックしているアプリもあれば、イベントが来るまで待っていて、到来時に必要な処理をするといったアプリもあります。この技術のポイントは、ユーザーの利用パターンを学習して、アプリの利用頻度を判定するところにあり、どこまで知的な判断ができるのかが気になるところです。なお、グーグルは、Playストアのルールを変更して、グーグルが毎年指定するバージョンには必ず対応しなければならなくなったため、更新が行われていない古いアプリは急速に減っていくことになり、多くのソフトウェアは、バッテリを考慮した挙動になっていくため、問題はあまり出ないのかも知れません。
「Adaptive Brightness」(写真04)は、明るさの自動調整を「知的」に行おうというものです。現在は、外光センサーなどを使い、周囲の明るさに応じて輝度を調整しています。ただし、明るさと輝度の対応関係は常に一定になっています。しかし、人によっては、周囲の明るさに対する適切な画面の明るさに違いがあります。また、機種によっても最大、最小輝度に違いがあるほか、センサーのばらつきもあるでしょう。Adaptive Brightnessは、ユーザーの調整を元に、周囲の明るさと輝度の対応関係を自動的に変更するもののようです(写真05)。これにより、周囲の明るさに応じて起動を調整し、省電力化することと、ユーザーの満足を両立させようというわけです。
「App Action」は、アプリ側で対応が必要な機能です。これは、アプリの開発時にXMLファイルで実行可能なアクションを定義しておき、Androidが、検索やアシスタント、Google Playなどの利用時やスマートテキスト選択で適切なアクションを選んでユーザーに提示します。デモでは、インターネット検索時に、映画の題名との一致があった場合に、チケット予約アプリでのチケット予約やYouTubeでの予告編再生などのアクションを提案していました(写真06)。おそらく、前段階としてGoogle検索がユーザーが入力中のテキストが映画のタイトルの一部であることが認識され、その後、映画に関係するアプリが候補として提示されるのだと思われます。
App Actionは、対象を明確にしたアプリの動作といえます。音楽プレーヤーなら「音楽を再生」ではなく「レディガガの曲を再生」といった対象が明確になったものが「アクション」になるようです。これは、アプリ側が開発時にどのようなアクションが可能なのかを定義しておく必要があります。しかし、それにより、アンドロイドがユーザーのこれまでの利用状況などから適切なアクションを推奨することができるようになります。
現在のアプリ画面の最上部には、ユーザーのこれまでの利用状態から、一番起動する可能性が高いアプリが提案されてます。Googleによれば、その利用率は60%ほどになり、推測がある程度うまく行っていることがうかがわれます。Android Pでは、ここにさらにアクションが提案されるようです(写真07)。しかも、その提案は、ヘッドホンを接続すれば、運動支援アプリから音楽サービスアプリに切り替わる(写真08)など、現在の状態を把握したものになるといいます。おそらくは、アクションが行われた時間帯や場所なども判断材料になっているのでしょう。
さらにAndroid Pでは、こうしたアクションを提示するためのユーザーインタフェース要素として「Slice」(写真09/10/11)が使えるようになります。これは、カードのような表示領域で、前述のApp Actionなどをアプリがユーザーに提示する場合に使われるようです。なお、このApp ActionとSliceに関しては6月から早期アクセスが可能になる予定です。
「ML Kit」は、アプリに簡単に機械学習機能を組み込むためのFirebaseサービスの機能です。機械学習を使う以下のような機能が利用可能です(写真12)。
- イメージのラベル付け
- テキストの認識
- 顔検出
- バーコードスキャン
- ランドマーク検出
- スマートリプライ
一般に機械学習を利用するには、ニューラルネットワークなどのモデルを作り、大量のデータを与えて学習を行い、これをコードとしてアプリに組み込みます。しかし、こうした作業をゼロから行える技術者はまだそれほど多くありません。アプリの開発者は、その分野のエキスパートであっても、必ずしも機械学習のエキスパートとは限りません。そこで、利用範囲の広いものに限って簡単に機械学習の機能を利用できるようにしたのが、ML Kitです。必要なパラメーターを作りAPIとして呼び出せば、簡単に画像の認識結果が得られたり、画像中の顔やランドマーク(著名な建物)を検出することができるようです。
ただし、これは、Firebaseサービスの1つとして提供されます。Firebaseは、従量制のサービスですが、一定以下の利用量に関しては無料で利用可能なGoogleのサービスです。もともとは、クラウドのリアルタイムデータベースサービスとしてスタートした会社をGoogleが買収して自社サービスとしました。クラウドストレージやユーザー認証といった機能をクラウド側と連携するアプリとクラウドサービス向けに提供しています。なお、料金などについてはまだ発表はなされていないようです。