2018年モデルの新型スマートフォンが出揃いつつある。
ここで一度、各社の発表内容をまとめながら、スマートフォン競争の様子を俯瞰して見てみよう。
「5点」に絞られたスマホ競争
Appleは9月12日にiPhone XS・iPhone XRを発表し、5.8インチ・6.5インチの有機ELディスプレイを搭載したiPhone XSシリーズを9月21日に発売した。廉価版となるiPhone XRは10月19日から予約を開始し、10月26日に発売される予定となっている。
Samsungは8月に米国ニューヨークで、フラッグシップとなる6.4インチ有機ELディスプレイを搭載したGalaxy Note9を発表。日本でも10月下旬の発売が決まっている。
Googleは10月9日に米国ニューヨークで、第3世代となる自社ブランドのスマートフォンPixel 3、Pixel 3 XLを発表。こちらも日本で11月に発売される予定だ。10月30日にはニューヨークでOnePlusが新製品を発表する予定となっている。
ここまでの各社の発表から、新モデルのスマートフォン競争でのポイントは、以下の5つに集約されつつある。
1.画面サイズの6.5インチ程度までの拡大
2.有機ELディスプレイを採用した高画質を実現
3.サウンド再生機能
4.カメラ撮影機能
5.スマートウォッチ、ペンなどのアクセサリ
各社の動向を説明する上で、もっとも注目すべきはAppleだ。以下、同社の発表を元に説明を進めていこう。
eSIM対応で欠点をつぶしたApple
まず触れておくべき点は、新たに「eSIM」(中国では2枚のSIM)を活用した2つの回線の同時待ち受け(DSDS)のサポートを実現したこと。また上位モデルとなるiPhone XSでは4×4 MIMOのサポートによる1GbpsクラスのLTE通信を実現した。
これはiPhoneとしては初めての対応となるが、Androidの世界ではすでに実現されてきたことであり、昨年のワイヤレス充電や防水機能などと同様に、通信面での欠点をつぶした対応と見ていいだろう。
機械学習の処理能力を日々のスマホ利用に生かす
次に、AppleとGoogleが同調して仕掛けている「ハイエンドスマートフォンの差別化」要因が顕在化してきた点に注目してみる。
Appleは9月12日、ハイエンドモデルのiPhone XSからエントリーモデルのiPhone XRにまで搭載した「A12 Bionic」に備わっているニューラルエンジンにフォーカスしたプレゼンテーションを展開した。
そこでは、Appleが推進する拡張現実(AR)アプリのデモや、ただカメラで映しているだけで、バスケットボールのシュート練習の分析を行うことができるアプリを紹介。これらのデモは、今までできなかったことを実現する未来の可能性を見せるものであった。
新しいカメラ機能についてもAppleは、A12 Bionicの性能を根拠とした進化をアピール。上位モデルでカメラが2つ搭載されているiPhone XS以上に、iPhone XRでその真価が発揮されている点も興味深い。
iPhone XRにはiPhone XSと同じ広角レンズを備える1200万画素の新しいセンサーが搭載されたが、望遠レンズのカメラは用意されなかった。
しかしAppleはこの1つのカメラと画像処理プロセッサ、ニューラルエンジンによる機械学習処理を組み合わせることで、2つのカメラと同じようにポートレートモードの写真を撮影することができるようにしている。
ちなみに、人の被写体を認識して背景と切り分けることから人のポートレート撮影に特化される点、そして、望遠レンズではないために近づいて撮影しなければならない点はiPhone XSとの差別要因となる。
その他にもiOS 12では、Siriがユーザーの行動からパターンを見出し、今必要なアプリの機能を提案したり、これに声の命令を割り当てて呼び出せるようにするSiri Shortcutsを用意したが、こちらも機械学習を生かして日々のiPhone利用を便利にする取り組みと位置づけられる。
Googleも、AIでPixel 3を差別化
GoogleのPixel 3の発表もまた、AIによるスマートフォンの差別化を前面に押し出すモノだった点で、Appleとの共通点を見出すことができる。
Pixel 3にも、1220万画素のデュアルピクセルセンサーを備えた1つのカメラが搭載されているが、同時にIntelと共同開発した「Visual Core」が搭載された。これは昨年のPixel 2から用意されていたチップで、いわば2つ目のプロセッサが搭載されているようなものだ。昨年のVisual Coreは8コアで、画像処理を行うことに特化されてきた。
Pixel 3でGoogleは「2つ目のカメラを搭載する必要はない」との結論に達し、超解像ズームやナイトショットなどのスマートフォンのカメラが苦手とされていたシチュエーションでの撮影品質の向上に加え、やはり機械学習処理によるポートレートモードの搭載、またグループショットで全員が笑顔で揃っているカットをおすすめするTop Shotなどの撮影機能を用意した。
また、Googleレンズは日本語にも対応し、映しているものの文字を自分の言語に翻訳して見せてくれる機能を利用できるようにしている。ほかにも、カメラ機能に関する機械学習処理でも非常に多くの新機能が用意されているが、Pixelの魅力はそれだけではない。

電話機能における進化も注目だ。5月のGoogle I/Oで披露した合成音声を用いて電話でレストランなどの予約を取ることができるGoogle Duplexを11月からニューヨークやサンフランシスコなどの米国の都市で利用可能にするという。
さらに、米国で問題になっているロボットコールと言われる迷惑電話に対して自動的に応答し、端末内で音声認識をして文字でユーザーに対応を選択してもらうCall Screenも備えた。
プラットホーム化ではAppleがリード
スマホ市場を牽引するAppleとGoogleは、スマートフォンのハードウェア、OSの双方をデザインする点で共通している。彼らが、スマートフォンにおいてAIを活用して行くトレンドを作り出そうとしている点でも共通項を見いだせる。
中でも、カメラや画像処理に関するアルゴリズムの実装では、Googleが上回っている。画像認識の精度の高さや、写真・ビデオの補正、人物の認識などは、Googleの方が正確であると評価することができるし、Pixelにこれらのノウハウをしっかりと取り入れてきた。
しかし、AppleはA11 Bionicでニューラルエンジンをプロセッサに組み込み、A12 Bionicではこれを大幅に進化させている。AppleはiPhoneのカメラ機能の向上にニューラルエンジンを用いているが、CoreMLを用いて開発者もその処理性能を生かすことができ、Appleが9月12日に「新しい世代のアプリ」として紹介したツールやゲームの新規性を作り出している。
もちろん、シリコンバレーでも、人工知能や機械学習技術者の不足が叫ばれる現状を考えれば、Appleの機械学習を生かしたアプリの奨励はアグレッシブに映る。しかし、アイディア、デザイン、ユーザビリティなどで差別化するアプリ開発競争に、アルゴリズムが加わっていくことを、Appleは明確に示している。
各社の新製品群は、一見2017年の「iPhone X」から代わり映えしないように見えるが、背後では「AI」を中心として大きな変革が進行しているのだ。
(松村太郎)