コンピュータの話題の中心は2023年のChatGPTのヒットに端を発し、2024年で明確に「AI」へとシフトしました。

Open AIはChatGPTを着実に進化させ、Microsoftは強力なNPU(ニューラルプロセシングユニット)を備えるCopilot + PCを提案。Intelに替えてQualcommを立ち上げのパートナーに選びました。

そうした中でAppleにも、AIコンピューティングへの「答え」に対するプレッシャーが高まる中、6月10日(米国時間)に開幕した年次開発者イベント「WWDC24」の基調講演に、その注目が集まりました。

  • 「WWDC24」の基調講演でついに発表された「Apple Intelligence」。これからAppleデバイスの使い方はどう変わるのだろうか?

Apple Intelligenceの特長

AppleはAI戦略の答えとして、「Apple Intelligence」を発表しました。

これは独立したアプリではなく、MacやiPad、iPhoneで動作するAIのコアエンジンで、システム全般で利用することができます。簡単に言えば、MacやiPad、iPhoneのOSに、生成AIエンジンが内蔵されたというイメージ。

Siriでの利用をはじめとして、写真アプリ、メモアプリ、メール、メッセージ、Keynote、フリーボードといったさまざまなアプリで、Apple IntelligenceのAI機能を利用することができます。

しかし、他社の生成AIと決定的に異なる点は、ユーザーのプライベートな情報文脈や、アプリを用いたアクションを、安全に扱える仕組みを作り上げた点です。

Appleはかねてより、セキュリティとプライバシーの重要性を訴え、デバイス、ソフトウェア、通信などの面で、その取り組みを推し進めてきました。基本的な考え方は、デバイスの情報は極力デバイス内で処理する「オンデバイス」であること。

これにより、クラウド上に膨大な処理能力を備えて実現する生成AIで扱えなかったコミュニケーションの中身を含む個人情報を、安全に活用することができるようになり、差別化要因を作り出しています。

Appleの高品質AIモデルがメイン、ChatGPT連携はオプション

速報などでも、Apple IntelligenceがOpen AIのChatGPTを利用できる点に反応が大きく採り上げられました。しかしそれを理由に、AppleがAI分野で遅れていると評価されたり(実際株価は小幅安で反応)、プライバシーが大きく侵害されるといった誤解も生じました。

確かにChatGPTと連携する機能も備えましたが、実はこれはおまけ機能で、将来的に他の生成AIとの連結も実現していくことになるでしょう。ここでは深く触れませんが、EUのデジタル競争法(DMA)対策の一環と見ることができます。

Apple Intelligenceの本質は、Appleが独自に育ててきた高品質なAIモデルと、独自のAI処理の仕組みにあります。

Appleは今回、Apple Intelligenceを、言語モデル、画像モデル、アクションモデル、そしてパーソナルコンテキストモデルから実装しました。これらは注意深く選択された情報や、教科書や書籍を含む高品質な情報をライセンスするなどしながら、Apple独自で構築したモデル。できるだけコンパクトに、しかしより良い結果を作り出すよう作り込まれています。

これらのモデルを駆使して、デバイス内にある情報を、デバイス内でインデックス化し、AIから利用可能にすることで、Apple Intelligenceの各種サービスを実現します。

この「デバイス内でインデックス化する」ことで、データをデバイス外に持ち出さずにAIが利用できるようになります。

混み入った処理については、Private Cloud Computeと呼ばれる機能を用いて、生成AIに必要なわずかな情報のみをクラウドに送り、処理を行う仕組みです。

ユーザーはデバイスなのか、クラウドなのかを意識することはありませんが、インデックスがデバイス内で済んでいるため、膨大なデータそのものをクラウドに送る必要がなく、クラウドを用いるAIであっても、より高いプライバシー性を保てる設計としました。

iPadメモアプリの進化に見る、Apple Intelligenceの効果

概念的な仕組みに独自性を持つApple Intelligence。では、我々の普段のデジタルライフにどのような変化をもたらすのでしょうか。

Apple Intelligenceで最も進化したアプリといえば、iPadで動作するメモアプリが挙げられます。

メモアプリは、Apple Pencilを用いて手書きでノートを取る使われ方が、日本を含む世界中の学生に人気があります。手書きで文字を書くことになりますが、その手書き文字を学習して再現する機能「スマートスクリプト」もまた、AI処理の分かりやすい事例です。

手書きで文字を書いておくと、AIが手書き文字を学習してくれます。たとえば手書きのメモに、ブラウザで調べた情報をコピー&ペーストする際、Smart Scriptによって、自分の手書き文字に置き換えて、文字を貼り付けることができます。

Math Notes機能では、iPadの計算機アプリで筆算や数式を書くと、自動的に計算され、やはり自分の手書きの数字で答えが表示されます。数式の数字を途中で直すと、自動的に答えも、やはり手書き文字で修正されるリアルタイム性もおもしろいかもしれません。

またGoogle PixelなどのAndroidデバイスで人気のある録音の文字起こしも、メモ内に貼り付けることができます。後述のWriting Toolsの要約機能を用いることで、文字起こしを簡潔にまとめることも、メモアプリ内で可能になります。

そして派手な演出は画像の生成AIである「Image Playgrounds」を用いた「Image Wand」機能。手書きでラフスケッチを描いておいて、Image Wandでくるりと囲むと、スケッチをモチーフに画像を生成してくれる機能です。これもまた、魔法のような体験といえるでしょう。

Apple Intelligenceは、複数のモデルを組み合わせながら、ひとつのアプリでの体験やワークフローにAIを取り込んでいくことが想定されており、Apple Pencilを用いるメモアプリは、その中で最も分かりやすい、目に見える変化を経験できる事例と言えます。

iPhone絵文字にも生成AI活用。MacならWriting Toolsがオススメ

iPhoneでは、やはりメッセージのやり取りが盛んであることから、コミュニケーションにおける画像生成AIによる表現が分かりやすい活用例となります。

Genmojiは、「キュウリを目に貼り付けたスマイル」や「リスのDJ」といったテキストを入力したり、友人のバースデーケーキでのお祝いや、スーパーマンに扮した母親といった、iPhoneの写真ライブラリの「人々」のデータを用いた画像などを、メッセージアプリ内で作ってすぐに送る、と言ったストレスフリーな使い方が、WWDC24の基調講演でも紹介されました。

Genmojiは、画像を生成するAIですが、クラウドのAIサーバにアクセスすることなく、デバイス内で生成処理を完結できるとしています。

自分や、写真ライブラリ内の家族や友人の顔写真を用いて、オリジナルの絵文字(=Genmoji)を作ることができますが、そうした写真をサーバに送らず生成AIの画像を楽しめるのです。

Macでオススメな使い方は、言語モデルを用いたWriting Toolsでしょう。ワープロやメモのテキストを要約したり、メールをよりカジュアルに、もしくはプロフェッショナルらしくアレンジしたり、校正をしたり、要約をしたり、おおよそ考え得るテキスト処理を、デバイス上ですばやく実現する仕組です。

たとえばPagesで、架空の設定の物語を作らせて、その設定に合わせた画像を生成して挿絵にする、といった使い方も考えられています。あるいはプログラマにとっては、Swiftコードの自動補完が便利かもしれません。

こうした一連の処理を、クラウド向けに料金を払うことなく、おおよそデバイス上の処理を中心として、すばやく実現する。これがApple Intelligenceが実装されたあとの、iPhoneやMacの世界になるのです。

“Siriに聞くだけ”のデモに見る、Apple Intelligenceのスゴさ

Apple Intelligenceは、既存の生成AI競争に十分対抗できるだけのモデル群と、オンデバイス処理によるプライバシーやスピード、より広い視野を拡げれば、消費電力やネットワーク帯域に負担をかけない形で、より多くの人々がAIを活用する世界の手法を明らかにするものでした。

しかしApple Intelligenceの凄みは、既存の生成AIと肩を並べることではありません。

Appleは、デバイス上でユーザーがどんな情報に触れ、どんな情報を受け取り、アプリで何をやっているのか、という情報全てを、生成AIによる処理の対象としているのです。

これは、チャット型やプロンプト型の生成AIが持ち合わせていない、ユーザーの生活そのものに近い情報を、AIで便利にしていこうというコンセプトがあるのです。

たとえば「自分が出発時点でいる場所を、何時に出れば、空港に迎えに行くとぴったりの時間なのか?」をSiriに質問したとします。

この質問に答えるには、まず、以前家族からメールをもらっていた飛行機のスケジュールと空港の場所の情報を把握します。次に、自分のその日のスケジュールを照らし合わせる必要があります。

自分は何時にどこで予定があるのか。自宅なのか、職場なのか、テニスコートなのか。それによって、空港に迎えに行く際の出発地点が変わってきます。経路によっては渋滞があるかもしれません。

また飛行機のスケジュールも、早まったり遅れたりすることは珍しくありません。リアルタイムのフライト情報を参照すべきでしょう。

このように、我々はスマートフォンで、上のような複雑な問題を扱っています。マメな人は予めの分類と事前のリサーチで、そうでない人は場当たり的な検索によって、問題を解決しようとしているのです。

チャット型の生成AIでこの問題を解決しようとすると、さらに面倒ごとは膨らみます。膨大なメールを読み込ませて分析させてフライト情報を探させ、自分のスケジュールも読み込ませて、飛行機のスケジュールをリアルタイム検索から把握させる必要があります。忘れてはならないのは、「誰が自分の家族なのか」すら、チャットで教え込まなければならないのです。

これを、「何時に空港へ家族を迎えに行けば良い?」と聞くだけで解決してくれるようになる。これがApple Intelligenceが実現しようとしている未来像なのです。

開発者のアイデアが、Apple Intelligenceの実力を引き出す

これに留まりません。WWDCは、開発者に対して最新の情報や、Appleが考える技術のユースケースを伝達する場です。つまり、Apple Intelligenceを活用したり、これに情報を提供する役割を、サードパーティーの開発者のアプリが担っていくことになるのです。

画像生成AIのImage Playgroundsは、他のアプリから呼び出すこともできます。また言語処理のWriting Toolsも、標準的なテキストボックスであれば、プログラミングなしで利用可能になります。

あるいは、アプリ内でのユーザーの行動、たとえば本を読んだり、スポーツをしたり、タクシーに乗ったり、という動作(Action)もまた、端末内で利用可能なデータとして蓄積されていきます。

こうして、Apple Intelligenceは、アプリからも情報を集めながら、ユーザーに寄り添うAIとして、成長を始めようとしています。