2024年にMicrosoftがCopilot+ PCを展開し始めた際、ハードウェア要件として掲げた「40 TOPS以上」という基準は当初、懐疑的な目で見られていました。TOPSはINT8換算なのか、CPU/GPUとの合算なのか、ピーク性能なのか、持続性能なのかといった条件によって意味が変わります。‌「テックトピア:米国のテクノロジー業界の舞台裏」の過去回はこちらを参照。

加えて、メモリ帯域幅、NPUアーキテクチャ、電力効率、推論レイテンシなど、AI PCの実際の性能を左右する要素は数多く存在します。そのため、40 TOPSという単一の数値で線引きすることの曖昧さを指摘する声が少なくありませんでした。

  • テックトピア:米国のテクノロジー業界の舞台裏 第57回

    Microsoftは独自の先進的なAI体験を提供するWindows 11 AI PCの新カテゴリとして「Copilot+ PC」を展開、「40 TOPS以上」という新たなハードウェア要件が注目を集めました

TOPSという新たな指標

しかし、この数値は強力な「マーケティング上の閾(しきい)値」として機能しました。TOPSという新たな指標をきっかけに、AIに最適化されたPCへの買い替えを検討するユーザーが増え、それがメーカー側のAI PC開発を加速させる好循環を生み出しました。

40 TOPSという要件は、従来のPCを「AI PC」という新しい設計思想へと移行させる象徴的な役割を果たしたのです。そして現在、新たな分水嶺として「100 TOPS」が意識され始めています。

Intelが1月に発表したPanther Lake(Core Ultraシリーズ 3)は、NPU単体こそ50 TOPS程度ですが、「トータルシステムTOPS(CPU+GPU+NPU)」は180 TOPSに達すると説明されています。Qualcommが2025年に発表した次世代PC向けSoCでも、NPU性能は80 TOPS級に到達する見込みです。

  • テックトピア:米国のテクノロジー業界の舞台裏 第57回

    IntelのPanther Lakeは、AI PCを意識した設計で、CPU・GPU・NPUを組み合わせたxPU設計で、プラットフォーム全体で最大180 TOPSのAI演算性能を実現

スマートフォン向けでも、MediaTekのDimensity 9500はMediaTek NPU 990とGenerative AI Engine 2.0を組み合わせることで、前世代比2倍の生成AI性能を実現しています。MediaTek自身は100 TOPS超えを明言していませんが、モバイル分野でも100 TOPS級の性能が現実味を帯びつつあります。

  • テックトピア:米国のテクノロジー業界の舞台裏 第57回

    MediaTekは、スマートフォン向けにメモリ内で演算を完結させる「Compute in Memory (CIM)」を業界初導入。低消費電力な小規模AIモデルをオンデバイスで永続的に動作させることで、次世代のアクティブAI体験を提供します

IDCやGartnerのアナリストは、2027年~2028年にかけて「100+ TOPS」クラスのAI処理能力を持つデバイスが市場の主流になる可能性を指摘しています。こうした普及予測を背景に、OSベンダーが将来のAI基準を100 TOPS級に引き上げる可能性が論じられ始めています。

40TOPSの「補助役」から100TOPSの「エージェント」へ

では、40 TOPSから100 TOPSへの進化は何を意味するのでしょうか。その鍵は、最適化が進んだ「マイクロLLM(大規模言語モデル)」の台頭です。

40 TOPSを基準としたローカルAIは、特定機能の補助(アシスタント)にとどまっていました。しかし今、100 TOPS級の計算能力が実現すれば、高度な推論やエージェンティックな動作をデバイス内で実行できる可能性が広がります。

例えば、マルチモーダルの同時処理です。カメラが捉える「視覚」とマイクが拾う「音声」を同時に解析し、コンロの上の肉が焦げる前に火力を調整したり、工場のラインで異常の兆候を検知して介入したりといった「状況判断」をリアルタイムで行えるようになるかもしれません。

また、バックグラウンドで常時AIが動作する余裕も生まれます。ユーザーの指示を待つだけでなく、状況を継続的に把握し、次の会議に必要な資料を事前に開いておくといったプロアクティブ(能動的)なエージェントの実現も視野に入ります。

UX(ユーザー体験)の観点でも、100 TOPSは重要な意味を持つと考えられます。プライバシーやセキュリティの観点から、センシティブなデータを端末外に送らず処理できるローカルAIの重要性はすでに広く認識されています。しかし、40 TOPS世代のローカルLLMは生成速度が十分とは言えず、長文の対話では応答待ちのストレスが生じることがあります。

100 TOPS級の処理能力が実現すれば、MetaのLlama 3クラスのモデルを、人間が文章を黙読するより速く動かせ、体感的な応答速度の大きな改善が期待されてます。ストレスフリーな体験が実現すれば、音声や視線などを使った新しいインタフェースが普及し、逆に現在のスマートフォンのインタフェースに人々がストレスを感じ始めるという予測もあります。

さらに、さまざまなデバイスが100 TOPS超えに向かう背景には、電力とネットワークの制約もあります。世界中の端末からのリクエストをすべてデータセンターで処理する「中央集約型モデル」は、コストと環境負荷の面で限界が指摘され始めています。そのため、AIの知能を端末側へ分散させ、クラウドは必要なときだけ呼び出すという役割分担が現実的なアーキテクチャとして注目されています。

これはOpenAIのような「大きな知能」が価値を失うことを意味するわけではありません。むしろ逆です。大規模モデルは創造や探索、学習といった重いタスクを担い、日常的な判断や即時的な応答は端末側の軽量AIが担う。この役割分担が明確になるほど、ユーザー体験は滑らかになります。

オフラインでも動作し、遅延が減り、通信状況にも左右されにくくなる。端末の知能が「遍在」するとは、生活や現場のさまざまな場所で小さな知能が働き続けるということです。いわゆる「Everywhere AI」と呼ばれる世界観です。

大型コンピューターからエッジへ - 歴史は繰り返されるのか

2月20日にThe Informationは、OpenAIが最初のAI搭載デバイスとしてスマートスピーカーを検討していると報じました。カメラを搭載し、200~300ドルの価格帯で、早ければ2027年初頭の発売になるそうです。

この報道に対して「新味に欠ける」「登場が遅い」といった失望の声も見られました。確かに、単にChatGPTと会話するだけのスマートスピーカーであれば、もっと早く登場しても不思議ではありません。

しかし、カメラ搭載という点や、現在進みつつある知能の分散化の流れ、そして2027年というタイミングを考えると、このデバイスは100 TOPS級のエッジAIを前提とした製品になる可能性もあります。単なるChatGPT端末ではなく、エッジ(端末側)でしか実現できないAI体験を目指したハードウェアとして考えると、より野心的な姿が見えてきます。

この構図は、大型汎用コンピュータからPCへのダウンサイジングに似ています。50年前、PCが誕生し、大型コンピュータに集中していた計算資源が個人の手元に広がりました。そして端末が賢くなるにつれて、アプリケーションの主戦場は末端へと移っていきました。

そして今、データセンターに独占されていた「知能」が、私たちの身近なデバイスへと広がり始めています。PCの普及が「計算」を民主化したように、AI時代にはエッジデバイスが知能の民主化をもたらす可能性があります。私たちはいま、その歴史的な転換点に立っているのかもしれません。