インテルは2月3日、「技術とビジネスをつなぎ社会を前進させる」をテーマとするイベント「Intel Connection Japan 2026」を開催。同社の最新世代技術「Intel 18Aアーキテクチャ」を採用したAI PC向けプロセッサ「Intel Core Ultra シリーズ3」に関する技術や搭載PC、ソリューション、エコシステムなどの説明を行った。
広がる現実世界でのAI活用
オープニングに登壇したIntelの日本法人であるインテルの代表取締役社長である大野誠氏は、今回のイベントテーマを「Next Starts Now」と説明。日本語としては、「次は今からはじまる」と表現し、AIと人、AIと企業、AIと社会がつながってくる次の世界に向けたアプローチをIntel(および日本法人のインテル)が積極的にパートナーなどと一緒に推進していくことを強調した。
ちなみに、オープニングスピーチの前にはAIを活用した映像表現と武楽を組み合わせた総合芸術が披露された。演者は武楽の創案者でもある源光士郎氏、映像作品はCHAOSRUの内藤薫氏によるもので、開催日が節分ということもあり、邪気を払い、イベントが無事に終わることを祈願しつつ、能楽の世界でいうところの、本舞台が現実の世界であり、橋掛りの先にある揚幕(五色の縦縞の幕。演者たちが出番を待つ鏡の間を区切る役割を持つ)の先があの世の世界であることを、現実世界とクラウドの仮想世界をかけて、クラウドという向こう側ではなく、人々の手元にIntelの技術の結晶が届くというイメージを重ね合わせた内容となっていた。
4つの柱で変革を推進するIntel
大野氏に代わって「最新AI PCで輝く未来」というタイトルで登壇したIntelのセールス・マーケティング & コミュニケーション統括本部 アジア太平洋および日本ゼネラル・マネージャーのハンス・チュアン氏は、Intelが現在、4つの柱で変革を推進していると説明した。
1つ目が財務基盤の強化で、バランスシートの強化に向けて2025年にはソフトバンク、NVIDIA、そして米国政府からの投資を受け、健全化が進んでいるとした。2つ目がx86エコシステムへの注力でこちらは2つの側面があるとする。一方はIntel自身が卓越したx86製品を市場に提供していくこと。Core Ultra シリーズ3がまさにそれにあたるとする。もう一方は他社との協業によるエコシステムの拡大で、2024年のAMDとのx86命令セットでの協業に続き、2025年はNVIDIAとの共同開発を発表した。3つ目がAIの推進で、「Intelの使命はAIを誰もが手軽に使えるようにすること」であり、すでにAI PCを通じて数百万人規模で日常のワークフローにAIが取り入れられるようになっているとする。そして4つ目がファウンドリ事業の加速で、自社最新プロセスとなるIntel 18Aの歩留まり向上と量産の拡大に加え、顧客向けに次世代のIntel 14Aの開発を進めているとする。また、Intel 14Aについては、すでに複数の大規模案件の獲得に向けた協議が進められているともしていた。
特にこの4つ目の製造分野に関しては、Intelのクライアント・コンピューティング事業本部 副社長 兼 クライアント・セグメント担当本部長であるデビッド・フェン氏が登壇。「製造と製品という2つのリーダーシップに向けて多額の投資を行ってきており、Intel 18Aは米国での製造と研究開発、先端パッケージング技術で生み出されたもの」であるとするのと同時に、ISV(独立系ソフトウェアベンダー)のエコシステム構築も推進してきたと、ハードウェアと並行してソフトウェア環境の整備を進めていることを強調した。
こうしたハードウェア/ソフトウェア連携の最たるものがvProプラットフォームの存在で、最新世代では電力効率の向上に加え、ローカルAI推論による生産性向上、Microsoftとの連携によるセキュア環境構築の推進などを行ってきており、2025年に提供を開始したvProフリートサービスでは、Intelがホストするクラウドサービスを介して、PCフリート管理をリモートで実行することを可能としており、2025年9月以降ですでに1000社を超す企業が導入を果たしたとする。
2つのシリーズ2のいいとこどりをしたシリーズ3
Intel 18Aを採用した初のSoCであるCore Ultra シリーズ3(開発コード名:Panther Lake)は、さまざまな最新技術を採用することで性能向上を果たしつつ電力効率の向上も果たしており、同社では「Lunar LakeとArrow Lake(いずれもCore Ultra シリーズ2製品向け開発コード名)の良いところを組み合わせたような存在」と表現する。
また、基調講演後の技術詳細セッションでは「この数年温めて積み上げてきた製造技術と設計の改良の両方が兼ね備わった存在」とも表現されており、その大きな役割を果たしているのがRibbon FETトランジスタとPowerViaだとする。
Ribbon FETトランジスタは、いわゆるGAAトランジスタで、複数のチャネルを全周囲からゲートで囲むことを可能とし、リーク電流の減少と高速化を実現したことで大幅な電力削減を実現したとする。
もう一方のPowerViaは、従来のトランジスタ形成工程であるFEOL(Front End of Line)を経てBEOL(Back End of Line)にて配線層が形成されるが、その配線は信号線、電力線、グランド(グラウンド)をすべて内包する形で行われていたものを、信号配線と電力/グランド配線を分離して形成するもの。わかりやすく言えば、トランジスタ層の上半分に信号配線層を形成して、トランジスタ層の下半分に電源とグランド配線を形成する住み分け構造とすることで、単位当たりの面積利用率を向上させることを可能とする技術である。
これらの新技術を導入した結果、Ribbon FETトランジスタの効果によりエネルギー効率で15%向上、PowerViaの効果により単位面積あたり電力を30%節約できるようになったという。
さらに、製品としてもシリーズ3はIntelのチップレット技術であるFoverosと「第2世代拡張ファブリック」と呼ぶコヒーレント・ファブリックを用いることで、チップ内部のシリコン構成(コンフィグレーション)を3種類に分けつつも、いずれもチップサイズとピン配置を同じとすることで、どのようなシステムのフォームファクタであっても、用途に応じた柔軟性を提供することを可能としている。
最上位に位置づけられている「Core Ultra X9 388H」では、Pコア×4、Eコア×8、LPEコア(Low Power E)コア×4の16CPUコア構成に加え、GPUであるXe3が12コア(Intel Arc B390)のフル構成となっているが、前世代のCore Ultra 9 288VおよびCore Ultra 9 285Hと比較してシングルコア性能で最大40%低い電力で同等性能を出せているとするほか、マルチコア性能についてもCore Ultra 9 288Vと比べて最大60%の性能向上を果たしたとする。
加えて、低消費電力化についてはトランジスタレベルでの改良に加え、プラットフォームレベルでの電力抑制技術も投入することで、Core 7 150Uと比べて最大65%の削減が可能となったとのことで、これにより27時間連続でNetflixが視聴することや、9時間連続で3×3形式のTeams会議が可能になるとする。
ローカルでさまざまなAI処理が可能に
デビッド・フェン氏は、Core Ultra シリーズ3について「パフォーマンス、電力、フォームファクターのトレードオフがなくなった」とし、さまざまなパフォーマンスラインナップでさまざまなニーズに応じることができることを強調するほか、対応するAI体験の拡大についてもCore Ultra シリーズ1では9つのカテゴリであったものが、シリーズ3では72まで拡大しているとする。
実は同社、この数年の間、ISVのコミュニティの支援を推進する形で350社以上のサポートを行ってきたという。しかも、複数のAI機能を1つのアプリケーションでサポートするといったことや、アプリケーションの中でAIがユーザーに気づかない部分で利用されるシーンなども増えてきており、AIのモデルについても主要なものを中心に900以上に対応済みとするほか、OpenVINOに加えて、PyTorch、WindowsMLといったフレームワークやAPIへの対応や最適化も進めているという。
加えて、シリーズ3ではNPUが最大50TOPS、GPUが最大120TOPS、CPUが最大10TOPSの合計最大180TOPSのAI演算性能を提供。AI PCの処理性能が向上してきたことで、すべてをデータセンターのGPUで処理する必要がなくなってきたと考えるサービス提供事業者も出てきたとのことで、AI PCを活用して経済的、技術的ニーズに基づくハイブリッドエージェント型AIの時代が到来し、MCPサーバを介してローカルとクラウドをAIに必要に応じて動的に使い分けるようになっていくとの見方を示す。Intelでも、そうした時代に対応するべくリファレンス・デザイン・プラットフォーム「Intel AI Super Builder」の提供を開始。ハイブリッドエージェント型プランナーが最初にユーザーからの要求を受けることで、セキュアな要求であるのかを判断し、クラウドに振るのか、ローカルに留めて処理するのかを状況に応じて判断し、クラウドとローカルの間をエージェントが行き来して、要求タスクの処理をパフォーマンスの最適化とともに提供することをが可能だとする。
同社では最大180TOPSという数値が取り上げられやすいが、ポイントはそこではなく、最大96GBのメモリを搭載すると、700億パラメータをローカルのプラットフォーム上で動かすことが可能であるという点にあり、かなり多くのAI処理がローカルで対応でき、必要な時だけクラウドにアクセスしてもらうなど、ユーザー、サービス事業者それぞれが最適なコスト、電力でAIを運用することが可能になる時代が見えてきたとするほか、エージェントが運んできた処理を確実にAI PC上で処理できる取り組みも進めており、IntelのSoCであれば動かないAIはないという状況を作ることを推進しているという。
PCから組み込み、エッジ、フィジカルAIへと適用範囲の拡大を目指す
AIの活用はAI PCやスマートフォン(スマホ)上の話だけではなく、産業機器や通信、医療といった分野でも活用が進んでいる。こうした分野の多くがリアルタイム処理性能が求められ、クラウドに依存せず、低遅延での意思決定を必要としており、そうしたニーズは今後、フィジカルAIの進化で普及が期待されるサービスロボットにおける人間との自然なインタラクションなどでも生じることが予想される。
インテルの大野氏は「Core Ultra シリーズ3は性能や電力も魅力的だが、AIのリアルタイム処理にも優位性がある」とし、システムのダウンタイムが許されない産業機器や医療機器などでも最適なソリューションであるとし、エッジやフィジカルAIベースのロボットなどにも採用されるとの期待を示し、ロボット向けプラットフォームを2026年内に投入する予定であることを明らかにした。
データセンターの推論にも対応
このほか、IntelのAIグループ プロダクト・マネジメント & GTM 副社長であるアニール・ナンドゥリ氏が、AIデータセンターで拡大する推論ニーズがビジネスチャンスになると説明。AIエージェント全盛の時代になれば、今以上の演算能力が必要になるが、クラウトとローカルのハイブリッドAI処理同様、データセンター内部でもGPU、CPU、NPU、DPUなどでAI処理をニーズに応じて振り分けることで最適化を図る必要性が生じることを強調。
-

GPUのみならずCPU、NPU、DPUなどさまざまなハードウェアと、それを加味して最適な割り振りをするAIエージェントにより、データセンターにおける求められる性能と消費電力の最適化を図ることができるようになるとする
Intelはそうした複数のハードウェア、アーキテクチャ、ベンダをサポートできる取り組みを進めており、推論GPUとして最大160GBのLPDDR5Xメモリを搭載し、Xe3アーキテクチャの性能最適化バージョンとなるXe3Pアーキテクチャを採用した「Crescent Island(開発コード名)」の開発を進めており、2026年後半に顧客向けサンプル出荷を開始する予定であるとしており、Arc Pro Bシリーズ、Xeon、そしてデータセンター向けアクセラレータ/GPUによるヘテロジニアスデータセンターの構築を提案することで、高演算効率と高コスト効率の両立実現に取り組んでいくとした。
なお、大野氏は、多くのパートナーに向けて「2026年はインテルジャパンが設立された1976年からちょうど50年。これからの50年に向けて、テクノロジーの民主化に向けてパートナーとともに取り組んでいきたい」とメッセージを送り、協力してAI時代に向けた新たな技術やソリューションの展開を図っていきたいとしていた。















