NXP Semiconductorの日本法人であるNXPジャパンは2月12日、同社オフィスにて「eIQ Agentic AI Framework」の説明会を行った(Photo01,02)。

  • 和島正幸氏

    Photo01:冒頭挨拶を行った和島正幸氏(NXPジャパン 代表取締役社長兼本社SVP)

  • 上釜悠聖氏

    Photo02:説明を行った上釜悠聖氏(シニア・ソリューション・スペシャリスト インダストリアル&IoT営業統括本部市場開発部)

これは同社本社が1月6日に発表した内容を詳細に説明するというものである。元々同社は2025年2月、Kinara.aiというAIプロセッサの会社の買収を表明2025年10月に買収を完了している

NXPがKinara.aiを買収した背景

このKinara.ai、元々はDeep Visionという名称で2018年頃に創業し、2022年にKinara.aiに改称している。2022年の時点ですでに「Ara-1」という最初のNPUを完成して販売しており、その後「Ara-2」も完成させている。NXPはDSPベースのNPU「Neutron」をすでに自社で開発して利用しているが、今回はこれにKinaraのAraベースの製品を組み合わせる格好となる。

ではKinaraを買収した目的は? という事だが、Edge AIでも従来のPerception AIからGenerative AIやAgentic AIまでをカバーするのに、Neutron NPUでは力不足だったからという話になるかと思う(Photo03)。

  • Neutron NPUでは性能不足

    Photo03:Neutron NPU単体では左のPerception AIは実行できても、その先が性能的に困難だった

そこで当面は、i.MXにAra-2を組み合わせてGenerative AIやAgentic AIを実行させる、という形のソリューションを提供する(Photo04)。

  • i.MXが必要となる理由はAra-2がPCIeでの接続が必要なため

    Photo04:i.MXが必要となる理由はAra-2がPCIeでの接続が必要であり、MCX MCUから直接接続する事が出来ないためである。SPI接続のAra-2とかを開発する予定は今のところないとの事。次に出てくるNeutron GTでこの辺を解決するつもりなのだろう

もっともこれは暫定的なソリューションであり、将来的にはこれにeIQ Neutron GTが加わる事が予告されている(Photo05)。このハードウェアをカバーする事で、eIQのSoftware Toolにも多くのラインナップが加わることになった。

  • eIQ Neutron GT

    Photo05:eIQ Neutron GTは今回初めて公開されたもので、Ara-2の先(Ara-3?)をベースにした、数百TOPSを実現できるNPUとなる。ただ当面はDiscreteでの提供になる模様だ

クラウドベースの開発環境「eIW Hub」

まずeIQ Hubであるが、これは要するにクラウドベースの開発環境であり、プロトタイピングから評価まですべてをワンストップで提供する(Photo06)。

  • 本番環境対応とは製品開発に利用可能という意味

    Photo06:この“本番環境対応”とは何のことか? というのは質疑応答でも要領を得なかったのだが、要するにPoCレベルのものではなく製品開発に使えるという意味の様で、別にAgentic AIを使うのにeIQ AI Hubが必要という意味では無いとの事

これらのツールの一部はこれまでもeIQとして提供されてきたが、今回目玉となるのは「eIQ Agentic AI Framework(eIQ AAF)」である(Photo07)。

  • eIQ GenAI Flowとは提供機能が異なる

    Photo07:eIQ GenAI Flowは2024年から提供されているが、これと統合せずに別に用意したのは、提供される機能がまったく異なるからだろう

このeIQ AFFを利用したアプリケーションの構成がこちら(Photo08)。

  • eIQ AAFで提供される範囲

    Photo08:水色の破線部がeIQ AAFで提供される範囲

あくまでもローカルで実行する事を前提にした構造で、必要に応じて他のAgentを(これはAra-2以外で)動作させて連携させることも可能となっている。実際デモとして、ある1枚の絵を目指し、これをLLama3-LLaVAで解釈させ、その結果としてMCX用のコードを生成するといった事が行われた(Photo09)。

  • 完全ローカルで動くことの意味は大きい

    Photo09:Agentの認識が34.6秒と遅いが、Llama3-LLaVAは340msで動作する(もっともTTFT:Time to First Token)は8.48secだからクラウドとは比較にならないが、これが完全ローカルで動くことの意味は大きい

また会場ではi.MXの評価ボードにAra-2のM.2 Moduleを搭載した状態(Photo10)でLLaVAを実行したデモも実施された(Photo11)。

  • デモの様子

    Photo10:ヒートシンクだけが載っている下にi.MX8があり、手前のM.2スロットに収まっているのがAra-2となる。消費電力は6Wほどで、流石にActive Fanは必要な模様

  • エッジAIにLLMを持ち込むのが現実的になりつつある

    Photo11:左の写真を解釈した結果が右に出力されている。TTFTは7.07sec、Tokens/Secondはほぼ6secほどで、エッジAIにLLMを持ち込むのが現実的になりつつあることが示された格好

NXPによればこのeIQ AAFを含むツールの提供を今年中にスタートしたい、との事であった。