企業のAI(人工知能)導入は、PoC(実証段階)から実装・導入フェーズに移行し、企業システムの中核インフラとして組み込まれ始めている。Dell Technologies(以下、デル)は2024年、AI導入を包括的に支援するフレームワーク「Dell AI Factory」を発表した。Dell AI Factoryは複数ベンダーとの柔軟な構成を可能にするフレームワークであり、ハードウェアからサービスまで、多様なパートナーと連携しながら、顧客の選択と実装を支援するエコシステム型の戦略をとる。2025年5月にラスベガスで開催された「Dell Technologies World 2025」では、Google GeminiやCohereとの新たなパートナーシップが発表された。
今後デルは、AIエージェントやマルチモデル環境への対応を含め、どのようなエコシステム戦略を描こうとしているのか。米デルのAI戦略担当 最高技術責任者(CTO)兼バイスプレジデントのSatish Iyer(サティッシュ・アイヤー)氏に聞いた。
「Dell AI Factory」が描く「選べるAI」
最初にデルのAIエコシステム戦略についてお聞かせください。
「Dell AI Factory」戦略の中核は、インフラからソフトウェアスタック、さらにサービスやユースケースまで、AI導入に必要なすべての要素を包括的に提供できる点にあります。私たちが重視しているのは、企業が自社のニーズや目的に応じて、最適な環境を自由に選択・構築できるような柔軟性を備えることです。
今回のイベントでは「Dell AI Factory with NVIDIA 2.0」を発表しました。これはNVIDIAとの協業による統合モデルであり、NVIDIAのAIソフトウェアスタックをデルのAI基盤上で活用できるようにしたものです。ただし、すべてのお客様がNVIDIA一択で構成したいと考えているわけではありません。多くの企業は、社内で開発した独自モデルや、マーケットプレイス上で選定したモデルとの併用を前提としています。
-
今回のイベントの目玉となったのが「Dell AI Factory with NVIDIA 2.0」の発表。「Dell AI Factory with NVIDIA」は2024年に発表されていたが、今回は各構成要素の機能強化が発表された
こうした背景を踏まえ、デルでは主要なAIモデルプロバイダーとも連携し、先進的なAIスタックを自社の製品・サービス群に統合しています。例えば、Metaの大規模言語モデル「Llama」とは2024年から技術連携を進めており、Dellのインフラ上で活用可能な構成を整えています。
さらに今回、カナダのCohere(コヒア)とのパートナーシップ締結も発表しました。具体的には、Cohereのエンタープライズ向けAIプラットフォーム「Cohere North」を、「PowerEdge」サーバや「PowerScale」ストレージと統合し、オンプレミス環境でのAIエージェント活用を実現します。Cohere Northは、AIエージェントの生成・構築・管理機能を備えたプラットフォームであり、大企業が自社環境に合わせたカスタマイズを行ううえで大きな強みとなります。
複数のAIモデルと連携を進めている最大の理由は、「どのモデルを使うか」をお客様自身が自由に選べる環境を提供することにあります。業種・業界・セキュリティ要件・規制環境などに応じて、最適なモデルを柔軟に選択し、それをオンプレミスでもクラウドでも展開できる。その「選択の自由」こそが、エンタープライズにおけるAI活用の真の価値だと私たちは考えています。
今回、Googleの「Gemini」についてもオンプレミス対応を発表されました。率直にお聞きしますが、なぜGeminiなのですか? エンドユーザーの観点では、ChatGPTのほうが認知度や導入のしやすさで優位に見えます。
ご指摘の点は、非常に重要です。まず前提として、リテール市場(個人・一般消費者向け)とエンタープライズ市場では、ニーズがまったく異なります。私たちが注力しているのは、あくまでエンタープライズ分野です。
この文脈でいうと、GeminiやMetaのLlama 4.0は、いずれもオープンな設計思想を前提としています。モデル構造やライセンスの透明性、オンプレミスでの運用可能性など、エンタープライズが求める信頼性とコントロール性を兼ね備えています。一方、OpenAIのChatGPTは商用利用こそ可能ですが、モデルの重みや学習データが公開されているわけではなく、オープンソースとは言えません。
Geminiのようにオンプレミス運用が可能で、Googleの管理のもとでアップデートが提供されるモデルは、導入企業にとって「中身を自社で保守せずに済む」という利便性と、「プロバイダーによる信頼性の確保」という管理性の両立を可能にします。
デルとしては、こうした特性を持つモデルを「Dell AI Factory」に適合する認定モデル(サポート対象モデル)として位置づけ、導入の容易性と運用効率の双方を高めたいと考えています。つまり、顧客が自社の要件に合わせてGemini、Llama、Cohere、独自モデルなどを選び、それらをDell AI Factory上で活用できる。こうした環境を提供することが、私たちの考える「AIエコシステム」です。
ロボティクス×AI、Dellが果たす「見えない役割」
次に産業機械やロボットなど、組込み領域におけるAIエコシステムについて伺います。日本の製造業では、エッジコンピューティングへの関心が高まり、ロボティクスとAIの統合に取り組む企業も増えています。デルとして、こうした領域にどうアプローチされていますか?
ロボティクスや物理デバイスとAIの融合は、非常に重要なテーマです。実際、私たちのお客様にも、産業機械や組込み機器など「ハードデバイス」にAIを活用している例が増えています。もっとも、デル自身がロボットそのものを製造するわけではありません。私たちが注力しているのは、それらの“頭脳”として機能するインフラやソフトウェアスタックを提供することです。
創業者兼最高経営責任者(CEO)のマイケル・デルは、以前から「AIをエッジに届ける」というビジョンを掲げており、その方針はいまも私たちの戦略の根幹にあります。ロボットや産業機械そのものが高度な推論能力を備え、自律的に判断・作業を行う存在へと進化していきます。そして、その“中枢”を支えるコンピュート基盤に私たちの技術を組み込んでいくのです。
デルには「NativeEdge」チームと呼ばれる専任部門があり、製造業向けのソフトウェアベンダーとの協業を密に進めています。エッジ環境向けには、センサーやロボット、HMI(Human Machine Interface)などを含めた多種多様なデバイスを統合・オーケストレーションできるプラットフォームを提供しており、OT(Operational Technology)領域のパートナー企業とも積極的に連携しています。
こうした業界では、それぞれの専門領域において特化したAIの適用が求められます。例えば、米PTCは製造業に特化したデジタルスレッドやAR/IoTソリューションを展開しており、彼らのアプローチは「成果」や「ユースケース」を明確に重視しています。デルはその基盤を支える役割を果たしており、PTCのソフトウェアが最大限の効果を発揮できるよう、最適なコンピュート環境やストレージ、接続性の確保といったインフラ面から支援しています。
-
“ロボティクスとの協業”というより、スタートアップ支援の一環として紹介された音声対話型ロボット「Norby」。複数の音声認識(ASR)および大規模言語モデル(LLM)プロバイダーと連携可能なマルチモーダル構成を採用している。OpenAIやGoogle、Anthropicなどのモデルを用途や言語特性に応じて切り替えられるという。Norby(社名)のCEO兼共同創業者、エイドリアン・マラン(Adrian Mullan)氏曰く「言語や発話を学習するコンパニオン・ロボット」とのこと
2025年はAIエージェント連携の標準化元年
近年のAIトレンドとして、「AIエージェント」が注目されています。SalesforceやServiceNowといったSaaSベンダーが、企業向けにAIエージェントを次々と展開していますが、デルとしても自社開発のAIエージェントを提供する予定はありますか?
その質問には、少し視点を変えてお答えするのが適切かもしれません。というのも、私たちも他の企業と同様に、AIエージェントおよび「エージェンティックAI(agentic AI)」の活用には全面的に取り組んでいます。実際、デル社内でもすでに特定業務においてAIエージェントを導入しています。
もっとも、そこで活用しているAIエージェントの多くは、SalesforceやServiceNowといった外部SaaS製品に組み込まれているものです。私たちはそれらをユーザーとして広く活用しており、ワークフローの自動化や業務プロセスの簡素化に役立てています。
例えば、従来ならITSMチケットを発行するために3つの手順が必要だった業務が、AIエージェントによって1回の操作で完結するようになるといった事例があります。これらのAIエージェントは、人間の指示を受けて結果を返す「委任型AI」として、人と協働するかたちで機能しています。
つまり、デル自身がAIエージェント製品を提供するというより、AIエージェントが動作する基盤を提供する立場であると……。
そのとおりです。私たちが提供している「Dell AI Factory」は、AIインフラの基盤を担う存在であり、その上でお客様が独自にAIエージェントを設計・構築・実行できる環境を目指しています。
私たちがあらかじめすべての業種・業務を想定してAIエージェントを設計するのではなく、お客様が自身の課題に応じて自由に開発できる柔軟性が重要だと考えています。社内においても、今後さらに多くの業務領域でAIエージェントを活用し、業務自動化を推進していく予定です。
さらに広い視点でAIエージェント活用を考えると、課題となるのが「AIエージェント同士が連携できる仕組みの整備」です。現時点では、ベンダーごとのAIエージェントが相互に連携できる環境はまだ不十分です。これからの業界の進化に向けて、この領域の整備が不可欠になるでしょう。
AIエージェント同士の連携を実現するために、Dellはどのような役割を果たしているのでしょうか。
同分野の標準化で、デルは主導的な役割を果たしています。2024年1月末には、サンフランシスコで業界横断のコンソーシアム型ワーキンググループを立ち上げました。参加企業には、Google、Anthropic、Cisco、ServiceNow、Salesforce、Adobe、そして多くのスタートアップが含まれています。
この取り組みで私たちが重視しているのは、常に「顧客の視点」に立つことです。私たちがエンタープライズの顧客の立場になって「同じIT環境の中で、それぞれのAIエージェントがどのように連携してくれるのか」という観点でSaaSベンダーと議論をしています。
こうした議論は着実に前進しています。例えば、Anthropicが推進する「MCP(Multi-agent Communication Protocol)」のような仕様は、現在、標準化の有力候補として浮上しています。「A2A(Agent-to-Agent)」という言葉も、このコンソーシアムではすでに共通言語として用いられつつあります。
個人的見解ですが、私は2025年の後半か年末までに、一定の標準仕様が定義される可能性が高いと見ています。AIエージェントの時代が本格的に始まる今、エコシステム全体が連携できる基盤をいかに整備するかが、業界の行方を左右することになるでしょう。