11月22日にブロードコムによる買収が完了し、激震が走っているVMware。11月14日・15日に開催された年次イベント「VMware Explore 2023 Tokyo」では、ブロードコムCEOのホック・タン氏が登壇し、「買収後もVMware製品に投資する」と宣言したが、海外メディアはVMwareの社員を2800人程度レイオフすると報じている。

さらに、12月11日には、VMware vSphereやVMware vSANなど主力製品について、ライセンス販売を終了しサブスクリプションベースに全面移行することが発表された。

そうした中、同社はPrivate AIという生成AIに関する戦略を掲げている。他社の生成AI戦略に対するPrivate AIの差別化のポイントは何か。米VMware 研究・イノベーション最高責任者 クリス・ウォルフ氏に聞いた。

  • 米VMware 研究・イノベーション最高責任者 クリス・ウォルフ氏

企業が求める4つの要件を満たすAIを提供

企業のITインフラを支えるソリューションを提供するVMwareは当然、生成AIに関しても企業が利用することを前提としている。同社は、Private AIを「AI がビジネスにもたらす価値の活用と、組織が必要とするプライバシーおよびコンプライアンスに関する要件への準拠を両立する、アーキテクチャによるアプローチ」と定義している。

「プライバシーとコントロールを自分たちのモノにするため、自社のための生成AIサービスを作ろうと思った。データのトレーニングは他社に漏れてはいけない。企業で使うとなると、コンプライアンス ビジネスの価値を両立する必要がある」(ウォルフ氏)

ウォルフ氏は、「生成AIのユースケースが増えてきており、企業は自社のニーズに応えるAIを使いたいと考えている。われわれは、SDDC(Software-Defined Data Center)によって起こした変革を生成AIにおいても提供する」と述べた。

ウォルフ氏は、Private AIにおいては、プライバシーに加え、選択、コスト、パフォーマンス、コンプライアンスを提供すると説明した。これら4つの要件は企業が生成AIに対して求めている要求事項だという。

「Private AIでは、オンプレミスのユースケースも必要と考えている。ただし、オンプレミスのインフラは複雑だ。コストはできるだけ抑えて、パフォーマンスは推論とAIクラスタを効果的に展開する。他のソリューションより10倍速い」(ウォルフ氏)

ウォルフ氏は、コストに関して、「パブリッククラウドと同等でなければいけない。社内でPrivate AIのフルスタックを利用したところ、パブリッククラウドのサービスの3分の1だった。サードパーティーのAIサービスとの比較結果は今後公開する」と語っていた。

NVIDIA、インテル、IBMと提携

ウォルフ氏は、Private AIのオープンエコシステムを拡大しているとして、今年8月に発表したNVIDIAのほか、インテル、IBM、キンドリルと提携したことを紹介した。

プロセッサを提供するNVIDIAとインテルとは、VMware Cloud Foundationと各社が持っているAIに関するソフトウェアスタックを統合する形で提供することを目指す。

NVIDIAとインテルのプロセッサベンダー2社と提携している理由について、ウォルフ氏は次のように説明した。

「AI活用において、GPUを選ぶか、CPUを選ぶかはパフォーマンスの要件による。重要なのは推論のパフォーマンス。データの解釈においGPUが必要になるが、CPUで十分の時もある。GPUには、入手して適用するのに時間がかかるという課題がある」

IBMとの提携においては、VMware Cloud FoundationとRed Hat OpenShiftで構築されたオンプレミスのフルスタックアーキテクチャ上でwatsonxを提供することを目指している。

ウォルフ氏は、エコシステムによって、「デフォルトのアーキテクチャおして、コンピュートを企業が利用しているAIに持っていくことがポイント」と語っていた。

加えて、ウォルフ氏はPrivate AIのリファレンスアーキテクチャも紹介した。、「OEMが待てない人はリファレンスアーキテクチャが役に立つ。Githubに格納されており、日本向けにローカライズされている」(同氏)

  • Private AIのリファレンスアーキテクチャ

増えるLLM、AIはどう管理すべきか?

Private AIのリファレンスアーキテクチャはさまざまなLLM(大規模言語モデル)をサポートしているが、この傾向は他のベンダーも同様だ。生成AIはさまざまな使い方が可能なため、LLMも増えている状況だ。

企業で利用するLLMが増えると、その管理が煩雑になってくることが予想される。これまでのIT業界の変遷を考えると、AI分野において、運用管理が課題となってくるだろう。

ウォルフ氏に、AIの管理について尋ねたところ、以下のような答えが返ってきた。

「ITの複雑性が増すと、コストとセキュリティのリスクが増える。一貫したアーキテクチャを利用することで、TCOを下げられる。アーキテクチャはワークロードにも適用できる。VMware Cloud Foundationに含まれているArea Automationが利用できる」

ウォルフ氏のAIの管理を簡素化するカギとして、パートナーのエコシステムを挙げた。「一貫したユーザーインタフェースで管理できるMLOpsに力を入れる」と同氏。MLOpsだけでも、21以上のベンダーが同社のスタックをサポートする意向を見せているという。