「VMware Explore 2023」(8月21~24日ネバダ州ラスベガス開催)で注目を集めたのが、生成AI(人工知能)プラットフォームに対するVMwareの取り組みだ。近年はハイパースケーラーからSaaS(Software as a Service)ベンダーまで、多くの企業が自社サービスにAI機能を搭載している。

そうした状況下、VMwareはどのような生成AI戦略を執るのか。同社で最高技術責任者(CTO)兼上級副社長を務めるKit Colbert(キット・コルバート)氏が日本メディアのグループインタビューに応じ、その方向性を語った。

  • VMwareで最高技術責任者(CTO)兼上級副社長を務めるKit Colbert(キット・コルバート)氏。VMwareのPrivate AI戦略について熱弁を振るった

--最初にVMwareの製品ポートフォリオにおける生成AIの位置づけを教えてください。基調講演では「クラウドモダナイズ」「アプリケーションデリバリ」「ワークスペース環境の自律化」「エッジコンピューティング管理」というVMwareの注力領域と「AI活用」が並列して紹介されました。AI領域の取り組みは、VMware25年の歴史の中でターニングポイントとなるのでしょうか--

  • クラウドスマート戦略を支える5つの領域。これまでは左側4つだったものが「AI活用」(右側)が加わった

Colbert氏:  はい。100%ターニングポイントになると確信しています。現在数多くのアプリケーションが市場に投入されていますが、そのほとんどがAIを搭載しています。つまりAI(搭載)アプリがクラウドやデータセンター、エッジを“支配”するのは時間の問題だと考えています。

そのような状況下、ITインフラソフトウェアを提供するVMwareは「AI搭載アプリをサポートする」という観点から、非常に大きなチャンスであると考えています。ご存じの通り、これらのアプリは既存のアプリよりも多くのコンピューティング・リソースを必要とします。ですから、コンピューティング・リソースの最適化はより重要になるのです。

もう1つのポイントは、VMware製品自体に対してどのようにAI機能を追加できるかです。今回われわれは、Tanzu、NSX+、Workspace ONEに対し、「インテリジェント・アシスト機能」を追加しました。例えばNSX+のインテリジェント・アシスト機能は、既存のNSXが持つネットワークの侵入検知機能を、AIでさらに拡張しています。

  • Tanzu、NSX+、Workspace ONEに、AIをベースとしたインテリジェント・アシストが備わった

ただし、侵入検知や攻撃分析といった領域でどのようにAIを活用できるのかは探究段階です。昨今、サイバー攻撃は増加傾向にあり、その手口も巧妙化しています。ですから(自社のネットワーク/システム内で)何が発生しているのかを把握するのは、専門知識と人手が必要です。さらに何が起きているのか根本的な原因を突き止め、適切に修復して問題を解決するには数日単位の時間を要します。

こうした課題に対し、AIは非常に有効です。(通信の)振る舞いやデータ・ストリームをすべて調査し、どれが攻撃で、どれがそうでないかを突き止められます。さらに特定の攻撃(キャンペーン)を突き止めたら、トリアージや修復のプロセスもガイダンスできます。

こうした作業を担当する人材にネットワークに関する知識は必要ですが、セキュリティのエキスパートである必要はありません。私はここにチャンスがあると考えます。つまり管理者に権限を与え、より多くの作業を迅速にできるようにするのです。この分野には大きな経済的価値があると考えています。

--生成AIの使い分けについて教えてください。AWSのようなハイパースケーラーは独自の生成AIをサービスとして提供しています。今後、生成AIが基本サービスとして提供されるようになった場合、ユーザーはどのように生成AIを選択するようになると考えますか--

Colbert氏: われわれが提供する「VMware Private AI Foundation」はソフトウェア・スタックです。今回発表した「VMware Private AI Foundation with NVIDIA」「VMware Private AI Reference Architecture for Open Source」もソフトウェア・スタックであり、(そのスタックの中に包含される)Private AIはパブリッククラウドやデータセンター、エッジなど、あらゆるクラウド基盤で稼働させることができます。

VMware Private AI FoundationとVMware Private AI Reference Architecture for Open Sourceは、どちらかというとオンプレミス環境にフォーカスしたものですが、クラウドへのデプロイも検討したいと考えています。その場合はVMware Cloudのように、クラウドパートナーにGPU対応インスタンスを共同オファリングに提供してもらわなければなりません。こうした連携がスムーズにいけば、VMware Private AI Foundationは成功すると確信しています。

--ただし、潜在的に競合する技術や異なる技術がある場合は、連携が難しくなるのではないでしょうか--

Colbert氏: そうした課題の“解”の1つとなるのがKubernetesのような技術であり、われわれはTanzuの一部として「VMware Kubernetes Grid」を提供しています。これによって、クラウド間で一貫性のあるKubernetes管理モデルを構築できます。

例えば、AWSは「Amazon Bedrock」「Amazon Sage Maker JumpStart」など、さまざまな生成AIサービスを提供しています。しかし(AWSを利用している顧客の中には)VMware Private AI Foundationを利用し、オンプレミス環境とエッジ環境で一貫した運用手法に則ってPrivate AIを活用したい場合もあるでしょう。そうした顧客に対してわれわれは選択肢を提供したいのです。

もう1つ興味深いのは、ベンダーによって生成AIサービス利用のコストモデルが異なることです。多くのサービスはトークンごとに課金しています。一方、VMwareのソリューションはインフラに重点を置いており、コアごとに課金します。顧客のユースケースにもよりますが、私たちのようなコストモデルを活用すれば、コスト削減を実現する可能性もあるのです。

  • Private 生成AI導入時に企業が検討すべき要件。「選択肢」「コスト」「パフォーマンス」「コンプレックス」、そして「プライバシー」だ

とはいえ、Private AI Foundationの取り組みは始まったばかりです。技術プレビューを発表したのは顧客からのフィードバックを得ながら何が重要なのかを把握し、今後に生かすためでもあります。

--ちなみにVMwareの製品開発チームでも生成AIを活用してコードを書いているのですか--

Colbert氏:  残念ながら(笑)、私たちはまだコード開発に生成AIをあまり活用していません。その背景を説明しましょう。

われわれは2023年初頭、生成AI活用のポリシー策定に焦点を当てた「AI Council(協議会)」を社内に設立しました。法務部門は製品開発部門が生成AIを利用することに懸念を抱いています。その理由はデータ・プライバシーと知的財産です。

  • 生成AI活用で懸念されるプライバシーの課題

所有権のある(可能性がある)データを学習データにした生成AIを社内で使用すれば、知らずに第三者の知的財産を侵害していることになります。このリスクをわれわれは非常に懸念しています。ですから一般的なガイダンスとして、顧客向けの製品に生成AIを活用する際には、細心の注意を払わなければなりません。

社内のコーディング・プロジェクトに生成AIを活用する場合は問題ないでしょう。しかし、(製品として)対外的に提供するものに対しては慎重になる必要があります。例えば、マーケティングでは生成AIを使用しています。詳細は知りませんが、彼らが行っていることを徹底的に検証し、私たちの価値観やリスク、法令遵守の観点に合致した方法で安全に実施していることを(会社として)確認しています。

私たちのチームで実施しているパイロット・プログラムには50人~100人の開発者が携わっています。Hugging Face(※1)の「StarCoder(※2)」を実際に使用し、その結果をフィードバックしてもらっています。

※1 Hugging Face:自然言語処理(NLP)に関するオープンソースのコミュニティを運用する米国企業。同社が提供するNLPのフレームワークを指す場合もある
※2 StarCoder:GitHubから許可されたデータで学習した大規模言語モデルの1つ

同時にHugging Faceと協力しながら(彼らが使用する)すべてのデータソースを検証し、VMwareの製品として使用しても問題がないことを確認しています。現在はまだ多くの開発者が使っているわけではありません。しかし、私たちの目標は、今後1年で、この機能が飛躍的に向上すること。私たちは(StarCoderの利用によって)生産性が飛躍的に向上すると予測しています。