アプリ、ワークプレイス、エッジでセキュリティ機能強化
アプリケーションデリバリの高速化では、「VMware Tanzu(以下、Tanzu)」の機能を大幅に拡張した。Tanzuはマルチクラウド環境でモダンアプリケーション開発環境を構築するKubernetesコンテナ基盤である。
Dhawan氏は「開発者がKubernetesを簡単に利用するには、技術スキルやツールの複雑性の観点からギャップが存在する。Tanzuの目的はコンテナ基盤を簡素化し、迅速かつ継続的なアプリケーション開発・運用環境を実現するものだ」と、その必要性を強調する。
「Tanzu Application Platform」では、アプリケーションチームが高可用性、安全な接続性、拡張性などのビジネス要件を満たせるようなアプリケーションの展開を支援する「VMware Tanzu Application Engine(ベータ版)」が追加された。
またFinOps(※)強化の一環として「AWS Elastic Kubernetes Service (EKS)」や「Azure Kubernetes Services(AKS)」でクラスタコストを最適化する「VMware Tanzu CloudHealth(旧 VMware Aria Cost powered by CloudHealth)」も刷新した。
※ FinOps:Financial Operations。クラウドコンピューティングのコスト管理と最適化を目的としたベストプラクティスアプローチ。
さらに「Spring Framework 6」「Spring Boot 3」「.NET Core」のサポートや、統合開発環境(IDE)統合、新たなプラットフォームエンジニア管理コンソールも提供される。なお、既報のとおり、機械学習(ML)やAIによるマルチクラウド環境のアプリケーション運用コストやパフォーマンス、セキュリティを事前検証して最適化する「Tanzu Intelligence Services」も発表した。
一方、ワークスペース環境の自律化では、AIの統合やパートナー企業との連携によるユーザー(従業員)の生産性向上や端末機器のセキュリティ強化を実現する機能が追加された。
その1つが米Intelの「vPro」との連携である。vPro搭載のPCを一元的に管理し、PCがスリープや電源がオフの状態であっても、デバイスの修正パッチ適用サイクルを運用できるという。
なお、AIとの統合ではVMware Insights機能が強化され、PCやデスクトップ、仮想環境での稼働状況やアプリのパフォーマンスをスコア化できるようになった(関連記事:ヴイエムウェア、Anywhere WorkspaceプラットフォームにAIを統合)。
エッジコンピューティング管理では、「VMware Edge Cloud Orchestrator(旧VMware SASE Orchestrator)」が発表された。これは「VMware SASE」と「VMware Edge Compute Stack」の機能を統合した位置づけとなる。単一コンソールからエッジコンピューティングのインフラやネットワーク、セキュリティの計画、デプロイ、実行、可視化、管理が可能で、エッジ環境に応じたインフラを構築することが可能だ。
AI活用におけるOSSテクノロジーのサポートを表明
今回の基調講演で大きな注目を浴びたのが、生成AI領域での戦略である。既報のとおり、VMwareはNVIDIAと戦略的提携の一貫として、生成AI対応プラットフォーム「VMware Private AI Foundation with NVIDIA」を発表した。
VMwareでCEOを務めるRaghu Raghuram(ラグー・ラグラム)氏は、生成AIがビジネスにもたらすインパクトを「PC、Web、モバイルの次に到来する“第四の波”」と表現し、その可能性を指摘する。同社では2022年からAIに特化した研究組織「VMware AI Labs」を設立し、企業向けAIの基盤となるインフラ開発に取り組んできた。VMware Private AI Foundation with NVIDIAはその取り組みの一貫という位置づけだ。
Raghuram氏は「企業が利用する生成AIには、『プライバシー』という課題がある。ビジネス上の利益と組織のコンプライアンス、データプライバシーのバランスを保ち、データアクセス権や機密情報管理を徹底するには『Private AI』というアプローチが必要だ」と力説する。
マルチクラウド環境では、あらゆるクラウドやエッジにデータが散在する。こうした環境ではデータを集約してAIを利用するのではなく、データに近い場所でAIを利用できる環境を構築することが効率的であり、かつデータプライバシーも守られるというのがVMwareの考え方だ。
その考えに則って発表されたのが「VMware Private AI Reference Architecture for Open Source」である。
これはパブリッククラウドやデータセンター、エッジなど、企業のデータが生成、処理、利用される場所にコンピューティング キャパシティとAIモデルを提供するもので、オープンソースソフトウェア(OSS)のテクノロジーをサポートする。
企業は「Ray」「Kubeflow」「PyTorch」といった機械学習モデルフレームワークや、「Falcon LLM」「Llama2」「MPT」「NVIDIA NeMo」といった大規模言語モデルを自社のビジネス用途に合わせて選択できる。
Raghuram氏は「われわれは(企業に選択肢を提供するという観点からも)オープンエコシステム戦略を採る。Private AIというアプローチは始まったばかりだが、パートナー企業とともにその規模と可能性を拡大していく」と将来を展望した。