Hewlett Packard Enterprise(HPE)は6月、米ラスベガスで開催した年次イベント「HPE Discover 2024」で、NVIDIAと共同開発した「HPE Private Cloud AI」を発表した。AI向けプライベートクラウドのターンキーソリューションと位置付けた製品だ。今回、同社 HPC&AI事業担当エグゼクティブバイスプレジデント兼ゼネラルマネージャのNeil MacDonald氏に、提携の狙いについてインタビューを行った。

  • 「HPE Discover 2024」に登壇したHPE HPC&AI事業担当エグゼクティブバイスプレジデント兼ゼネラルマネージャのNeil MacDonald氏

    「HPE Discover 2024」に登壇したHPE HPC&AI事業担当エグゼクティブバイスプレジデント兼ゼネラルマネージャのNeil MacDonald氏

GPUの供給に「心配はない」

--NVIDIAとの提携強化を発表しました。GPU供給不足と言われますが、HPEはGPUの供給を確保できるのでしょうか?

MacDonald氏(以下、敬称略):HPEはNVIDIAと良好な関係を築いている。HPE Discoverの初日は、Antonio(HPE CEOのAntonio Neri氏)とJensen(NVIDIA CEOのJensen Huang氏)が一緒にステージに立ち、共同開発したソリューションを発表した。

  • HPE CEOのAntonio Neri(アントニオ・ネリ)氏とNVIDIA CEOのJensen Huang(ジェンスン・フアン)氏

    「HPE Discover 2024」で対談するHPE CEOのAntonio Neri(アントニオ・ネリ、写真左)氏とNVIDIA CEOのJensen Huang(ジェンスン・フアン)氏

NVIDIAとHPEは、生成AIの取り組みを加速して生産性などのメリットを獲得するためには、専用のターンキー型のプライベートクラウドが必要という共通認識のもとで、「HPE Private Cloud AI」を開発した。

アクセラレータ、コンピュート、接続性、ストレージ、データファブリック、モデルとランタイム、ワークフロー、ツールチェーン、ガードレールなどの機能を包括するもので、単なるアクセラレーターではなく、リファレンスアーキテクチャでもない。そして、われわれは供給側の心配はしていない。

--Dell(デル)はひと足先にNVIDIAとの提携を通じて「Dell AI factory by NVIDIA」を発表しています。Dellのソリューションとの違いについて教えてください。

MacDonald:NVIDIAと実現するのはAIコンピューティングであり、単なるアクセラレーターの供給を上回るレベルのものだ。というのも、企業は単なるアクセラレーターを超えるものを必要としている。

DellのAI Factoryはリファレンスアプローチだ。ハードウェアにフォーカスしたもので、顧客側で多くの作業を必要とする。料理に例えるなら、HPE Private Cloud AIは美味しい料理のレシピを提供するのではなく、美味しい料理を提供するものということ。

われわれは、ランタイムソフトウェアや最適化された推論マイクロサービスなどを含む「NVIDIA AI Enterprise」、HPEのAIソフトウェア「HPE AI Essentials」、企業がデータソースに接続してデータを取り込むファブリックなどを揃えている。

最も重要なものとして「HPE GreenLake」のコントロールプレーンを通じて、オーケストレーションと管理も統合したことが挙げられ、迅速に展開できることが挙げられる。オブザーバビリティとオーケストレーションを備え、統合された体験として提供する。ここが、他社と一線を画している部分だ。

一貫したアーキテクチャでスモールスタート、拡張が可能なHPEソリューション

--GoogleなどのハイパースケーラーもAIの機能を強化しています。HPEのソリューションの優位性は?

MacDonald:AIはデータを必要とする。そして、機密性や知的財産、あるいは規制などさまざまな理由で多くのデータがオンプレミスにある。生成AIの適用にあたっても、モデルのファインチューニング、RAG(Retrieval Augmented Generation:検索拡張生成)を使った推論の補強、特定の業界向けの小規模なモデルのトレーニングなどの作業でもデータが必要だ。

企業のデータの多くはオンプレミスにあり、クラウドに動かすコストは大きい。データがある場所で生成AIの作業を行うことになる。これは、セキュリティ、コスト、遅延、データへのアクセスなどさまざまな面でメリットがあり、われわれは小さな規模でスタートし、一貫したアーキテクチャの拡張を支援できる。

実際に、日本をはじめ世界の多くの企業・組織で、生成AIをオンプレミスやコロケーションで行いたいというニーズが高まっている。

ただし、オンプレミスでやろうとすると、既存のスタックでは生成AIに対応できず、新しいスタックとその管理や保守など複雑さが課題となる。

新しいハードウェアアーキテクチャ、管理、モデル、ランタイム、ツールの習得などをすべて自社で行う体力、資金力、そして時間があるという企業は少ない。

さらには、構築した後に回し続けなければならない。当社がNVIDIAと開発したソリューションはその課題を解決する。「NVIDIA AI Computing by HPE」の一部としてHPE Private Cloud AIを採用することで、ビジネス上の課題に集中することができるというわけだ。

サステナビリティにも配慮

--AIの利用が進むにつれて、電力消費の課題も大きくなっています。サステナビリティの観点からHPEはどのような取り組みを進めているのでしょうか?顧客からの関心は高くなっていますか?

MacDonald:AIシステムは世代が新しくなるごとに向上しており、これが急激なエネルギー消費の増加を招いている。省電力、モデルの性能を最適化するなど、技術力を持つベンダーを選ばなければならない。顧客の中には、省エネルギーを重要な選定項目にするところが増えている。

  • MacDonald氏

    MacDonald氏

GPUの熱問題に対し、HPEは以前からの水冷技術を活用できる。この分野でわれわれは長い歴史がある。HPE Private Cloud AIはそこにも配慮したソリューションとなっている。

また、データセンターの電力や冷却など制限のある顧客向けには、オンプレミスだけでなく、ホスティングサービスとしてもソリューションを提供できるように取り組んでいる。

現在、世界中で科学技術研究の競争力を高めるために高性能のコンピューティング能力の確保を進める動きがあり、HPEは先日、米国でロスアラモス国立研究所にスパコン「Venado」を導入した。オープニングでは、AntonioとJensenが立ち会った。

--NVIDIA AI Computing by HPEのもと、NVIDIAとの提携は今後どのように進化していくのでしょうか?

MacDonald:2社共同で最新のテクノロジーをいち早く市場に投入していくことに取り組む。最新技術をアーキテクチャに適用させていき、HPE Private Cloud AIを利用する顧客が最新技術をすぐに活用してビジネス上のメリットに変えられるようにしていく。

素晴らしい点として、共同開発したスタックにより、顧客はソフトウェア、ツールやオーケストレーションを変えることなく最新技術を活用できる。

推論マイクロサービス、モデルの最適化などは今後も進化する。ハードウェア側も最新技術が入ると変更になるが、簡単に採用できる。