Hewlett Packard Enterprise(HPE)は6月20日(米国時間)、AIパブリッククラウド「HPE GreenLake for Large Language Models(LLMs)」を発表した。同社のスパコン「HPE Cray XD」をベースに、AIソフトウェアスタックを組み合わせたもので、大規模言語モデル(LLM)をオンデマンドでトレーニング、チューニング、実装できるという。

「HPE GreenLake for LLMs」の提供は2023年後半に米国、2024年に欧州で開始されるが、それ以外の地域は未定としている。

発表の場となった同社の年次イベント「HPE Discover 2023」(米ラスベガスで開催)で、HPEのCEO、Antonio Neri氏が記者の質問に応じた。

  • HPE CEO Antonio Neri氏

最初に提供するLLMとして、独Aleph Alphaの「Luminous」を発表した。その理由は?

Aleph Alphaは汎用的なAI要素を提供するというミッションを掲げている。また、モデルをトレーニングするなどAIにまつわる課題をどのように解決するかのアプローチ、同社が掲げる価値観やビジョンが、われわれと一致していると感じたからだ。

Aleph Alphaは、Luminousを世界のさまざまな企業に提供するにあたって、自分たちのモデルを動かせるスパコンの能力を持つパートナーを探していた。そこで、HPE GreenLakeの一部として販売できるようにした。

将来的には、他のAIパートナーも加わるだろう。

重要なこととして、LLMは一部に過ぎないということだ。アプリケーションカタログに、気候、製薬、運輸、金融など業界に特化したAIサービスを用意する計画だ。業界やユースケースに特化したAIモデルをスケールのある形でチューニングするという経験を積んできた。すでに、多くの企業と(提携について)話し合いを開始しており、サステナブルなやり方でGreenLake経由のスパコンサービス上でトレーニング、スケールアップ、チューニングなどができるようにしていく。

どのような企業がAIパブリッククラウドを活用すると想定しているのか?

スパコンはこれまで、国立研究所などごく一部の特殊な組織のみが利用できるものだった。スパコンに限らず、テクノロジーをいかに包括的に、全ての人に利用できるようにするかは、私にとって重要なことだ。

新しい技術の課題として、一部の人しか利用できなければ大きな格差が生じるということがある。新型コロナウイルス感染症が良い例だ。デジタル環境を整備し、デジタル主導のビジネスモデルを導入していた企業やデジタルを手にしている人は影響をそれほど受けなかったが、デジタルを活用できなかった企業や人は取り残された。AIでも同じことが起こるだろう。AIを組み込んでいない企業は取り残される。

潤沢な予算や専門知識がなくても、必要とされるスピードでAIの道のりを進めることができるようにする必要がある。それを実現するのがHPE GreenLake for LLMsだ。データの所有者は企業で、HPEはコンピューティングパワーと保護を提供することで、企業が達成しようとすることを支援する。

HPE GreenLake for LLMsを使えば、大企業から中小企業まで、さまざまな企業や公共機関でAIを活用することが可能になる。エキサイティングな時代だ。

「HPE GreenLake for LLMs」が提供する「ケーパビリティ・コンピューティング」とは?

通常のIaaSで得られるコンピューティングは、単一のインスタンスで複数のジョブを並行して実行するキャパシティ・コンピューティングと言われる。

これに対し、スパコンは1つのワークロードに対して単一のコンピュータとして処理をする。これをケーパビリティ・コンピューティングという。大規模なジョブを数百ものCPU、GPUで実行できるため、AIではケーパビリティ・コンピューティングのほうが経済性に優れる。

AI分野におけるHPEの強みは何か?

大きくは4つある。

1つ目は、ケーパビリティベースでクラウドインフラを提供できるノウハウや知財(IP)があること。

2つ目は、サステナブルなデータセンターを構築していること。「HPE GreenLake for LLMs」は電源管理や水冷などによりほぼ100%カーボンニュートラルで稼働する。

3つ目として、AIワークロードの種類に合わせて、複数の種類のGPUやアクセラレータをミックス&マッチできるインターコネクトファブリックがある。

4つ目は、大規模なスケールで動かすために必要なAIソフトウェア技術。400基のGPUでも、4万基のGPUでも、並行に動作する必要がある。ジョブ完了率が重要になるが、ジョブ完了率を高める方法は、信頼性、一貫したパフォーマンスであり、われわれはこれらの知識がある。

HPEは以前からAIモデルのチューニング、トレーニングを行ってきた。例えば、気候予測で用いられるスパコンの多くはHPE Crayのシステムだ。米NSA(米国家安全保障局)が2台のスパコンを導入したことも公表している。

2023年第2四半期、HPCとAI部門の売上高は前年同期比18%増の8億4000万ドルに到達した。AIはWebやモバイルに匹敵するような破壊的な技術であり、まだまだこれからだ。

AI規制の動きをどう見ているか?

AIとは何か、関連するリスクとは何かなどについて、民間企業が政府を啓蒙し、支援しなければならない。心配しすぎるのも良くない。政府は市民を保護しなければならないのと同時に、進化を止めることもできない。そこで、双方が対話しながら、正しい道を探る必要がある。

私は2週間前、米政府との話し合いに参加したところだ。規制は不可避だ。適切なものにしなければならない。

クラウド、AIの時代にイノベーションを続けるために大切にしていることは?

HPEの戦略は、顧客にとって重要な存在であり続けること。これにより、長期的に持続性のある形で収益性を実現できる。そのためには、エンジニアが適切な場所で適切なミッションを持ち、適切な環境が与えられている必要がある。

HPEはイノベーションを中心に据えている。これには有機的なものだけでなく、提携、時には買収も含まれる。そして、すべては「HPE GreenLake」の下で統合された体験で提供する必要がある。それに適さないものはやらない。HPE GreenLakeのARR(年間計上収益)は11億ドル、合計の契約額は100億ドルに達した。われわれの戦略が正しいことを示している。

HPEは研究開発に多額の投資を行っており、2018年にCEO就任以来19社を買収した。特許の数は5000件を超えた。

最も重要なのは人材だ。買収して獲得した人材を含め、現在HPEの歴史上最高のチームになっていると思う。社員のエンゲージメントスコアも高く、新型コロナの大退職時代を経ても、離職率は過去最低レベルだ。