Hewlett Packard Enterprise(HPE)は6月20日(米国時間)、AIパブリッククラウド「HPE GreenLake for Large Language Models(LLMs)」を発表した。同社のスパコン「HPE Cray XD」をベースに、AIソフトウェアスタックを組み合わせたもので、大規模言語モデル(LLM)をオンデマンドでトレーニング、チューニング、実装できるという。

「HPE GreenLake for LLMs」の提供は2023年後半に米国、2024年に欧州で開始されるが、それ以外の地域は未定としている。

発表の場となった同社の年次イベント「HPE Discover 2023」(米ラスベガスで開催)で、HPEのCEO、Antonio Neri氏が記者の質問に応じた。

  • HPE CEO Antonio Neri氏

最初に提供するLLMとして、独Aleph Alphaの「Luminous」を発表した。その理由は?

Aleph Alphaは汎用的なAI要素を提供するというミッションを掲げている。また、モデルをトレーニングするなどAIにまつわる課題をどのように解決するかのアプローチ、同社が掲げる価値観やビジョンが、われわれと一致していると感じたからだ。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら