米AMDは現地時間6月12日、AIプラットフォームの包括的なビジョンと、業界標準に基づいたオープンかつスケーラブルな“ラックスケールAIインフラストラクチャ”を、同日開催したAI分野向けの自社イベント「Advancing AI 2025」において発表した。

  • AMDのリサ・スー会長兼CEO。カリフォルニア州サンノゼで現地時間6月12日に開催された自社イベント「Advancing AI 2025」の基調講演に登壇した

  • OpenAIのSam Altman CEO(右)が、イベントのスペシャルゲストとして登壇

  • 「Advancing AI 2025」の会場であるSan Jose McEnery Convention Centerには、巨大なAMDロゴが掲げられていた

新発表の概要

同社は新たなGPU「AMD Instinct MI350シリーズ」と、これを使ってオープンAIエコシステムを構築する方法を発表。また、これまでLinux向けに提供してきたAIの開発プラットフォームROCm(Radeon Open Compute)エコシステムの継続的な成長や、同社のAI関連製品の今後のロードマップについても説明した。

  • 新GPU「AMD Instinct MI350シリーズ」

新GPU「AMD Instinct MI350シリーズ」

次世代の生成AIと高性能コンピューティング向けに設計したGPUの新シリーズで、MI350XとMI355X GPUで構成。3nmプロセスを採用している。AMDでは、前世代比でAI計算能力を4倍、推論性能を35倍まで引き上げたほか、MI355Xは競合製品と比べて価格性能比が最大40%向上したとアピールしている。

  • MI350シリーズを紹介するリサ・スー会長兼CEO

エンドツーエンドのオープンスタンダードラックスケールAIインフラストラクチャも実証。これは、Oracle Cloud Infrastructure(OCI)などのハイパースケーラー展開において、AMD Instinct MI350シリーズアクセラレーター、第5世代AMD EPYCプロセッサー、AMD Pensando Pollara NICとともにすでに展開されており、2025年後半には広く利用できるようになる予定だという。

エネルギー効率の向上も特徴で、AIトレーニングと高性能コンピューティングノードのエネルギー効率を30倍改善するというAMDの5年間の目標を超え、最終的に38倍の改善を達成。

2030年までにラックスケールのエネルギー効率を20倍向上させる目標も設定しており、現在は275ラック以上を必要とする典型的なAIモデルが、2030年には1ラック未満でトレーニング可能となり、95%の電力削減を実現するとしている。

次世代ラック「Helios」

次世代AMD Instinct MI400シリーズGPUを搭載し、前世代と比較してMixture of Expertsモデルで推論性能が最大10倍向上する予定。 「Zen 6」ベースのAMD EPYC「Venice」CPUと、AMD Pensando「Vulcano」NICを搭載する。

  • 次世代ラック「Helios」の概要

  • AMD Instinctシリーズのロードマップ。一番右に見えるのがMI400シリーズGPU

ROCm 7ソフトウェアスタック

生成AIと高性能コンピューティングワークロードの増大する需要に対応し、開発者体験をさらに強化。業界標準フレームワークのサポートを強化し、ハードウェア互換性を拡大するほか、新たな開発ツールやドライバー、API、ライブラリを提供していく。

AMD Developer Cloudの提供

世界中の開発者とオープンソースコミュニティ向けに、AMD Developer Cloudを幅広く提供することも発表した。迅速で高性能なAI開発に特化し、AIプロジェクトを開始するためのツールと柔軟性を備えた完全管理型クラウド環境を提供する。

ROCm 7とAMD Developer Cloudにより、AMDは次世代コンピューティングへの障壁を下げ、アクセスを拡大。Hugging FaceやOpenAI、Grokとの協力を通じて、共同開発によるオープンソリューションを推進するとしている。

パートナー企業との協力

AMDによれば、世界の主要なAIモデル構築企業、AI企業のうち7社がInstinctアクセラレーターを使用して生産ワークロードを実行しているという。その中にはMetaやOpenAI、Microsoft、xAIが含まれ、Advancing AIイベントではAMDやその他のパートナーとともに、AIモデルのトレーニング、スケールでの推論、AIの探求と開発を加速する方法を紹介した。

Metaは、Llama 3とLlama 4の推論に、MI300Xを使用。MI350の計算能力や性能対総所有コスト(TCO)、次世代メモリに期待感を示したほか、Instinct MI400シリーズプラットフォームに関する計画を含む、AIロードマップでAMDと緊密に協力するとした。

OpenAIからは、CEOのSam Altman氏がイベントのスペシャルゲストとして登壇。ハードウェア、ソフトウェア、アルゴリズムを包括的に最適化する重要性を説いたほか、AzureでMI300Xを使用した研究およびGPTモデルの生産、MI400シリーズプラットフォームに関する深い設計協力を強調した。Microsoftは、Instinct MI300XがAzureでの生産において、独自およびオープンソースモデルの両方を支えていることを紹介した。

MI355X GPUを搭載したAMDオープンラックスケールAIインフラストラクチャを採用した最初の業界リーダーのひとつであるOracle Cloud Infrastructure (OCI)は、AMDのCPU/GPUを活用してAIクラスターのバランスの取れたスケーラブルな性能を提供。最新のAMD Instinctプロセッサーを使用した、最大131,072 MI355X GPUを搭載したゼッタスケールAIクラスターを提供する計画を発表した。