米AMDは現地時間6月12日、AIプラットフォームの包括的なビジョンと、業界標準に基づいたオープンかつスケーラブルな“ラックスケールAIインフラストラクチャ”を、同日開催したAI分野向けの自社イベント「Advancing AI 2025」において発表した。
新発表の概要
同社は新たなGPU「AMD Instinct MI350シリーズ」と、これを使ってオープンAIエコシステムを構築する方法を発表。また、これまでLinux向けに提供してきたAIの開発プラットフォームROCm(Radeon Open Compute)エコシステムの継続的な成長や、同社のAI関連製品の今後のロードマップについても説明した。
新GPU「AMD Instinct MI350シリーズ」
次世代の生成AIと高性能コンピューティング向けに設計したGPUの新シリーズで、MI350XとMI355X GPUで構成。3nmプロセスを採用している。AMDでは、前世代比でAI計算能力を4倍、推論性能を35倍まで引き上げたほか、MI355Xは競合製品と比べて価格性能比が最大40%向上したとアピールしている。
エンドツーエンドのオープンスタンダードラックスケールAIインフラストラクチャも実証。これは、Oracle Cloud Infrastructure(OCI)などのハイパースケーラー展開において、AMD Instinct MI350シリーズアクセラレーター、第5世代AMD EPYCプロセッサー、AMD Pensando Pollara NICとともにすでに展開されており、2025年後半には広く利用できるようになる予定だという。
エネルギー効率の向上も特徴で、AIトレーニングと高性能コンピューティングノードのエネルギー効率を30倍改善するというAMDの5年間の目標を超え、最終的に38倍の改善を達成。
2030年までにラックスケールのエネルギー効率を20倍向上させる目標も設定しており、現在は275ラック以上を必要とする典型的なAIモデルが、2030年には1ラック未満でトレーニング可能となり、95%の電力削減を実現するとしている。
次世代ラック「Helios」
次世代AMD Instinct MI400シリーズGPUを搭載し、前世代と比較してMixture of Expertsモデルで推論性能が最大10倍向上する予定。 「Zen 6」ベースのAMD EPYC「Venice」CPUと、AMD Pensando「Vulcano」NICを搭載する。
ROCm 7ソフトウェアスタック
生成AIと高性能コンピューティングワークロードの増大する需要に対応し、開発者体験をさらに強化。業界標準フレームワークのサポートを強化し、ハードウェア互換性を拡大するほか、新たな開発ツールやドライバー、API、ライブラリを提供していく。
AMD Developer Cloudの提供
世界中の開発者とオープンソースコミュニティ向けに、AMD Developer Cloudを幅広く提供することも発表した。迅速で高性能なAI開発に特化し、AIプロジェクトを開始するためのツールと柔軟性を備えた完全管理型クラウド環境を提供する。
ROCm 7とAMD Developer Cloudにより、AMDは次世代コンピューティングへの障壁を下げ、アクセスを拡大。Hugging FaceやOpenAI、Grokとの協力を通じて、共同開発によるオープンソリューションを推進するとしている。
パートナー企業との協力
AMDによれば、世界の主要なAIモデル構築企業、AI企業のうち7社がInstinctアクセラレーターを使用して生産ワークロードを実行しているという。その中にはMetaやOpenAI、Microsoft、xAIが含まれ、Advancing AIイベントではAMDやその他のパートナーとともに、AIモデルのトレーニング、スケールでの推論、AIの探求と開発を加速する方法を紹介した。
Metaは、Llama 3とLlama 4の推論に、MI300Xを使用。MI350の計算能力や性能対総所有コスト(TCO)、次世代メモリに期待感を示したほか、Instinct MI400シリーズプラットフォームに関する計画を含む、AIロードマップでAMDと緊密に協力するとした。
OpenAIからは、CEOのSam Altman氏がイベントのスペシャルゲストとして登壇。ハードウェア、ソフトウェア、アルゴリズムを包括的に最適化する重要性を説いたほか、AzureでMI300Xを使用した研究およびGPTモデルの生産、MI400シリーズプラットフォームに関する深い設計協力を強調した。Microsoftは、Instinct MI300XがAzureでの生産において、独自およびオープンソースモデルの両方を支えていることを紹介した。
MI355X GPUを搭載したAMDオープンラックスケールAIインフラストラクチャを採用した最初の業界リーダーのひとつであるOracle Cloud Infrastructure (OCI)は、AMDのCPU/GPUを活用してAIクラスターのバランスの取れたスケーラブルな性能を提供。最新のAMD Instinctプロセッサーを使用した、最大131,072 MI355X GPUを搭載したゼッタスケールAIクラスターを提供する計画を発表した。