米AMDは10月10日(現地時間)、発表イベント「Advancing AI 2024」を開催し、その中で第5世代サーバー向けプロセッサ、推論向けアクセラレーター、モバイル向けプロセッサを一挙に発表した。

開発コード“Turin”こと第5世代「EPYC 9005」

  • 開発コード“Turin”こと第5世代「EPYC 9005」

EPYC 9005は、サーバー向けプロセッサ製品としては第5世代にあたるシリーズ。開発コード「Turin」としてこれまで知られてきたもので、1ソケットで8コアから最大192コアモデルまで展開する点が特徴。Zen 5 / Zen 5cアーキテクチャの採用で性能を引き上げつつ電力効率をさらに高めたとしており、Intel Xeon 8592+との比較ではHPCアプリケーションの利用時に最大3.9倍もの動作速度差があるという。

  • SKU一覧

DDR5-6400 MT/sに対応するほか、最大5GHzでの動作をサポート。フル512bitデータパスによるAVX-512命令を利用でき、FIPS認定に向けて認証作業が進むなど堅牢性・信頼性の面にも注力されている。すでに展開されているSP5プラットフォームと互換性を維持しており、BIOSアップデートで利用できるようになるようだ。

NVIDIA H200より最大1.3倍高速、「Instinct MI325X」

  • NVIDIA H200より最大1.3倍高速、最大288GB HBM3E搭載の「Instinct MI325X」

Instinct MI325Xは、CDNA 3アーキテクチャを採用する推論向けアクセラレーター。最大構成では256GBのHBM3Eを搭載して6.0TB/sもの帯域幅を実現しており、NVIDIA H200よりも量・帯域幅で優っているとアピール。推論性能ではFP16でMistral 7Bの最大1.3倍、FP8でのLlama 3.1 70Bの1.2倍、Mixtral 8x7Bでの推論性能の1.4倍もNVIDIA H200より高速だとしている。

また、ロードマップを更新して推論向けアクセラレーターへのさらなるコミットメントを表明。次世代AMD CDNA 4アーキテクチャの採用でさらなる高性能が実現されると述べ、AMD CDNA 3比で最大35倍もの性能向上を見込んでいるという。このほか、データプロセッシングユニット「AMD Pensando Salina DPU」やネットワークチップ「AMD Pensando Pollara 400 NIC」も併せて発表されている。

企業ユースに対応、「Ryzen AI PRO 300」

  • 企業ユースに対応、「Ryzen AI PRO 300」

また、すでに発表済みのRyzen AI 300シリーズプロセッサにおいて、商用PCへの導入にも対応するRyzen AI PRO 300シリーズが発表された。Zen 5アーキテクチャの採用で性能と電力効率を高めた点は共通で、Radeon 800Mシリーズグラフィックスを組み合わせている。15~54Wで動作するほか、単体での推論性能は最大55TOPS。Microsoft PlutonやAMD Shadow Stack、AMD Platform Secure Bootなど新しいセキュリティ・管理機能が導入されている。