Micron Technologyは、データセンターのAIサーバに搭載されるAI GPU向け高性能メモリとなる「HBM3E」がNVIDIAに採用されたこと、ならびに新たなメモリソリューション「SOCAMM(Small Outline Compression Attached Memory Module)」の量産出荷を開始したことを明らかにした。
-
SOCAMMとHBM3E 12H 36GBの概要。SOCAMMがNVIDIAのGrace(CPU)向け、HBM3E 12H 36GBがB300/GB300(GPU)向けという扱いとなっている (資料提供:Micron、以下すべて同様)
出荷が開始されたSOCAMMは、NVIDIA GB300 Grace Blackwell Ultra SuperchipをサポートするためにNVIDIAと共同開発されたモジュール型のLPDDR5Xメモリソリューションで、同社ではデータ処理の高速化、優れたパフォーマンス、比類のない電力効率、そしてサービス性の向上を実現し、AIワークロードの増加に対応する高容量メモリを提供すると説明している。具体積な性能としては、14mm×90mmという業界標準のRDIMMフォームファクターの約1/3の大きさとなり、コンパクトかつ高効率なサーバデザインを実現することができるほか、LPDDR5Xの採用により、標準のDDR5 RDIMMと比べて消費電力も1/3に削減することを可能としたとする。
また、16ダイ積層のLPDDR5Xメモリを4つ配置して128GBのメモリモジュールを実現。同容量のRDIMMと比べて2.5倍以上の帯域幅を提供することで、より大規模なトレーニングデータセットや複雑なモデルへの高速アクセスを可能とするとともに、推論ワークロードのスループットの向上ならびに同時ユーザー数の増加を可能とするとしている。
一方のHBM3Eは、ラインアップとして8層で24GBの「HBM3E 8H 24GB」ならびに12層で36GBを実現した「HBM3E 12H 36GB」の2種類を用意。HBM3E 8H 24GBは、NVIDIA HGX B200およびGB200 NVL72プラットフォーム向けに提供されているとするほか、HBM3E 12H 36GBは、NVIDIA HGX B300 NVL16およびGB300 NVL72プラットフォームに採用されている。