米Micronは2月26日(現地時間)、広帯域メモリ「HBM3E」の大量生産を開始したと発表した。NVIDIA製AIコンポーネント「NVIDIA H200」へと搭載されるもので、これによって強力なAIソリューションの展開を推し進めていくとしている。

  • Micron、NVIDIA H200向けの「HBM3E」メモリ大量生産開始 - Samsungは12層モデルの評価プロセスに突入 画像はMicron公式サイト上のインフォグラフィックから

これまで開発・評価が続けられてきた24GB HBM3E 8Hモデルにおいて、ピン速度で9.2GB/sを超えて最大で1.2TB/sものメモリ帯域幅を実現できる最新モデルの大量生産が始まったという内容。NVIDIAの現行最新Tensorコア搭載モジュールである「NVIDIA H200」に組み合わされるもので、帯域幅が性能に直結するAIワークロードを高速に処理可能。さらに競合製品より最大30%消費電力を低減したとしており、データセンターの運用コスト抑制にも貢献するという。

加えて、同日Samsung ElectoronicsもHBM3Eに関するリリースを発表した。Micronの8Hモデルよりも高密度なHBM3E 12Hモデルのサンプリングを開始したとしており、量産を今年前半までに予定。1,280GB/sもの帯域幅と36GBの大容量を実現する点が特徴で、熱圧縮比導電性フィルムの採用によって垂直方向の密度を20%も向上した。これによってHBM3E 8Hよりも学習速度が34%高速化し、同時に推論サービスへと接続できるユーザー数を11.5倍に増加させられるという。

  • 画像はSamsung Electoronicsリリースから