米Micronは7月26日(現地時間)、1βプロセスノードで製造して業界初の8層を積み上げた「HBM2 Gen2」を発表した。現行HBM3ソリューションと比較して50%もの高速化が図られており、採用することで大規模言語モデルの学習時間短縮にも役立てられそうだとしている。
ダイあたり24GbのDRAMを8層重ねて、高いデータ密度と高速な転送速度を備えたHBM3製品。HBM3はデータセンター向けのGPGPUに組み合わされて採用されていることが多く、今回発表したHBM3 Gen2に切り替えることでGPUメモリ帯域を改善可能。LLM(大規模言語モデル)の学習にはGPUとGPUのメモリ帯域幅が大きく影響するため、AI推論向けインフラとして高効率なシステム構築が可能だという。