AIサーバ向けカスタムASICにおけるHBM需要が拡大
Counterpoint ResearchのHPC Serviceによる最新調査「Data Center AI Server Compute ASICs Shipment Forecast and Tracker」によると、AIサーバ向けコンピュートASICで活用されるHBMのビット需要は、2024年から2028年にかけて35倍に拡大する見込みであると予測されるという。
ハイパースケーラーを中心とするカスタムASICが全体的に高密度メモリアーキテクチャを採用する動きを見せているためで、中でもGoogleのTPUに対する積極的な拡張ならびにAWSのTrainiumの継続的な導入がけん引しているとするほか、MetaのMTIAやMicrosoftのMaiaの立ち上がりなども今後のけん引役として期待されるとしており、業界全体としてHBMが次世代のAIワークロードを支える重要な基盤であるとの認識が広がっているとする。
HBM全体の中でカスタムASICが占める割合が増加
また、このAIアクセラレータ群の拡大に伴い、カスタムASICが世界のHBMの消費量に占める比率も高まりを見せており、メモリによって生じるAI処理のボトルネックを抑制するために今後もHBMの活用が進むことが期待されるとする。こうした動きは、GPU依存から、多様化に向けた方向にメモリの需要が向かうことを示すとともに、カスタムASIC向けメモリの世代の変化も推進し、HBM3Eが2028年までにカスタムASIC向けHBMビット需要全体の約56%を占めるまでに拡大する見込みだという。HBM3Eの選択は、クラウドサービスプロバイダ各社が最大帯域幅性能と、成熟しつつあるサプライチェーンを重視するためだという。
Counterpointでも、HBM3Eが現在のAIアーキテクチャにとって最適解であるとの見方を示しているほか、供給についてもSamsungが歩留まりを安定化させたことで、標準採用のめどがたったことが大きいとしている。
また、HBMがHBM4、そしてHBM4Eへと進化していく中で、各カスタムASICごとに特化する形で性能向上を実現するニーズの高まりからカスタムHBMに対するニーズも拡大するとしており、こうした動きはメモリサプライヤ各社にとって、ロジックダイ設計コストを価格に反映できるだけでなく、顧客との強いロックイン効果によって安定した数量を確保できる、高付加価値ビジネスを生み出す機会となると指摘している。
なお、先端パッケージングの恩恵を受ける最大のプレイヤーはTSMCとするが、需要に対する供給が追い付いていないこともあり、Googleやそのほかの主要プレイヤーの一部には、次世代の先端パッケージング手段としてIntelのEMIB-Tの検討も進めているとしており、この動きが現実化すると、TSMC一極集中から解放されることとなり、大きなターニングポイントになる可能性があるとしている。

