半導体市場調査会社である台TrendForceは、NVIDIAとAMDのAI半導体の開発計画ならびにそれらに搭載されるHBMの仕様調査を行ったことを発表した。

それによると、NVIDIAの次世代プラットフォーム「Blackwell」を採用したBシリーズGPUを含むGB200などのモデル、中でもGB200は需要の高さもあり、その出荷台数は2025年までに数百万ユニットを超え、NVIDIAのハイエンドGPU分野の40~50%近くを占める可能性があるとTrendForceは予測している。

NVIDIAのGB200やB100など、2024年後半に発売される予定の各製品は従来よりも複雑かつ高精度なTSMCの「CoWoS-L」を採用するが、その検証とテストに時間がかかるほか、通信や冷却性能などの側面でAIサーバシステムに最適化させるための時間が必要になることから、2024年第4四半期または2025年第1四半期まで生産数は限定的となることが予想されるという。

一方で複数ラインナップが展開されることで、CoWoSの需要が増加することが見込まれることから、TSMCは2024年末までにCoWoSの推定月間生産能力を前年比150%増の4万近くまで引き上げるが、そのうちの半分以上をNVIDIA向けとなるとみられるという。

また、Amkorなどのパートナーは現在、主にNVIDIAのHシリーズ向けにCoWoS-Sテクノロジーを手掛けていることから、技術的なブレークスルーは短期的には困難であり、そうしたOSATがクラウドサービスプロバイダ(CSP)による自社開発ASICを中心とした、NVIDIA以外の追加注文を確保でもしない限り、拡張計画は保守的なものとなる可能性があるともしている。

2024年後半にはHBM3eが主流に

2024年のNVIDIAとAMDの主要GPU製品に搭載されるHBMの方向性としては、2024年後半にNVIDIAはH100に代わってHBM3eを搭載したH200の出荷を拡大させる予定で、それ以降のGB200やB100などでもHBM3eが採用される模様である。一方のAMDも2024年末までに新製品MI350を発売する予定だが、それまでにH200と競合するMI32xといった暫定モデルを投入する可能性もあり、いずれもHBM3eを採用することとなる。

また、AIサーバの全体的な計算効率とシステム帯域幅の向上に向けてHBMの容量増加が続くことも予想されている。現在、市場では主に80GBのHBMを搭載したH100が使用されているが、2024年末までに192GBから288GBまで増加することが予想されるほか、MI300Aも最大288GBにまで増加されることが予想されるという。

このほか、HBM3eを搭載したGPUのラインナップでは8Hi(メモリ積層数が8層)構成から12Hi(メモリ積層数が12層)構成へと進化することで、容量の増加が図られることが見込まれている。NVIDIAのB100およびGB200は現在、192GBの8Hi HBM3eを搭載するとしているが、B200では12Hi HBM3eを搭載することで288GBまで引き上げられることとなる予定。一方のAMDのMI350と、2025年に発売される予定のMI375シリーズも12Hi HBM3eを採用することで、メモリ容量288GBを実現することが予想されるとしている。

  • NVIDIAとAMDのAI半導体の開発スケジュールと搭載されるHBMの仕様比較

    NVIDIAとAMDのAI半導体の開発スケジュールと搭載されるHBMの仕様比較 (出所:TrendForce)