TrendForceによると、2024年のAIサーバ市場は、クラウドサービスプロバイダ(CSP)などからの需要が高止まりにより、前年比69%増の1870億ドルと伸長。全サーバに対する割合も65%となると予測されるという。

生成AIを中心とする世界的なAI活用ニーズに対し、半導体各社も積極的に動いており、特に大手DRAMメーカー3社の段階的な増産により、2024年第2四半期にはAI半導体ソリューションの不足が緩和されることとなり、NVIDIAのH100ソリューションのリードタイムはこれまでの40~50週から、16週未満まで短縮されているという。こうしたAI半導体の供給不足の緩和もあり、TrendForceでは、同第2四半期のAIサーバ出荷台数は前四半期比で約20%増と予測。年間出荷台数についても、前年比41.5%増の167万台に上方修正している。

一方の一般的なサーバの成長は鈍化する見通しで、一般サーバの年間出荷台数は同1.9%増に留まるとしており、全サーバ出荷台数に占めるAIサーバの割合は前年から役3.4ポイント増の12.2%となるとも予測している。

また、北米のCSPや中国企業を中心に独自のASICの採用を拡大させており、2024年のAIサーバ市場全体に対するASICサーバの割合は26%まで拡大(GPU AIサーバは約71%)されると予想している。

AIサーバ向けAI半導体サプライヤとしては、NVIDIAが90%近いシェアを獲得。競合のAMDは8%ほどだが、AIサーバで使用されるすべてのAI半導体(GPU、ASIC、FPGA)で見ると、2024年のNVIDIAのシェアは約64%ほどとなるという。

なお、TrendForceによると、高度なAIサーバの需要は2025年まで堅調に推移することが予測され、中でもNVIDIAの次世代製品「Blackwellシリーズ(GB200、B100/B200を含む)」が現行のHopperプラットフォームに取って代わるとみており、CoWoSならびにHBMの需要も高まるとしている。例えばNVIDIAのB100の場合、チップサイズはH100の2倍になり、より多くのCoWoSを活用することが予想される。主要製造元であるTSMCのCoWoSに対する生産能力は、2025年末までに55万~60万ユニットに達すると予測されており、成長率は前年比80%増程度としている。

また、NVIDIAのBlackwell UltraやAMDのMI350などの先端AI半導体には数量ベースで従来の3倍の使用量となる最大288GBのHBM3eが搭載されることが予想されるなど、HBMに対する需要が急激に高まっていくため、HBMの全体的な供給能力は2025年までに2倍に高まることが期待されるともしている。

  • AIサーバで活用されるAI半導体各種(GPU、ASIC、FPGA)の市場シェア推移

    AIサーバで活用されるAI半導体各種(GPU、ASIC、FPGA)の市場シェア推移 (出所:TrendForce)