TrendForceによると、AI需要の急増により、過去2四半期にわたってAIサーバ向けエンタープライズSSDの注文量が増加の一途をたどっているという。
エンタープライズSSDはAI開発において、モデルのトレーニングの際の変化する重みや偏差などのモデルパラメータを保存する役割を担っているほか、チェックポイントを作成してAIモデルのトレーニングの進行状況を定期的に保存し、中断が発生した場合に特定のポイントから回復できるようにする役目も担っている。これらの機能では高速なデータ転送と優れた書き込み耐久性が求められるため、ユーザーは通常、トレーニングプロセスの厳しい要件を満たすことを目的に4TB/8TB TLC SSDを選択しているという。
また、学習のみならず推論のプロセスにおいても、AIモデルの調整と最適化に役立つことも同社は指摘している。特に、SSDはデータをリアルタイムで更新して、推論モデルの結果を微調整することが可能で、主に検索拡張生成(RAG)やLLMでの活用が進んでいる。SSDには、RAGとLLMがより有益な応答を生成するために使用する参照ドキュメントと知識ベースが保存されるほか、生成された情報がビデオや画像として表示されるほど、必要なストレージ容量も増加するため、TLC/QLC 16TB以上の大容量SSDが選択肢に入ってくるとしている。
このため、こうした需要の高まりを受けてAI向けエンタープライズSSDカテゴリの契約価格は2023年第4四半期から2024年第3四半期にかけて80%以上上昇したと同社は指摘している。
大容量製品の開発加速で、AI SSDの年間平均成長率は60%超へ
2024年のAIサーバ向けSSDの需要は、第2四半期から16TBを超える製品が高まりを見せている。NVIDIAのH100、H20、H200シリーズ製品の活用に向け、ユーザーは4TBおよび8TB TLCエンタープライズSSDの注文を増やし始めている模様で、TrendForceでは2024年のAI向けSSDの調達容量は45EBを超えると予測しているほか、今後数年間のAI向けSSD需要の年間平均成長率は60%を超すとも予想しており、AI向けSSDのすべてのNAND容量に占める割合は2024年の5%から2025年には9%に増加する可能性があるとしている。
なお、AI推論サーバでは大容量SSD製品の採用が続くこととなることを踏まえ、サプライヤ各社はすでにプロセスのアップグレードを加速させており、2025年第1四半期から2YY/3XX層製品の量産開始を計画、最終的には120TBのエンタープライズSSD製品の生産も目指している模様である。