SK hynixは4月19日、次世代AIサーバ向けメモリモジュール規格である「SOCAMM2」の192GB品の量産を開始したことを発表した。同社の最新DRAMプロセス世代となる第6世代10nmクラスプロセスこと、1c nm DRAMプロセスを採用したLPDDR5Xベースの製品で、NVIDIAの次世代AIプラットフォーム「Vera Rubin」向けに設計されたと同社では説明している。
AIサーバ向けに特化して開発された「SOCAMM2」
SOCAMM2(Small Outline Compression Attached Memory Module 2)は従来、スマートフォン(スマホ)を中心とするモバイル機器などで主に使われてきたLPDDRをサーバ向けに最適化したメモリモジュール規格で、次世代AIサーバーのプライマリメモリソリューションとして設計されたものとなる。
SK hynixによれば、今回量産を開始した192GB SOCAMM2は、従来のサーバ向けRDIMMと比べて2倍以上のメモリ帯域幅を実現すると同時に、電力効率を75%以上向上させており、AI演算に最適化されたソリューションとなると説明している。
LLMの学習・推論で顕在化するメモリ起因のボトルネックを解消
AIサーバでは、数百億~数千億パラメータ規模の大規模言語モデル(LLM)の学習や推論処理において、メモリアクセスがシステム全体の性能を制約するボトルネックとなるケースが増えているが、SOCAMM2は、こうしたボトルネックを根本的に解消することを狙った設計となっており、同社ではSOCAMM2を採用することで、LLMの学習・推論時に発生するメモリ帯域および電力制約を緩和し、システム全体の処理速度を向上させることができるようになるとしている。特に、AI活用の中心が学習から推論へと移行する中において、低消費電力でLLMを動作できる次世代メモリソリューションとして期待されているという。
NVIDIAとの連携でVera Rubin世代を支える
同社は、量産を開始した192GB SOCAMM2をNVIDIAのVera Rubinプラットフォーム向けに設計している点を明確にしており、AIインフラ全体の性能最適化を見据え、最適なパフォーマンスを提供するためにNVIDIAと緊密に連携していくとしている。
また、先行して192GB SOCAMM2の量産開始と、256GB SOCAMM2のサンプル出荷開始をアナウンスしているMicron Technologyは、Vera Rubinプラットフォームへの提供以外に販売していきたい意向を示しているが、SK hynixも同様に、世界中のAI顧客との緊密な連携を通じて、もっとも信頼されるAIメモリソリューションプロバイダとしての地位を確固たるものにしていくと述べており、SOCAMM2の市場の広がりが期待される。
残る3大DRAMメーカーであるSamsung ElectronicsもSOCAMM2の量産を開始したことを2026年3月に明らかにするなど、各社ともに注力する姿勢を見せており、今回のSK hynixのSOCAMM2の量産開始は、従来注目されていたHBMとは異なる軸でも競争が本格化したことを示すものとなりそうである。
