SK hynixが16層HBM4を公開
SK hynixはCES 2026において、「革新的なAI、持続可能な明日」をテーマに、AIに最適化された幅広い次世代メモリソリューションを展示していることを発表した。
その中でも注力しているのが初公開となる次世代HBM製品である16層HBM4(48GB)。データ転送11.7Gbpsの12層HBM4(36GB)の次世代品であり、顧客のスケジュールに合わせて開発が進められているとい。
また、HBMのほか、AIサーバ向け低消費電力メモリモジュール「SOCAMM2」も展示するほか、AI向けに最適化された従来型メモリ製品のラインナップも展示するとしている。
一方のNANDでも、AIデータセンターからの需要拡大を踏まえ、eSSD向けに最適化された321層2TB QLC製品を発表する。前世代のQLC製品比で電力効率と性能を向上させたとしており、消費電力の低減が求められるAIデータセンター環境において有利だと同社では説明している。
このほか、cHBM(カスタムHBM)では、顧客からの関心を踏まえ、革新的な構造を実際に見ることができる大型モックアップを用意。AI市場における競争が単なる性能から推論効率やコスト最適化へと移行する中、従来GPUやASICで担っていた演算・制御機能の一部をHBMに統合する、新たな設計アプローチを具体化したとする。
32Gビットダイベース256GBサーバDDR5 RDIMMがIntelの認証を取得
このほか同社は、12月に第5世代10nm世代プロセスである1b-nm DRAMを活用した32Gビットダイベースのサーバモジュールである256GB DDR5 RDIMMがIntel Xeon 6プラットフォーム向け認定プロセスを完了したことも発表している。すでに同社は2025年1月には前世代の1a-nm DRAMプロセスを用いた16Gビットダイベースの256GB製品で同様の認定を取得している。
同社によると、この新モジュールを搭載したサーバは、32Gビットダイベースの128GB品と比較して、推論性能が最大16%向上するとしているほか、32Gビットダイの採用により、16Gビットダイベースの1a-nm DRAMを搭載した従来の256GB品と比較して、消費電力を最大約18%削減しているともしており、高い電力効率とワット当たりの性能の実現により、多くのデータセンターからの関心を得ることを期待したいとしている。



