ネットアップは4月2日、都内で2026年のテクノロジー予測に関するメディア向けの勉強会を開催した。同社チーフ テクノロジー エヴァンジェリストの神原豊彦氏が説明に立った。
今回、2026年のテクノロジー予測として「AI」「クラウドトランスフォーメーション」「サイバーレジリエンス」「データインフラストラクチャの近代化」の4つの分野において、それぞれ3つの予測が示された。各分野における3つの予測のうち、特徴的なものが1つずつ解説された。
AI活用は実行段階へ - 鍵を握るのはインテリジェントデータ基盤
最初はAIから。ここでの予測は「AIはパイロット段階から実行段階に推移し、インテリジェントデータインフラストラクチャがこの推移を可能にする」で、企業のAI技術導入に関するものだ。
神原氏は「AIはパイロット段階から普及型インテリジェンスへの移行が進む」と述べている。OZ Digital Consultingの調査によると、2026年に見限られる予定の企業のAIプロジェクトは60%、貧弱なデータ基盤戦略がAIプロジェクトの失敗を招くと心配しているCIO/CEOの割合は80%に達するという。
理由の1つとして同氏は「容易にデータへのアクセスができず、プロジェクトが失敗に終わると言われている。AIの活用を進めていくには縦割りデータ、パイロット、データハブ、AIファクトリーという4つの変革の段階がある。しかし、業務適用する際は部門横断的なデータを参照し、自社のノウハウを学習していくデータハブを整備しなければならないが、部門横断的なプロジェクトでデータを共有することが多くの企業では難しい。そのため失敗する恐れがある」と指摘。
神原氏によると、AI活用のパイロット段階から実行段階の移行にはデータハブが後押しするが、同社ではインテリジェントデータインフラストラクチャで支援するという。大企業から中小企業、いずれにしてもデータハブが必要となることから、同社はオンプレミスからパブリッククラウド、ソブリンクラウドまで含めてデータの出し入れを自由にできるようにしているという。
また「NetApp AI Data Engine」はデータの取り込みや前処理から、生成AIアプリケーションへの提供までを支援し、データ資産全体を可視化。高速な検索やキュレーションを可能にしており、オンプレミスとパブリッククラウドを横断してモデルやツールにデータをシームレスに接続することができる。
AI Data Engineについて、同氏は「メタデータの管理や学習時のソースデータの変更を自動的に検出・反映し、データベースのマスキングなどを自動で行うガードレール機能、データ自体をAIアプリから利用が可能」と説明する。
クラウド戦略は再定義の時代に、ワークロード最適化が焦点
続いては、クラウドトランスフォーメーションにおける予測は「クラウド戦略はワークロードに最適化されたデータプラットフォームに進化する」となり、クラウド戦略の見直しが迫られるとの見立てだ。
神原氏は「AIワークロードの稼働環境を考えたときに問題になるのがデータとのギャップがある。例えばGoogle CloudのGeminiを活用したいが、蓄積したデータはすべてMicrosoft Azure上にある場合、どのようにデータを参照させるのかが課題になる」と話す。
そうしたことから、同社ではAIがデータを参照する製品を提供。AWS(Amazon Web Services)では「Amazon FSx for NetApp ONTAP」によりBedrockとQ、Azureは「Azure NetApp Files」でAzure AI、Google Cloudは「Google Cloud NetApp Volumes」でVertex AIと連携できる機能をそれぞれ提供している。
一方、同氏は「データがオンプレミスにあろうと、クラウドにあろうと、どこに存在していたとしても、統一的に“ここに何があるのか”を把握できる仕組みが必要になる。データの所在を意識せずに扱える世界観=グローバルメタデータネームスペースを作れるかがカギを握る」との見解を示す。
AIモデルがデータに問い合わせた際、どこにデータがあるのかを即座に把握し、適切なアクセス権に基づいてデータが返ってくる。そうした一連の流れが自然に成立する環境が前提になり、AI同士が意味のある形で会話できるようになるという。
そのため、より高度なAIを実現するためには、こうしたメタデータ基盤が不可欠となっている。同社はONTAPをはじめとする大規模なストレージソフトウェアを開発しており、膨大なソースコードを多数の開発チームが分担し、バックアップ機能、AI連携機能、通信プロトコルなど、機能ごとにチームは分かれている。それぞれが自動テスト用のAIを活用しているが、自動テストを正しく機能させるためには、全体のソースコードに統合的にアクセスできる環境が欠かせない。
同氏は「統合されたビューがなければ、自動テストすら成立しないケースがある。私たちにとっては、かなり重要なユースケース。NetAppでは、こうした考え方をメタデータ・ファブリックと呼んでいる。しかし、現実的に考えて、すべてのデータを1カ所に集めるのは難しい。そのため、データが分散して存在することを前提に、それらを効果的に管理・連携できるレイヤーを用意することが必要となる」と述べている。
次にサイバーレジリエンスの予測として示されたものが「AI組込型ツールがサイバーレジリエンスの標準になる」で、サイバー攻撃からの復元についてだ。神原氏は「最近ではサイバーセキュリティ対策は義務化しており、被害からの復旧対策の精度が企業評価に直結する。特に今年はそうしたことが強まる」と警鐘を鳴らす。
同氏が指摘するように、各国の状況を見ても欧州では、2024年12月から発行した欧州委員会CRA(Cyber Resilience Act)では製品のサイバーセキュリティ確保を製造者に義務付けるものであり、違反すれば1500万ユーロ(約24億円)の罰金、もしくは当該企業のグローバルにおける売り上げの2.5%の罰金が科される。米国でも調達基準におけるサイバーセキュリティの義務がある。
もちろん、日本も対岸の火事ではなく、経済産業省ではECサイト事業者への脆弱性診断の義務化、内閣府は重要インフラのサイバーセキュリティに関わる行動計画の策定、厚生労働省は医療法改正による医療機関への対策を義務化している。
ネットアップでは、SIEM(Security Information and Event Management)/XDR(Extended Detection and Response)と連携し、データ層の検知・対応を可能としている。一例として「NetApp Ransomware Resilience」は「Microsoft Sentinel」やSplunkなどにネイティブ連携し、アラート連携機能を持つ。
SSD高騰の対策、コピー不要のデータ基盤という考え方
最後は、データインフラストラクチャの近代化に関して。この予測では「インテリジェントなコピー不要のアプローチが近代化を加速させる」というもの。
神原氏は「2年ほど前までは、HDDとSSDの価格差は現在ほど大きくなく、ストレージ業界では容量単価、いわゆる1GBあたりの価格で比較すると当時SSDはHDDの約3倍程度だった。3倍でも高いと言われるのは当然だが、SSDはHDDよりも約20倍高速である点が重要。その高速性を活かし、データ圧縮処理を間に挟んでも十分な性能を確保できるため、圧縮したデータをSSDに格納することで、実効的な容量単価を下げることができた。いわば“技術的な工夫”によって価格差を吸収し、市場ではオールフラッシュアレイが急速に広がっていった」と振り返る。
しかし、状況は昨年10月ごろを境に一変する。AIの浸透によりSSDの価格は再び数年前の水準に逆戻りし、しかも価格が上がっただけでなく、供給そのものが追いつかない状態に陥っている。背景には半導体需給の深刻なひっ迫と、半導体メモリの技術進化が足踏み状態にあることだという。
従来、CPU向けメモリはDDR5からDDR6へ、2026年ごろに移行する計画だったが、GPU向けの高帯域メモリ(HBM)への需要が急増し、製造各社はどの技術を次の主軸にすべきか判断しづらくなっている。結果として、新世代規格への移行が鈍っているとのこと。
SSDについても同様の課題があり、一般的な2.5インチSSDは現在60TB程度が最大容量だが、半導体メーカーのロードマップ上では、1台あたり500TBまで高密度化できる可能性が示されている。とはいえ、問題は発熱にある。
高密度化すれば消費電力も増え、70ワット級の発熱が狭い2.5インチ筐体に集中し、従来のプラスチックパッケージでは物理的に耐えられず、溶融してしまう。そのため現在は、ルーラー型SSDや、金属筐体による放熱構造など、次世代フォームファクターの検討が進められている。
そこでNetAppが改めて注目しているのが、HDDとSSDを組み合わせる階層化技術「Flash Pool」となる。これはSSDがまだ数GB~数十GBしかなかった時代に同社が開発した技術で、頻繁に使われるデータだけをSSDにキャッシュし、そのほかはHDDに置くことで、性能とコストを両立させる仕組みだ。
さらに現在では、クラウドとの連携も加わる。高速処理が必要なデータだけをクラウド側にキャッシュし、使用頻度の低いデータはオンプレミスのHDD、あるいはクラウドのアーカイブ層へ送る。こうしたデータ配置の最適化によって、コストと性能のバランスを取る。
クラウドの利点は迅速性だけではない。市場の価格変動に対する弾力性が高いという点も大きい。今後クラウドの価格も徐々に上昇する可能性はあるが、オンプレミスと比べれば調整幅は大きく、柔軟に対応できるという。
神原氏は「こうした複数の技術を組み合わせながら、この状況を乗り越えていきたい」と締めくくり、ストレージ業界が直面する現実と、その中での現実解を示した。






