米ラスベガスで10月中旬に年次カンファレンス「INSIGHT 2025」を開催した、NetApp(ネットアップ)。カンファレンスにおいて目玉の発表となったものが「NetApp AFX」と「NetApp AI Data Engine」だ。本稿では、NetApp Senior Director, Product Management, AI SolutionのRussell Fishman氏の話を紹介する。

  • NetApp Senior Director, Product Management, AI SolutionのRussell Fishman氏

    NetApp Senior Director, Product Management, AI SolutionのRussell Fishman氏

ストレージOS「ONTAP」を基盤とした分離型ソリューション「NetApp AFX」

Fishman氏は、グローバルのフィールドCTO(Chief Technology Officer:最高技術責任者)やNetAppの全地域におけるプロダクトマネジメントを担当しているほか、AIや仮想化、ワークロードのモダン化、サイバーレジリエンス、エンタープライズアプリケーションなどに関するソリューションの管理も行っている。

AFXはストレージコントローラに「AFX 1K」、ストレージエンクロージャは「NX 224」、データコンピュートノードに「DX50」と新たにハードウェア3機種を開発し、3つのコンポーネントを組み合わせてAI向けワークロードをサポートする。

AIファクトリーのデータ基盤として機能し、NVIDIA DGX SuperPODスーパーコンピューティングの認定ストレージの資格を取得し、ONTAPを搭載。最大128ノードまでの性能拡張、毎秒テラバイト単位の帯域幅、エクサバイト規模の容量をサポートし、パフォーマンスと容量の独立したスケーリングが可能。

  • 「NetApp AFX」の外観

    「NetApp AFX」の外観

同氏は、AFXについて「当社のストレージOS『ONTAP』を基盤とし、既存製品ポートフォリオを補完・拡張する新しいソリューションです。統合システムの流れは、まずはブロック指向のシステム、次にクラウドソフトウェアベースのソリューションを経て、今回新たに分離型ソリューションを導入するに至りました」と説明する。

NetApp AFXが解決する課題とAIワークロードへの対応

ONTAPはエンタプライズワークロードにおいて顧客から高い信頼を獲得しており、AFXはその強みを活かし、特定のワークロードに最適化された選択肢を提供するという。

現在、NetAppをAIの本番環境で活用している顧客は1000社以上となっており、AFXが焦点を当てるのは少量のデータに対して、高い性能要件を持つ傾向があるトレーニングワークロードなど、性能と容量の要件が独自のケースだ。

同氏は「AIのワークロードに対して、既存のソリューションで対応するのは困難と表現するのは過度な単純化です。性能と容量を独立させてスケールできる設計で、既存のONTAPの一部のフォームファクターと適合しにくかった要件にも柔軟に対応します。ストレージOSとその機能を複数のフォームファクターで使いたいというニーズに対して、AFXは適しています」と力を込める。

分散型アーキテクチャの採用で組織は、特定のワークロード/ユースケースの要件に合わせて構成を最適化できる。また、ONTAPを基盤に据えて、データ保護やアクセス制御、拡張性といった機能を維持しつつ、性能・容量・コンピュートのスケーリングを分離して設計することを可能としている。

これにより、GPUを活用する高速トレーニングやキャッシュ重視のデータ配信など、要件の異なるパターンにも無理なく適応を可能にするというわけだ。

進化するストレージアーキテクチャにおけるAI Data Engineの役割

ただ、AFXは構成がHCI(ハイパーコンバージドインフラストラクチャ)と類似している部分も否めない。すでに販売を終了した「NetApp HCI」の技術が活かされているのかと尋ねたところ、同氏は「HCIから学んだことが今回に役立ったかというと、そうではないと思います。ただ、興味深い点として、以前よりもストレージにコンピュートが組み込まれる傾向が強まっていることが挙げられます」と話す。

Fishman氏によると昨今、ストレージシステムは従来の主にデータ取得を目的としたシステムから、クエリベースのシステムへと進化し、これらのシステムは単に情報を保持してアクセス制御するだけでなく、保存されているデータの性質そのものを理解するようになっているという。

そこで「AI Data Engine」が、こうしたビジョンを実現するための一歩になるという。同エンジンは、データの取り込みや前処理から、生成AIアプリケーションへの提供までを支援し、データ資産全体を可視化。高速な検索やキュレーションを可能にし、オンプレミスとパブリッククラウドを横断してモデルやツールにデータをシームレスに接続する。

  • AI Data Engineのカバー領域

    AI Data Engineのカバー領域

AFXを構成するコンポーネントのDX50は、AI Data Engineを搭載したコンピュートノード(サーバ)であり、GPUを介したアクセラレーテッドコンピューティングを組み込み、NVIDIAとの協業により実現。将来的にソフトウェアアプライアンスとしての提供も想定し、顧客の自社サーバで展開を可能していく方針を示している。

Fishman氏は「現時点で他のバージョンは発表していませんが、当社が需要を確認した領域には展開することになるでしょう。そして、もう1つのポイントとして、AI Data Engineは最終的にすべてのONTAPシステムで利用が可能になるということです。既存のインストールベースの文脈で言えば、約100エクサバイトのデータがあり、AI Data Engineの導入で、これらすべての組織がAIに向けてデータを準備できるようになります」と説明する。

AI Data Engineのクラウド提供については、現時点では具体的な製品計画は未定だが、CEOのジョージ・クリアン氏が基調講演で強調したのは、NetAppの目標としてオンプレミス、ホスト環境、クラウドのデータ資産を統合するグローバルなメタデータネームスペース(同じ名前のメタデータタグを区別し、一意のコンテキストを定義するための仕組み)を構築することだ。同氏は「この取り組みの方向性をある程度示唆していると思います」と述べている。

クラウド連携と競合関係、パートナーシップ

一方、仮にクラウドサービスとして実装された場合は、他のデータプラットフォームベンダーと競合関係にもなる。その点を指摘すると、同氏は「それはもっともな指摘ですね。NetAppは、約25の組織と協調的なアプローチを取り、幅広いデータパートナーシップのエコシステムを発表しています。その中には、競合と見なされるかもしれない企業も含まれており、代表例として挙げるならInformaticaが該当します」と答えた。

具体的には、基盤となるデータから推論されたメタデータを抽出し、それをInformaticaの製品に提供できるという。これにより、Informaticaは本来アクセスできなかった追加情報を得ることで、より良い成果を提供できるようになるとのことだ。

また、今回のINSIGHTではMicrosoftのPaaS(Platform as a Service)型ファイルストレージサービス「Azure NetApp Files」に対して、当社のONTAPのデータ保護機能で、別のストレージへデータを複製する「SnapMirror」や、ファイル配信を高速化するリモートキャッシュ機能「FlexCache」をはじめとしたデータ同期・キャッシュ技術を導入した。

さらに、Azure NetApp Filesと組織全体のデータを一元管理するためのデータレイク「Microsoft OneLake」の接続を発表し、OneLakeを通じて分析プラットフォーム「Microsoft Fabric」や一連のデータ分析、AIのPaaSおよびSaaSの利用が可能になっている。

  • MicrosoftのみならずGoogle Cloudとの協業もINSIGHTでは発表された

    MicrosoftのみならずGoogle Cloudの協業もINSIGHTでは発表された

最後に、Fishman氏は「組織がデータ環境やデータスタックを構築する際、AI Data Engineが目指しているのはデータに近接しているという当社の強みを活かし、データを独自の方法で活用することです。パートナーシップにより、共通の顧客により良い成果を提供できます。それらは補完的な関係にあり、25社の中には他にも多くの事例があります」と述べていた。