前世代比で5倍の演算処理性能を実現したAI半導体「SN50」

SambaNova Systemsは2月24日、エージェントAIをGPU比で1/3のコストで実行可能なAI半導体としてRDU(Reconfigurable Dataflow Unit)「SN50」を発表。併せて、高性能かつ高コスト効率なAI推論ソリューションの提供に向けたIntelとの協業計画、およびシリーズEの資金調達として3億5000万ドル以上の投資資金を獲得したことを発表した。

RDUは再定義可能なデータフローアーキテクチャを実現する同社のAI半導体技術。最新世代となるSN50を16基搭載したシステム「SambaRack SN50」は前世代品「SN40L」を搭載したシステムと比べて演算処理能力を5倍に向上させたほか、ネットワーク帯域幅も4倍に向上させたことで、高いパフォーマンスで複数のAIセッションを高いパフォーマンスで並行処理することを可能としたとする。また、SambaRackは最大256基のSN50を数TB/sの高速インターコネクトで接続することが可能であり、最初のトークン生成までの時間短縮を可能としたことで、音声アシスタントなどの次世代エンタープライズアプリにリアルタイムの応答性を提供することが可能とするほか、独自の3層メモリアーキテクチャ(オンチップSRAM、チップレットによるHBM、外付けDRAM)は健在で、HBMおよびSRAM常駐のモデルの場合、数ミリ秒単位でホットスワップが可能なほか、このメモリアーキテクチャ全体として10兆以上のパラメータモデルと1000万以上のコンテキスト長の処理が可能なため、より深い推論と豊富な出力を可能にするとしている。

  • SN50のパッケージ画像

    SN50のパッケージ画像。シルクのSN50の上にある「CERULEAN(セルリアン)」はSN40Lから採用したアーキテクチャの名称 (出所:SambaNova)

また、SambaRackは1台あたり平均20kWの消費電力で動作が可能なため、既存の空冷式データセンターでの運用が可能であり、推論サービスプロバイダに高い総所有コスト(TCO)を提供するソリューションであると同社では説明している。

  • 「SambaRack SN50」

    「SambaRack SN50」の外観 (出所:SambaNova)

ソフトバンクが日本のAIデータセンターへの導入を決定

SN50は2026年後半より顧客に向けた出荷が開始される予定だが、その最初の顧客としてソフトバンクが挙げられている。ソフトバンクが日本国内で構築する次世代AIデータセンターに導入される予定で、アジア太平洋地域の政府系機関および企業に向けた低遅延推論サービスの提供が推進されることになるという。

ソフトバンクとSambaNovaは2023年にSambaNovaのハードウェア/ソフトウェアの統合システム「DataScale」の採用をはじめ、2025年3月にはAI推論サービス「SambaCloud」を導入するなど、長い時間をかけて協業関係を構築してきており、今回の取り組みでは、ソフトバンクの最新AIクラスタをSN50上に構築することで、SambaNovaを将来の大規模エージェントサービスにおける推論のバックボーンに据えることを目指すとしている。

調達資金でSN50の生産拡大などを推進

なお、SambaNovaが実施したシリーズEの資金調達ラウンドはVista Equity PartnersとCambium Capitalが主導し、Intel Capitalも積極的に参加したとするほか、新規投資家としてAssam Ventures、Battery Ventures、Gulf Development Public Company Limited、Mayfield Capital、Saudi First Data、Seligman VenturesおよびT. Rowe Price Associates, Inc.がアドバイザーを務める口座が挙げられるとする。また、参加している既存投資家には、A&E、8Square、Atlantic Bridge、BlackRock、GV、Nepenthe、Nuri Capital、Redline Capitalとしている。

SambaNovaでは、得られた3億5000万ドル以上の資金について、SN50の生産拡大をはじめ、SambaCloudの拡張やエンタープライズソフトウェアの統合強化などに活用していくとしている。