SambaNova Systemsは12月22日、都内で会見を開き、日本に東京オフィスを正式開設したことを明らかにした。

SambaNovaでアジア太平洋地域ゼネラルマネージャーを務める鯨岡俊則氏は、今回の東京オフィス開設について「東京オフィスをAIスタートアップの聖地とも言われている大手町に11月1日付で開設した。ポイントはターゲットとしている官公庁や金融機関が近くにいる事、ならびに交通の便が良いというメリットもある」と、その特長を説明する。実は、日本を含むアジア太平洋地域全域で見た場合、シンガポール政府からも拠点設立についての猛烈なラブコールを受けたというが、「シンガポールは政府含めて、動きが早い。SambaNovaの案件も日本よりも早く動きがある。しかし、日本もさまざまな面でホットな案件が多く、かつビジネススケールとしても日本の方が大きいものがあり、東京にオフィスを開設することを決定した」と、日本での今後の市場成長性を見て判断したと説明。「AI人材が不足しているので、今回のオフィス開設を機に、日本の企業と協調して人材育成を進めていきたい」と、日本でのAI人材育成を含めたエンジニアを中心とした人材獲得を進めていくことを掲げるほか、アジア大平洋地域全域を統括する重要拠点としての役割も担っていきたいとしている。

  • 自前のオフィスと呼べるものはこれまでなかった

    すでに日本での活動は行っていたが、自前のオフィスと呼べるものはこれまでなかったという。2023年11月1日付で、オフィスを正式開設に至ったのは、それだけ日本を中心とするアジア太平洋地域における同社への関心が高まっている証拠とも言えるだろう (資料提供:SambaNova、以下すべてのスライド同様)

  • 鯨岡俊則氏

    同社アジア太平洋地域ゼネラルマネージャーを務める鯨岡俊則氏

ソフトバンクが導入したDataScale SN30

SambaNovaは12月20日、同社のハードウェア/ソフトウェアの統合システム「DataScale」がソフトバンクが構築・運用する国内最大級の生成AI開発向け計算基盤の一部に採用されたことを明らかにしているが、実際にはどのようなモデルが導入されたのかはプレスリリースの段階では明らかにしていなかった。

同社は2023年9月、大規模言語モデル(Large Language Models:LLM)での学習と推論の高効率化を実現するAI半導体の新製品「SN40L」を発表し、汎用利用が可能なLなしの「SN40」を搭載したDataScale SN40を2024年に提供開始する予定を打ち出しており、ソフトバンクがその第一号になるかと思われたが、ソフトバンクが調達したのは現行の「Cardinal SN30 RDU」を搭載した「DataScale SN30」であるという。

  • SambaNovaのDataScaleを導入

    出資者でもあるソフトバンクがSambaNovaのDataScaleを導入。採用したのは現行モデルのSN30だという

SambaNovaの共同創業者兼CEOであるRodrigo Liang(ロドリゴ・リアン)氏は、「SambaNovaはAI半導体からクラウドプラットフォーム、基盤モデルまでフルスタックのモデルを最大の特長とする。また、1ノードあたり、数百MBのオンチップメモリと数TBのオフチップメモリにアクセスが可能であり、GPUでは難しいリッチコンテキストで、より高度なモデルの開発および展開を行うことができる」と自社の強みを説明。生成AIの先にあるであろう企業が自由にAIを活用する「エンタープライズAI」の時代に対応できる、企業内のそれぞれの部門が必要とするエキスパートなAIモデルの提供が可能になるになるとする。

  • SambaNovaの共同創業者兼CEOであるRodrigo Liang氏

    SambaNovaの共同創業者兼CEOであるRodrigo Liang氏

特に、推論にかかるコストは、SambaNovaのソリューションを活用することで、従来ソリューション比で1/10に低減できるようになるとし、現状のGPUが苦手な大量のメモリを用いる分野などに向けて、ソフトバンクでも活用が期待されているという。

  • エンタープライズAI
  • エンタープライズAI
  • 生成AIの次に来ることが期待されるエンタープライズAI(企業グレードのAI)。あらゆる業務を支援してくれることが期待されている

ちなみに、ソフトバンクに導入されるDataScaleは、アジア大平洋地域でもっとも巨大なシステムとなる予定とのことで、「これを活用してもらうことで、大企業が本当はどのようなAIの推論に関するインフラを必要としているのかを知るうえでのグッドポイントになれると考えている」(Rodrigo Liang CEO)と、その役割が果たす大きさを強調する。

また、「AI推論に関するベストソリューションがどこにあるのか。SambaNovaがそれになれると思っている。日本の多くの顧客からのニーズを踏まえ、満足できるソリューションの提供に向けて努力していく」ともしており、今後の研究開発を進める上でも日本のユーザーからのニーズは重要なものとなるとの見方を示し、当面は政府関連、ITインフラ関連、金融関係といった地域的な特性ユーザーへのアプローチを進めていくとする。さらに、それと並行して、グローバルでもターゲットにしているエンタープライズ関連、特にAIを活用してそうした問題を解決していきたいという思惑を持っている大企業へのアプローチを図っていくことで、顧客ニーズの把握を進めていきたいとしていた。

  • 3層データフローメモリ構成を採用

    SambaNovaのAI半導体の特長は大容量のオンチップメモリ、至近に設置された大容量広帯域メモリ、そして外部のDRAM、という3層データフローメモリ構成を採用し、メモリ容量と帯域幅に起因するアルゴリズムに対して性能を発揮できるところにある