ソフトバンクは、拡張を進めているAI(人工知能)計算基盤「NVIDIA DGX SuperPOD」の構築を7月22日に完了。4,000基超の「NVIDIA Blackwell GPU」を搭載した「NVIDIA DGX B200」システムで構成したものだという。
同社ではこのAI計算基盤について、現在稼働しているNVIDIA Blackwell GPU搭載のNVIDIA DGX SuperPODとして、世界最大の計算能力をもつとアピール。また、ソフトバンクが構築したAI計算基盤全体のGPUは1万基超、計算処理能力の合計は13.7EFLOPS(エクサフロップス)となった。
今回のAI計算基盤には、大量のデータを高速かつ安定してやり取りできるよう、NVIDIAの最新ネットワーク技術「Quantum-2 InfiniBand」を採用。企業向けのAI開発や運用に必要なツール群「NVIDIA AI Enterprise」にも対応し、AIの開発・運用を効率的で安全に行えるとする。
このAI計算基盤は自社グループでの利用だけでなく、日本国内の企業や研究機関に対してもサービス提供する予定で、まずは同社子会社であるSB Intuitionsが活用していく。
SB Intuitionsは、日本語に特化した国産の大規模言語モデル(LLM)の開発を行う企業で、2024年度に約4,600億パラメーターのLLMを構築。2025年度中には700億パラメーターのLLM「Sarashina mini」(サラシナミニ)の商用提供を予定している。今回増強したAI計算基盤を活用し、Sarashina miniを複数組み合わせて継続学習させることで、さらに大規模かつ高性能なモデルの開発を加速する。
ソフトバンクは、2023年9月に2,000基超の「NVIDIA Ampere GPU」で構成された「NVIDIA DGX SuperPOD」を導入し、0.7EFLOPSのAI計算基盤を稼働開始。その後、2024年10月には4,000基超の「NVIDIA Hopper GPU」を使用した4.0EFLOPSのAI計算基盤の稼働を開始している。
今回のAI計算基盤の構築は、経済安全保障推進法に基づく経済産業省の「特定重要物資クラウドプログラムの供給確保計画」の認定を受けたもので、生成AI関連の幅広い開発者が利用できる計算資源を整備し、国内でのサービス提供体制の強靭化に寄与するとのこと。