ストックマークは9月25日、同社がフルスクラッチで開発した1000億パラメータの日本語大規模言語モデル(LLM)の「Stockmark-2-100B-Instruct(以下、Stockmark-2)」が、NVIDIAが提供する推論マイクロサービス「NVIDIA NIM マイクロサービス」にて同日より提供開始されたことを発表した。
現代国家に不可欠な“ソブリンAI”確立へ
生成AIが国家の産業競争力を左右するといえる現代において、その能力を海外で開発されたAIだけに依存することは、データの国外流出リスクや、国内の特定ニーズへの対応不足などといった課題を内包することとなる。そのため自国の言語や文化、価値観に基づき、国内でコントロール可能な自前のAI、いわゆる“ソブリンAI”を保有することは、経済安全保障上でも最重要の課題とされている。
そうした中で、製造業向けAIエージェント「Aconnect」や業務AIの実装支援プラットフォーム「SAT」を運営し、企業特化型生成AIの開発なども支援するストックマークは今般、“完全独自開発”の日本語LLMとしてStockmark-2を開発したとのこと。同LLMは、経済産業省と新エネルギー・産業技術総合開発機構(NEDO)が実施する国内生成AI開発力強化プロジェクト「GENIAC」の第2期で開発されたもので、すでに公開されている既存LLMモデルを用いずに同社がゼロから開発を行った、日本語特化型1000億パラメータLLMだという。
ストックマークによれば同LLMは、高い日本語能力と豊富なビジネス知識を有する特徴を持ち、日本の組織によってフルスクラッチ開発が行われた公開モデルと比較しても、一定の差を空けて高い性能を発揮することが可能。またハルシネーションを大幅に抑止し、厳密性が重要なビジネスシーンでも信用して活用できるとしている。
NVIDIAを通じた提供は“世界水準の証明”
そしてこのStockmark-2は今般、最適化AIモデルを標準化された推論マイクロサービスコンテナとして提供するNVIDIA NIM マイクロサービスを通じた提供が開始された。なおこうした形での提供についてストックマークは、“容易な導入と最高のパフォーマンス”、“信頼性とデータ主権の担保”、“グローバル水準の運用”という3つの価値を提供できるとする。
NVIDIA NIM マイクロサービスでは、生成AIが最高のパフォーマンスを発揮するための環境構築や最適化をNVIDIAが行っている。そのため、通常では導入に際して莫大なインフラ投資や複雑な環境構築などが障壁となる中、同サービスを活用することで誰でも簡単にStockmark-2をデプロイし、自社業務へと活用できるという。
また、日本企業における生成AI活用を阻害する大きな要因である“セキュリティとデータ主権への懸念”についても、同サービスは明確な解決策となるとのこと。NVIDIA AI Enterpriseソフトウェア スイートの一部であるNVIDIA NIMは、国内外のデータセンタやオンプレミス環境など自社の管理下でのLLM運用が可能なため、機密情報や個人データも安心して扱うことが可能だとする。
そして、企業におけるAI活用で不可欠となる、パフォーマンスおよびセキュリティ維持のための運用管理についても、NVIDIA NIM マイクロサービスでは、NVIDIAが最適な運用を施した環境下でのAI活用を行うため、ユーザー側での面倒な保守運用は不要に。本来注力すべきアプリケーション開発やビジネス創造など、“AIを使って何をするか”にリソースを集中できるとした。
今回の発表に際してストックマークは、Stockmark-2のNVIDIA NIM マイクロサービスを通じた提供は、同社のLLMが性能・信頼性・効率性において“世界水準に達したことの証明”だとした上で、日本のデータ主権と経済安全保障を確保するソブリンAIの確立に向けた第一歩だとする。また同社取締役CTOの有馬幸介氏は、「この一歩が国内の独創的なAIサービス創出の起爆剤となることを確信し、今後も技術で日本の産業競争力強化に貢献していく」とコメントしている。
