Sparticleは、同社が提供するオンプレミス型AIソリューション「GBase On-Prem」の荏原製作所への導入事例を紹介。「機密性の高い技術情報を守りながら生成AIを業務活用したい」といった製造業の課題に対し、オンプレミス環境で運用できるAIを提案したもので、荏原製作所では社内ナレッジ活用の高度化と業務効率向上を目的とし、同ソリューションを活用した検証・運用を進めている。

荏原製作所では、長年にわたり蓄積された設計資料や技術文書、社内規定といった、きわめて高度かつ機密性の高い情報を多数保有している。同社の競争力の源泉となる一方で、外部環境への持ち出しが厳しく制限されており、現在急速に普及している、ChatGPTをはじめとするクラウド型生成AIを実業務に本格導入するには、以下のようなリスクや懸念から、高いハードルが存在していた。

  • 機密情報を外部サーバーに送信するリスク
  • データ主権・セキュリティポリシーへの懸念
  • 製造業特有の専門知識に対応できない精度面の課題

こうした課題の解決手段として同社が採用したのが、Sparticleが提供するオンプレミス型AIソリューション「GBase On-Prem」。「完全なデータ主権の確保」や、「高精度な日本語処理とコストバランス」、「柔軟なモデル構成と量子化対応」を選定ポイントとして挙げており、さらにこのソリューション独自の検索拡張生成(RAG:Retrieval-Augmented Generation)機構により、社内ドキュメントを学習させることで「荏原製作所専用AI」として活用できる点も決め手となった。

主な選定ポイントは以下の通り。

完全なデータ主権の確保

社内ネットワーク内で完結するオンプレミス構成のため、設計図・技術文書・社内規程などの機密データを外部に出さずにAI活用が可能

高精度な日本語処理とコストバランス

70B(700億パラメータ)モデルは、一部タスクにおいてGPT-4o miniと同等レベルの精度を実現しながら、オンプレミス運用に適したコストを実現できるとの検証結果が出た

柔軟なモデル構成と量子化対応

用途に応じて70B / 80Bなどのモデルが選べ、8-bit量子化技術とNVIDIA A100 GPU(40GB×4基構成)によりGPUリソースを効率的に活用できる

荏原製作所は現在、概念実証(PoC)フェーズとして約2カ月間、GBase On-Premを運用している。

技術情報検索の効率化では、過去の設計仕様書や社内規程の該当箇所を探したり、技術文書の横断検索をしたりといったさまざまなパターンで9割以上の時短につながっており、「従来は平均30分かかっていた技術情報の検索が、自然言語での質問により平均2分に短縮できたほか、ファイルサーバー内を手作業で探していた技術情報を即座に取得できるようになった」とコメント。

また、専門知識がなくてもドキュメントのアップロードだけでナレッジベースを構築できるRAG構築の容易さ、外部流出リスクを排除したセキュアな検証環境を評価している。

Sparticleは今後、GBase On-Premにおいて以下のような機能強化を図り、製造業に特化したAI活用支援をさらに強化していく方針だ。

業界特化型モデルの開発支援

H200 GPU等の高性能計算資源を活用した、製造業向けファインチューニングモデルの構築支援を強化。専門用語・設計思想・品質基準など、業界固有の知識を深く理解したAIの実現をサポート

VLM(視覚言語モデル)への対応拡充

図面・設備写真・検査画像など、製造業特有のビジュアルデータを活用した解析機能を提供予定。テキストと画像を組み合わせたマルチモーダルAIによる、より直感的な情報検索を追求

エージェント機能による業務自動化の推進(機能拡張計画)

  • 複数システム横断での統合検索
  • 複数文書の自動要約・比較分析
  • 定型レポートの自動生成
  • 利用ログからの課題検知と改善提案