業種や規模を問わず、多様な企業・組織が積極的に導入を進めている「生成AI」。業務効率化をはじめ生産性向上、働き手不足の解消など、さまざまな導入効果が期待されており、近年もっとも注目されている技術トレンドといって過言ではない。
これまで国内企業のITインフラを支え続けてきた富士通エフサスと、富士通のハードウェア事業を統合し、2024年4月に設立されたエフサステクノロジーズ。インフラ基盤を構成するハードウェアの開発・製造・販売・保守まで一貫した体制を構築し、従来から65,000社に及ぶ企業のビジネスに価値を提供してきた同社では、AIに関する企業のニーズをキャッチアップし、今後を見据えた先進的な生成AIソリューション「Private AI Platform on PRIMERGY」の提供を開始した。
本稿では、エフサステクノロジーズ株式会社 プロダクトソリューション本部 AIシステム統括部 統括部長の中嶋 一雄 氏に、本ソリューションの開発コンセプトと特長、インテル Xeon プロセッサーを採用した経緯、生成AI活用における同プロセッサーへの期待など幅広い話を伺った。同社とインテルとの協業により進化を続ける、プライベート環境向け生成AIプラットフォームの実力とは?
社内の機密データを含めた生成AI活用は、
オンプレミス上にAI基盤を構築するのが有効な一手
エフサステクノロジーズは、国内に製造工場を持ち、Made in Japanの体制でサーバ・ストレージ・ネットワーク製品など、ITインフラを構成するハードウェアソリューションを提供し続けてきた。企業のビジネスをインフラ面から支えてきた同社は、AIがビジネスに与える価値について以前より注視しており、数多くの企業と接しているなかで、進化を続ける生成AIへの期待の高まりを実感していたという。同社のプロダクトソリューション本部 AIシステム統括部を率い、ストレージ製品の開発や、スーパーコンピュータ「京」の安定稼働などに携わってきた中嶋氏は、AIの活用はより深い領域へと向かっていると市場の動向を分析する。
「富士通が約800社の経営層にAIに関するアンケートを実施したところ、現状はチャットボットなどを用いた顧客対応の自動化や、対話型生成AIによる業務支援といった活用方法が主流でしたが、今後3年以内の活用予定を聞くと、商品やサービスの機能強化や経営意思決定の支援、業務プロセスの自動化など、ビジネスのより深い領域での活用を想定している企業が多いという傾向が見えてきました。特に生成AIへの期待が高いことを実感しています」(中嶋氏)
複雑な意思決定を伴う領域で生成AIを活用するには、企業内にある機密データを大規模言語モデル(LLM)に読み込ませ、より高精度な回答を得る必要がある。ところが現在の生成AI活用は、パブリッククラウド上で提供されているサービスの利用がほとんどで、社内の機密データを外部(パブリッククラウド)に持ち出すことに抵抗を感じる企業も少なくない。
中嶋氏は「経営の意思決定を支援するには、決算情報やNDAを締結している開発中の製品情報など機微なデータを扱わなければならず、SaaS/PaaSとして利用できるパブリック環境のAIソリューションは使えないと考えるお客様は、やはり一定数いらっしゃいます」と語り、ビジネスのより深い領域で生成AIを活用するには、機密データを安全に活用できる環境を構築する必要があると話を展開する。
こうした生成AIの活用促進を阻む課題を解決すべく同社が開発したソリューションが、プライベート環境、すなわちオンプレミス上に構築・運用できる対話型生成AIプラットフォーム「Private AI Platform on PRIMERGY」となる。
AI基盤に必要な要素を網羅したオンプレミス向け生成AIソリューション
先に述べたとおり、パブリッククラウド上のサービスとして利用できるAIソリューションは、導入が容易でスピーディに生成AIの活用を始められる反面、データセキュリティの観点から自社特有の業務資料や機密情報を扱う領域には使いづらいというデメリットも内包している。このため、事業の根幹を成す領域で生成AIを活用したい場合には、オンプレミス上にAI基盤を構築し、社内データを外部に出すことなくAIアプリケーションを運用するというアプローチが有効となる。
とはいえ、実用に耐えうるAI基盤をオンプレミスに構築するのは難易度の高いミッションであり、ハードウェアの調達から、OSや大規模言語モデル(LLM)の選定・導入、業務に適したAIアプリケーションの開発・運用まで、やるべきことは多岐にわたる。その結果コストの増大はもちろん、導入期間の長期化も避けられず、昨今のビジネスで重要な“スピード”と“柔軟性”を損なう恐れも出てきてしまうだろう。
エフサステクノロジーズが提供するPrivate AI Platform on PRIMERGYは、こうした懸念を払拭するソリューションとして開発されている。中嶋氏は、本サービスの特徴として次の4つを挙げる。
① 導入後、すぐに使えるReadyモデル
② AIの専門家が厳選した生成AI
③ 堅牢かつ信頼性の高いインフラ基盤
④ 業務に合わせた独自のAIアプリケーションを容易に作成可能
「開発コンセプトとしては、オンプレミス上で簡単に使えることを重視しました。生成AI基盤向けのハードウェアとしては、インテル® Xeon® プロセッサーを搭載し、高性能GPUも選択できるサーバ製品「PRIMERGY」を採用。その上に検証済OSやコンテナ基盤、言語モデル、検索拡張生成(RAG)、OpenAI互換API/WebGUIなど対話型生成AI基盤に必要な環境をすべてセットアップしたうえでお届けする“Readyモデル”として提供しています(①)。電源をオンにするだけで、生成AIのチャットボットがすぐに使えるようになっています」(中嶋氏)
また生成AIの環境を構築するには、さまざまな特徴を備えた言語モデル(LLM)のなかから、日本語処理能力が高く業務活用に適したモデルを選定する必要があり、AIに関する専門知識を備えたエンジニアを確保できていない企業にとってその選定は大きな障壁となる。そこで本サービスでは、経験豊富なエフサステクノロジーズのAIエンジニアによる目利きで、業務に最適なLLMを選定(②)。膨大な選択肢から自社に合ったモデルを探し出す必要はない。中嶋氏は「LLMはもちろん、チャット用のWeb-GUIやAIアプリケーションの開発環境、RAGと呼ばれる検索拡張生成機能も含めて選定していますので、AIに関する知見を持たない企業でも生成AIを効果的に活用できます」と説明する。
インテル® Xeon® プロセッサー搭載のPRIMERGYなど堅牢で信頼性の高いAI基盤は、ハードウェア・ソフトウェアを含めて継続的なサポートが提供される(③)。ここには開発から保守までワンストップでインフラ基盤を提供し続けてきた同社の知見が惜しみなく注ぎ込まれており、安定稼働を実現する保守サポートは、他のAIソリューションにはない強みとなっている。
さらに本サービスでは規模に応じた4つのラインナップを用意しており、新たに追加された「Very Smallモデル」は、「少人数で利用したい」「トライアルで生成AIを試したい」といった企業のニーズに応えるモデルと中嶋氏。最上位モデルとなる「Largeモデル」では、富士通が提供している業務特化型LLM「Takane(高嶺)」が採用されるなど、規模や用途に合わせた選択肢が用意されていることも見逃せないポイントだ。
そしてラインナップの豊富さだけではなく、最新の技術・機能を積極的に取り入れ、継続的に改善を図るスタンスも本サービスの大きな魅力となっている。2025年に入っても、先進的なAIアプリ開発プラットフォーム「Dify」を実装。直感的なAIアプリケーション作成や、RAGを利用した自社独自データの取り込みを実現している(④)。
「たとえば、Web-GUIで「日本におけるランサムウェアの被害状況を教えて」と質問すると、LLMが学習済の汎用情報を利用し、インターネット接続不要で回答を返してくれます。さらにRAGのデータも簡単な操作で取り込めるため、たとえば日本の公的機関が公開しているサイバーセキュリティ被害情報を読み込ませて、より高精度な回答を得ることも可能です。参照したRAGデータも確認できます。」(中嶋氏)
RAG参照前の回答
RAG参照後のより高精度な回答
Difyを導入したことで、業務用途に合わせた専用のAIアプリケーションを作成することも容易になったと語った中嶋氏は、「たとえば総務部門向けのチャットボット作成であれば、就業規則など社内規程の情報を読み込ませて、回答精度の向上が図れます。作成したチャットボットは既存のWebサイトへの組込も簡単に実施できるため、既存の業務に生成AIを取り込むことも容易です」と、進化を続ける本サービスの魅力に言及。一部の部署だけが生成AIの恩恵を受けている状況を打破し、あらゆる業務で生成AIを当たり前に活用できる“AIの民主化”を推進できるソリューションと説明する。
“GPU在りき”という生成AI活用の固定観念を覆す
――インテルとの協業でCPU推論という新たな道を模索
エフサステクノロジーズでは、Private AI Platform on PRIMERGYを自社導入し、実践的なアプローチで導入効果の検証を続けている。「弊社のサポート業務に適用し、お客様からの問い合わせ対応業務における工数削減、回答品質の向上、属人化の解消など多くの効果を得られています」と中嶋氏。過去の対応履歴やマニュアル/設計書などの情報をLLMに読み込ませることで、担当者の経験やスキルを問わず、均一的で高精度の問い合わせ対応が可能になったと手応えを口にする。
実際、本サービスの導入を検討する企業の多くは、必要な情報を引き出すための工数を削減したいというニーズを持っているという。たとえばパブリッククラウドの利用が困難な製造業では、過去の設計情報をすばやく検索し、流用設計で新製品開発を効率化するという目的で本サービスの採用を検討している。そのほか、定期的に改訂されるドキュメントの新版・旧版の差分を分析し、どのような改訂があったのかを要約するといった使い方も検討されていると中嶋氏は語り、産業系や公共系、ヘルスケアまで幅広い分野で引き合いをいただいていると力を込める。
また本サービスは、信頼性の高いGPUを搭載したハードウェア構成を基本としているが、今後も先進的な技術や最新のハードウェアをキャッチアップし、市場のニーズに応じたブラッシュアップを続けていく予定だ。中嶋氏は、CPUによる処理を重視した生成AI活用も今後増えていくと予測しており、AI/HPCのワークロード向けに機能が強化された最新世代のインテル® Xeon® プロセッサーのポテンシャルに期待していると話を続ける。
「エフサステクノロジーズでは、インテルと長い協業の歴史があり、単にCPUの供給を受けるのではなく、さまざまな技術協業を行ってきました。AI/DX時代においても、ハードウェアだけにとどまらず協業の幅を広げています。現時点では、大規模な言語モデルを動かすにはどうしてもGPUが必要となりますが、たとえばAIアプリの安定稼働など、その他の処理はCPUが行っている部分も非常に多い。LLMが頭脳でGPUが処理を担うとすると、実際に動かすための手足となる部分をCPUが担っているわけです。さらに第4世代以降のインテル® Xeon® プロセッサーに実装されている拡張命令セット「インテル® AMX」を活用すれば、CPUでの推論処理も十分なパフォーマンスが期待できます。将来的には、用途に合わせてCPUで推論を行うPrivate AI Platform on PRIMERGYのモデルも検討しており、製品化を見据えた技術検証も進めています」(中嶋氏)
インテル® AMXを利用したCPU推論モデルも検討し、ビジネスにおけるAIの民主化を目指す
前述したとおり、Private AI Platform on PRIMERGYは技術の進化や市場のニーズに合わせてラインナップの拡充や最新AI技術の実装などの改善を続けている。今後もプライベート環境で簡単かつ安全に使える生成AIソリューションというコンセプトを継続しながら、企業のビジネスに価値を届けていきたいと中嶋氏。インテル®AMXの活用に向けた技術検証も含め、インテルとの協業をさらに深めていきたいと今後の展望を語った。
「1980年代から数十年にわたり続けてきたインテルとの技術協業を継続し、生成AIをはじめとした企業のDX推進、IT活用を支援していきたいと考えています。AIソリューションのラインナップ強化に向けて、インテル® AMXを利用したCPU推論の活用も検討しており、インテルとともに市場を盛り上げ、ビジネスにおけるAIの民主化を牽引していきたいと思っています」(中嶋氏)