AIによる意思決定がビジネスシーンで求められるにつれ、企業においてクラウドからオンプレミスへの回帰が始まっている。改めて注目されているオンプレミスで機密情報を取り扱えるセキュリティ、複雑な意思決定を行えるパフォーマンスを実現する基盤とは。専門家であるエフサステクノロジーズの山辺保宏氏にAI活用を支えるハードウェアの現在地を伺った。
AI活用がクラウドからオンプレミスに注目が集まっている理由とは?
ビジネスにおけるこれまでの「生成AI(ジェネレーティブAI)」活用は、画像・音声・映像などのクリエイティブ領域や、定型業務の自動化領域が主な役割だった。だが、膨大な学習データをもとに進歩してきた生成AIは、いまや複雑な意思決定の補佐という役割も担いつつあり、AIの活用によって生まれた新事業や新企画も増加している。
このような状況の中で、企業が憂慮しているのが情報漏洩だ。AIに意思決定のサポートを行わせるためには、企業の機密情報も学習させなければならない。だが、現状のAIは多くがクラウド上で運用されており、情報の漏洩のリスクは常に存在している。
そこで、オンプレミスが再注目されている。オンプレミスAIやエッジAIであれば、クラウドAIの課題であるレイテンシ問題もクリアすることができる。また、クラウドは月単位で使用した分の料金が発生し、イニシャルコストは抑えられるものの、ランニングコストを含めたトータルでのコストがかさみがちな点も企業にとって負担になっていた。
しかし、AIに高度な意思決定を行わせるためにはパフォーマンスを最大限に引き出す必要がある。ゆえに、オンプレミスでは個別の設計構築が求められ、逆にイニシャルコストが高騰しがちだ。このイニシャルコストの問題から、最初の一歩が踏み出せない企業も多いだろう。
山辺氏は、オンプレミスに注目が集まっている主な理由を3点にまとめた。
・1.セキュリティの強化:機密情報や個人情報を取り扱うシステムでは、自社で管理できるオンプレミスの方が、より強固なセキュリティとコンプライアンス遵守を達成できる
・2.コストパフォーマンスの最適化:大規模なAI学習など、常に大量のリソースを必要とするワークロードでは、クラウドの従量課金が高コストになる場合があり、長期的にはオンプレミスの方が総コストを抑えられることがある
・3.パフォーマンスの安定性:リアルタイム処理や低遅延が求められるシステムでは、ネットワーク遅延の影響を受けにくいオンプレミスが安定したパフォーマンスを実現する
エスサステクノロジーズが提供する検証済みAI活用環境
AIソリューションとして、エスサステクノロジーズが提供しているのが「Private AI Platform on PRIMERGY」だ。機密データを社外に出すことなく、オンプレミスで対話型生成AIを活用するためのハードウェアソリューションとなる。
「『Private AI Platform on PRIMERGY』は、GPUを搭載したPRIMERGYサーバを基盤とし、AI基盤ソフトウェアスタックを組み合わせた、検証済みAI活用環境です。比較的短期間で運用をスタートすることができるうえ、コストパフォーマンスにも優れています。機密情報の漏洩リスクを最小限に抑えつつ、セキュリティポリシーやコンプライアンスを遵守しながら対話型生成AIの力を引き出すことが可能です」(山辺氏)
その特徴は、オンプレミスならではのセキュリティの安心感に加え、GPUサーバと必要なソフトウェアスタックがすべて検証済みで提供されているという点にある。これが企業における導入の手間とコストの削減を実現している。
また、インテル® Xeon® プロセッサーを搭載した信頼性の高いPRIMERGYサーバと国内トップクラスの保守サービス網によって、導入後の運用も安心して行うことが可能。企業独自の知識を活用するための「RAG(検索拡張生成)機能」も搭載しており、AIが社内文書などを参照し、企業独自の専門知識に基づいた正確な回答を生成できるようになる。これは社内ヘルプデスクの効率化や、熟練者のノウハウの標準化などにも貢献するだろう。
AI製品の基盤CPUとしてインテル® Xeon® プロセッサーを拡充している背景
オンプレミスはクラウドと異なり、ハードウェアの処理能力がそのまま性能上限になる。だからこそ、生成AIにおけるキーファクターのひとつはGPUで間違いない。だが、GPUさえ良ければ性能が出せるわけではない。システム全体のトータルパフォーマンスが重要なポイントになる。
「生成AIというとGPUだけに意識が向きがちですが、CPUやメモリも相応のパフォーマンスを備えていなければ、そこがボトルネックになってしまいます。トータルパフォーマンスを担保するために、当社はSupermicroと協業し、インテル® Xeon® プロセッサーを採用した製品をOEMとして提供しています」(山辺氏)
インテル® Xeon® プロセッサーは、OSの実行、データ処理、I/O処理、アプリケーション連携など、AIシステムに求められる高い要求に応えられるだけでなく、ディープラーニング処理を大幅に高速化する「インテル® AMX」のアクセラレーション機能によってGPUに依存せずCPU単体で効率的に処理できるため、ディープラーニング・トレーニングとCPU上の推論パフォーマンスの両方を向上させてくれるという。
山辺氏は、インテル® Xeon® プロセッサーを「高い信頼性と安定性を24時間365日保証で提供してくれるCPU」と評価するとともに、「加えて、インテル® Xeon® プロセッサーは多くの企業が既存システムで採用しています。AIシステムも同じアーキテクチャにすることで、既存の運用ノウハウやツールを活かすことが可能です」と言及する。
そんなPRIMERGYサーバの代表的な製品が「PRIMERGY GX2570 M8s」だ。大規模AI学習・推論向けに最新GPUを搭載したハイエンドモデルであり、空冷(10U)モデルと水冷(4U)モデルを用意。とくに水冷モデルは高い冷却性能によって、高密度・高発熱GPUの性能を最大限に引き出すことが可能。
また、生成AI向け高性能GPUサーバとして「PRIMERGY RX2540 M7」や、推論AI向けのエントリーGPUサーバ「PRIMERGY RX1330 M6」なども提供。規模・用途・目的・予算に応じた多彩なラインアップで、オンプレミス環境における生成AI活用を実現してくれるだろう。
広がる「Private AI Platform on PRIMERGY」活用事例
山辺氏は、実際に「Private AI Platform on PRIMERGY」が活用された成功事例をふたつ紹介する。
ひとつ目は、製造業のサポート業務を効率化した例だ。製造業においては、FAQでは解決できない複雑な問い合わせが多い。回答するためには膨大な機密データの中から必要な情報を検索しなければならないが、時間と手間がかかるだけでなく、熟練のサポート担当者のノウハウが属人化してしまっていた。
これを解決するために「Private AI Platform on PRIMERGY」を導入し、機密性の高いトラブル対応履歴や設計書、ソースコードを取り込んで、RAG機能と連携。AIが社内データに基づいた回答を生成できるようにしたという。この企業では実際に回答速度と回答品質の向上(マニュアル内では93%の精度)を実現し、同時に担当者の情報検索時間を削減と属人化の解消も達成したそうだ。
「いわゆるAIチャットボットの例ですね。当然クラウドでも可能ですが、社外に出すのは難しい非公開の資料やトラブル事例、製品の仕様書などを生成AIに学習させるため、オンプレ基盤を使いたいと要望が多いのです。公開できない情報も読み込めるため、今までよりも精度の高い効果が得られています」(山辺氏)
ふたつ目は、レガシーコードの解析とモダナイゼーションの例。昨今、ベテラン技術者の退職でレガシーコードのノウハウが失われる例は多い。改修しなければリスクは増大するが、改修しようにもコストがかかり、かといって機密コードを外部で解析することにもセキュリティ上の懸念がある。
この問題の解決方法するために「Private AI Platform on PRIMERGY」でレガシーコードを解析させ、コード解析・仕様書化、コード修正提案、新言語へのモダナイズコード生成等を自動化・効率化。レガシーコードに関するノウハウの継承を加速させることで、開発・保守コストを削減させた。すべての処理をオンプレミスで行うため、機密コードの情報漏洩リスクも排除される。
「例えばCOBOLが読める人はどんどん減少していますが、LLM(大規模言語モデル)ならば自然言語のみならず、コンピュータ言語の解析も可能なわけです。日本語を英語に翻訳するように、COBOLのソースコードをJAVAに変換したりできます。システムのソースコードは外に出せないので、オンプレミスである意味がある事例です」(山辺氏)
そのほかにも、ソフトウェア開発などでは仕様書からソースコードを生成したり、工場や事務所の写真を撮影してAIで安全確認を行うといった活用も進められているという。また、個人情報が密接に関わる音声データを文字化するためにオンプレミスを活用しようという動きもあるそうだ。
「生成AIは、まだまだ汎用の既製品を使う段階になく、各社が工夫して作り上げていっている段階です。もう少し先の未来では、A社の事例をB社に横展開するような事例もスタンダードになると思いますが、まだ1~2年はかかるとみています。当社は“小さく入れて、大きく育てる”ということで、お客さまが試行錯誤されている段階から開発に寄り添っており、数多くの活用事例を認識しています。ぜひお声がけください」(山辺氏)
生成AIのネクストステップに向けて
生成AIの活用はビジネスシーンでも本格化しており、今後は導入がスタンダードになるだろう。そのうえで山辺氏は、ふたつの生成AIのネクストステップを紹介する。
ひとつは「AIエージェント」。課題に対し、AIが自律的に推論を行い、計画を立案し、解決のための行動を行うシステム。もうひとつは「スプリット・コンピューティングプラットフォーム」。サーバのみならず、最終的にはエッジ端末にまで生成AIが組み込まれ、専門的な知識がなくとも扱える環境だ。
「エッジ端末でも生成AIを動かす時代がもうすぐ来ます。インテルのCPUはGPUを内蔵しており、AIアクセラレーションも搭載しているので、ローカルで推論し、一次回答をサーバで処理するなど、もっともっと面白いことができると思います。エッジ端末と共通基盤のPrivate AI PIatform on PRIMERGYを連携して使うような、そういう拡張性も今後考えていきたいなと思っております」(山辺氏)
生成AIは進化し続けており、現在はトライアンドエラーを繰り返しながら模索する段階だろう。だからこそエフサステクノロジーズは、製品を販売するだけでなく、ユーザーと伴走しながら、ともに生成AIの使い方を探っていき、ともに成長することを目指しているという。生成AIを用いてビジネス課題の解決に取り組みたいユーザー、オンプレミスのAI基盤を構築したいユーザーは、エフサステクノロジーズのソリューションに注目してみてはいかがだろうか。
[PR]提供:インテル










