日本ヒューレット・パッカード(HPE)は3月27日、複数の生成AI大規模言語モデル(LLM)を「HPE Aruba Networking Central」に統合し、AIOps(AI運用)ネットワーク管理機能を拡張すると発表した。
HPE Aruba Networking Centralに複数のLLMを統合
HPE Aruba Networking Centralは、HPE GreenLake Cloud Platform上でホストされているHPEのクラウドネイティブネットワーク管理ソリューション。
パブリックLLMにAPIコールを送信するだけの他の生成AIネットワーキングアプローチとは異なり、内蔵型のLLMモデルセットの設計ではユーザーエクスペリエンスと運用効率の向上を念頭に、検索の応答時間、精度、データプライバシーに重点を置いており、個人や企業を特定できるデータを削除する画期的な前処理とガードレール制御を組み込んでいる。
HPE Aruba Networkingは、約400万のネットワークマネージドデバイスと10億以上のエンドポイントからテレメトリーを収集し、HPE Aruba Networking Centralの予測分析とリコメンドのための機械学習(ML)モデルの強化に活かしている。
新しい生成AI LLM機能は、HPE Aruba Networking CentralのAI Search機能に組み込まれ、既存のML(機械学習)ベースのAI全体を補完して、高度なインサイト、優れたアナリティクス、予防的な機能を提供するという。
HPE GreenLake Cloud Platform上で稼働するHPE Aruba Networking Central内のLLMは、保護された空間に構築された仮想環境であるサンドボックスを通じて活用するほか、PIIおよびCIIデータを削除する前処理を実行し、検索精度を向上させる独自の専用LLMによってデータセキュリティを確保すると同時に、ネットワーク運用に関する質問に素早く応答するとのこと。
HPE Aruba Networking Centralの生成AIモデルをトレーニングするにあたって使用しているデータセットは、HPE Aruba Networkingがパブリックドメインに提供する数万件のドキュメント、収集した300万件以上のユーザーからの質問を含む。