Red Hatはこのほど、NVIDIAのAIカンファレンス「NVIDIA GTC 2026」の開催に合わせ、Red Hat AIプラットフォームにデプロイ可能な「NVIDIA OpenShell」および「NVIDIA NemoClaw」を紹介した。
近年、AIはチャットボットから自律的にタスクを実行するエージェントへと進化し、企業導入の動きが加速している。一方で、外部サービスや社内データにアクセスするその特性ゆえに、不正アクセスや情報漏えいといったリスクが顕在化し、本番環境への導入を阻む大きな壁となっていた。
こうした課題に対し、NVIDIAとRed Hatは「Bring Your Own Agent(BYOA)」の考え方のもと、安全な実行環境と運用基盤を組み合わせた新たなアプローチを提示する。NemoClawは、既存のオープンソースAIエージェント「OpenClaw」をベースに、セキュリティとプライバシー制御を強化したスタックとして位置付けられる。
- Red Hatの発表:Red Hat and NVIDIA collaborate for a more secure foundation for the agent-ready workforce
Red Hat×NVIDIA、エージェント運用を支える新基盤
Red HatはAIの運用基盤として「Red Hat AI」を提供し、企業独自のエージェント運用をサポートしている。しかしながら、安全なエージェントの開発は容易ではないため、自社開発ではなく、サードパーティーのエージェント導入が有力な候補となる。
有名なエージェントとしては、オープンソースの「OpenClaw」が存在する。既存のAI関連ソリューションを活用するゲートウェイソフトウェアで、各製品の橋渡し役として動作する。ユーザーインタフェースにメッセージングアプリを利用し、頭脳には外部の生成AIプラットフォームを使用する。ローカルファイル操作、Web検索、コードの実行、タスク処理、スマートフォン連携などに対応し、AIエージェントとして必要な機能を一通り提供する。
OpenClawが抱えるセキュリティリスク
オープンソースのAIエージェントとして知られる「OpenClaw」は、外部の生成AIサービスや各種ツールと連携しながら動作する柔軟なアーキテクチャを特徴とする。ローカルファイル操作やWeb検索、コード実行など幅広い機能を備え、実用的なエージェント基盤として注目されてきた。
しかしその一方で、外部サービスとの連携や高い権限を前提とする設計は、セキュリティ上のリスクも抱えている。不正なプロンプトによる意図しない操作や、機密データへのアクセス、外部への情報送信といった問題が発生する可能性が指摘されており、本番環境での運用には慎重な対応が求められてきた。
こうした課題を背景に、OpenClawをそのまま企業システムに導入することは難しく、安全性を担保した新たな実行基盤の必要性が高まっていた。
高機能な反面、セキュリティに課題が多く、本番環境における運用はリスクが高いと評価されている。そこでNVIDIAはOpenClawにセキュリティとプライバシー制御を追加するオープンソーススタックの「NVIDIA NemoClaw」を開発し、今回のカンファレンスにて発表した。
NVIDIA「NemoClaw」、セキュアなAIエージェント基盤へ
NemoClawのセキュリティとプライバシー制御には「NVIDIA OpenShell」の安全なランタイム環境を活用する。これは自律型AIエージェント向けのサンドボックス化された実行環境で、不正なファイルアクセス、不正なネットワーク活動、データ流出などを防止する。
OpenShellはKubernetes上で動作するため、Red Hat AI環境にデプロイ可能。これに仮想大規模言語モデル(vLLM: virtual Large Language Model)で駆動されるセルフホストモデル、MCPツール、その他AIサービスを連携させることで、企業が求める安全性と柔軟性を両立する構成が整う。
この基盤は、オープンソースのリサーチエージェント開発用リファレンス設計の「NVIDIA AI-Q Blueprint」をサポートする。企業はAI-Q Blueprintを利用し、膨大な自社データを活用する高度なエージェント開発を行うことができる。
AIエージェントのリスクをどう防ぐか
Red Hat OpenShift AIでは、NVIDIA NeMo Guardrailsによるセキュリティ強化が可能だ。テクノロジープレビュー段階のため本番使用は推奨されていないが、デプロイしたモデルへのガードレールおよび安全制御機能の追加が可能とされる(参考:「Chapter 3. Deploying NeMo Guardrails | Enabling AI safety with Guardrails | Red Hat OpenShift AI Self-Managed | 3.2 | Red Hat Documentation」)。
Red Hatはこの機能を使用することで、侵害されたエージェントの隔離や推測困難なワークロードIDの付与、MLflow Trackingによる可観測性の実現が可能としている。これらはAI利用時の不透明さを改善することにつながり、企業は業務への導入を進めやすくなる。
Red HatとNVIDIAはこうした基盤を広げることで、安全なAI環境を整え、企業のエージェント導入を支援したい考えだ。今後も自律型AIエージェントの安全性と管理性を高め、基盤を強化していく方針を示している。

