Microsoftは10月16日(米国時間)、「Securing AI agents on Windows|Windows Experience Blog」において、Copilot Actionsなどの自立型AIエージェントに対するセキュリティ保護(ガードレール)の取り組みについて解説した。
Copilot Actionsは5月29日に発表されたWeb対応のパーソナルアシスタント機能。Copilotがユーザーの指示に基づいて、オンライン予約やチケットの購入などを代行することができる。同社は同日、「Making every Windows 11 PC an AI PC | Windows Experience Blog」において、新たにWindows上のローカルファイル操作にも対応することを発表したが、今回その安全性について解説を行った。
安全性を確保する枠組み
Copilot Actionsは、単なる補助的存在から能動的な協力者へと進化するAIエージェントだ。ユーザーの許可を得たうえで、文書の更新やファイル整理、予約や購入といった複雑なタスクを遂行する能力を備えている。
しかしながら、このような高度な機能は新たな脅威を生み出す。例えば、クロスプロンプトインジェクションのように、ドキュメントに埋め込まれた悪意あるコンテンツがエージェントの指示を上書きし、意図しない操作を引き起こす危険がある。そこで、Microsoftは堅牢なセキュリティ原則を定め、ユーザーの意図を守りつつ情報を保護する仕組みを導入した。
具体的には「専用のエージェントアカウントを設ける」、「限定的な権限を付与する」、「信頼できるソースによって署名する」、「プライバシー保護設計を遵守する」の4原則を策定した。これら原則は、ユーザーが自らのデータを管理しながらAIの利便性を享受可能にする基盤となる。
Windows 11の対応と今後の展望
Windows 11には、これらの原則を実際のものとする新しい仕組みが導入されている。具体的には「機能をデフォルトで無効にする」、「エージェントを隔離したワークスペースおよびアクセス制御下で動作させる」、「ユーザーによる進行状況の監視と操作の引き継ぎを可能にする」などの機能が実装されている。
Copilot Actionsは試験的プレビューを通じて利用者からの意見を収集し、機能や防御策を洗練させていく計画だ。Microsoftはフィードバックを通じてAIエクスペリエンスを改善し、安全かつ信頼できるAIエージェント時代を切り開く方針を打ち出している。2025年11月のMicrosoft Igniteにおいて、さらなる展望が示される予定だ。
