The Hacker Newsは1月14日(現地時間)、「AI Agents Are Becoming Authorization Bypass Paths」において、AIエージェントがもたらす許可のない権限昇格によるリスクについて解説した。

AIエージェントは当初、無害な存在だったが、近年の自律行動サポートによりリスクが顕在化したという。

  • AI Agents Are Becoming Authorization Bypass Paths

    AI Agents Are Becoming Authorization Bypass Paths

AIエージェントがもたらす新しいセキュリティリスク

大企業を中心に導入が進む高度なAIエージェントは、タスクの構築から処理に至るまで、一連の作業を自ら判断して実行できるように設計されている。複数のリソース、ユーザー、ワークフローにも対応し、業務効率の大幅な向上につながると期待されている。

AIエージェントの自律行動を可能にするには、連携するシステムのアカウント、APIキー、OAuth認可グラントをAIエージェントに与える必要がある。これら認証情報は一元管理され、長期の有効期間を持つことが多い。

上級職から一般職に至るまで幅広い社員および従業員がユーザーになることが一般的で、上級職の指示を達成するために高い権限が与えられる。このような構成となる企業は多く、その結果、権限のないユーザーがAIエージェントを介して高い権限のアクションを実行できる可能性が生まれる。

システムに記録されるログはAIエージェントに帰属されるため、不正なアクティビティの検出は難しく、可視性の低下をもたらすとされる。このような悪用や事故を防止するために、一般的にAIエージェントにはガードレールが設けられているが、The Hacker Newsによると利用者の意図にかかわらず本来の権限を超えるタスクを実行する可能性があるという。

権限の継続的な可視性確保が重要

「最小権限の原則」は重要なセキュリティ対策と言える。しかしながら、AIエージェントがこの対策に穴を開けようとしている。IDおよびアクセス管理(IAM: Identity and Access Management)は人間中心のID管理を提供するが、AIエージェントによる権限の拡張には対応しない。

ユーザーごとに設定した最小権限の突破を可能にし、認証パイパスと同じ効果をもたらす可能性がある。タスクを指示した本人に悪用の意図がなければ状況はより複雑化し、場合によっては権限の逸脱に誰も気がつかない可能性がある。このような状況で生成された資料を対外的に活用すれば、情報流出という結果が待っている。

このような被害を回避するには、AIエージェントの利用を前提とした新しい仕組みを構築する必要がある。根本的な解決にはAIエージェントの開発企業による取り組みが必要となる。具体的にはプロンプト入力者の権限の保持と、タスク実行時の権限の継続的な評価などが考えられる。

AIエージェントを導入する企業側の対策としては、可視性の確保が重要になる。悪意を持って実行したか、事故によるものかの判断材料は少なくとも必要で、タスク完了までの権限の変化を追跡できるようにすることが推奨されている。AIがもたらす自動化と効率性を有効活用するために、企業にはセキュリティ重視のシステム設計を行うことが望まれている。