EYストラテジー・アンド・コンサルティング(EYSC)は5月14日、攻撃者視点で生成AIのセキュリティリスクを把握・評価する新サービス「エンドツーエンドAIレッドチーミング」の提供を開始した。同日には、オンラインで記者説明会を開催した。
生成AIの普及で高まるセキュリティリスクと企業課題
冒頭、EYストラテジー・アンド・コンサルティング サイバーセキュリティ共同リーダー パートナーの小川真毅氏は「企業や組織においてAIを安全に活用することが重要な課題になっているため、新サービスも含めて支援していく。AIに限らず、量子コンピュータなど先端技術の普及に伴う課題に合わせてタイムリーにサービスを提供し、企業のセキュリティ強化に寄与していく」と力を込める。
同サービスは、生成AIやLLMを組み込んだアプリケーションを対象に、ユーザー入力から生成AIによる出力に至る一連の挙動を俯瞰的に分析。実際に起こり得る攻撃や悪用のシナリオを想定した検証を通じて、従来の診断手法では把握しづらかった生成AI特有のリスクとその影響の把握・評価を支援する。
EYストラテジー・アンド・コンサルティング サイバーセキュリティユニット アソシエートパートナーの佐藤拓也氏は「急速なAIの導入が企業・組織の中核で進んでいるが、セキュリティリスクについて多くの企業は適切に対処ができていない。AIを適用する領域の広がりとともに、リスクの性質は変わっていく。新サービスは対処ができていない状態を、対処できる状態にすることを可能としている」と述べた。
昨今、AIは顧客対応や業務効率化にとどまらず、機密情報の処理、意思決定支援、自律的なアクションまでを担っており、AIが事業を支えることを前提に安全に活用することが求められているという。
生成AIを組み込んだアプリケーションでは、入力内容や外部データ連携の方法により、個人情報、機密情報、知的財産の漏えいなど、意図しない情報開示、許可された権限を超えた回答など不適切な挙動が生じる可能性がある。
こうしたリスクは、個々の機能や設定だけでなく、利用の流れ全体に起因するケースも多く、既存の診断手法では実態を十分に把握しにくい場合があるという。さらには、従来型のセキュリティは脆弱性や設定ミス、権限管理などがチェック項目の中心だったが、AIではプロンプト、RAG(検索拡張生成)、エージェントをはじめ、新たな攻撃面を生み出している。
EYの「AIレッドチーミング」サービスの特徴と評価プロセス
その点、エンドツーエンドAIレッドチーミングは、攻撃者の視点から生成AIの利用を捉え直すことを重視したサービスとなり、顧客の合意のもと、実際の悪用シナリオを想定して検証することで、従来の評価手法では見えにくかった生成AI特有の代表的なリスクとその影響の把握・評価を行う。検証結果は、技術部門だけでなく関係部門が共通理解を持てる形で整理し、優先順位を付け、是正策の検討につなげるというもの。
評価は「スコーピング」「脅威モデリング」「シミュレーション」「悪用可能性確認」「報告・再検証」の5つのフェーズで取り組む。主な特徴として、実際に想定されるリスクをシナリオ化し、プロンプトインジェクションやジェイルブレイク、RAG(検索拡張生成)の汚染・不正誘導、ツール/APIの不正利用、危険なエージェント挙動や権限逸脱などの観点で検証する。
また、机上のリスク整理にとどまらず、実際に成立する攻撃経路(アタックパス)を検証し、信頼境界の弱点、影響範囲、深刻度の根拠を明確にし、悪用可能性と影響度の現実的な検証を行う。
さらに、セキュリティ部門だけでなく、法務部門や経営層とも共有できる形でリスクを整理し、優先順位付けと具体的な対応検討の参考となる情報提供をはじめ、対応・実行判断など意思決定に資するガバナンス視点のレポーティングを実施。
そのほか、オプションとして再検証を用意し、対策後に再評価を行い、リスク低減の実効性を確認することも可能としている。



