PwCコンサルティングは9月19日、AIサービスのビジネスリスクを特定・改善する「AIレッドチーム」による新サービスを開始した。同日には記者説明会を開催し、PwCコンサルティング パートナーの林和洋氏と村上純一氏が新サービスについて解説した。
「AIレッドチーム」の概要
AIレッドチームは、同社のAIセキュリティに精通したエンジニアがクライアント企業のAIサービスに対して疑似攻撃を行うことで、その脆弱性や想定される脅威、生じ得るビジネスリスクを特定し、改善に向けて支援するというもの。
同サービスにより、企業はAIを利用したサービスを正式に始める前に、想定されるリスクを予見することができるとともに十分な対策を講じることで、インシデントを未然に防ぐことが可能となる。
レッドチームとは一般に、サイバー攻撃者の立場で実際に想定される攻撃を疑似的に行うことで、セキュリティ対策の有効性を確認する組織を指し、リスクベースのアプローチによるセキュリティ対策の手法の1つ。
2023年12月に公開された広島AIプロセスの成果文書「全てのAI関係者向けの広島プロセス国際指針」および「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」では、「AIライフサイクル全体にわたるリスクを特定、評価、軽減するために、高度なAIシステムの開発全体を通じて、その導入前及び市場投入前も含め、適切な措置を講じる」という原則が示されており、その行動を遵守する具体的な取り組みの1つとして、レッドチームが提唱されている。
今回発表されたサービスは、AIを利用したサービスに対してリスク起因者(サイバー攻撃者、犯罪者、愉快犯など)の観点から疑似攻撃を行うことで、脆弱性とそれに伴うビジネスリスクを特定し、その改善のためのアドバイスを提供するもの。企業が、自社のAIサービスの正式リリース前や運用中に同サービスを利用することで、実際にインシデントが発生する前にビジネスリスクを把握し、能動的に対策を講じることが可能となる。
同社は、AI脅威やAIのユースケースに関する知見を強みとしていことに加え、AIセキュリティに精通したエンジニアとコンサルタントが一体となって対応するチーム体制により、疑似攻撃の実施にとどまらず、現状把握、脅威分析から対策定義までを支援するとしている。
「AIレッドチーム」の特徴
同サービスの特徴としては、テスト対象となるAIを用いたサービスのビジネスケースを分析した上で、想定されるリスクおよびリスクシナリオを洗い出し、当該シナリオに沿ったテストを設計。これにより発見された課題がどのようなビジネスリスクに影響するかを特定できるという点が挙げられている。
また、AIセキュリティに精通したエンジニアが、サイバーセキュリティ分野において権威ある研究機関や団体が公開するフレームワークやレポートなどのベストプラクティス(業界標準)や、日々発見・報告される新たな攻撃手法のリサーチ結果に基づいて、最新の脅威を模したテストを実施するという特徴も兼ね備えている。
加えて、検出された課題に対して、各種ベストプラクティスとの紐づけを行い、AIモデル構築や精度評価といったデータサイエンスに長けた専門チームと連携し、改善に向けたアドバイスを提供することや、入出力のフィルタといった実装レベルのアドバイスだけでなく、MLOps(Machine Learning Operations)の改善・高度化、AIガバナンスの整備・改善といったサービス設計・運用まで広範なアドバイスを提供することも挙げられている。
AI特有のリスクに直面している企業
説明会に登壇したPwC Japan グループ Cyber + Digital Operational Resilience リーダーの林和洋氏は、日本企業を取り巻く国際情勢を説明し、海外で事業を展開する日本企業は、経済安全保障を考慮した企業戦略が必要となり、サイバーセキュリティ対応やAI規制法をはじめとする海外法規制への対応が求められていることを語った。
PwC Japanグループが実施した「企業の地政学リスク対応実態調査2024」内の「今、あなたの会社で最も懸念される地政学リスクは何ですか」という質問では、「ロシア・中国・北朝鮮などによるサイバーアタック・サイバーテロ」という回答が40%で最も高く、2位の「エネルギー供給構造の変化に伴う需給の不安定性」と比べて倍の票数を獲得している。
また、PwCコンサルティングが実施した「生成AIに関する実態調査2024 春」において、「社内向けまたは社外向けの生成AI活用検討の推進度合い」を聞いた質問では、ビジネスのデジタル化においてAIの活用が着実に普及していることが分かっている。
「生成AIの普及に伴い、ビジネスにおけるAI活用の機運が高まっています。企業は、AIを利用した新たなサービスを開発したり提供したりする一方で、AI特有のリスクに直面しています。AIは従来のITサービスとは異なり確率的プロセスに基づいて動作するため、誤った情報の提示や不適切なコンテンツの生成など、想定外の結果を招く恐れがあります。また、そのリスク領域は『技術リスク』のみならず、『倫理リスク』『法律リスク』と広範に及びます」(林氏)
同社はこのような課題を、新サービスを提供することで解決していきたい考え。