Techstrong Groupはこのほど、セキュリティブログ「Security Boulevard」の記事「Microsoft Copilot Spoofing: A New Phishing Vector - Security Boulevard」において、Microsoft Copilotを悪用したフィッシングキャンペーンを確認したと伝えた。
攻撃者は実際にはCopilotを悪用しておらず、Copilotからの通知を装うフィッシングメールを作成して被害者をだましたという。多くのユーザーはAIからの通知にまだ慣れていないため、だまされる可能性があると指摘されている。
フィッシングメールの例
近年、大企業を中心に生成AIを利用した業務の改善が推進されている。AIエージェントなどを活用し、会議の設定、交渉業務、コード実装などの自動化が進められている。
攻撃者はこの業務の変化を悪用する。AIエージェントからの通知に見せかけたフィッシングメールを送信することで、まだ慣れていない従業員をだまし、フィッシングサイトに誘導。記事では、実際に送信されたフィッシングメールのサンプルとして以下を紹介している。
メールは「Microsoft Co-Pilot」から送信されたように偽装しており、AIエージェントの本当のメールを知らない従業員はだまされる可能性がある。このフィッシングメールのリンク先は「Microsoft Co-Pilot」を自称するフィッシングサイトで、Microsoftアカウントの認証情報を窃取する。
対策
企業や組織には同様の攻撃を回避するため、AIサービスを導入する際にその内容や費用負担(有料、無料、誰が負担するのか)について、すべての従業員に通知することが推奨されている。また、AIエージェントを導入する場合は、AIエージェントから送付されるメールの外観、送信元アドレスの特徴(識別方法)、AIエージェントが担当する業務などについても通知することが推奨されている。
AIエージェントはサービスの提供が開始されたばかりで広く普及しているわけではないが、サイバー犯罪者はすでに攻撃に取り入れている。企業や組織にはプロアクティブな対策の継続的な実施が望まれている。