サイバーセキュリティの分野において、AIは長い間注目を集めてきました。AI技術の初期には、「AIこそがサイバー犯罪者が待ち望んでいた万能の武器だ」という意見から、「AIはメールを書く手助けに多少なるかもしれない」といった意見まで、さまざまな見解がありました。

時代は進み、生成AIの時代に突入した今、サイバー犯罪者が非常に強力なツールを手に入れたことは間違いありません。AIが単なる雑務を手助けしていた段階は過ぎ去り、生成AIは現在、ソーシャルエンジニアリングの手法を一変させています。これにより、サイバー犯罪者は顔や人格を巧妙に偽装したり、新しいアイデンティティを簡単に作り出したりすることができるようになっています。

このような状況から、生成AIがCISOの懸念リストのトップに位置しています。プルーフポイントの年次レポート「2024 Voice of the CISO」によると、全体の半数以上(54%)のCISOが、生成AIが自社にセキュリティリスクをもたらすと考えています。業種別に見ると、「教育」「医療」「公共部門」「コンサルティング」「メディア、レジャー、エンターテインメント」「金融」「IT、テクノロジー、電気通信」のCISOの半数以上が、そのように回答しています。

  • 生成AIが組織にセキュリティリスクをもたらすと考えているCISOの割合(業界別) 引用:2024 Voice of the CISO

CISOが生成AIをリスクと考えるのは、従業員が大多数のサイバー攻撃への入り口となっているからです。生成AIによって偽のプロフィールが自動的に生成され、ディープフェイクが説得力を持てば持つほど、攻撃が成功する確率が高まります。

生成AIという“武器”を理解する

サイバー犯罪者は長い間、私たちの従業員をだまし、操り、組織への侵入の扉を開かせてきました。メールが依然として最大の攻撃経路である一方、最近の生成AIの進展により、彼らはあらゆるチャネルで説得力のあるソーシャルエンジニアリング攻撃を仕掛けることが可能になっています。

NLP(自然言語処理)モデルは、ソーシャルメディアのフィードから漏洩したチャットログまで、膨大な会話データセットを分析し、サイバー犯罪者が信頼できる人物の口調や会話のパターンを模倣するのを助けます。これにより、メールやLinkedIn、Facebookメッセンジャー、WhatsApp、LINEなどのメッセージングアプリでのコミュニケーションが、本物なのか偽装されたものなのかを区別することが、今までになく難しくなっています。

NLPは、サイバー犯罪者が非英語圏の国々で説得力のある攻撃を仕掛ける点でも役立っています。従来、攻撃者は言語や文化の壁から、日本や韓国、アラブ首長国連邦(UAE)などの国々を避けてきました。しかし、コミュニケーションを正確に模倣できる生成AIの能力により、これらの地域で標的型BEC(Business Email Compromise:ビジネスメール詐欺)攻撃が増加しています。

実在する人物になりすますだけでなく、攻撃者は高度な生成AIモデルを使用して、まったく新しいアイデンティティを作成することもできます。これらのアイデンティティは、ルアーを送信する前に、FacebookやLinkedInなどのプラットフォーム上でターゲットと交流し、信頼を築くために使用することができます。また、信頼されるメディアや業界団体のアカウントを模倣することもあります。

ディープフェイクの技術はさらに進化し、高度な機械学習モデル(ML)を使用して、人物の容姿、声、仕草に似た非常にリアルなコンテンツを作成します。最も人気のあるモデルの一つであるGenerative Adversarial Network(GAN)は、パラメータを調整し、トレーニングプロセスを微調整することで、フェイク(偽物)のリアルさをさらに向上させます。

サイバー犯罪者はGANやそれに類似したテクノロジーを利用して、不気味なほど説得力のある電話詐欺を仕掛け、大きな成功を収めています。例えば、今年初めに、香港の国際企業で働く財務担当者が、ディープフェイクを使用して同社のCFOになりすましたサイバー犯罪者に2500万ドルを送金するという事件が発生しました。

この詐欺の被害者は、実際に数人のスタッフとのビデオ通話に参加して、当初抱いていた「フィッシングメッセージではないか」という疑念を払拭しました。しかし、他の参加者は全員、実はディープフェイクだったのです。

この高度に進化した技術の組み合わせが、攻撃者に優位性を与えています。フィッシングメッセージは無視されることがありますが、長期間のメールのやり取りや電話、さらにはビデオ会議まで伴うものは、フィッシングかもしれないという疑念を持たれる可能性が低くなります。

洗練された手法に対して疑念を持つ

生成AIによってソーシャルエンジニアリング攻撃の説得力が増したことは間違いありませんが、いくつかの簡単なステップを踏むだけで、これらの攻撃を未然に防ぐことができます。以下、防御策を紹介しましょう。

可能な限り、オンライン上で個人情報の公開を制限する

これには、ソーシャルメディアアカウントのプライバシー設定を確認し、更新するようユーザーに促すことが含まれます。これにより、ディープフェイクの成功の可能性を下げることができます。

資金の移動や財務情報・機密情報に関するコミュニケーションの方針を明確に定めておく

最低限、銀行口座情報の変更や支払いの迅速化を要求された場合には、追加の確認が必要です。また予期せぬ、あるいは不審な電話についても、その正当な発信元に確認する必要があります。

最新のサイバーセキュリティのトレーニングを実施し、継続的な意識向上を図る

従業員がこれらの高度な攻撃についてより多く知識を持つほど、攻撃を防ぐ能力が高まります。トレーニングは、職務上の役割、特権レベル、またはサイバーセキュリティの熟練度に応じて、最もリスクの高い人々を対象に行うべきです。

残念ながら、プルーフポイントの調査によると、セキュリティのベストプラクティスについて従業員を教育している組織は約半数程度であると判明しています。つまり改善が必要で、包括的かつ継続的で、最新の脅威インテリジェンスに基づくセキュリティ意識向上プログラムの実施が必要です。

基本的な習慣から高度な概念まで進化する適応型学習フレームワークは、チームの全メンバーが高度な脅威を寄せ付けないための自分の役割を理解する文化を築くのに役立ちます。

  • 組織の情報漏えいを防ぐために、どのようなプロトコルを設けているか 引用:2024 Voice of the CISO

現代のサイバー攻撃者は、ツールやテクノロジーを使ってネットワークに侵入することは、ほとんどありません。多くの場合、彼らは従業員をだまして操り、侵入させるのです。このような環境では、セキュリティ教育に対してオープンで批判的な視点で取り組むことが重要です。

今やほとんど何でも可能なサイバー環境では、あらゆる可能性を認識することが、ソーシャルエンジニアリング攻撃の未遂と成功の分かれ目になるかもしれません。