Tripwireはこのほど、「Surge in deepfake "Face Swap" attacks puts remote identity verification at risk|Tripwire」において、ディープフェイクによる「顔交換」攻撃の急増について注意を呼びかけた。Microsoftが2月6日(米国時間)にAI(Artificial Intelligence)を活用したFace Check(顔認証)をEntra Verified IDに追加したと発表したばかりだが、生成AI技術が顔認証を突破するために悪用されている実態が浮き彫りとなっている。
顔交換攻撃とは?
一般的に顔認証ではライブネス検証が実施される。これは写真などを使用して認証を突破する攻撃を回避するため、画面の注視や顔の動作を求めるもの。Tripwireによると、この検証技術を回避して顔認証を突破するために、ディープフェイクによる「顔交換」動画を悪用できるという。そのために攻撃者が悪用するツールとして、SwapFace、DeepFaceLive、Swapstreamなどを挙げている。
本人認証技術を開発するソフトウェア企業「iProov」が2月7日(英国時間)に発表したレポート「iProov Threat Intelligence Report 2024: The Impact of Generative AI on Remote Identity Verification | iProov」の内容について、Tripwireは2つの顔認証の安全性に関係する情報を指摘している。
1つは詐欺師が既製のツールを使用して加工された画像や動画を作成するケースが増えていると警告した点。もう1つは、人間をだますことが可能な非常に説得力のあるディープフェイク画像または動画を作成できる低コストで簡単な生成AIツールが多数存在する点。Tripwireはこれらに加え、新しい調査において2023年上半期と比較して下半期にディープフェイクの「顔交換」攻撃が704%増加したとして、その進化、容易さ、広がりに警鐘を鳴らしている。
拡大が懸念される「顔交換」攻撃
これら「顔交換」攻撃に悪用できるツールを検索するユーザーは増加傾向にあるという。ほとんどのツールには無料で使用できる条件があり、多くのユーザーが利用できる。同時にこれは悪意のある攻撃者も容易に利用できることを意味しており、さらなる拡大が懸念されている。
Tripwireはこれらツールやディープフェイク技術の悪用により、認証技術を開発する企業と回避しようとする攻撃者の間で競争に発展するだろうと予測を述べている。競争の結果どちらに軍配が上がるかはわからないが、顔認証技術の利用者にはリスクの存在を理解した上で活用することが望まれている。