AIが生成したリアルな音声、動画、画像であるディープフェイクは、人の外観や特性(likeness)などを再現することが可能で、生成AIがもたらす最も差し迫った課題の1つとなっている。悪意ある者が民主主義を弱体化させたり、アーティストやパフォーマーを搾取したり、一般の人々に嫌がらせや危害を加えるために利用する可能性があるからだ。IBMがブログで提言している。

現在、必要なのは、技術的解決策と法的解決策の両方であり、同社が「Tech Accord to Combat Deceptive Use of AI in 2024 Elections(ミュンヘン・テック・アコード)」に署名したのは、そのためだという。また、同社ではテクノロジーの有害な応用に的を絞った規制を長年提唱しているとのこと。

ディープフェイクの害を軽減するために、政策立案者が優先すべき重要事項として「選挙を守る」「クリエイターを守る」「人々のプライバシーを守る」の3つを挙げている。

選挙を守る

民主主義は、国民が自由で公正な選挙に参加できるか否かにかかっており、悪意のある者はディープフェイクを使用して公務員や候補者になりすまし、重要な原則を損なうさまざまな方法で有権者を欺くことを可能としている。

例えば、ディープフェイクは、いつ、どこで、どのように投票できるかについて有権者を誤解させたり、候補者が物議を醸す発言をしたり、スキャンダラスな活動に参加しているように偽ったりする可能性があると指摘。

政策立案者は、選挙に関連する欺瞞に満ちたディープフェイクコンテンツの配信を禁止すべきだという。

例えば、米国の上院議員が提出した「Protect Elections from Deceptive AI Act(選挙を欺瞞的なAIから守る法)」は、選挙に影響を与えることを目的として、連邦政府の候補者を政治広告で虚偽に描写した欺瞞的なコンテンツを生成するAIの使用を抑制するものとなっている。

そのほかの政策アプローチは、政治広告や資金調達キャンペーンで使用される欺瞞に満ちたAI生成コンテンツの標的となった候補者が、言論の自由の保護を維持したうえで、損害賠償を請求したり、欺瞞的なコンテンツを削除したりできるようにすることが考えられるとのことだ。

EU(欧州連合)において、同社は大規模なインターネットプラットフォームに不適切なオンラインコンテンツの削除に関する義務を課す、Digital Services Act(デジタル・サービス法)を支持している。また、欧州委員会が発表したガイドラインでは「選挙プロセスのシステミックリスク」を軽減するために、消費者向けプラットフォームに追加的な要件を提案している。

クリエイターを守る

ミュージシャン、アーティスト、俳優をはじめ、あらゆるクリエイターは才能や外観、特性を利用して文化を形成し、インスピレーションを与え、楽しませ、生計を立てている。

ディープフェイクにより、悪意のある者はクリエイターの外観や特性を悪用して、詐欺的な広告を表示したり、消費者を騙したり、誤解させたり、あるいはクリエイターの才能から利益を得る能力を不当に低下させたりすることができる可能性があるとの認識を、同社は示している。

政策立案者は、許可なくクリエイターによる功績のディープフェイクを作成した者に責任を負わせ、無許可のコンテンツを故意に広めたプラットフォームに責任を負わせるべきだという。

一部の法域では、商業利用を目的に特定個人の外観や特性を再現したものを無断使用することを禁止する「類似性に関する法(likeness laws)」が制定されているが、一貫性がなく、デジタルレプリカや死亡した人の外見・特性を使用する権利を明確にカバーしているものはほとんどないとのこと。

同社は、このような司法の取り扱いが一貫していないことを鑑み、米国のフェイク禁止法(NO FAKES Act)を支持。同法律は、本人の同意なしに、第三者によって声や肖像が生成された個人を、連邦政府が保護するものとなっている。

プライバシーを守る

ディープフェイクにより、すでに一般の人々は深刻な被害を受けており、特に悪意のある者が自分の外観・特性を使って同意のないポルノを作成することは、非常に深刻となっている。

こうした悪用は主に女性を標的にしており、被害者には未成年者も含まれているほか、悪意のある者による、さらなる虐待や恐喝を引き起こす可能性もあるという。リベンジポルノとしても知られる親密な画像の同意のない共有は、ディープフェイクの使用で拡大している。

しかし、既存の法律には、素材の共有や共有すると脅す悪意のある者の責任を適切に問うことや、AIが生成したコンテンツをカバーするものは、ほぼないという。

政策立案者は、AIが生成したコンテンツを含む、同意のない視聴覚コンテンツの公開者や、脅迫者に対して、厳しい刑事責任と民事責任を課すべきと、同社は指摘している。

被害者が未成年の場合は、特に厳しい罰則を科すべきであり、米国の議員は超党派による「親密画像のディープフェイク防止法(Preventing Deepfakes of Intimate Images Act)」を支持・可決させることで、勧告に基づいてすぐに行動を起こすことができるという。

同法案は、AIが生成したコンテンツを含め、同意のない親密なデジタル描写を公開した、または公開すると脅した個人に責任を負わせ、被害者が損害賠償を請求できるようにするもの。州レベルのさまざまなリベンジポルノ法では一貫して扱われていない説明責任を連邦レベルで確立するものであり、全米の被害者と個人への保護を強化するものとなる。

同社が支持しているEU AI法(EU AI Act)は、すでにこの種の問題の多くに対処しており、ディープフェイクを対象とし、特定のコンテンツが本物でない場合はそれを明確にする透明性要件を課している。

今後、数カ月で政策立案者が同法の実装に向けて検討する際には、同意のない視聴覚コンテンツから個人が確実に保護されるよう、特に注意を払う必要があるとしている。

結論

ディープフェイクによってもたらされる問題を解決するには、法律とテクノロジーの両方の変化を活用した、思慮深い社会全体のアプローチが必要だという。

テクノロジー企業は、ミュンヘン・テック・アコードやWhite House Voluntary AI Commitments(自発的なAIコミットメント)、カナダのVoluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems(先進的生成AIシステムの責任ある開発と管理に関する自主的行動規範)などに明記されているような、AIが生成するコンテンツに対処する技術的、ガバナンス上の解決策を追求する責任があると結んでいる。