YouTubeは11月14日、新たな情報開示要件を導入する計画を発表した。これにより、動画をアップロードするユーザーは、そのコンテンツがAIなどの技術を使って合成されたものである場合はその旨を開示しなければならない。
新しい情報開示要件の下、AIを使って合成したり、実際の動画をベースに技術を使って改変したり合成したものについて、作成者がそれを示すオプションを用意する。これにより、動画が現実のものではないことを視聴者に知らせる。
具体的には、「i」マークともに、コンテンツの一部または全体が合成されたものであることを示すラベル、注意が必要なトピックを扱ったコンテンツに対してYouTube側が付与するラベルがあるという。
このような情報開示は、選挙、紛争、公衆衛生上の危機、公務に就く職員などについて、特に重要としている。ラベルの有無に関係なく合成されたコンテンツがコミュニティガイドラインに反するものは削除されるという。
また、音楽についてはAIを使って、アーティストのパフォーマンスを模倣した音楽コンテンツについて削除依頼を出すことができるようにすることも発表している。
これらの対策は年始にかけて段階的に導入する。生成AIは動画や画像でも使われており、フェイク画像が出回り始めている。YouTubeは「取り組みはまだ初期段階にあり、今後さらに理解を深めながらアプローチを進化させていく」としている。