Googleは5月21日(現地時間)に新たなAI動画生成モデル「Veo 3」を発表した。Veo 3は、テキストや音声による高度なプロンプト入力から高品質な映像を自動生成でき、短時間で人間が制作したかのようなリアルな動画を生み出すことを可能にする。
しかし、Axiosは、「Google DeepMind's Veo 3 floods internet with realistic videos」において、Veo 3は本物そっくりの動画クリップをインターネットにあふれさせ、視聴者を混乱させる危険性があると警鐘している。
Veo 3の特徴
Googleが発表したVeo 3の特徴は、その映像の精度だけでなく、音声・効果音・BGMなどの音響要素も自動で組み合わせることで、わずかな操作で人間顔負けのリアル動画を生み出せる点にある。
OpenAIの「Sora」など他のAI動画生成ツールと比較しても、物理法則の再現性や、口の動きと音声との同期の精度、登場人物の自然な動きなど、各所において優れた性能を示している(参考記事: Google I/O 2025注目の発表まとめ - 音声付き動画生成モデル「Veo 3」など | TECH+(テックプラス))。
従来、映像制作には多くの時間と専門的なスキルが必要だったが、Veo 3の登場によって、誰でも短時間で高品質な動画を作成することが可能になるとして期待が高まっている。
曖昧になるリアルとフェイクの境界線
一方、Veo 3のようなAI動画生成技術がもたらす最大の懸念は、悪意ある者がそのリアリティを利用し、危険を生み出す可能性があることだ。Axiosは、そのリアリティについて、「本物と偽物の区別が絶望的に曖昧になっており、視聴者を恐怖に陥れる」と指摘している。
もしユーザーがオンラインで見ている動画がAI生成されたフェイク動画だったとしても、最早見た目だけでその真偽を判断することはできない。もしも悪意を持った制作者が視聴者をだまそうとすれば、これまで以上に簡単にできてしまうだろう。誰かが対策を講じなければ、真偽不明の動画がインターネット上に広がり続け、社会的信頼の基盤そのものが揺らぐ恐れがある。
生成映像の著作権や倫理的責任の所在も不透明
加えて、生成映像の著作権や倫理的責任の所在も不透明だとAxiosは指摘している。例えば、誰がその映像の著作権を保有し、虚偽情報による被害が生じた場合に誰が責任を負うのかといった問題は、法制度が技術の進展に追いついておらず、早急な対策が求められている。
AIモデルの学習元データの権利問題についてもすべての問題が解決しているわけではない。Googleでは、Veo 3はクリエイターや映画製作者との協力に基づいて開発されたと説明しているが、モデルをどのようにトレーニングしたかについては明らかにしていない。
Veo 3は映像制作の可能性を大きく広げる一方で、その精度の高さが、新たな倫理的・社会的問題をもたらす可能性もある。特に、人間の手による創作活動と、AIによる自動生成との間にある倫理的な線引きをどう設定するべきかが、業界全体にとっての新たな課題となっている。