AI技術が急速に進化し、さまざまな分野で生成AIの利用が広がる中で、人間が作成したデータが不足することによる「AIの劣化」の問題が表面化しつつある。Betanewsは「AI degradation -- what is it and how do we address it? [Q&A]」において、AIの劣化とはどのようなものなのか、その影響、対処方法などについて、専門家であるRick Song氏の意見を伝えている。
品質が低いAI生成コンテンツの蔓延
現在のAIモデルの主流である大規模言語モデル(LLM)は、大量のデータを反復学習させることによってモデルの精度を高めている。多くの場合、学習の元データとして使われるのはインターネット上の公開された文章や画像などのコンテンツである。しかし今、インターネット上にはAIが生成したコンテンツの割合が爆発的に増え続けている。
AIモデルがこれまでのようにインターネット上のコンテンツで学習を続けると、AI生成されたコンテンツも無条件に取り込んでしまうため、エラーが伝播して出力の品質低下やエラーの増加を招く可能性がある。この現象は「モデル崩壊」や「モデル自己食症候群(MAD)」と呼ばれている。その結果、医療上の誤診や、経済的な損失、重大な事故など、AIを利用するあらゆる分野での深刻なリスクにつながる危険性があるという。
品質が低いAI生成コンテンツの拡散を防ぐ
それでは、このようなモデル崩壊を防ぐためにはどのような対策が必要なのだろうか。Rick Song氏は、この問題を解決するために、AIモデルの訓練において人間が生成したデータを優先的に使用するように制限を設けるべきであり、オンラインプラットフォームは低品質なAI生成コンテンツの拡散を防ぐ責任を負うべきだと指摘している。
個人の活動も重要な役割を果たす。人々はAI生成コンテンツの使用に注意を払い、倫理的なAIの実践や、責任ある規制の提唱を行えば、大手企業によるAI開発を社会に利益をもたらす方向に導くことができるからだ。低品質なAI生成コンテンツの濫用や蔓延を防ぎ、人間の手による良質なコンテンツの使用を推奨することが、結果としてAIの品質の維持につながるのである。
AIの劣化が深刻な結果をもたらす前に、人々はAI生成データへの依存を減らし、人間が生成した入力を増やし、そしてAIの完全性を維持するための堅牢な検証プロセスを推進する必要があるとRick Song氏は警鐘している。