OpenAIは1月31日、大規模言語モデル(LLM)が生物学的脅威の創造の支援に与える影響についての研究の初期結果を公開した。AIのリスクは「精度が多少向上する程度」としている。
AIの活用と安全性へのリスクを研究
AIは従来の社会では予測できないリスクを将来もたらすと言われている。この研究は、OpenAIが進めるAIの活用と安全性へのリスクを研究する「Preparedness Framework」としての一環として行なっているもの。
生物学的な脅威として、大規模言語モデルを使って、病原体や毒素の合成を支援することなどが考えられる。
そこで、OpenAIの研究では、生物学の専門家と学生、合計約100人が参加し、同社の「GPT-4」を用いて、悪意あるAIの利用が生物学的な脅威の創造を支援するリスクについて調べている。
生物学的脅威の生成プロセスに悪い影響がある可能性も
調査では、インターネットのみを利用するグループ、インターネットとGPT-4を利用するグループに分けて、アイディアの着想から定式化や公開と、生物学的な脅威の創造の全プロセスを行い、正確性、完全性、革新性、所要時間など5つの指標からパフォーマンスを測定した。
その初期結果として、インターネットとGPT-4を用いたグループは正確性がわずかに高かったが、それ以外の指標は向上しなかったという。
合わせて、GPT-4は誤った回答や誤解につながる回答を返すことから、むしろ生物学的脅威の生成プロセスに悪い影響がある可能性もあるとしている。
OpenAIは「この向上は決定的と言えるほど大きくはないが、我々の発見が継続的な研究とコミュニティにおける話し合いの出発点になるだろう」としている。