Windows Centralは5月23日(現地時間)、「OpenAI scientists wanted a doomsday bunker to hide from AGI」において、汎用人工知能(AGI:Artificial General Intelligence)が実現する前に研究者を守るための「終末のバンカー」を構築するべきだというAI研究者Ilya Sutskever氏の主張を取り上げた。
Sutskever氏はOpenAIの共同創設者で、2024年に同社を離れるまではチーフサイエンティストを務めていた。
AGIとは
現在のAI技術は日を追うごとに進化しており、多くのAI研究が汎用人工知能(AGI)の達成目前だと言われている。AGIとは、人間と同等またはそれ以上の認知能力を持ち、幅広いタスクを自律的に実行できる人工知能を指す用語である。AGIの厳密な定義は議論が分かれるが、人間のように汎用的に知的作業を行う能力を持つのがAGIの基本的な条件とされている。
現在主流のAIは、言語認識や文章生成、画像生成など、特定タスクに最適化されたものになっている。その点ではまだAGIを実現できているとは言えない。しかしOpenAIやAnthropicは、今後10年以内にAGIが実現可能になるとも予測している。
しかし、AGIは人類に大きな脅威をもたらす危険性があるという研究者も少なくない。たとえば、AGIは人間の意図を正確に理解せず、人間が予測できない解釈をして暴走する可能性がある。また、AGIは人間と異なる判断基準で意思決定を行う可能性があるため、人間の倫理観や価値観を尊重せずに、(人間の)倫理を無視した行動を取る危険もある。
OpenAI幹部でAGIの脅威に対する懸念を共有
Sutskever氏は、AGIの到来は避けられないものの、これらの潜在的な脅威による混乱から研究者を守るために「終末のバンカー(A Doomsday Bunker)」を構築するべきと主張してきたという。「終末のバンカー」は、世界の終わりに備えて誰かが建設した避難施設を表す用語で、この場合は研究者を保護する新しい仕組みのことを意味している。
この主張はSutskever氏がまだOpenAIに所属していた2023年にすでに行われていたことが、5月20日に発行された書籍「Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI」によって明らかになったという。さらに、OpenAI社内では当時から幹部たちがしばしばこのバンカーについて語っており、その脅威に対する懸念を共有していたとWindows Centralでは伝えている。
Windows Centralは、OpenAI CEOであるSam Altman氏の「AGIの懸念は顕在化しない」という見解や、DeepMind CEOであるDemis Hassabis氏の「社会はAGIに伴う課題に対処する準備ができておらず、そのことで夜も眠れない」という発言などを取り上げており、AI企業の責任者の間でもAGIの脅威に対する意見が分かれていることを示している。いずれにしても、AIの安全な利用に向けては、依然として多くの課題が残されていると言えるだろう。