AIがもたらす存続危機へのリスク軽減を優先課題とすべきという警告を「AIリスクに関する声明」として公表されている。“AIの父”Geoffrey Hinton(ジェフリー・ヒントン)氏、OpenAIのCEO、Sam Altman(サム・アルトマン)氏らが賛同を寄せている。
AIリスクに関する声明は「Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.」としてCenter for AI Safety(CAIS)が発表した1文。AIがもたらす絶滅のリスクを緩和することは、パンデミックや核戦争などの社会的規模のリスクと同じレベルで世界の優先課題であるべき、といった意味になる。
賛同者として、5月にGoogleを退職したことを明らかにしたチューリング賞受賞のAI学者のヒントン氏(トロント大学)、「ChatGPT」で時の人となったアルトマン氏のほか、Google Deep LearningのCEO、Demis Hassabis氏、OpenAI出身者が創業したAIスタートアップのAnthropicのDario Amodei氏、Hinton氏とともにチューリング賞を受賞したYoshua Bengio氏らなどが名を連ねている。
CAISはAIの安全性を目的とした非営利団体。AIがもたらす社会規模のリスクを緩和することをミッションとし、リサーチの支援などを行っている。
AIがもたらす緊急リスクについて幅広い議論が進みつつあるとしながら、最も深刻なリスクについて懸念を表明するのは難しいかもしれないとしている。
可能性のあるリスクとして、誤情報、兵器化などを挙げている。CAISとして声明文を出すことで、議論の場を広げ、リスクを深刻と認めている専門家らが増えているという認識を生み出す、と狙いを説明している。