5月30日(米国時間)にCenter for AI Safety(CAIS)が、AI(人口知能)によって社会規模のリスクがもたらされる可能性を警告する書簡「Statement on AI risk」を公開した。ディープラーニング技術研究の第一人者であるジェフリー・ヒントン氏やヨシュア・ベンジオ氏、OpenAIのCEOであるサム・アルトマン氏、Google DeepMindの責任者デミス・ハサビス氏など、著名なAI研究者や産業リーダーの多くが署名している。

CAISは、AIに関連するリスクを低減し、AIを安全に開発・利用するための基準を提唱している。米サンフランシスコを拠点とする非営利団体だ。著名な研究者や産業リーダーが署名したAIのリスクを警告する声明はこれで今年に入って2つ目だ。3月に非営利団体Future of Life Instituteが、「Pause Giant AI Experiments」(大規模AI実験を一時停止せよ)というAIシステムの訓練を少なくとも6カ月間、直ちに一時停止することを全てのAI研究所に求める書簡を公開した。

「Pause Giant AI Experiments」がAI開発における共有された安全プロトコルの開発と実施を具体的に求めている一方で、CAISの「Statement on AI risk」は「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争など他の社会的規模のリスクと並んで、世界的な優先課題であるべきです」という、下のように英語で22単語だけの短い声明になっている。

CAISのエグゼクティブディレクターであるダン・ヘンドリックス氏によると、メッセージが希薄になるのを避けるためにCAISは簡潔な声明にとどめた。

AIのリスクについては研究者や産業リーダーの間で意見が分かれる。近年の大規模言語モデルのように研究者の予測を上回る進化のペースが、我々がすでに大きなリスクに直面していることを示すと懸念する声がある一方で、まだ完全自動運転の実現は程遠く、比較的平凡なタスクでさえも十分に対応できないのが現状であるとして、今後数年で人間に匹敵するという予測に疑問を抱く人もいる。

しかし、近い将来のリスクについては意見が分かれても、AIシステムがいずれ多くの脅威をもたらす可能性については多くが同意する。ヘンドリックス氏は、AIコミュニティの一部の破滅派だけがAIを脅威と見ているような誤解が多く見られるが、実際には多くの関係者が社会の脅威になる可能性を認めていると指摘。「Statement on AI risk」は、AI産業関係者の「カミングアウト」であるとしている。