非営利団体Future of Life Instituteが、「Pause Giant AI Experiments」(大規模AI実験を一時停止せよ)というAIシステムの訓練を少なくとも6カ月間、直ちに一時停止することを全てのAI研究所に求める書簡を公開した。ヨシュア・ベンジオ氏やスチュワート・ラッセル氏など著名なAI研究者、イーロン・マスク氏やスティーブ・ウォズニアック氏などテクノロジー産業のリーダーが署名、またたく間に賛同者が1,000人を超えた。一方で、AIの安全性に取り組む研究者の一部から、公開書簡が逆にAIハイプを加速させる可能性を恐れる声も上がっている。

公開書簡は、以下のようにAIの安全性についての懸念を表明し、AIの開発における共有された安全プロトコルの開発と実施を求めている。

  • アシロマの原則にあるように、高度なAIは人類の生命の歴史に大きな変化をもたらす可能性があり、相応の配慮とリソースをもって開発・管理されるべきものである。
  • しかしながら、ここ数カ月の競争激化で、AI研究は作成者でさえも理解、予測または安定してコントロールできていない制御不能なレースに陥っている。
  • 今日のAIシステムは一般的なタスクにおいて人間並みの競争力を持ちつつあり、機械が生み出すプロパガンダや真実でないもので私達の情報チャンネルが溢れる可能性について自問しなければならない。
  • すべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6カ月間、直ちに一時停止するよう要請する。
  • この一時停止は、公的かつ検証可能なものでなければならず、すべての主要な関係者を含むものでなければならない。一時停止を迅速に実施できない場合は、政府が介入してモラトリアムを実施する必要がある。
  • これはAI開発全般の休止を意味するのではなく、現れる能力を予測できないブラックボックス・モデルをますます大きくする危険な競争から一歩後退して安全を確保する。
  • AIの研究開発は、より正確、安全、解釈可能、透明、堅牢、整然としていて信頼できる忠実なシステムの実現にフォーカスし直すべきである。

公開書簡の署名者欄のトップには以下のような名前が並ぶ。

  • ヨシュア・ベンジオ(Yoshua Bengio)氏:Mila創設者兼科学ディレクター、モントリオール大学教授、ディープラーニング研究で2018年にチューリング賞を受賞。
  • スチュワート・ラッセル(Stuart Russell)氏:UCバークレー校コンピュータサイエンス教授、確率的アルゴリズムや機械学習、人工知能、自然言語処理などの研究で功績、「Artificial Intelligence: a Modern Approach」の共著者。
  • イーロン・マスク氏(Elon Musk)氏:SpaceX、Tesla、TwitterのCEO。
  • スティーブ・ウォズニアック(Steve Wozniak)氏:Apple共同創業者。
  • ユヴァル・ノア・ハラリ(Yuval Noah Harari)氏:ヘブライ大学教授、「サピエンス全史」著者

2015年に設立されたFuture of Life Instituteは、変革的な技術を人々に恩恵を与える方向に導き、リスクから遠ざけることをミッションとしている。28日に「Pause Giant AI Experiments」を公開してから賛同者が増え続け、署名者が1,100人を超えたが、OpenAIのサム・アルトマン(Sam Altman)氏になりすました署名が一時掲載されるなど、審査が追いつかない状態になったため、29日時点で一時的に掲載の追加を停止している(リストの上位にある署名はFuture of Life Instituteによる検証済み)。

署名した1人であるニューヨーク大学のAI研究者ゲイリー・マーカス(Gary Marcus)氏は、「企業の無責任な導入の拡大、規制の欠如、そして膨大な数の未知数というパーフェクトストームが起きている」とコメント。オープンAIモデルでOpenAIに対抗しているStability AIのCEO、エマード・モスターク(Emad Mostaque)氏は「(公開書簡に)強制力はないが、重要な議論を開始し、不透明な領域に透明性とガバナンスをもたらすことを願っている」とツイートしている。

一方で、高度なAIシステムが社会と人類に重大なリスクをもたらす可能性があることを指摘した研究として引用に含まれる論文の共著者であるエミリー・ベンダー(Emily Bender)氏は、公開書簡が研究を誤用しているとツイートしている。「On the Dangers of Stochastic Parrots」において同氏は危険を考慮せずに巨大な言語モデルに突き進むリスクや弊害を指摘したが、それは「"強力すぎるAI"についてではなかった」としている。

また、プリンストン大学のコンピュータサイエンス准教授であるアーヴィンド・ナラヤナン(Arvind Narayanan)氏は、AIが人間に取って代わり、人類の文明を引き継ぐかどうかという遠大すぎる疑問は現実の問題から目をそらすナンセンスな提言であると指摘している。長期的な懸念としては妥当であるものの、AIはすでに人々の仕事に組み込まれ、特定の職業の必要性を減らしており、情報セキュリティや安全性のリスクといった現実的な問題に我々は直面している。公開書簡の内容はそれらへの注意をそらし、結果的にAIハイプを煽って「規制すべき企業に利益をもたらすのではないだろうか」と述べている。