マサチューセッツ工科大学(MIT)などのAI研究者が、安全で信頼できるAIシステムの推進を求め、AIを扱う企業に対して公開書簡を発表した。スタンフォード大学のPercy Liang氏、MozillaのDeborah Raji氏など、研究、ポリシーや法律の専門家が連名で発表し、現在の署名者は250人以上となっている。
善意のあるAIの安全性、信頼性
書簡では、安全で信頼できるAIシステムに向けてAI企業がポリシーを変更するよう求めている。偏見、著作権侵害の疑い、同意のない画像の生成などのリスクがあり、説明責任において独立した評価は不可欠だが、現時点のAI企業のポリシーでは独立した評価を適切に行うことは難しいという。
従来のソフトウェアではそのセキュリティを研究するために企業による自主的な保護(セーフハーバー)、脆弱性開示ポリシー、司法による法的保護などの環境が整っているのに対し、AIはそうではないとのこと。
書簡では「企業の利用規約は悪意ある利用を抑止するが、独立した善意の研究に対する免責を提供しない。そのため、研究者はアカウント停止や法的報復のリスクにさらされることさえある」としている。
このようなことから、AI企業に対し、善意のあるAI安全性や信頼性の研究に基本的な保護と、より公平なアクセスを提供すべきであるとしている。
そして、ソーシャルメディアプラットフォームは自社の責任が問われるような研究を事実上禁止しているとし、「生成AI企業はソーシャルメディアプラットフォームの過ちを繰り返すべきではない」と記している。
具体的には、法的なセーフハーバー(特定の行為が所定の規則に違反しないとみなされることを指定する法律または規制の条項)を設けて、AIの安全性に関する研究を可能にすること、独立したレビュー担当により研究者の評価申請を審査することで公平なアクセスを約束することなどを提案している。