米商務省は2月8日(現地時間)、U.S. AI Safety Institute Consortium(AISIC)の立ち上げを発表した。安全で信頼できるAIの開発、普及を促進することを目的とし、AIの開発者、学術界、政府や産業界の研究者、市民団体が加わる。最初のコホートメンバーとして、OpenAI、Microsoft、Googleなどが名を連ねている。

AISICの立ち上げは、米商務長官のGina Raimondo氏が発表した。AISICは2023年末に設立された米AI安全研究所(US AI Safety Institute)の下に置かれ、バイデン大統領が同年10月に発行した大統領令で示した事項などに取り組む。

大統領令では、安全性、プライバシー、公平性、使う側の権利、労働者の支援などが含まれており、AISICでは、レッドチームのガイドライン作成、能力の評価、リスク管理、安全性とセキュリティなどに取り組むとしている。

Raimondo氏は「米政府はAIの巨大な潜在性の活用とリスクの軽減に必要な標準とツール開発において、重要な役割を担っている」とし、安全性の標準とイノベーションエコシステムの保護の2つを重要な目標に掲げる大統領の方針を強調した。

AISICの初期コホートメンバーには200社以上の企業が参加している。公開された企業名リストの中にはOpenAI、Microsoft、Google、Anthropic、CohereなどのAI企業をはじめ、テック企業や金融などさまざまな企業名が確認できる。