AIの技術革新が加速し、国際競争の側面に注目が高まる中で、長期的な安全性についての計画が必要とする論文をGoogle DeepMindのチームが発表した。

Google DeepMindがAIの新しいフレームワーク

Google DeepMindは4月2日に発表した論文「A Framework for Evaluating Emerging Cyberattack Capabilities of AI」で、AGI(汎用人工知能)の時代が迫る中で、AIが制御不能になることを防ぐ方法を考えなければならないと主張している。

研究者らはAGI時代に人類に重大な害を与えるリスクとして、人間による意図的な悪用、AIがプログラマーの意図とは異なる行動をとる不一致、AIが事故によって害を引き起こすミス、AIシステム同士の相互作用が、特定のシステムに責任がない状態で害をもたらす可能性(構造的リスク)と4つに分類されるとし、新しいフレームワーク「Frontier Safety Framework」を提唱している。

フレームワークは、GoogleのThreat Intelligence Groupが収集した20カ国・1万2000件以上の現実世界におけるAIを利用した攻撃を分析して、編み出した。

エンドツーエンドの攻撃チェーンの検証、AIの脅威評価におけるギャップの特定、防御する側の緩和策の優先順位づけとレッドチーミングのためにAIを活用した敵対者のエミュレーションの実施などを提供するという。

AIでは中国のDeepSeekショックを受けて、AI開発競争の側面にスポットが当たっている。Axiosは2月にフランス・パリで開催された「Artificial Intelligence Action Summit」で、米副大統領のJ.D. Vance氏が「AIの未来は安全性について心配することで勝ち取れるのではなく、構築することで勝ち取られる」と発言したことを紹介。

このような傾向に対し、Deep MindのチーフAGIサイエンティスト、Shane Legg氏は「研究者間ではそうした傾向は見られない。(AGIは)非常に強力な技術になるため、規制することができるし、すべきだ」と規制に前向きな見解を示しているという。