Windows Centralは9月25日(米国時間)、「Microsoft’s AI CEO says AI may need military action by 2035|Windows Central」において、MicrosoftがAIによる潜在的な災害を阻止するために軍事レベルの介入が必要との見解を示したと伝えた。
これはMicrosoft AI部門の最高経営責任者(CEO: Chief Executive Officer)を務めるMustafa Suleyman氏が述べた見解とされる。AIが自発的に進化する状況が訪れた場合、人類に危険を及ぼす可能性を提起したという。
このまま進化するとAIが人類を終わらせる可能性も
Windows Centralによると、米国ルイビル大学サイバーセキュリティ研究所所長を務めるRoman Yampolskiy氏はBusiness Insiderのインタビューの中で、AIが人類を終わらせる確率は高く、この問題を回避するにはAIを構築しないことだと主張したという。しかしながら、現実ではAI開発は急速な進化を続け、汎用人工知能(AGI: Artificial General Intelligence)への到達を目指す取り組みも行われている。
結果としてAIが自発的に進化する状況が訪れた場合について、Mustafa Suleyman氏は次のように述べたとされる。
「AIが再帰的に自己改善する能力を持っている場合、つまりAIが自身のコードを修正できる場合、そこに独自の目標を設定する能力、自律的に行動する能力、独自にリソースを蓄積する能力とが組み合わされれば……それは強力なシステムとなり、5年から10年以内には、(そのAIを)停止させるために軍事レベルの介入が必要になるだろう」
同氏は、この発言のあと「われわれは人間のためにAIを構築しなければならない。AIが人間になるためではない」と述べ、AIを人間にする目的での研究に警鐘を鳴らしたという。
AI開発にはガードレールが不可欠
これはAI開発において人類を保護するガードレールの重要性を示したと言える。MicrosoftはAI開発を推進しており、Microsoft EdgeにAIエージェントとしてのCopilotを統合するなど、次世代AIコンピューティングの構想を打ち出している(参考:「CopilotがMicrosoft Edgeを制御する新しいWebブラウザの姿とは | TECH+(テックプラス)」)。
現在のCopilotには自発的に自己改善する能力はなく、人類の生存を脅かす存在とは言えないが、無秩序に開発を続けた場合は脅威となる可能性を秘めている。同氏はAI開発において監査と規制の重要性を示し、AI開発および研究に携わる技術者に対して安全性を優先した取り組みを行うよう促している。
