米軍AI兵器の急拡大、規制は「継ぎはぎ」のまま 専門家が警鐘

アメリカ国防総省は2026年度予算として、自律型兵器や無人・遠隔操作ドローンを含むAI関連システムに約2兆円(134億ドル)を要求した。ピート・ヘグセス国防長官は、戦場でのAI活用を加速させる方針を掲げているが、その裏で安全対策や監視体制の縮小が進んでいるとして、専門家の間で懸念が広がっている。

【画像】ライフル銃を握りしめ礼拝する、旧統一教会の信者たち

ニューヨーク大学ロースクールのブレナン・センターが発表した報告書は、軍によるAI導入の拡大と、それを取り巻く規制の脆弱さが同時進行している現状に警鐘を鳴らす。特に問題視されているのは、民間人被害を抑制するための部門の縮小や、兵器のテスト体制の弱体化だ。AIのように意思決定プロセスが不透明になりやすい技術において、検証や監視の欠如は重大なリスクをはらむ。

ドローンはすでに戦争の様相を変えつつある。ウクライナ戦争では、低コストのドローンが戦力差を埋める手段として広く用いられ、戦場の主役のひとつとなった。こうした流れを受け、アメリカでも量産体制の強化が進み、民間テック企業の参入も加速している。

AIの進化は、ドローンの運用をさらに高度化させた。航行、監視、標的識別といった機能に加え、人間との通信が途絶えても任務を継続できる自律性の研究も進んでいる。報告書によれば、国防総省はこうしたシステムへの投資を拡大しており、戦場における意思決定の一部が機械へと移行しつつある。

この分野で存在感を強めているのが、パランティアやアンドゥリルといった民間企業だ。パランティアのデータ解析技術は、軍の「データ中心型戦争」を支える基盤となり、全軍種に導入されている。AIが膨大な情報を処理し、作戦立案や標的選定に関与する構図が現実のものとなりつつある。

しかし一方で、軍とテック企業の関係は決して順調とは限らない。AIの軍事利用をめぐっては契約交渉が決裂する事例も起きており、国家安全保障と企業の倫理観のあいだに緊張関係が生じている。防衛テックの実態は依然として不透明であり、一般市民がその詳細を知る機会は極めて限られている。

さらに問題なのは、その開発が明確なルールのもとで進められているわけではない点だ。現在のAI軍事開発は、既存の法律や例外規定、試験的プログラムを組み合わせた「継ぎはぎ」の枠組みの上に成り立っている。結果として、規制や透明性、十分な検証が追いつかないまま導入が進んでいるのが実情だ。

安全対策の後退も指摘されている。トランプ政権は前政権のAI安全指針を撤回し、民間人被害の抑制を担う部門の縮小や、兵器テスト体制の人員削減を進めてきた。実験室での十分な検証を経ずに技術が実戦投入されるリスクが高まっている。実際、ウクライナではAIドローンがGPS妨害によって機能不全に陥る事例も報告されている。

専門家は、技術導入そのものを否定しているわけではない。問題は、そのスピードに見合った統制と責任の枠組みが整っていない点にある。適切な監視と透明性がなければ、誤った標的の攻撃や民間人被害の拡大を防ぐことはできない。

そして議論は、より根本的な問いへと行き着く。AIが意思決定を担う領域が拡大したとき、責任はどこに帰属するのか。

「意思決定能力をすべて機械に委ねたとき、誰が標的を選んだのか。予期しない結果がどこまで広がるのかを、誰が制御できるのか」と、カーネギー国際平和財団のスティーブン・フェルドスタインは問いかける。

AIが戦争のあり方を塗り替えつつあるいま、問われているのは技術の進歩ではなく、それをどのように管理し、責任を引き受けるのかという問題だ。その答えが示されないまま、導入だけが先行している現状に、専門家たちは強い危機感を抱いている。

from Rolling Stone US