既に、無人機(UAV : Unmanned Aerial Vehicle)をはじめとするさまざまな無人ヴィークルが軍事分野で使われており、その中には武装化しているものもある。人工知能(AI : Artificial Intelligence)を無人ヴィークルで活用しようとする動きもある。すると当然ながら、「ロボット兵器が戦争をしている!」という批判の声があがる。

これは遠隔操作です!

本連載を御覧いただいている皆さんなら御存じの通り、武装している無人ヴィークルだからといって、そこに載っているコンピュータが勝手に交戦しているわけではない。あくまで、交戦の指示や目標の指定を行うのは人間であり、それを遠隔操作で実施している。

「ロボット兵器」批判を気にしているのか、イギリス空軍ではだいぶ前から、そして最近ではアメリカ空軍でも、UAVという言い方を避けて、RPAS(Remotely Piloted Aircraft System)という呼び方を使うようになった。どちらもMQ-9リーパーを武装化して運用しており、「ロボット兵器」批判に直面している事情は同じ。そこで「無人といっても遠隔操作しているのが実態」とアピールする狙いがあるのだろう。

そのMQ-9の遠隔操作では、機体の操縦を担当するパイロットと、センサー・オペレーターがペアを組んで地上管制ステーション(GCS : Ground Control Station)についている。そして、定められた手順に沿いながら、交戦の可否判断や目標の選定を行っている。

  • ネバダにある訓練飛行場を飛び立つMQ-9 写真:U.S. Air Force

    ネバダにある訓練飛行場を飛び立つMQ-9 写真:U.S. Air Force

  • ゼネラル・アトミックス・エアロノーティカル・システムズ(GA-ASI)の、UAV向け地上管制ステーション(シミュレータ)

    ゼネラル・アトミックス・エアロノーティカル・システムズ(GA-ASI)の、UAV向け地上管制ステーション(シミュレータ)

といったところで、AIである。これまでのところ、以前に本連載で取り上げてきている各種の事例を見ると、「生身の人間が受け持つには負荷が大きすぎて手に負えないところを、AIに肩代わりしてもらう」という傾向がある。現実的に実現可能なレベル、かつ問題解決を必要としている分野を対象とするのは、理にかなったアプローチである。

しかし、これからAIを活用する無人兵器がいろいろ出てくると、またぞろ「AIが勝手に戦争をしている」等の批判が出てくることは容易に想像できる。それが実態を正しく認識した上での批判なら耳を傾けるべきだが、知らずに(あるいは意図的に)誤認した上で批判するのでは、建設的な話にはならない。

AIと人間の棲み分けをどうするか

実のところ、米国防総省がリリースした「AI五原則」に代表されるように、いわゆる西側先進諸国においては、AIに何もかも自律的に判断させる方向には進んでいない。もちろん「生身の人間の代わりに考えて、自律的に行動してくれるAI」の方がメディア受けはするだろうが、いきなりそんなレベルに飛ぶのは無理があるし、社会的・法的にも受け入れられない。

UAVというかRPASというか、とにかく武装無人機の事例がそうだったのと同様に、AIの応用においても肝心なところの判断は人間にやらせる方向にある。また、「AI五原則」では「AIが判断の理由を明確にできること」「AIがおかしな挙動に出たときに人間がストッパーになれること」といった要求もある。

実際問題として、「AIが操る画期的な新兵器が現れたが、それがある日突然暴走して勝手に戦争を始めてしまい、国家や世界を危機に追い込む」なんていう話は、映画や小説の中だけにしてもらいたい。

しかし、すべての国がそういう配慮をするものだろうか。国によってはもっと踏み込んで、「AIによる自律的な交戦」にまで話を進めてしまう可能性は否定できない。それが社会的・法的に受け入れられてしまう、あるいは受け入れさせることが可能な国であれば、「自律的に判断できるAIをゲームチェンジャーに」という誘惑に駆られるかも知れない。

独裁的・強権的な体制の国で、かつ軍事的優位の実現に血道を上げる状況にあれば、「もしも法的に問題があるということなら、軍事的ニーズを優先して法律の方を変えてしまえばよい」と考える人が出てきてもおかしくはない。

すると、そうした国と対峙する可能性がある側としては、「自国でAIをいかに活用していくか」という課題だけでなく、「仮想敵国が自律的AI兵器をぶつけてきたときにどう対処するか」という課題も考えていかなければならないだろう。

また、われわれ部外者としては、ある意味「監視」していくことが必要になる。だが、そこで「AIの軍事利用は怪しからん、反対!」とか「ロボット兵器が勝手に戦争をしている」とかいったことを連呼するだけでは、問題の解決にならない。”all or nothing” 型ではなく、実情を正しく認識した上で、落としどころを追求していかなければならない。

そもそも、他のCOTS(Commercial Off-The-Shelf)化事例の多くと同様、AIの分野でも「軍用」と「民生用」を完全に区別できるとは限らない。民生用のつもりで作ったものが軍事転用される可能性はついて回る。だから、「民生用ならOK」という単純思考では問題解決にならない。「AIの軍事利用はどこまで認められるか」という線引き、そして「AIに対するストッパーをどうするか」を明確にすることが重要ではないか。

著者プロフィール

井上孝司


鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。