今回も前回に引き続き、無人機(UAV : Unmanned Aerial Vehicle)を戦闘任務に投入する場面でついて回る、AI(Artificial Intelligence)の話を取り上げる。別件の連載「軍事とIT」の方が似つかわしい話なのは明白だが、本連載ではちょうど、「無人戦闘用機」というテーマを取り上げている。話の流れということで御理解いただきたい。→連載「航空機の技術とメカニズムの裏側」のこれまでの回はこちらを参照
2種類のデータ・セット
前回、AIの学習に使うデータ・セットをどのようにして確保するかという話を取り上げた。
そこでもうひとつ、問題になるのは、AIに食わせるデータの品質である。人間が、駄目な教科書で学習すれば駄目なアウトプットしかできないのと同様に、AIも、駄目な学習データでトレーニングすれば、駄目な仕事しかできなくなる。
これについてラージュ氏は「2種類のデータ・セットがある」という。ひとつは、一定の条件・品質を満たせるように準備したり、篩にかけたりした、「確かなデータ」である。内容は確実に担保される一方で、数をそろえるための負担は増える。
もうひとつは、とにかく手当たり次第にかき集めたデータ。要するにクローラがインターネットを巡回して真空掃除機のようにかき集めてくるような、玉石混交なデータのことである。数をそろえるのは相対的に容易だが、内容を確実に担保できるかというと疑問が残る。
これらを適切に選んで、使い分けることが必要となろう。また、一度だけ学習させたらそれで終わりというわけではなく、運用経験を蓄積しながら反復的に学習を進めて、常に進化させ続ける必要がある。それができるのはAIの利点でもある。
どこまでAIに任せるか
そして、この話が「何をAIに委ねるか、何を人間の仕事として残しておかなければならないか」という話にも関わってくる。
これについては、「さまざまなユースケースについて、検証を進めているところです」とラージュ氏はいう。それは必ずしも戦闘任務とは限らない。ラージュ氏が例として挙げたのは「山火事対処」だった。
山林火災を消し止めるために、上空から固定翼機や回転翼機で消火剤を撒く。これはアメリカなど、山火事が多い国では日常的に行われていることだ。そこでは、「火元の場所を把握して」「その上空に機体を持って行って」「消火剤を放出する」という話が発生する。
もし、「火災の現場に取り残された人がいる可能性がある」という話になれば、電子光学/赤外線センサーか何かを用いて、捜索・救出する必要がある。消火にしても人の捜索にしても、戦闘任務と比べれば、相手が撃ち返してこない分だけ話はシンプルかもしれない。
ともあれ、さまざまなユースケースについてAIを持ち込んで、実際に動かして結果を検証することで、「この任務ならAIは使える」「この任務は、限定的にAIに任せられる」「この任務は人間でないと務まらない」といった判断ができてくる。
しかし、AIそのものの進化や改善、学習の深度化、あるいは周辺のシステムや技術の進化により、この「任せられる」のボーダーラインは変化する可能性がある。だから、いったん引いた線が不変・不可侵である、と固定的に考えてしまってはいけない。
よしんばAIに任せるにしても、AIが意図せざる挙動をとり、あってはならない領域に逸脱するようなことが起きては困る。だから、人間が状況をモニターして、必要に応じて介入できるようにしておかなければならない。
しかし、例えば有人戦闘機1機で複数の無人戦闘用機を管制下に置いて、それらが個別に異なる任務割り当て(タスキング)を受けるようなことになれば、1機・1名のパイロットでは面倒を見切れないようなことにならないだろうか。「なるべくそうならないようにする」というのがラージュ氏の答えであった。 そもそも論として、戦闘空間にいる彼我のヴィークルなどの状況を把握する仕組みは、AIの有無に関係なく必要になる。それなら、その情報を常に監視して、”逸脱” が発生していないかどうかをモニターするシステムも必要になるのではないか。つまり、「〇号機の動きがおかしいから対処しろ」と教えてくれるようなシステムである。
責任あるAI
普通のソフトウェアであれば、プログラムした通りに機能するかどうか、おかしなバグがないかどうかをテストによって検証すれば、後はそれをそのまま使い続けることができる。ところが、学習しながら変化・進化するAIになると、事情が違う。
それに、AIにどんなデータを食わせて、どんなAIを育成するかという部分でも、信頼性が高いデータ・セットを用意しない限りは、不確定要素がついて回る。
そして、「AIにどこまで任せてよいか」というところで社会的なコンセンサスが得られなければ、AIに仕事を委ねるのは難しい。なにも防衛装備品の分野に限らず、あらゆる分野でいえることである。
これについてラージュ氏は「責任あるAI(reponsible AI)」という言葉を使っていた。AIに仕事を委ねること、AIに何かを判断させることは、当然ながら何らかの責任を伴う。その責任ときちんと向き合い、AIがおかしな挙動に出て、意図せざる事態・制御不可能な事態を引き起こすことは避けなければならない。
しかし、国によってはその辺の事情が異なる可能性がある。AIを一種のゲームチェンジャー、不利をひっくり返して有利に導くためのツールとみなし、もっと野放図な(?)形で使おうとする人、あるいは国が出てくる可能性は否定できない。
だからといって、我々が同じ土俵に乗ってしまうのは、責任の放棄に他ならない。やらなければならないのは、「信頼できるAIの実現に向けて粛々と作業を進める」(ラージュ氏)ことであろう。
著者プロフィール
井上孝司
鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナ4ビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。このほど、姉妹連載「軍事とIT」の単行本第6弾『軍用通信 (わかりやすい防衛テクノロジー)』が刊行された。

