無人機(UAV : Unmanned Aerial Vehicle)を戦闘任務に投入するというと、どうしても人工知能(AI:Artificial Intelligence)の活用という話がついて回る。航空戦となると、事前にプログラムした通りに飛ばすだけでは任務の遂行はおぼつかない。ある程度、機体側で自律的に判断・意思決定してもらわなければならないからだ。

今回の内容、どう見ても別件の連載「軍事とIT」の方が似つかわしいのだが、ちょうど「無人戦闘用機」というテーマで話を進めていることから、こちらの連載で取り上げることにした。。→連載「航空機の技術とメカニズムの裏側」のこれまでの回はこちらを参照

サーブはJAS39グリペンEにAIを組み合わせて飛ばしている

その「無人戦闘用機のためのAI」をどうやって実現するか。タイミングよく、サーブのデヴァキ・ラージュ(Devaki Raj)氏にお話を伺うことができた。

  • お話を伺った、サーブのデヴァキ・ラージュ(Devaki Raj)氏 撮影:井上孝司

    お話を伺った、サーブのデヴァキ・ラージュ(Devaki Raj)氏 撮影:井上孝司

後日に詳しく取り上げる予定だが、サーブも戦闘機とAIの組み合わせに関して研究開発を進めている。そして、“Project Beyond” という看板の下、実際にJAS39グリペンEにAIエージェントを搭載して飛行試験を実施したこともある。

ただ、AIというやつは、単にエンジンを機上コンピュータに載せればそれで終わりというものではない。それでは何も知らない赤ん坊と同じである。何も知らないAIは、何もできないAIでしかない。

戦闘機パイロットが「飛行機を操る訓練」「その飛行機を用いて戦う訓練」と段階を踏んで育てられるのと同様に、AIについても「戦闘機パイロットが持つ知見・経験・ノウハウ」を教え込んでやらなければならない。

  • グリペンEのプロトタイプ機(39-9)。首脚がシングルタイヤなのと、主脚が胴体ではなく主翼から生えているところが、グリペンC/Dとの外見の違い 撮影:井上孝司

    グリペンEのプロトタイプ機(39-9)。首脚がシングルタイヤなのと、主脚が胴体ではなく主翼から生えているところが、グリペンC/Dとの外見の違い 撮影:井上孝司

どうやって、必要なデータを集めるのか?

経験を積んだ戦闘機パイロットならたくさんいるが、そのパイロットが持つ経験・知見・ノウハウはパイロットの頭の中にある。それでは、デジタル化したデータとしてAIに食わせることができない。

では、どうやって学習データを用意するのだろうかと、以前から首をひねっていた。まさか、あちこちから戦闘機パイロットを呼び集めて、いちいちさまざまなデータを揃えて「手入力」しているわけでもあるまい。

そんなことをしていたら、「戦闘機パイロットの数十年分の経験」を学習させている間に、2020年代が終わってしまう。かといって、学習に用いるデータの数やバラエティが足りないと、今度はAIの学習が不十分になり、使えないAIができてしまう。

そこで、この「信頼できる大量のデータ・セットを、いかにして用意しているのか」をラージュ氏に真っ先にうかがってみたところ、答えは至極わかりやすいものであった。

戦闘機を飛ばして任務飛行の演習あるいは訓練などを行う過程で、「センサーを搭載して、ありとあらゆる情報を集めます」(ラージュ氏)というのである。

つまりこういうことだ。機体の位置、速度、針路、姿勢などといった基本データに始まり、レーダーなどのセンサーが何を捕捉しているか、いつ、どのタイミングでウェポンを撃ったか、その時の機体やウェポンの状態はどうなっていたか、などといった按配で、とにかく収集可能なデータを記録する。

すると例えば、「こういう状況の下で」「センサーが何を捕捉して」「パイロットがなにかしらの判断や意思決定をした結果として機体を操り」「機体はこういう機動をした」というデータが得られる。

パイロットの「判断」を直接読み取ったわけではなくても、「判断」が導き出したアウトプットを知ることはできる。それは間接的に、パイロットの「判断」を知る材料になるだろう。

航空戦以外の分野でも同じではないか

となると、必ずしも実機を飛ばす必然性はないかもしれない。フライト・シミュレータで訓練を行う場合でも、そこに「敵機」を出現させようとすれば、その「敵機」の位置、速度、針路、姿勢、機動など、さまざまなデータが必要だ。それは、フライト・シミュレータを制御するコンピュータが持っているはずの情報である。

もちろん、パイロットがフライト・シミュレータを操って仮想環境の中で機体を操れば、そちらのデータも、フライト・シミュレータを制御するコンピュータに取り込まれる。自機にしろ敵機にしろ、そうしたデータを使い捨てにしないで全部記録すれば、AIが学習する材料になるのではないか。

つまり、無人戦闘用機にAIを組み込んで活用する際には、学習のためのデータ・セットをそろえる手段として、センシングの技術と仕掛けが不可欠になるということである。

では、航空戦以外の分野はどうか。実は、陸戦でも同じことはできると思われる。連載「軍事とIT」の第499回で、サーブの交戦訓練システムを取り上げているが、このシステムでは個々の兵士がGPS(Global Positioning System)受信機を身に着けている。

GPSで把握した自己位置の情報は逐次、無線機でシステム側に送信している。そして、ライフルなどに取り付けたレーザーで “撃つ” と、これも兵士が身に着けているレーザー受信機で “撃たれた” ことを知る。

  • サーブの交戦訓練システムでは、個々の兵士の動向を把握・記録する。こういうデータもAIに食わせるデータ・セットになり得よう 撮影:井上孝司

    サーブの交戦訓練システムでは、個々の兵士の動向を把握・記録する。こういうデータもAIに食わせるデータ・セットになり得よう 撮影:井上孝司

それなら、誰がどこにいて、どんな動きをして、どこで撃ったかというデータは全部記録できるし、実際、そうしている。これは本来、訓練の模様を記録してデブリーフィングを行うための材料だが、これもAIの学習に使えそうではある。

おっと、これは航空機の連載であった。話を元に戻して、続きは次回に取り上げる。

著者プロフィール

井上孝司


鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナ4ビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。このほど、姉妹連載「軍事とIT」の単行本第6弾『軍用通信 (わかりやすい防衛テクノロジー)』が刊行された。