ここまで何回かに分けて、「軍事分野ではこんなところで人工知能(AI : Artificial Intelligence)を活用する事例が出てきている」という話を取り上げた。そこで少し視点を変えて、「AIが生きる場面とは何か」という方面からも考えてみたい。

AIでないとできないこと、とは

民生品で何か新しい商品やサービスを売るときのキャッチフレーズとして「AIを使って○○しました」「ディープラーニングを使って△△しました」というフレーズが頻出している。国の存亡がかかっている軍事分野では、キャッチフレーズだけで終わらず、実際に効果がなければ国の存亡に関わる。

どうせAIを活用するなら、AIでなければできないこと、AIが生きることをやらせたい。AIがないときには実現不可能だった話が実用的なものになり、それが有用性を発揮してくれれば、極端な話、それで国が救われることだってあるかもしれない。

そこで考えてみたのは、「学習に基づく推論」が生きるのは「戦場の霧」を吹き払う場面ではないかということ。いや、完全に吹き払うのは無理かもしれないが、フォグランプを点灯するぐらいの効果があるだけでも助かるのではないか。

「戦場の霧」というと、一般には耳慣れない言葉かもしれない。読んで字のごとく、霧中にいるがごとくに状況がよく分からない様子を形容する表現だ。コンピュータ・ゲームでは、(そうしないとゲームにならないから)周囲の状況はよく分かっているという前提だが、実戦では話が違う。

ミッドウェイ海戦に見る戦場の霧

例えばミッドウェイ海戦。日本側が「米艦隊は出てきていないみたいだな」と思っていても、確認するために索敵機は飛ばさなければならない。ところが、索敵機の発進が遅れるという “摩擦” が発生したり、索敵機からの報告が「空母らしきもの1隻を伴う」というあやふやなものだったりする。

もっとも、報告があやふやだからといって、索敵機の搭乗員を責めるのも酷な話だ。なにしろ、遠方からサッと観測して、素早く艦種を判別しなければならない。近くまで寄って行って、時間をかけて悠長に観測している余裕はないのだ。例えば、雲の間から出て、サッと観測して、また雲中に隠れる。なんて具合にやらないと、敵に見つかって撃ち落とされてしまう。

また、目視による索敵では天候や光量不足に邪魔されて、明快な確認ができない可能性も考えられる。たとえ明るくても、逆光では条件が悪い。赤外線センサーなら昼夜・天候を問わないが、可視光線映像と比べると波長が長くなる関係で、映像の画質がよくない。電波を用いるセンサーは昼夜・天候を問わないが、妨害や干渉を受ける可能性がある。

こんな事情もあって、なかなか「スパッと明快な状況が分かる」とはならない。たいていの場合、ハッキリしない部分やあやふやな部分がある。これがすなわち「戦場の霧」である。

それを吹き払うためには、情報ソースを増やして監視の目を強化するとか、センサーの能力を高めるとか、情報の迅速・確実な伝達手段を構築するとかいった手が考えられるし、これらはすでに行われていること。しかし、それで問題が完全に解決するとは限らない。どこかしら、人間による推論を必要とする部分は残る。

では、人間がデータの蓄積や経験に基づいて行っている推論と同じことをコンピュータにやらせて、状況認識や指揮官の意思決定を支援することはできないか? という考えが出てくるのは自然な成り行き。

装甲戦闘車両の眼を強化する “Digital Crew”

だから以前にも取り上げたように、センサー・データの解析にAIを援用する、なんていう話が出てくる。

以前の記事を書いた後で、新たなネタを仕入れることができた。なんでも、タレスは “Digital Crew” という計画名称の下、装甲戦闘車両に搭載するセンサー機器にAIを援用して、状況認識能力を高めようとしているのだそうだ。

  • トライアル中の戦闘車両と乗組員の自動検出。戦闘車両には数十の画像センサーが搭載されているが、タレスはそれらセンサーの監視を自動化し、利用可能なすべての情報を簡潔に抽出するシステムを開発しようとしている 資料:UDRC

    トライアル中の戦闘車両と乗組員の自動検出。戦闘車両には数十の画像センサーが搭載されているが、タレスはそれらセンサーの監視を自動化し、利用可能なすべての情報を簡潔に抽出するシステムを開発しようとしている 資料:UDRC

例えば。先に書いた通り、赤外線暗視装置は映像の品質が良くない。過去には、赤外線暗視装置の映像に頼って交戦したら同士撃ちになってしまった、なんてことも起きている。そこで、さまざまな車両などの赤外線映像を機械学習にかければ、識別の役に立たないだろうか、という発想が出てくる。

現在はまだ、”Digital Crew” はフィールド試験や評価を進めている段階だが、「いける」と判断した場合でも、全幅の信頼を置いて頼りにできるものに仕上がるまでには時間がかかると思われる。なにしろ、学習データをどれだけ積み上げられるかがキモである。

とはいえ、敵味方識別まで行くのは困難でも、「戦車かどうか分かる」ぐらいでも何らかの役に立つかもしれない。例えば、センサーに組み合わせたAIが「あれは戦車です」といってきて、かつ「このあたりの友軍は戦車を持っていない」と分かっていれば「敵じゃないか?」という判断ができるから。

ただし、正しく認識することも大事だが、正しく認識しなかった場合にどうするかということも考えなければならない。AIが誤認識したせいで同士撃ちになりました、では洒落にならない。

状況認識におけるAIの援用

この他に学習と推論がモノをいう分野はあるだろうか、ということで思いついたのが、飛行機の機種や任務の違いによる飛び方の違い。レーダーで探知目標を追跡して、飛び方を把握できれば、それが機種や任務の違いを推測するための手がかりにならないだろうかという話である。

レーダー・スクリーンを見ているだけでは、基本的には機種の区別はつかず、単なるブリップ(輝点)である。それ以上の状況を知るには、別の方法で確認するか、推論を働かせるしかない。それを人間がやる代わりに、AIに肩代わりさせる、あるいは支援させることはできないか?

例えば。早期警戒機や空中給油機は、最前線から離れた後方でレーストラック・パターンを描きながら飛んでいる可能性が高い。また、特殊作戦機なら夜間に低空を飛んでくるだろうから、レーダーに出たり消えたりする可能性が高いのではないか。

これは、地上の車両にもいえる話。補給隊と砲兵隊と戦車隊ではそれぞれ任務が違い、動きにも違いが生じるからだ。当節では米空軍のE-8C J-STARS(Joint Surveillance Target Attack Radar System)、英空軍のセンティネルR.1、NATOのAGS(Alliance Ground Surveillance)みたいに、空から地上の車両の動静を把握できる飛行機があるから、実現の目はある。

  • カタールのアルウデイド空軍基地にいるE-8C J-STARS 写真:US.AirForce

    カタールのアルウデイド空軍基地にいるE-8C J-STARS 写真:US.AirForce

  • E-8C J-STARSのコックピット 写真:US.AirForce

    E-8C J-STARSのコックピット。米国空軍の兵士がデモンストレーションを行っている 写真:US.AirForce

著者プロフィール

井上孝司


鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。