これが映画や小説の話であれば、あくまでエンタテインメントだから、「危険な任務に一発勝負をかける」というストーリーはありだ。その方が話が盛り上がり、観客や読み手がドキドキする。最後にハッピーエンドに終われば良いのだ。

しかし、これが実戦だったらどうか。イチかバチかの投機的な作戦は、やらないに越したことはない。

  • 図体が大きい爆撃機は機動によって脅威から逃れるのが難しいから、数十年前から巡航ミサイルによるスタンドオフ攻撃の導入事例があった 写真:USAF

    図体が大きい爆撃機は機動によって脅威から逃れるのが難しいから、数十年前から巡航ミサイルによるスタンドオフ攻撃の導入事例があった 写真:USAF

航空戦におけるリスク低減とテクノロジー

さまざまな戦闘空間(ドメイン)の話をごちゃ混ぜに取り上げると混乱するから、今回は「航空機による対地・対艦攻撃」を想定して、「テクノロジーの進歩により、どのように攻撃側にとってのリスク低減が図られてきたか」ということを考えてみたい。

航空機が対地・対艦攻撃を行う際の最大のリスクは、「防空システム」と「敵機による迎撃」である。どちらにしても、以下の要素で成り立っている。

  • 敵機の侵入を探知する。人間の目玉や、電子光学/赤外線センサー、あるいはレーダーといった、探知手段の問題
  • 状況を把握して、何を用いて交戦するかを決める
  • 武器を発射して交戦する。誘導武器を使用する場合は、どんな誘導手段を用いるかという問題も生じる

それに対して攻撃側がどう対処するか。

まず、侵入を探知されないようにする方法。目視による探知を避けるために夜間に侵入する、レーダーによる探知を避けるために低空侵入したりステルス技術を用いたりする、といった手がある。レーダーに対する妨害、チャフのような囮の散布も、探知を妨げるという狙いは同じ。迷彩塗装も、目視による探知を妨げるのだから、ここに分類できる。

次に、状況の把握と意思決定を妨げる方法。通信妨害はその一つといえるが、これは侵入を探知されないようにする方法にもなり得る(探知報告を上げるのを妨げた場合)。もうちょっと直截的な手段で、敵の指揮所を見つけてつぶす方法もあるが、どうやって見つけるかという課題は残る。

最後に、武器による交戦を妨げる方法。射撃管制レーダーを妨害したり、囮を撒いて攪乱したり、対レーダー・ミサイルで物理的につぶしたりするのは、その一例。また、長射程の誘導武器を用いて防空側が持つ武器の射程外から交戦するのも、武器の使用を妨げる方法の一つといえる。

矛と盾

ところが、攻撃側がこのようにして知恵を絞り、さまざまなテクノロジーを持ち出せば、それを迎え撃つ側も対抗策を考える。ステルス機を探知できるレーダーの開発、探知手段や指揮所の分散化、対空武器の長射程化、そして誘導武器の無力化といった具合。

特に近年、GPS(Global Positioning System)を用いる誘導武器が増えているから、対抗手段としてGPSに対する妨害や欺瞞の手段がいろいろ出てきている。そのため、妨害や欺瞞に強いGPS受信機の開発や、GPSに変わる精密測位手段の開発、といった話が出てきているのは、以前にも書いた通り

防空武器の射程外から交戦する、いわゆるスタンドオフ兵器については、射程を延伸することと、射程を延伸しても正確な誘導を行えるようにすることが課題となっている。その課題をクリアして攻撃側が優位に立てば、また防空側も武器の射程を伸ばして対抗しようとするから、やはりいたちごっこになる。

そこで、以前にも本連載で取り上げているように「敵の防空網に突っ込むような危険な任務は、有人機ではなくて無人戦闘用機にやらせたら」という発想も出てくる。無人機の技術が進化しているからこそ、こういう話になるのだが、遠隔操縦では具合が悪い。遠隔操縦のための通信回線がネックになりかねないからだ。無人機が自律的に判断・意思決定してくれる方が望ましい。

  • 米空軍が試作した、無人戦闘用機のデモンストレーターXQ-58Aヴァルキリー。機内兵器倉も備えており、そこから無人機を発進させる試験を実施したことがある 写真:USAF

    米空軍が試作した、無人戦闘用機のデモンストレーターXQ-58Aヴァルキリー。機内兵器倉も備えており、そこから無人機を発進させる試験を実施したことがある 写真:USAF

AIで万事解決?

すると、昨今のバズワードに釣られて「人工知能(AI : Artificial Intelligence)があればすべて解決、もうステルス戦闘機の導入なんて時代遅れ」なんてことをいう人が現れる。しかしそれは、AIというものを楽観的に買い被りすぎているのではないか。

学習に基づく推論で成り立っている当世のAIは、どれだけ質の高いデータで、質の高い学習をさせられるかどうかが問題になる。さらに問題なのは、その学習の結果をいかにして検証するか。プログラムした通りに動作するシステムであれば、そのプログラムの内容を基にしてテストケースを組み立てることができる。

だが、学習次第でさまざまな方向に進化する可能性があるAIに対して、どういうテストケースを設定すれば良いのか。「これとこれとをテストしておけば大丈夫」と太鼓判を押せるようなテストケースの定義ができるのか。

事前に想定した、決まりきった内容において問題なく作動してくれたとしても、状況が変わったときに正しい判断をしてくれるかどうか。そこでAIが判断ミスをすれば、最悪の場合には国の存亡に関わる。そこまでAIを無条件に信頼してしまってよいのか。しかも、戦闘機の操縦士が直面する状況は多種多様であり、複雑な意思決定を求められる。

そしてもう一つ。人間を介する(man-in-the-loop)のではなくAIが自律的に判断や意思決定を行うとなると、交戦規則やその他の法規制との整合性、そして人間を介さない自律的な判断が社会的・道義的に受け入れられるのかという問題も出てくる。目下のところ、この問題について明快な答えは出ていない。

AIの軍事利用については、以前に第366~377回にかけて書いた。細かく書き始めると繰り返しになりかねないから、そちらも参照していただければ幸いだ。

かような事情を考慮すると、予見可能な将来の範囲で「危険な任務だから有人機を投入するのはやめて、AIが制御する無人機にやらせよう。そうすれば戦闘機パイロットは失業する」なんていう能天気な予測はできない。少なくとも筆者はそう考えている。

もちろん、「戦闘機パイロットが危険を承知の上で敵地に突っ込んで、国の存亡に関わる任務を遂行する……」 なんて話は、映画や小説の中だけで済む方が良いに決まっているのだが。それに、必死になって任務を遂行する場面があったとしても、それを決死の任務にしてしまってはいけない。

著者プロフィール

井上孝司


鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。