前回、人工知能(AI : Artificial Intelligence)がF-16パイロットと模擬対戦した、米国防高等研究計画局(DARPA : Defense Advanced Research Projects Agency)の “AlphaDogifight” トライアルを取り上げた。ただし、結果だけ見て大騒ぎしてはいけませんよ、というのが今回のお題。
学習プロセスがキモ
たぶん、“AlphaDogifight” トライアルに関するニュースを見て「AIが戦闘機パイロットに5:0で完勝した! もう有人戦闘機は時代遅れだ!これからはAIが操る無人戦闘機の時代だ!!」と吹き上がっている人が、そこここにいるのではないかと思われる。
でも、そういう人はたぶん、“AlphaDogifight” トライアルを実現するまでの流れや詳しい条件設定について見ておらず、結果だけを見ている。
なにも格闘戦の分野に限った話ではないが、素の状態のAIは生まれたての子供みたいなもので、「何も知らない」状態である。だから、“AlphaDogifight” トライアルに参加した8チームはそれぞれ、まず学習のプロセスを走らせる必要があった。
つまり、戦闘機パイロットが格闘戦において何を考えて、どう動き、何を避けようとしているのか。何か選択や判断を迫られた時の優先順位付け(重み付け)や意思決定はどうするのか。そうした諸々を、まず学習させなければ話は始まらない。
その8チームの中から予選で勝ち上がり、F-16パイロットとの最終決戦に勝ち進んだのはヘロン・システムズという会社だ。同社では戦闘機パイロットの12年分の経験に相当する、約40億回のシミュレーションを実施した。その中で「やっていいこと」「やってはいけないこと」「重み付け」に関する学習を行わせたという。
これが何を意味するかというと、AIが格闘戦をやるには、まず学習が必要であり、学習させるためには質の良いデータが不可欠ということ。筆者があちこちで書いていることだが、ダメなデータを学習させてもダメなアウトプットしか出てこない。
身近なところでいうと、クルマの運転についても似たようなことがいえると思う。
危険の予測や回避という場面になると、若葉マークの新人ドライバーよりも、経験を積んでさまざまな場面に出くわしているドライバーの方が強いだろう。経験がなければ、どういう危険があり得るか、それをどういう風に回避すれば良いか、といったことが分からない。
実際に路上に出てみると、ときには信じられないようなことをする人、信じられないような状況に出くわすことがある。それは、実際に路上に出て、経験を積まないと学習できない。教習所で習った通りに物事が運ぶとは限らない。
決して現実に即していたとはいえなかった条件
もう1つ。これを忘れてはならないのだが、“AlphaDogifight” トライアルに関する記事の中で、大事なことを書いているものがあった。それは「AIは事前にすべての情報を与えられていた」ということ。
本連載ではしばしば、状況認識(SA : Situation Awareness)という言葉を持ち出している。つまり、実戦の場では、敵がどこにいてどちらに向かっているのかを完全に把握するのは難しく、それをどこまでやれるかが重要だということ。
その問題をなんとかしようということで、目視による状況把握を改善するために、戦闘機のコックピットは上方に突出して、しかも全周視界を確保できるようなキャノピーを組み合わせている(空力的な観点からすれば不利な形状である)。
また、視線を計器盤に落とさなくても済むようにHUD(Head Up Display)やHMD(Helmet Mounted Display)を搭載するようになったし、F-35のEO-DAS(Electro-Optical Distributed Aperture System)みたいな「昼夜兼用の全周視界装置」まで現れた。
また、地上のレーダーサイトや空中のAWACS(Airborne Warning And Control System)機が全体状況を把握して、それを口頭、あるいはデータリンク経由で送ってくる仕掛けもできた。味方の戦闘機同士で息の合った連携を図るにしても、データリンクや無線通信による情報共有や意思の疎通は不可欠である。
このように、あれやこれやを駆使することで初めて、状況認識が実現している。そして、どういう風に動いてどう交戦するかを判断・決定することができる。状況認識ができていないと、知らない間に敵機に忍び寄られて、訳が分からないうちにオカマを掘られて撃墜される。
そういう観点からすると、AI側が「事前に必要な情報を与えられていた」のは、それだけでもう、圧倒的なアドバンテージがあったといえる。
しかも、“AlphaDogifight” トライアルでは、通常の有人機同士の交戦ではやらないような近距離まで踏み込んで交戦する場面もあったという。接近しすぎると、敵機を撃墜できたとしても、その際に飛散した破片で自機が傷つく可能性がある。“AlphaDogifight” トライアルでは、そういうところの配慮は無視したといえる。
つまり、“AlphaDogifight” トライアルで実証できたのは、「状況認識を実現した後の格闘戦で、AIが人間と同様に機能できた」というところに限定されるのではないか。もちろん、それはそれで重要な一歩だ。これが実証できなければ、「AIに対する信頼の確立」は成立しない。
また、自機の損傷を構わずに敵機の内懐まで突っ込むのは、人が乗っていない無人機でなければ実現できない芸当だ。そうなると格闘戦AIが不可欠なものになるから、戦術見直しにつながる素地を作ったともいえる。
そういう事情を無視して、「5:0」という結果だけ見て大騒ぎするのは、いささか浅薄に過ぎるのではないだろうか。
著者プロフィール
井上孝司
鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。