東京工業大学(東工大)は12月7日、内閣府総合科学技術・イノベーション会議が主導する革新的研究開発推進プログラム(ImPACT)タフ・ロボティクス・チャレンジの一環として開発した、ドローン自体の騒音や風などの雑音を抑え、要救助者の声などを検出して迅速な人命救助を支援できるシステムを発表した。

  • 公開された災害救助用ドローン。東京大学の中臺一博 特任教授、熊本大学の公文誠 准教授、早稲田大学の奥乃博 教授、鈴木太郎 助教らの研究グループが開発を手がけた

タフ・ロボティクス・チャレンジは、「タフでへこたれないロボット」の開発を目的としたプロジェクト。技術的に高度であっても限られた条件下でしか作業できない"ひ弱"なロボットではなく、災害現場などの緊急性が高く、悪条件な環境での活用が行えるロボットを開発している。

これまで、災害現場では静かに聞き耳を立て、要救助者の居場所を探り当てていた。しかし、道路の寸断などにより緊急車両の通行が困難な場合には、救助現場に近づくことができず、救助までの時間が多くかかってしまうことが課題となっていた。

今回発表されたシステムは大きく分けて、「『HARK』(ホンダ・リサーチ・インスティチュート・ジャパン、京都大学などが開発したマイクロホンアレイを用いたロボット聴覚のオープンソースソフトウェア)を応用したマイクロホンアレイ技術」、「ケーブル1本で接続できる16個のマイクロホンからなるマイクロホンアレイ」、「3次元音源位置推定および地図表示技術の開発」の3つの技術からなるという。

「今回のシステム開発により、人が瓦礫の中にいて見つけにくい場合や、夜間、暗所などのカメラが使えない場所においても、要救助者を発見できるようになる」と中臺氏は語る。

「声」から救助者の位置を特定

会場では実際に、災害現場を想定したデモンストレーションが実施された。

  • 今回開発されたシステムを搭載したドローン。画像手前がマイクロホンアレイ。ドローンを作動させ、プロペラ音が鳴る中でも、「助けて」「おーい」などといった声を検知する様子が見られた

  • ドローンが音を検知すると、その音源の方向・位置がスクリーン上に表示された。オレンジ色に表示された線の向きが音源の方向、長さが音源との距離を示している

また、3次元音源位置推定および地図表示技術については、前もって実施されたデモンストレーション時の動画を用いて紹介された。

  • 要救助者(写真左)の声に反応したドローンが位置を特定し、地図上に青色で表示する(写真右上)。これによりドローンの操縦者や、救助隊は、要救助者の位置を特定することができる

  • 瓦礫の中にいる救助者(写真左下)の声にも反応し、地図上に新たに青色表示する(写真右上)

なお、研究グループに同システムの実用化のめどについて尋ねると、消防庁や防衛省、警察といった災害救助活動に従事する機関の導入計画の問題となるため、まだ明確なものはないという。しかし、すでに一部には同システムの説明を実施しているほか、消防庁がドローンを保有するという情報もあることから、ニーズに応じて導入が期待されると、実用化へ前向きな姿勢が見られた。