産業技術総合研究所(産総研)と大阪大学の両者は、大規模データセット「AnimalClue」を構築し、これを用いて野生動物の痕跡から動物種を推定するAIモデルを開発したと、7月29日に共同発表した。
同成果は、産総研 人工知能研究センターの片岡裕雄上級主任研究員、大阪大学大学院 情報科学研究科 マルチメディア工学専攻の篠田理沙特任助教(常勤)らの共同研究チームによるもの。詳細は、8月1日まで京都で開催中の画像の認識・理解シンポジウム「MIRU2025」にて発表の予定。
野生動物の生息状況の把握は、生態系の健全性評価や生物多様性保全に不可欠だ。また、土地開発やインフラ整備に伴う環境アセスメントに加え、人の活動や気候変動による生息域の変化を捉える基礎情報としても重要である。例えば、開発予定地における希少種の存在や野生動物の生息状況を事前に把握することで、適切な保全措置を講じた上で開発計画を立てることが可能となる。
しかし、生息数の少ない種や夜行性の動物など、すべての野生動物を直接観察するのは容易ではない。この課題に対し、足跡や糞などの痕跡から動物種を特定する「アニマルトラッキング」という手法がある。この手法は、センサやカメラといった特別な装置が不要で、非侵襲的で動物に負担をかけない点が優れる。しかし、野生動物の痕跡を正確に識別するには、高度な専門知識が必要だ。専門家による鑑定が不可欠とされ、この手法を習得するには多くの時間と経験を要し、誰もが簡単に実践できるわけではない点が課題だった。
このような背景の下、産総研は視覚と言語の統合モデルやシミュレーションを活用し、画像認識の高度化の研究を進めてきた。今回、その知見を活かし、アニマルトラッキングをAIによる画像認識で自動化し、痕跡の識別に専門知識を必要としない汎用的なモデルの開発をめざすことにした。
まず、65属、200科、968種にわたる総計約16万件の痕跡情報に対し、動物の行動パターンや生息地域に関するアノテーション、生物階層情報などが付与され、大規模データセット「AnimalClue」が構築された。アノテーションとは、画像内の対象物のラベルや位置、形状を明示するために、矩形(バウンディングボックス)や領域(セグメンテーションマスク)などの情報を付加する作業であり、これによりモデルは物体の存在箇所を学習・認識できるようになる。また生物階層情報とは、生物を分類するための体系的な階層構造であり、一般に「界・門・綱・目・科・属・種」の順で細分化される。これは、生物の分類や進化的な関係を整理し、種間の類縁性を理解する手がかりとなる。
次に、このデータセットを画像認識AIモデルに学習させ、画像識別、物体検出、物体セグメンテーションの各AIモデルが構築された。画像識別では、例えば羽の画像において、Top-1精度(最も確からしいとモデルが判断した1位の予測が正解である割合)65%以上で、555種の候補から正しく種を識別できることが確認された。物体検出モデルは、画像内の各物体をバウンディングボックスで囲み、位置とクラスを予測する。一方、物体セグメンテーションモデルは、物体の形状に沿って各ピクセル単位で領域を分類し、より詳細な輪郭情報を得ることが可能だ。一般人が見ても判断が難しい細かい種の痕跡を、正しく識別できることが確認された。
このように、高度な専門的知識が求められるアニマルトラッキングについて、AIによる代替の可能性が示された。まだ改善の余地はあるものの、「AnimalClue」はGitHubで公開されていて誰でもダウンロードできる。ベンチマーク評価も実施しており、研究チームは今後、多くの研究者による同分野への取り組みに期待を寄せているとのこと。
研究チームは今後、現在収集が困難でAIモデル学習用の画像枚数が限られる希少種についても、積極的に追加のデータ収集を進め、種ごとの画像識別精度を向上により、より強力で汎用性の高いモデルの構築をめざす。
さらに、痕跡の種類や特徴に応じた処理を可能とする、痕跡に特化した専用モデルの開発も検討中で、これにより実環境における画像識別精度のさらなる向上が期待されるとのこと。将来的には、現地で撮影した画像から痕跡を即座に解析し、種を推定できるアプリケーションの開発に向けた研究も進めていく予定だという。


