東京農工大学(農工大)は7月14日、人の歩行データ(歩き方)から個々の感情特性を抽出・作製したモデルを用いて、数学的に感情認識が可能であることを明らかにしたと発表した。

同成果は、同大大学院工学研究院先端機械システム部門のベンチャー・ジェンチャン准教授と、筑波大学サイバニクス研究センターの門根秀樹 助教(研究当時の所属は仏コレージュ・ド・フランス)、仏コレージュ・ド・フランスのAlain Berthoz名誉教授らによるもの。詳細は6月25日付の「International Journal of Social Robotics」オンライン版に掲載された。

これまでロボットが人の感情を理解するための手法としては、主に音や顔の変化から感情を推定する方法が用いられてきた。今回の研究では、実際の歩行から得たデータをモデル化し、感情認識に影響を与えるパラメータを調査し、得られた結果を基にデータベースを構築し作製した感情認識アルゴリズムを用いて、感情認識の可能性の検証が行われたという。

その結果、歩く速度と姿勢を変化させることで、被験者が認識する感情が変化することを確認。この結果から作製された感情認識アルゴリズムに、速度、頭や胴体の姿勢といった各種パラメータの重み付けを変えてバリエーションを付加し、感情認識の成功率の検証を行ったところ、特定のパラメータが感情認識に大きく影響を与えることを確認したとのことで、これにより、全体の動作ではなく一部の動きを見るだけで感情を認識できることが示されたとする。

なお、研究グループでは今後、より複雑かつ多様な感情認識の可能性を検証していくため、より多くの動作データの蓄積を行っていくとしており、これにより将来、ロボットが近づいてくる人の歩き方から感情を先読みし、それに合ったコミュニケーションを行うなど、従来の感情認識ロボットに比べて高い機能を実現できるようになることが期待されるとコメントしている。

演者による感情表現のモーションキャプチャデータから作製されたモデル