大日本印刷(DNP)は、電気通信大学の長井隆行研究室および中村友昭研究室と共同で、人工知能(AI)が人間の言葉や表情、ジェスチャーに合わせて自動的にその返答とジェスチャーを生成する「表現AI」の研究を開始したことを発表した。

人間のジェスチャーを学習する人工知能の概要

この研究では、AIが人間のジェスチャーや表情、言語から相手の状況を自律的に分析し、返答するテキスト情報(言語)やジェスチャーなどを自動的に生成する「表現AI」の開発を目指すもの。

大量の人間の映像情報から、自動的に返答する言葉とジェスチャーを合わせて抽出する教師なし学習の手法により、その相関関係を分析したモデルを構築することで、人手による設定がなくても言語に合わせた適切なジェスチャー表現を自動生成できるライブラリを開発する。

また、コミュニケーションロボットをはじめとしたさまざまな情報デバイスのモジュールを調整することで、ジェスチャー表現の自動生成の実用化を目指すという。

この研究成果として、ロボットやチャットボット、デジタルサイネージなどの情報デバイスがジェスチャー付きで会話を行う、「表現AI」のプロトタイプを2017年度中に開発し、その後、実際の情報デバイスを利用した自動プレゼンテーションの実証実験を行う予定だという。

今回の共同研究を元に、電気通信大学は、AIが自分という概念を持ち、どのように自分を表現するかという、より一般化した「表現AI」の研究を発展させ、ロボットの表現を、ジェスチャーだけでなく発話やその意味内容、表情などを含めた総体として捉えることで、より生き生きと人に語りかけるロボットの開発に繋げていくとしている。

一方のDNPは、「知能コミュニケーションプラットフォーム」の機能を向上させるとともに、コミュニケーション機能の進化したロボットやチャットボット、デジタルサイネージなどを店舗や各種施設、イベント会場などで活用し、企業の店舗運営における業務の効率化を支援するとともに、企業と生活者とのコミュニケーションを深めることで、新商品開発や新規事業の発掘などに繋げていくということだ。