東日本旅客鉄道株式会社(以下JR東日本)では、5月21日より東京駅構内の商業施設グランスタと錦糸町駅直結の商業施設テルミナの2カ所にPepperとIBM Watson(以下、Watson)を使ったAI案内ロボットをそれぞれ1台設置。主に駅構内や近隣施設の案内を担当するコンシェルジュとしての活用を検証している。

利用者からの質問内容の理解と回答の検索はWatsonが担当しているが、AI案内ロボットが回答できなかった質問は定期的に実施されるメンテナンスで学習させ、検証開始時100セット程だったQAの学習データ数が4週間後には250セットにまで増加。それに伴い正答率も徐々に上がっているという。

東日本旅客鉄道株式会社 JR東日本研究開発センター フロンティアサービス研究所 データサイエンスグループ 課長 坂入 整氏

「近い将来、駅業務へのロボット導入は当社としても期待している分野」。そう話すのはJR東日本フロンティアサービス研究所の坂入氏。坂入氏がリーダーを務めるデータサイエンスグループではAIやIoTなど最先端技術を活用し新たなサービスの創造やJR東日本社内の業務効率化推進をミッションとしている。その一環で5月21日より駅での案内業務を担当するコンシェルジュとしてWatsonと連携したPepperを設置。その目的を坂入氏はこう語る。

「我々は単純に人の代わりとしてロボットを活用できるとは考えていません。たとえば、新幹線改札やトイレの場所はどこかといったシンプルな質問はロボットでも案内できますが、観光案内など、訪問する場所・目的・その人の好みなどを丁寧にヒアリングした上でのご案内が必要な質問は人にしか対応できないと考えているので、今回の検証では人が対応すべき業務とロボットに置き換えられる業務の線引きをすることが目的の一つです」

その他にもシステムが安定して稼働するか、どんな質問がPepperに寄せられるか、駅や商業施設といった環境音が多い状況での音声認識率(利用者が発話する質問を正確に理解できるか)なども検証項目として挙げられた。

AIロボットに有人遠隔対応をプラス

本検証のPepperは利用者と対話するロボットとして位置づけられており、質問内容の理解と回答検索はWatsonが担当している。具体的には、Pepperの前に設置されたマイクに利用者が質問すると、その音声データはWatsonのSpeech to Text APIでテキストデータに変換され、Watson Assistant APIがその内容を理解し学習データから最適解を選択。その最適解をPepperが発話して回答する、という流れだ。

Watsonに学習させるデータは質問と回答のセットになっているだけでなく、辞書ファイルという発話による質問内容を正確に理解するための単語データ、そして改札やトイレなどの地図画像の3種類。そのため道案内については、Pepperの胸のタブレットに地図画像を表示して案内することが可能となっている。

Watsonが回答を導き出せない質問の場合は、Pepperの胸のタブレットに表示される「ボクの友達に聞く」というボタンをタップすることで、Pepperと連携したロボット遠隔操作システム「VRcon for Pepper」が起動し、オペレータが遠隔で回答する仕組みになっている。オペレータが専用のWEBアプリ上に表示される質問内容を確認しヘッドセットで回答を発話すると、その内容をWatsonのSpeech to Text APIがテキストデータに変換しPepperが発話して回答する。また、オペレータはキーボードで回答を入力することも可能で、その場合は入力したテキストをPepperが発話して回答する。

オペレータが回答した内容は、質問内容とセットでログとして蓄積され、Watsonの学習データとして活用できるため学習データ生成の効率化に役立っている。なお、東京駅のオペレータは同駅の施設を管理する株式会社鉄道会館のスタッフ、錦糸町テルミナのオペレータは同施設の案内係が担当しており、対応数は一日あたり10件前後だという。

  • Pepperが胸のタブレットに地図を表示しながら道案内を行う

  • Watsonが回答できなかった場合はオペレータが遠隔から回答。Pepperのカメラで利用者の表情を見ながら対応ができる