近年、カスタマーサポートの手段のひとつとして、チャットボットの利用が拡大しつつある。電話からメール、メールからチャット、とその手段は変わっても、悪質なクレームへの対応は依然としてカスタマーサポート業務における最大の課題だ。
カスタマーサポートにおける問い合わせのなかには、単に怒りや苛立ちをぶつけることが目的のものや、理不尽なクレームをつけるような悪質なものなど、感情的になっている顧客に対して対応しなければならないものも多い。
こうした背景のもと、サイバーエージェントは、エージェントをテキストチャットの対話へ介入させ、三者間のコミュニケーションにすることにより、顧客の”怒り感情”を制御できる技術を大阪大学の石黒研究室と共同で開発した。
サイバーエージェント AI Lab研究員 馬場 惇氏 |
今回は、この「チャットボットによる話者感情制御」に関する技術の詳細について、サイバーエージェント AI Lab研究員 馬場 惇氏にお話を伺った。
開発体制の話はこちら! 続いてご覧ください
グループチャットという”社会”を構築することで、怒りを抑制する
一口にクレームと言っても、電話の場合は声を荒げたり罵声を浴びせたりするようなものが多い一方で、メールの場合は長文で執拗に責めるケースが多く見られるなど、コミュニケーションの手段によってクレームの質は異なる傾向にあるという。
こうした違いは、コミュニケーション手段の即応性の有無に起因しているものと考えられる。即応性という観点では、チャットは電話とメールのちょうど中間にあたるコミュニケーション手段といえる。
さらにチャットは、電話やメールのように1対1でのコミュニケーションだけでなく、グループチャットという複数人でのコミュニケーションが一般的になっているという特徴もある。こうしたチャットならではの性質をうまく活用したのが、サイバーエージェントが石黒研究室と共同で開発した「チャットボットによる話者感情制御技術」だ。
大阪大学の共同研究チームメンバーでHAI2018に参加、話者感情制御技術について発表した |
同技術のアイディアについて馬場氏は次のように説明する。
「カスタマーサポートの対応は通常1対1ですが、こちらが用意したエージェントを追加して三者間のグループチャットにすることで、”小さな社会”を構築しようというのがこの技術の狙いです。3人の会話になると、1対2、つまり多数対少数という概念が出てくるため、自然と社会的なやりとりが行われるようになるのです。こうした現象をうまく使って、顧客の怒りを制御しようと考えました」
怒りを高めて発散させる作戦は要検討!?
この”小さな社会”に登場するのは、顧客と有人オペレーター、そしてエージェントとなるボットの三者だ。
エージェントは、対話開始直後は顧客に同調してオペレーターを批判するような発言をするが、途中から批判を止め、オペレーターの味方につくよう設定されている。顧客とエージェントに仲間意識が生まれたところでエージェントが意見を翻し、オペレーターの味方をすれば、顧客の溜飲が下がるのではないか、という仮説をもとに考えられた仕組みになっている。
チャットボットによる話者感情制御の例 |
「ボットに用いているのは、オペレーターとユーザーが発した言葉をBag-of-Wordsで表し、ロジスティック回帰によって意見が対立しているか否かを分類するというスタンダードな学習器です。たとえば、『ご理解ください』『申し訳ありません』という言葉がオペレーターから出てきたら、『顧客とオペレータの意見が対立している』、つまり『顧客のフラストレーションが溜まっている』と判定するといったようなイメージです。
ただし、ボットは事前に用意したいくつかの台詞しか発言しません。台詞は『無礼ですよ』とか『もっと他の方法はないんですか』といったような合いの手がほとんどで、会話の内容には深く踏み込みません。インタラクションデザインをうまく行うことで、ディープラーニングを用いずとも自然な対話になるようなシステムにしています」(馬場氏)
実際に、スマートフォンの機種変更でWebサービスのIDが引き継げないというトラブルを想定した実証実験を大学生に行ったところ、被験者はエージェントであるボットに対して味方意識を持つようになったという。また、「オペレーターのほうがエージェントだと思っていました」という被験者からのコメントから、自然な会話が実現できていたことも伺える。
しかしながら、本来の目的であった顧客の怒りを抑制するといった点では、期待どおりの結果にはならなかったという。
馬場氏は「今回のようにエージェントを介入させて被験者に同調させると、被験者が対話中に感じる怒りを一度高めることになります。一度怒らせて発散させることで、最終的な怒りの感情を通常の対話よりも低い数値まで落とせるのではないかと期待したのですが、最終的な怒り感情の大きさは通常の場合と変わらない、という結果になりました。逆に怒りのMAX値が高まることで、攻撃的な感情を高めてしまうケースもあるようです。今後さらにブラッシュアップしていく必要があると考えています」と、実用化に向けて引き続き改善に取り組んでいくとしている。
大阪大学の石黒 浩教授(左から2人目)らとミーティングする馬場氏 |
チャットボットと人が調和的に共存した世界を目指して
AI Labでは、チャットボットを接客に活用するための研究も進んでいる。現在は、ジュエリーブランド「4℃」を手がけるFDCプロダクツと共同で、プレゼント選びをサポートするチャットボットの実証実験を行っているところだ。
この実証実験でポイントとなるのは、ユーザーに会話の選択肢を選ばせる「選択式対話」でシナリオを設計するという点。探しているアクセサリーはネックレスなのかピアスなのか、シンプルなデザインがよいか華やかな印象のものがよいか……といったようなチャットボットの質問に対してクリックして答えていくことで、商品の候補が複数表示される。
そのなかからひとつ選択すると商品の詳しい説明が表れ、購入ページへ誘導される。そこで購入に至らなければ、チャットボットが条件についてさらに質問していく――こうした流れを繰り返すような対話シナリオになっている。
テキストを直接打ち込んで対話する形式に比べてユーザーの自由度が低いようにも思えるが、ユーザーには”選択する”という行動の余地が与えられるため、会話の主導権を握っているように感じるのだという。うまくシナリオを設計することができれば、ユーザーの心理を誘導できる可能性もある。
実証実験では、挨拶から対話をはじめたほうがよいか、またはいきなり商品をおすすめしたほうがよいかなど、よりよい対話シナリオにするための検討を進めている。現在のところ、チャットボットを経由したほうがしなかった場合に比べて購入率が高くなるという結果が出ているのだそう。
* * *
今回紹介した感情制御チャットボットも、接客用チャットボットも、機械学習技術に全面的に頼るのではなく、人間の心理をうまく活用しているという点で興味深い。最後には必ず人との接点があるチャットボットだからこそ、こうしたコミュニケーションに着目した研究が重要になってくるというわけだ。
チャットボットと人とが調和的に共存できる世界の実現を目指し、AI Labでは今日も研究・開発が進められている。