前回、自由対話を実現するための方法をいくつかご紹介しました。それらを見ていると、「自由対話はもう可能なのではないか」と思ってしまうかもしれませんが、実用化するには解決しなければいけない難題が今も多数存在しています。今回は、この自由対話の「難しさ」について、もう少し説明しておきたいと思います。
自由対話の最も大きな「課題」
自由対話の最も大きな課題として、”正解を決めることができない”という点が挙げられます。一般的に、対話とは誰かの発話に対して応答し、また誰かが発話し……というやり取りを繰り返すものです。”正解を決めることができない”とは、この「誰かの発話に対する応答」の内容に関して、正解か不正解かを容易に判定することができない、ということです。
対話は、少し見方を変えれば「テキスト(文)を入力し、テキスト(文)を出力する」ことを目的としていると言えるでしょう。そして、「テキストを入力し、テキストを出力する」という意味で言えば、翻訳も同様の課題だと言えます。例えば日英翻訳であれば、「私はりんごが好きです。」に対しては「I like apples.」が正解です。したがって、「私はりんごが好きです。」と入力されたら「I like apples.」を出力できるAIを開発すれば良いでしょう。これは「テキストを入力し、テキストを出力する」AIにほかなりません。
日本語を英語に変換するシステムである日英翻訳に対し、自由対話は発話を応答に変換するシステムだと考えることができます。「テキストを入力し、テキストを出力する」という意味では、どちらも同じです。しかし、自由対話の場合、「私はりんごが好きです。」に対する応答(出力文)として正しいものは定義できるでしょうか。「私もです。」と答えても良いでしょうし、「りんごは美味しいですよね。」でも良いでしょう。否定的に、「私はりんごが嫌いです。」や「みかんのほうが好きですね。」と答えても、間違いではありません。
このように自由対話においては、ある1つの入力に対して、ほぼ無限に正解が考えられるため、そもそも何を出力するシステムを開発すれば良いのかを明確にすることが難しいのです。本連載の第16回で説明した「質問応答」が自由対話よりも比較的容易である理由も、ここにあります。つまり「イギリスの首都はどこ?」に対する正しい応答(出力文)は「ロンドン」と1つに決まるため、自由対話よりも容易に実現できるケースが多いのです。
翻訳との違い、人間との違い
発話に対する「正しい応答」が無数に考えられるということは、発話と応答の間に明確なルールがないということでもあります。翻訳において回答がほぼ一意に決まるのは、「私はりんごが好きです。」を英語に訳すための明確なルールが存在するためです。例えば「私」は「I」に変換されるでしょうし、「りんご」は「Apple」に変換されます。今回の例で言えば、「I like apples.」以外にも「I like an apple.」という回答もあるかもしれませんが、単語が複数形になるかならないかのような細かい点に違いはあれども、少なくともりんごはAppleです。決してOrangeに変換されることはありません。
しかし、自由対話においては「りんご」を何に変換したら良いかわかりません。応答に「みかん」という単語が出てきても間違いではないのですから、どのような規則に従って応答を生成すれば良いかをルール化することは非常に難しいのです。
「こうできるものを作ろう!」という明確な道しるべがないまま研究開発を続けても、なかなか進展しません。システムを改変したとしても、その改変が果たして良かったのかどうかの客観的判断ができないからです。「りんごは美味しいですよね。」と応答していたシステムを、「みかんのほうが好きですね。」と応答するシステムに改変したとして、どちらのシステムがより良いのかを判定するのは難しいでしょう。現状では、結局、人とコンピュータの対話を人が確認して「何となくこっちが良さそうだ」という評価をするに留まることがほとんどです。
また、これ以外にも難しさはあります。人間同士の対話では、人は言葉以外の情報も用いているはずです。例えば表情や声色、また天気や気温といった環境情報も取り入れているでしょう。先ほどの例、「私はりんごが好きです。」に対する応答を生成する際には、本来であれば、相手がどんな気持ちで「私はりんごが好きです。」と言ったかを声色や表情からうかがいつつ、応答を考えるべきでしょう。
しかし、現状の対話システムは基本的にテキストを入力し、テキストを出力するというものです。音声認識システムを利用して音声での対話は可能かもしれませんが、声色を判定して応答を変化させているものはほとんどありません。テキストに対してテキストで応答することすら難しいのに、表情や声色、環境情報のような複数の情報を加えることはさらに困難でしょう。
自由であるがための「リスク」
最後に、自由対話の難しさとして外せないのは、対話システムに自由に対話をさせると公序良俗に反した発話をする可能性があり、またそれを防ぎきれないという点です。実際、2016年にはMicrosoftの対話システム「Tay」が問題のある発言をして炎上するという事態が起きました。そのため、現在は商用システムに本当の意味で自由な対話が可能な技術を盛り込むことは避ける傾向にあります。技術検証レベルであればチャレンジする企業もありますが、多くは炎上のリスクを避けるため、人がコントロール可能なレベルの対話技術のみを用いているのです。
* * *
自由対話は、そもそもその「あるべき姿」がまだ解明されていません。どういう対話がより適切なのかを明確にするためにも、多くのユーザーがAIと自由対話を試み、その結果を分析することが必要になるのですが、上述した炎上リスクの懸念からそれも行われていないのが現状です。そういった実情も踏まえると、自由対話を実現するためには、もう1つ大きな技術的ブレークスルーが必要だと思われます。
今回はややネガティブな情報ばかりとなってしまいましたが、最近はチャットボットの流行もあり、「コンピュータと対話をする」という行動への垣根が下がりつつあることも事実です。この流れが継続すれば、「対話とは何か」を追求する動きが活性化し、より一層の対話技術の進歩が期待できるでしょう。
著者紹介
![]() |
国立研究開発法人 情報通信研究機構
ユニバーサルコミュニケーション研究所
データ駆動知能システム研究センター 研究員
大西可奈子
2012年お茶の水女子大学大学院博士後期課程修了。
博士(理学)。同年、大手通信会社に入社。2016年より現職。
一貫して自然言語処理、特に対話に関する研究開発に従事。
人工知能(主に対話技術)に関する講演や記事執筆も行う。
twitter:@WHotChocolate