共感エージェントで理不尽なクレームを諦めてもらう

馬場惇氏(以下、馬場):先に紹介した3つの入力手段以外のアイディアとして僕らがこの間まで進めていた話でいうと、限られた状況であれば、簡単な部分一致だけでも会話が成り立つような仕組みを考えました。それが三者間対話です。

複数の人がいて、そこで話をさせるような対話なんですけど、そのうちの1人が企業側の有人話者という設計であれば、この中にボットが入っても、ユーザーに自由入力をさせても、破綻しないような会話が自然にできるよ、というのが次のお話です。

カスタマーサポートを想定して、今回「共感エージェント」というものを実際に作ってみて、感情制御の実験をやっています。

そもそもの発端は理不尽なクレームを諦めさせよう、というところで。カスタマーサポートの理不尽なクレームの例でいうと、弊社はWebのサービス事業なので、例えばゲームで「ガチャ回してこのアイテム出ないけどどうなってんの?」「情報を忘れたのは悪いけど、なんでログインできないの?」とか、「そういうことをするなら事前に告知していただかないと困るのですが」みたいな。

これ以上、企業側はどうしようもないけれども、ユーザー側は怒っている場合、結局、解決策は諦めてもらうしかないんですけれども、それでいかに感情を抑えられるか、ということをやっています。

1対1だとやり取りが直接的になってしまうので、3人にして、2対1にして、小さな社会みたいなものを形成して、意図的に流れを作っていく。

馬場:この感情抑制の会話においてエージェントを違和感なく介入させるために、エージェントはオペレーターの発話に呼応して発言をするように設計しました。

ユーザーは自然文を入力できます。例えば、ユーザーがログインさせてよ、と言ってくると。それに対してエージェント側が意味理解とか状態推定とか対話選択をやったとして、この意味理解を失敗して、「本人確認が重要なのはわかりますが、なんとかならないの?」といきなり言いだしたらバツ。会話が破綻していますよね。

それに対してこちらの方法では、オペレーターが、「本人確認ができないと難しいんです、ご理解をお願いします」と言った時に、この「本人確認」と「理解」という2つのキーワードをエージェントが拾って、発話を制御するので、ここの流れは破綻しないと。

なので、この人(オペレーター)が間接的にエージェントを制御しているような発話の仕方をするというので破綻のない、けれどもユーザーは自由に入力ができるといったような流れができるんじゃないか、ということを目論んでやっています。

自分に共感してくれる相手は味方

こんな実験をやってみました。スマホを機種変してゲームアカウントにログインできなくて、アカウントの引き継ぎができないという状況で、問い合わせをしてきたという設定で、被験者にはしゃべってもらいます。

それに対して、ガイドとして出てきたエージェントが話を聞いてあげて、オペレータに引き継ぎ、その後3者間で話を進めていきます。エージェントは被験者に共感や同調を行い、被験者の味方になってあげつつも、時折オペレータ側に理解を示すような発言をすることで、被験者に働きかけていくような対話をします。

実際、大学の学生さんを被験者に呼んでやってみたんですけれども、実験結果としては、青がエージェントなしの実験です。エージェントありの実験のオペレーターの評価が赤。エージェントありの実験のエージェントの評価が橙色なんですけれども、基本的に評価はすごく高い。

(エージェントへの)評価に関しては、「話を聞いてくれた」「考えてくれた」「同じ立場に見えた」みたいな、一緒になって怒ってくれて、こいつ味方だなという関係性をしっかり築けているということがあります。

ただ結果には載せていないんですけれども、これは怒りはおさまらずにどっちかというと高まったという結果になっています。実際味方にはなれたんですけれども、一緒になって怒ってしまうことで意識的に怒りを感じてしまうという結果になったので、今、そこをブラッシュアップしています。

ただ、一緒になって怒ることで味方になるという技術自体は価値があると思っているので、そこの部分に関連するところで特許の出願をしています。実際にクレーム対応の現場で使おうと思っていますので、続報をお楽しみにというところですかね。

アンドロイドがセーターを売る実験

馬場:時間もだいぶ押してしまっているので、こちらを足早にいくんですけれども、もう1つやっていまして、こちらは完全な選択式対話で、オンラインショップにおける、一緒に選んでくれる接客AIということをやっています。

これは石黒研究室が以前やっていた例なんですけれども、高島屋にこのミナミちゃんというアンドロイドを置きまして、そこで選択式対話をさせる。そしてカシミアのカラーセーターを売らせるという実験をやりました。

実際に選択式対話をやるんですけれども、ユーザーの情動を喚起するような対話というところに気をつけて設計されています。

例えば最初に性別や趣味の質問をしておいて、それを引き継いで、あなたに似合う色を診断してあげます。

似合う色を診断してあげた後に、セーターを推薦して選ばせる。選ばせた時に実際に商品が手渡されて、鏡で合わさせるんですね。

そしてそれに対して「似合う?」という選択肢が出ます。それしか押せないんですね。なのでユーザーは強制的にそのストーリーを取り込まされるというか、そのストーリーを踏まされるということをします。

(基調講演の)為末さんの話にもあったように、人間には、行動が先にあって情動が喚起するということが起きます。これによって自分があたかも似合うと思ったんじゃないかと情動を喚起させるようなことがあります。

その後にたくさん褒めたりして、1つに決めるまで繰り返すんですけれども、こういった形で、選択式対話で受け入れて欲しいストーリーを取り込ませることができるのが石黒研究室の持つ技術です。

人間の心理に沿った実証実験を展開

馬場:例えば先ほど言ったみたいに、1つの選択肢のみを用意したり、あとはYESの選択肢のみしか出さない、2つ選択肢が出ているんですけれども、「はい」と「お願い」となっていて、どちらを押しても肯定的なことしか発話はできないんですね。

ただ人間はその裏の意図を読み取るので、「この人たちはここを肯定的に取って欲しいんだな」と読み取って押してくれます。

なので、押すんですけれども、押したら自分は以前に「はい」と押してしまっているので、一貫性の論理が働いて、自分の発言がどんどん制約されていく効果があるので、こういったことで情動をうまく喚起させていくことができます。

そういった内容を使って、実際にこれから実証実験をやっていくんですけれども、オンラインショップで、例えばプレゼントを選んでいる人に対して、喜んで欲しい、といった姿を思い浮かべさせて、それに一貫した論理で接客をするという内容の実験もやっていきます。

時間がすごく押してしまって申しわけないんですけども、今日、たくさんある中でこの2つを紹介しました。

お話できなかったことでいうと、深層学習による接客対応技術であったり、商業施設内でロボットの接客をしようというところであったりします。今後、そういったところでたくさんリリースを出していただく予定なので、興味のある方がいれば議論させてください。

ということで私からのお話はおしまいです。次は岩本のほうからロボット事業に関してご紹介していただきたいと思います。