ChatGPTがUIやUXにもたらす変化とは何か?

広木大地氏(以下、広木):続いてのテーマです。これは僕も聞いてみたいなとけっこう思ったところです。僕のLTでもいわゆるUI/UXの話を中心にできればなというところと、今UI/UXの会社の社外取締役もやっているので、ここからはちょっと「ChatGPTがUIやUXにどんな変化をもたらすと思いますか?」というのを聞いてみたいなと思います。染谷さんはどう思いますかね。

染谷洋平氏(以下、染谷):けっこう難しいな。事前にちょっと(質問)を見させてもらっていて、どう考えようかなとけっこう考えていたんですけど。やはり少し開発っぽい話になりますが、今まではカチカチなAPIがすごく多かったじゃないですか。例えば「これをちょうだい」と言ったらきちんとエンドポイントとパラメーターをつながないと返ってこないみたいな。そのへんをすごくゆるふわっとできれば、もちろんUIのインターフェイスも変わってくるし、もちろん元となるUXも変わってくるんですけど。

最近ちょっとおもしろいなと思ったことがあって、今って「ここに価値があるんじゃないか」と思った人がデータを集めて、要するにDBを作ってプロダクトを作っているじゃないですか。インプットとしていい感じのプロンプトを与えたら、ChatGPTが解析をして返してくれるというようになれば、UXの部分のスーパー高速化ができるんじゃないかと。

例えば、グロービスとリンクアンドモチベーションさんとでなにかやって、すごくセーフティな状態で「ちょっとプロンプトで探索しましょうよ」みたいなものができると、UI/UXならず、本当に新しいサービスが意味わからないぐらいのスピードで立ち上がるんじゃないのかなと期待をしています。

こういったところはエンジニアリングを使ってうまくやっていきたいなと思っているので、僕は楽しみなことしかないんじゃないかなと思っています。

広木:そうですね。今ここでディスカッションしている会社が連携して、「こんなことできました」みたいなものが出たらおもしろいし、なんかアレですよね。例えばChatGPTプラグインとして各社の情報が入っていった時に「この組織課題を解決するには?」みたいなことを聞くと「グロービスのノウハウと、この学び放題のやつを見るといいよ」みたいなことが。

染谷:そうそう。

広木:リンクアンドモチベーションさんのモチベーションクラウドの組織課題から自然とレコメンドされることがあるかもしれないですね。サービス間のインテグレーションも変わりそうというところ。松本さんはこのあたりのUI/UXの変化はどうですか?

松本宏太氏(以下、松本):薄いUIみたいな話は1つあるなというのと、ChatGPTは問い方でメチャクチャ品質が変わるので、「面倒くさいな」と思う人も多いと思うんですよ。なので、チャット形式よりも「こうしますよ。いいですか?」と聞かれて(人間は)「はい」と言うだけの超怠惰なUXが今後はベースになるんじゃないかなという気がしています。

そのために先ほど染谷さんがおっしゃっていたような、あらゆるデータを結合していく裏側があって、この裏側を作ることがサービス提供者の価値になるというか。あとはもうChatGPTプラグインがよしなにやる感じになるんじゃないかなと思っています。

広木:確かに僕も、アプリケーションの「wanna」を作ってみて「日本語で書くのが面倒くさいな」って思ったんですよ。やはり人間は怠惰だから、指示を一生懸命文章で考えるのがすごく大変で、「できる限りいい感じにしておいて」というのが究極のオファーだなと思ったんですよね。

そうなった時に、わからなければAIのほうから聞いてくれたり、「適当にいい感じにやっておいて」と言ったら御用聞きみたいに聞いてくれたり、他のところを調べてくれたり、「どうですか?」と提案をしてくれて、(人間が)良い・悪いと言うだけで進んでいくのが楽なんだろうなと究極思っていて、そういうふうに人間が楽ちんになる方向に基本的には進むのかなと思うんです。

このあたり、顧客体験をどう作っていくかは私たち開発者が考えなきゃいけないことなので、逆にそこもハードになっていくかもしれないですけどね。

松本:そうですね。

広木:笹野さんは、UI/UXの変化という観点ではなにかありますか?

笹野翔太氏(以下、笹野):今お話に出たところに頷きつつ、検索の「Bing」みたいなかたちで、AIの提案みたいなものが両軸でパラレルで走り続けるのが、しばらくはあるんじゃないのかなという気もしています。やはりそのAIのアウトプットにどこまで信頼をおけるかという世界もまだありそうだなというのが、実際に今回プロンプトエンジニアリングをやって、感じた部分です。

なので、ある程度怠惰な方というとちょっとアレかもしれませんし、怠惰の自覚は私にもあるんですけど(笑)。「楽したいな」という時はChatGPTみたいなUIを使うし、きちんとした情報を集めたい時は、検索に戻る、みたいな。そういった繰り返しにまだしばらくはなるのかなとは、なんとなく考えています。

広木:そうですよね。やはり検索のほうが便利だなと思うこともありますよね。

笹野:そうですね。まだちょっとケースバイケースになっているのかなと感じますね。

広木:ファインディさんみたいに、スカウトメールを送れるやつだと、スカウトメールを(AIに)考えてほしいとは思いつつ、逆に求職者の立場だと、返信を考えてほしくて、気がついたらChatGPT同士が会話をしているだけということもあるかもしれないと思って(笑)。

(一同笑)

広木:いろいろ想像してみたら、それはそれで不毛だなという気持ちになってきてアレなんですけど(笑)。

笹野:そうですね。社内でも、「蓋を開けてみたらそうだったんじゃん」みたいな話が確かに議論に上がるので、そういった世界もしばらくすると訪れるのかなとは思っていて、それはそれでおもしろそうだなと思いますね。

広木:ありがとうございます。柴戸さんはこのあたりのUI/UXの変化をどう感じられますか?

柴戸純也氏(以下、柴戸):今後は会話型、音声、テキスト、自然言語でUIを操作するものが一定は増えていくんじゃないかなと思っています。例えばプラグインを入れたら自然な対話機能を追加できたり、いろいろな用途に適した自然言語処理の機能を提供できたりとか。あとはマルチリンガル対応とかも超簡単にやったり、そういうふうになるんだろうなとは思っています。

ほかは、やはり省力化がけっこう進むかなと思っています。今のWebサイトの多くが、ポイントクリック、ポイントクリックで一つひとつ確認することが多いですよね。自然言語でのやりとりを記憶しておいて、最後に「これでいいですか?」という感じになって、ユーザーががんばって整理したり、入力したりするステップがなくなっていくんじゃないかな。面倒くさがりの僕は、そうなってほしいなとけっこう思っている派です。

広木:そうですよね。業務の中で省力化や効率化できそうなところが、いっぱいある気がするし、それを特定して組み込んでいこうと思うとちょっと大変だなと思ったりという、ちょうど間にある感じがしていて。もう1ヶ月したら、みなさんの知見もアップデートされて新しい話が出てきそうなぐらいのスピードで動いているなとは思いますね。

AIの発展における倫理やプライバシーをどう考えるか?

広木:さて、続いてのテーマにいってみましょう。「AI倫理やプライバシーの議論をどう捉えていますか?」。最近だと、また署名みたいなかたちでAIの開発を止めたほうがいいんじゃないかという、ちょっと出自も本気度もわからない話も出てきているし、イタリアがアクセスを停止して「一緒くたにして本当にいいの?」という感じになっているとか、そういうニュースも出てきています。

ちょっと難しい議論だとは思いますが、このあたりのAIの倫理とプライバシーというところでなにか考えるところがあれば教えてください。笹野さんはどうですか?

笹野:本当に、今広木さんがおっしゃっていただいたように難しい問題だなというのは、やはり個人でもそうだし、社内を見渡してみてもけっこう感じる部分があると思っています。

例えば、預けたデータが学習に使われるのか・使われないのかという議論とか、情報漏洩という議論があるとは思いますが、なるべくそのAPIを経由して慎重に、機密にあたる情報は流さないというのが、会社が取りうるリスク管理としては1つの正しい道なのかなとは思います。

今の時点でOpenAIは「API経由のデータだと、学習には使いませんよ」と表明していますし、そこまで気にする必要もないのかなという意見にも「まぁ、そうだよね」と同意はできる部分はあるとは思うので、機密情報をお預かりしている身としては、「積極的な活用はちょっと慎重になったほうがいいよね」というのが基本スタンスになるかなとは思っています。

広木:そうですよね。学習に使う・使わないにおいて、偶然その学習した内容が生成される確率はもうほぼないから、「Transformerって逆にすごい」みたいな話だと思うんですけど。一方で、OpenAIのローカルのキャッシュに残っていたものが漏洩するとかは、ぜんぜんあり得る話なんだろうなと。

というのも、Redisのバグで若干お粗末なんじゃないかなというのは、あるあるかなと。OpenAIの中の人も人間なんだなって感じのバグですごく親近感があってよかったんですけど。あれもちょっと大変な部分があったかなという感じです。倫理やプライバシーに関して、松本さんはどう捉えていますか?

松本:ちょっとずれている話かもしれませんが、GPTはユーザーのデータを雑に格納しておくことがすごく得意だなって思っている中で、その雑なデータの何が個人情報で何が個人情報じゃないか(判断するもの)はたぶんないんですよね。

広木:「雑に格納する」というのは、いわゆる非構造化されたまま保存していくと。ガバガバなセキュリティで保存するということではなくて、きちんと保存するんだけど非構造化の状態ってことですよね?

松本:そうです。

広木:確かにどれがプライバシー情報なのかがわかりにくいというのはそのとおりですよね。

松本:なので保存する時に、どう保存するかはちょっといろいろと考えなきゃいけないなと思っています。GPTじゃないですが、個人情報をマスキングするTransformerベースの技術はいろいろあると思うので、そういうのを組み合わせて、「保存する時は安全ですよ」みたいな見せ方が必要になってくるんじゃないかなと思っています。

広木:それはあるかもしれないですね。要はリアルタイムで話をしていた中で、僕が住所とかを言ったらそのまま流れていっちゃう。それに対して、保存された住所の音を勝手に落としたり、テキストになる時に落としたりすることでプライバシー情報は除けるというところにも、Transformerや大規模言語モデルは使えるかもねという話ですよね。

松本:あるかもしれないですね。

広木:確かにそのとおりな気がします。柴戸さんは、このあたりはどうですか?

柴戸:プライバシー寄りの話がけっこう出たので、僕たちの事業ドメイン上で起き得ることを話すと、「自動運転で事故ったら誰が責任持つの?」みたいな倫理的なところがあります。僕たちも組織を改善していこうとコンサルティングをするのですが、そこをただ機械化するだけだと「これは誰の責任?」みたいになってしまうことが考えられます。

やはり最後の意思決定の自覚や納得感をどう醸成するか。そういう抽象的なところにも踏み込んでいかなきゃいけないなと思っていて、そこはステップバイステップで考えさせることもできるし、思考過程を出力させることで、ある程度回避が可能なんじゃないかなと最近は思っています。

広木:そうですよね。これまでのインプットとアウトプットだけより、その思考過程も「説明して」と言いながらやってくれたほうが、実際にはTransformerの中身のデータを説明しているわけではないけれど、生成されたテキストを見ていると説明可能なAIであるかのように見えるという。

柴戸:そうそう(笑)。

広木:不思議な現象ですよね。

柴戸:そうですよね。先ほどのUI/UXで省力化したいと言っておきながら、意外とそういう過程がビジネスにおいては大事なんじゃないかなと感じます。

広木:そうですよね。「絶妙に大規模言語モデルができちゃって、いろんなことがヤバいな」というところで言うと、入力された著作物を著作権をギリギリ回避できるように言い換えるとか。例えば僕の『エンジニアリング組織論への招待』という本を全部インプットして、「それっぽいけど、言葉を書き換えて全部生成してください」といってブログに上げられちゃったら、(それを)回避できるのかという話があるかなと思っています。

そういうところでの「法律の追いついていなさ」もある気がするのですが、学習コンテンツがけっこうたくさんあるグロービスさんはこのあたりはどうですか?

染谷:ナイスパスをありがとうございます。今のグロービス経営大学院ですね、やはりChatGPTを使ってレポートを書こうとする人はいるんですよ。なので、個人情報とかじゃなくてそのサービスにも関わる倫理感みたいなところは、多く知れ渡っているところがある。

学ばなくてもChatGPTに書かせればなんとなく雰囲気良く書けちゃう。それを「ChatGPTで書いてるんじゃないの?」と思った時に、リバースすれば「これChatGPTじゃん」とわかるんですけど、わざわざそんなコストは払えないので。そういう新たないたちごっこはこれからも発生するので、個人情報だけじゃなくて人の評価系に関してはけっこう騙される人も出てくるし、騙しに来る人も出てくるというのは、あまりピックアップされませんが大事な論点かなと思っています。

広木:そのとおりですよね。でもそういったところもどんどん変わってくるというか、これまでの常識が通用しなくなる部分も出てくるかもしれないので、ちょっと追いかけていきたいところですね。

(次回へつづく)