ChatGPTは“今の情報”を知らない

大岩央氏(以下、大岩):参加者の方からいくつかご質問をいただいておりますので、読み上げさせていただければと思います。

「ChatGPTで、『銀座でおいしいお店はどこ?』などの質問をしても、回答が存在しないお店など、誤った情報が少なくないのは、フェイクニュースの影響、つまりフェイクニュースの情報をChatGPTが読み込んで、それを回答している影響も大きいのでしょうか」。

「仮にそうだとすると、『この情報はフェイクニュースである』と特定しやすくなれば、あるいはフェイクニュースがなくなれば、ChatGPTの正確性は上がっていくという理解でよろしいでしょうか」。

笹原和俊氏(以下、笹原):ちょっと違うと思います。というのは、こういうのを「ハルシネーション」と言うんだと思うんですが、要するにデータにないから単に知らないだけなんですね。

ChatGPTって、「今」は知らないんです。スライドに示したように、2021年くらいまでのWebに存在しているデータから学習をしているので、最近できたお店は知らないです。

ChatGPTがWebを検索するような機能ができれば、たぶんそこは変わってくると思うんですが、フェイクニュースを学んだから間違えた情報を出しているのではなくて、単にデータになかったから答えられないだけなんです。

それでも無理やり答えようとすると、自分の知識空間の中で「これと類似しているのはこれだから」と言って、確率的にそういう答えを引っ張り出してきてしまうので、それがハルシネーションとして出ているんだと思う。だから、フェイクニュースを学んだんじゃなくて、単にデータが足りないだけだと思います。

大岩:なるほど、ありがとうございます。

「間違い」は「創造性」にもなりうる

大岩:引き続き、参加者からのご質問です。先ほどの質問にも関わるんですが、「ChatGPTが誤った情報というフェイク、言い換えれば創造性を発揮できる仕組みはどのように理解できますか?」というご質問です。

間違うということは、ある意味では創造性にもつながるようなバグにもなりうるのではないか? ということかと思いますが、壁打ち相手みたいなところで、間違いさえもおもしろく、企画を考えたりする手助けになることもあるかと思うんですが、いかがでしょうか。

笹原:ありうると思いますね。「創造的誤謬」という言い方をすると思うんですが、あえて創造的に間違うということですね。進化の過程を見ればそうで、ちょっとずつ違った表現系が出てきたほうが多様性が増して、いろんなアイデアや答えが残ることがあると思います。

アイデアとか、こういった情報の世界もそうで、自分の持っている知識に対してChatGPTが「自分の持っている知識の、外の知識」を答えたとすると、自分の持っている知識とその知識を組み合わせると、また新しい知識になることがありうると思います。

そういった感じで、知識のバウンダリー(境界線)を広げたり、自分が持っている知識をちょっと揺らしてみるという意味において、ChatGPTがノイズのような働きをすることによって、結果的に創造性を発揮されることはありうると思うんですよね。

大岩:なるほど、ありがとうございます。本当に、人間の使い方次第というところが大きいのかなと思います。

何度も繰り返されてきた「AIが仕事を奪う」議論

大岩:先ほど創造性という話が出ましたので、何度も議論されていることなんですけれども、人間にできる仕事とできない仕事についておうかがいできればと思います。

十数年前から、「AIが仕事を奪う」ということがすごく言われておりまして、AIの新しい技術が出るたびにそういった議論が盛り上がり、1年くらいすると「実はあまり大したことなかった」みたいな(笑)。

笹原:そうですね。

大岩:新しい技術が出てくると、またそういう話(脅威論)が出てくるというサイクルのような気がするんですけれども。とはいえ、技術の進歩に伴って、少しずつ機械に仕事が置き換えられていくことも生じているような気もしております。

本当に直近の議論でいくと、主にホワイトカラーの仕事になってくると思いますが、生成系AIを活用することで、仕事のどのような部分が置き換えられて、どのような部分が置き換えられないのか。先生は科学者でいらっしゃいますので、こういった話はご専門ではないと思いますけれども、お考えをお聞かせいただければと思います。

笹原:基本的に、オートメーションの延長のツールだと思うと、そこに少し知的な処理が加わって、その延長線上でできることがたぶん置き換えられると思うんですよね。

類型化できるものやパターン化された作業、場合によっては英文校閲や推敲の仕事も、「これをリバイズ(修正)して」と言って英文をベタっと貼ると、ほぼネイティブが直したのと同じくらいの英文になって返ってくる。

そういった、パターン化された作業は間違いなくAIでできるので、そのレベルの仕事しかできない英文校閲者はAIに置き換わっていくのだと思います。

AIと同じ土俵で戦う必要はない

笹原:一方で、AIにはできない言葉の組み合わせがあると思うんですよね。言語の特徴ってディスクリートインフィニティですよね。つまり、有限の要素からなっているんだけど、ほぼ無限のバリエーションを生み出すことができる。

だけどChatGPTができることは、我々が過去に表示したことから学んでいるので、結局は数が限られている。我々はそこに縛られずに超えていくことができるので、そこの部分で差異化ができなければ、ChatGPTに置き換わっていくかなと。そこで差異化ができるような仕事は、置き換わらないんじゃないかなと思っています。

大岩:なかなか厳しい社会になっていきそうですけれども。

笹原:同じ土俵で比べなくていいんじゃないかなと、いつも思っているんですよね。確かに、かつて馬が移動の手段だった時代から車に変わる時代に、たぶん馬に関する職業はなくなったと思うんですよね。

でも、じゃあみんなが死に絶えたかというと、ちゃんと車に関する職業が生まれて、それで社会や文明はより進んだわけです。

おそらく、ChatGPTができないことをまた人間がやるようになるとか、それを使って人間が何かをするようになると、新しい職業も生まれるはずなので。そういう意味では、置き換わるとか、同じ土俵で考えるということをしなくていいんじゃないかなと、個人的には思っています。

大岩:なるほど。

ChatGPTを使って、新たな産業を生み出せるか

大岩:すごく同意する点は多数なんですが、ただ、1点だけ少し感じてしまうところがあります。例えば、(移動手段が)馬から車に置き換わった時は、車という産業は雇用を生み出す製造業ですので、いろんな会社ができますし、部品とか製造部分でもたくさんの雇用を生み出すと思うんです。

ただ、ChatGPTに限っていうと、OpenAIという1つの組織が技術を持っていて、それに対して使用料というかたちでお金を払って使っているので、ある意味で富の独占とも捉えられると思うんですが、そういった弊害についてはいかがでしょうか。

笹原:おっしゃる点の懸念はあります。ChatGPTの1個前にGoogleの検索の時代があって、今も続いていますけれども。

結局、Google1社が検索のデータをお金に換える仕組みがあって、富を独占しているような状況もあるわけですね。それが今度はOpenAIに移っただけだろうということになると、おっしゃるとおりだと思うんですよね。

そうすると、「国産のものを持つべきなのか?」という話になりますよね。おっしゃるとおりです。確かに、車と違う点はそのとおりかなと思いますね。ChatGPTを使って、また新たな産業や構造的な産業を生み出せるのかが、課題として1つありますね。

大岩:国産ChatGPTについては、主にデータセキュリティという観点から、日本でも「国産のAIの技術を開発していくべきだ」という意見も聞かれますが、その際に障壁となりうるような要素はどのあたりにあるんでしょうか。例えば、経済効率性だったり、そういったところもあると思うんですけれども。

笹原:その議論はアカデミアでも起こっていて。1つは、ずっとOpenAIにお金を払い続けるのか? というのもありますし。一方で、もちろん作る技術はあると思うんですけれども、理研のスパコンを使ったり、富岳を使うといった時に、本気で作ったとしてどのくらいコストに見合うのか。

今のChatGPTみたいなAIって、データを集めたり、モデルの複雑さがすべて勝負になっているので、その時にどれだけコストに見合うのかはなかなか難しい問題で、研究者の間でも議論が分かれているところですね。

大岩:そうなんですね。これから、そのあたりの方針が決まってくるというところでしょうか。ありがとうございます。

情報の「真偽」を判断する難しさ

大岩:参加者の方からもご質問をいただいておりますので、おうかがいできればと思います。「先ほどディープフェイクの例題を紹介された時に、『偽物を見抜く技術を作っている』とおっしゃっていましたが、偽情報を判別する主体は、新たな技術に頼ることになるのでしょうか」とのことです。

「誰が情報の真偽を判断するべきか」という点は、先ほどお答えいただいたかと思いますので、新たな技術・判別する技術について、少しお話しいただければと思います。

笹原:最後は駆け足になったので言いそびれましたが、「すべてのフェイクニュース」という意味では、まだそれ(偽物を見抜くこと)は難しくて。我々が作っている技術は、ディープフェイクに関するものです。

「この画像、あるいはこの動画は改ざんされました」という証拠を、画像・動画のデータの中から見つけて、「このくらいの確率でこれは改ざんされたものです」ということを示すツールなんです。

そのあとは私のパートですけれども、問題は、ユーザーにフィードバックした時に、もっとも効率的にフェイクの拡散につながらないようなかたちで使えるか? というところをやっているところなんです。

まずは確認しておくと、フェイクニュースすべてではなくて、扱っているのはディープフェイクに関するものです。「フェイクニュース」というふうにもう少し広げると、これはやはり難しくて。

情報の真偽がすぐに判定できるようなタイプのニュースも、もちろんあります。科学的な知見だけで白黒つけられるものもありますが、多くのものは、その国の文化や政治とかいろんなものを加味して、初めて「こうだよね」「ああじゃないよね」ということが言えるような類のものなんです。

場合によっては一生白黒つかないようなものもあるので、「真偽」という軸だけでユーザーにフィードバックしてしまうと、かえって危ないこともあると思うんですよね。

正しいか・間違っているかを最後に決めるのは人間

笹原:だから、こちらができる最大のことは、「これくらいの確率で不確かさがありますよ」「こういう点で少し怪しいですよ」ということを可視化することなのかなと思っています。

大岩:なるほど。確かに、「真偽」という価値判断が入っている物差しで簡単に判断してしまうと、かえってプロパガンダ的なものにも利用されかねないと。

笹原:そうですね。「誰が正しいか・間違っているか」というのにお墨付きを与えるのって、すごく問題ですよね。だから、なかなかそれをAIがやってしまったりはできないですよね。最後は人間が、その人が判断しないといけないと思うので。

大岩:膨大な数のものをどういうふうにしていくか? という問題もありますよね。

笹原:ただ、こういった技術を入れるメリットもありまして。みなさんもEメールを使っていて、「スパムフィルタ」ってあると思いますが、役立っていますよね。なので、ある程度類型化・パターン化されたフェイクやディープフェイクってあるんですよ。

だから、そういうものが目につく前にちょっと脇にどけておいたり、迷惑フォルダに入れておくことはできると思うので、そのくらいの技術は作りたいなということですね。

大岩:なるほど、ありがとうございます。

生成系AIの活用を、よりよい方向につなげるために

大岩:それではお時間になりましたので、質疑応答はここで終わらせていただければと思います。笹原先生、最後に一言お願いしてもよろしいでしょうか。

笹原:みなさん、お忙しいところ本イベントにご参加していただき、ありがとうございます。短い間でしたので、まだ紹介しきれていない部分があるかと思います。

ぜひこの本(『ディープフェイクの衝撃』)をお手に取っていただいて、何か事件がある都度見返していただけると、よりフェイクニュースに騙されにくくなるかなと思います。ぜひご一読ください。

大岩:ありがとうございます。私、最近『日本のナラティブ・パワー』という提言報告書を出しまして、日本の言論空間を世界に接続していくにはどうしたらいいか? という提言をさせていただいたんです。

本日は、いろいろな懸念点や危険性に備える必要性という話もありましたが、一方で、先生の著書の中でも「(AIの進化は)創造性の発揮にもつながる」という話もされていらっしゃいました。

生成系AIをどのように活用していくかによって、日本からの新たな情報発信の可能性だったり、よい方向にもつなげていけるのかなと感じました。本日は誠にありがとうございました。

笹原:ありがとうございました。