CLOSE

ChatGPTとディープフェイクの衝撃―AI技術がもたらす破壊と創造(全4記事)

AIで生産性を高める人・取り残される人の「二分化」への懸念 各国で異なる生成系AIへの対応と、“誰が規制するか”の難しさ

昨今、ChatGPTが注目を集めており、AIの発展に対する期待感が高まる中、ディープフェイク技術の悪用など、情報認識や社会への影響が懸念される側面もあります。そこで今回は、計算社会科学者の笹原和俊氏の著書『ディープフェイクの衝撃―AI技術がもたらす破壊と創造』のエッセンスをもとに、AI技術が今後もたらすインパクトについて考察。本記事では、生成系AIが今後の労働環境に及ぼす影響や、フェイクニュースの規制の難しさなどを語っています。

生成系AIは、ネットに住む“仙人”のようなもの

大岩央氏(以下、大岩):では、ここから質疑応答に入りたいと思いますが、参加者の方からのご質問をお待ちしている間に、私からいくつかお尋ねをしたいと思います。

先生の『ディープフェイクの衝撃』という本を拝読しまして、また、この数ヶ月の間に、ChatGPTの話題であるとか、かなりいろんな記事を読んで思ったことなんですけれども。

結局、生成系AIというのは、言ってみれば“森の仙人”のようなものなのかなと。あとは、“頭のいいインターン大学生”という、その両方の側面があるのかなと思いました。

森の仙人は、森の奥深く、つまりネットというたくさんの情報の森の中に住んでいて、「これってどうなの?」と聞くと、「実は昔にこういうことがあってだな……」というふうに教えてくれるような存在なのかなと感じたんですが、そういう理解でよろしいですか?

笹原和俊氏(以下、笹原):イメージとしてはそれに近いと思いますね。「森の仙人」という言い方なのか、私の感覚だと「パーソナルアシスタント」的なものだと思うんですよね。

おっしゃるとおり、これまでのWebにある、我々が言語表出してきた集合知を全部学んだ、ある種“仙人”なわけでね。

私たちが言葉で問いかけをすると、それについて答えてくれるんだけど、ちょっと頼りない仙人で、たまに知らないこともあって、嘘を言ったりとかもする。でも、気軽にサードオピニオンを聞けるような、そういう存在だと思います。

それは、我々が過去にアウトプットしてきたデータそのものなので、そういう意味では、我々と対話しているということでもあると思う。

ChatGPTの限界と、本当の脅威が訪れる未来

笹原:ただ、あくまでもデータはすべて過去のデータなので、それがChatGPTの限界でもあると思うんですよね。

なので、ChatGPTの次に来るものは何かを考えると、ChatGPTに“目”とか“手足”、つまりセンサーやアクチュエーターがくっついて、AIが自分で身体性・能動性を獲得する。

そういうことがあれば、例えばカメラを自分で切り替えて使えるとか、マイクを自分で使えるとか、あるいはロボットみたいに足で自律的に動けると、もっと能力は拡大します。その時に、本当の脅威が来るのかなということは想像しています。

大岩:事前に寄せられたご質問でも、「AIの次に来るものは何だと思いますか?」というものがあったんですが、言ってみればアンドロイドのような、生成系AIの頭脳を持ち、さらにセンサーやマイクや足まで持っているような存在も想像できるという話ですよね。

笹原:そうですね。人工知能の研究の一部に「人工生命」という研究もあるんですが、つまり、生命のような振る舞いをする人工物ですね。おそらく、そういうものに近づいていくのかなという気はしますし、もうその方向を目指すのは必然なのかなと思います。

やはり、今のChatGPTのアーキテクチャだけで汎用的なAIに行くというのは、なかなか難しいんじゃないかという研究者の意見もありまして。じゃあ、何か足りないものがあるとするならば、「今の情報を自分で取ってこれる能力」だと思ったりするんですね。なので、そちらの方向に技術が発展するのは自然なのかなと思っています。

大岩:なんというか、ちょっと戦慄するような未来を想像してしまうんですが、少し未来のお話になってしまったので、これからは現在の話に戻りたいと思います。

誰がフェイクニュースを規制するのか

大岩:先ほど、フェイクニュースのお話や、静岡県の水害のフェイク画像のお話も出ました。これまでは日本語の障壁もあって、アメリカなどに比べると、日本ではフェイクニュースやフェイク画像が社会問題になる可能性は低いと言われてきたと思います。

ただ、生成系AIが登場したことによって、こうした状況に変化が起きるのではないかということは、先生も言われていたかと思います。

その時に考えなければいけないのは、フェイクニュースやディープフェイク画像の検証や、規制をする方法であるとか、どこが主体であるかというところかと思うんです。

ちょっと素人考えなんですが、どこが規制をするのかと考えた時に、民間企業、例えばメディアや報道機関が主体になってやるとすると、経済合理性の問題というか、「やってもお金儲けにはならないだろう」という問題があります。

じゃあ、国家がするのかというと、ある程度はしなければいけないんでしょうが、表現の自由を規制することにもつながりかねないという問題があるのではないかと思います。

最後にプラットフォーマー自身が検閲するのか? という可能性があると思いますし、Googleなどではすでに一部実践もされていますが、私企業の内部でどのくらいちゃんとやっているのかという、透明性の担保の問題もあるのかなと考えております。

表現の自由と規制、両立の難しさ

大岩:フェイクニュースやディープフェイク画像をどういうふうに検証・規制をしていくのかという方法や、どこが担うのかという主体について、お考えをお聞かせいただければと思います。

笹原:すごく重要な問題だと思います。なかなか難しいのは、おっしゃるとおり表現の自由の問題があるので、国家がそこに強く介入するわけにもいかないでしょうし、営利団体、企業までそういうものに着手できるのか。

そもそもインセンティブが湧くのか? ということもありますので、特にエフェクティブ(効果的)にこういう問題を制限しようと思った時に、どこに一番介入できる余地があるかというと、私はプラットフォーマーだと思っているんですね。

プラットフォーマーは、これだけのコンテンツを配信する場を提供しているわけなので、そういう人たちに対してずっと使い続けてもらわなければいけないと思うんですね。その場合に何が大事になるかというと、「信頼」ですよね。

プラットフォームでしっかりとした情報が流れています。あるいは、フェイクニュースが出た時には、きちんとそれに対してアクションを起こして取り除いたり、事前に見えないような仕組みが入ってくるということは、プラットフォーマーが一番自由度が高いと思うんですね。なので私としては、そういうところに技術を入れていかなきゃいけないと思います。

ユーザーに行動変容を促す「ナッジ」とは

笹原:今では、ちょっとしたナッジのような仕組みを入れると、それだけで十分プラットフォームレベルでスケールするような、人々の行動を変容させるような仕組みも、いくつかあることはあるんですね。

あくまでもユーザーに選択権は残しつつも、そういったナッジや技術をうまくプラットフォームの中に入れていくのが、まずはやることかなと。そのあとで、法による規制が来るのかなと思ってます。

大岩:なるほど。「ナッジ」というのは行動経済学の用語だと思うんですが、少し具体的に「こんな例がある」とか、教えていただいてもよろしいですか?

笹原:実際に、Googleのシンクタンクの「Jigsaw」というところが取り組んでいるものですが、ユーザーが不確かな情報を目にしている時に、情報の正確さにユーザーのアテンションを向けさせるんですね。

例えば、「これはどのくらい正確なのでしょうか。不確かではないでしょうか」というプロンプトを表示するわけです。そうすると注意が向くようになったり、次からユーザーがそういうコンテンツに出会うと、「信じない」とか「拡散しない」という行動が生じやすいことが知られています。

最初『Nature』に掲載された論文で、MIT(マサチューセッツ工科大学)のグループがそういうオンライン実験をやったんですね。基本的な結果を得て、それを今度はJigsawがシステムに導入して、もう少し大規模にやってみたところ、確かにYouTubeでも効果があるし、すごく大きいシステムでも効果があることを検証したわけですね。

そういった、システムレベルで機能するような行動変容の仕組みを入れていくことは重要です。これは、ナッジの実際の例の1つですね。

大岩:なるほど、ありがとうございます。

国によって大きく違う、生成系AIへの見解

大岩:現在進行形で、そういった試みがいろいろ動いているのかなと思うんですけれども、先ほど「規制」のお話が出ましたので、それについてもおうかがいできればと思います。

ちょうどQ&Aのチャットからも、「日本では、政府として積極的にChatGPTを活用しようとしていますが、一方で世界では規制をしようとする動きもあります。利用する上での危険性などがあるとすれば、どんな点があるのでしょうか。また、サービスを利用する・データを提供することについて、どのように考えればいいのでしょうか」というご質問をいただいておりました。

関連して私からもお聞きしたかったことがありまして、ちょうど昨日(2023年4月24日)、EUが生成系AIをEU全体で規制するという方針を明らかにしましたが、特に規制の理由としては、個人情報の保護の問題があるかと思います。

笹原:そうですね。

大岩:そのあたりも含めて、日本で政府として積極的に活用しようとしていることがどうなのか。あるいはその上での危険性、メリット・デメリットなどを教えていただければと思います。

笹原:ヨーロッパはGDPR(EU一般データ保護規則)があるので、個人情報に非常に厳しいです。その観点からすると、とりあえず今のところはブレーキを掛けておかなければいけない、というところはあると思うんですね。

ただ、ずっと掛け続けるかというと、もちろん大きな機会損失になる可能性もあるわけですね。これだけChatGPTが騒がれる理由の1つは、業務の効率性だったり、あるいは我々の想像力をもっと広げることに、これが活用できるとわかったからです。

日本やアメリカだったら、どっちかというと「積極的に活用していこう」という動きがあるわけで、なかなか両極端の態度ではあるんですけれども。

情報漏えいの恐れがある「抜け穴」をどう埋めるか

笹原:利用する上で危険なところがあるとすると、どういうところか。その時に我々がインプットするデータは、非常に機密性が高いものですよね。

そういうものが学習に使われてしまったりすると、非常に問題があるわけなので、そこをOpenAIとやるとか、あるいはGPT系のサービスを運営しているところがどう扱うかが1つの鍵になってくるし、危険性があるとすると、そこにあるかなと思っています。

サービスを提供する・データを提供することについては、先ほど言った点と同じですかね。こちらがデータを提供して、「それが学習に使われてしまっては困る」とか、あるいは「これは使わないでくれ」といったことが、ちゃんと守られるかどうかですよね。

大岩:本日、読売新聞の記事でも先生がコメントされていらっしゃいましたが、機密情報を勝手にデータとして投げていかないということもありますし、あるいは、そうした情報を犯罪などに利用される可能性もありますよね。悪用されないための仕組みを整備するべき、というようなお考えでよろしいですか?

笹原:プロアクティブにはそうだと思いますね。最初に簡単にできることは、“爆弾の作り方”みたいなものは、もちろん伏せなきゃいけないので、そういった知識を引き出せないような仕組みを入れていくとか。

あるいは、やはり言語がインターフェースになっているので、AIを誘導して聞き出すこともできなくはない。ホール(抜け穴)がいっぱいあるわけですね。なので、そのホールをどうやって埋めていくのかは、最初にやっておかなければいけないと思うんですよね。

大岩:ありがとうございます。みなさま、まだまだご質問をお待ちしておりますので、ぜひ送っていただければと思います。

人間が持っている「偏見」はAIに影響する?

大岩:データに関する倫理的側面についてもおうかがいしたいと思います。先ほども“森の仙人”という話をしましたが、これまでのAIは過去のいろんなデータをなめていって、新しく知識として提供してくれる、ということだと思うんですけれども。

過去のデータを参照しているということは、我々の脳にかかっているバイアスが影響してしまうというか、それこそ顔認証で黒人の男性の顔が犯罪率が高く認識されてしまったりといった、倫理面での側面(の問題)もあると思います。

(人間の脳のバイアスと)どう付き合っていけばいい? というご質問だと、少しぼんやりとはしているんですけれども、そういったことについてはどのようにお考えでしょうか。

笹原:そうですね。難しいところで、それはAIに限った問題ではなくて、我々がふだん身の回りで経験することも、結局そういう偏見や偏りを普通に受けているわけですよね。

職業において、「男性のほうがこういう職業に就きやすい」とか、ネットで検索しても、例えばお医者さんや大学の教授というと、男性ばかりが出たりすることもあると思うんです。そういった偏りって、我々の行動の結果として記録に残っているものですよね。

だから、AIそのものの問題というよりは、我々の社会が持っているもともとのバイアスですよね。ただ、AIが何か問いに対して答えて、それを次の自分の行動や意思決定に直接使えるようになる。

しかも、誰もがそういうことができるようになったら、偏見を我々がより増長するようなことをしてしまっているかもしれないし、AIによって自分たちの行動が変わって、それをまたAIが学習すると、より偏見が増幅される方向に行く恐れもあるわけです。

そういった負の連鎖というか、フィードバックループは切っておかないと、ちょっと怖いなというところはあると思います。

生成系AIが、今後の労働環境に及ぼす影響

大岩:それを監視する主体はどこになるかというと、やはりそれはOpenAIだったり、開発元に働きかけていく、というかたちになりますか?

笹原:そこはすごく難しいところですね。フィードバックループは、アルゴリズムの外にあるループですよね。つまり、OpenAIのサービスの外と我々とが作り出しているループなので、OpenAIにすべてを押し付けられるかと言うと、そうではなくて。半分は、我々「使う側」にもあると思うんですね。

使う側が結果を受けて、できるだけ公平性を担保して使うことが重要になってくるので、必ずしもOpenAIやプラットフォーマーだけに押し付けられる問題ではないのかな。やはり半分は、技術を受容する我々の社会や、制度に答えを求めなきゃいけないのかなと思います。

大岩:なるほど。我々も、AIとどのように付き合っていくかを考えなければいけないというお話でしたが、次に、労働環境や社会にどのような影響を及ぼすかについておうかがいしたいです。

今後、生成系AIが普及すると、AIを使用して生産性を高めていく人と、取り残されてしまう人、あるいは国の間で格差が拡大してしまうのかなと思うんですけれども。

このような格差だったり、あるいは倫理面での問題をおさえるためには、例えばプロンプトエンジニアリングという、「ChatGPTにどのような指示を出せば望む答えが得られるか」という技術を義務教育で必須教育化するとか、パソコンが必須科目化したように、AIの科目が教育にも必要になってくるんでしょうか?

笹原:これは、私個人の意見です。今、プロンプトエンジニアが重要だと言われているのは、今のGPT-4ベースのChatGPTで、言語だけから作られた知識になっているので、そのAIが持っている新体制に合う聞き方を人間がしないと、適切に答えが返ってこない。

そういう意味でプロンプトエンジニアリングが必要だと思うんですけれども、そこは変わっていく可能性がありますよね。

AIを使える人・使えない人で分断が起きる可能性

笹原:GPT-4から次のバージョンに変わった時に、今度はセンサーからやってくる情報が入ってくるかもしれないし、実はプロンプトエンジニアリングの時代はそんなに長く続かないのではないかという、個人的な見解です。

ただ、現時点でツールとして使うためには、もちろんある程度「どういう聞き方をしたらいいのか」「AIは、何を学習してからこういう聞き方をするのか」「ゴールに近づけるためには、どういう質問の連鎖をさせればいいのか」とか、ちょっとした使い方は学ぶ必要があるかなと思います。

まず、そういうものが使えるか・使えないかで二分されますよね。例えば、日本だったら、もしかしたら全員が使えるかもしれませんが、後進国はそういうものに対してそもそもアクセスができないということになると、そこでも二分が起きます。

使える国の中でも、すごくクリエイティブな使い方ができる人と、「大学のレポートを書いてください」みたいな使い方しかできない人とで、また二分されるということが起こるので。

できる人はますますできるようになり、あまり上手な使い方ができない人はますますできなくなるという、そこの分断も起こる危険性があるのかなとは思っています。

大岩:その対策というのも、これから考えていかなければいけないのかなと感じました。

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
著者フォローや記事の保存機能など、便利な機能がご利用いただけます。

無料会員登録

会員の方はこちら

関連タグ:

この記事のスピーカー

同じログの記事

コミュニティ情報

Brand Topics

Brand Topics

  • 孫正義氏が「知のゴールドラッシュ」到来と予測する背景 “24時間自分専用AIエージェント”も2〜3年以内に登場する?

人気の記事

人気の記事

新着イベント

ログミーBusinessに
記事掲載しませんか?

イベント・インタビュー・対談 etc.

“編集しない編集”で、
スピーカーの「意図をそのまま」お届け!