2024.10.21
お互い疑心暗鬼になりがちな、経営企画と事業部の壁 組織に「分断」が生まれる要因と打開策
リンクをコピー
記事をブックマーク
大岩央氏(以下、大岩):では、ここから質疑応答に入りたいと思いますが、参加者の方からのご質問をお待ちしている間に、私からいくつかお尋ねをしたいと思います。
先生の『ディープフェイクの衝撃』という本を拝読しまして、また、この数ヶ月の間に、ChatGPTの話題であるとか、かなりいろんな記事を読んで思ったことなんですけれども。
結局、生成系AIというのは、言ってみれば“森の仙人”のようなものなのかなと。あとは、“頭のいいインターン大学生”という、その両方の側面があるのかなと思いました。
森の仙人は、森の奥深く、つまりネットというたくさんの情報の森の中に住んでいて、「これってどうなの?」と聞くと、「実は昔にこういうことがあってだな……」というふうに教えてくれるような存在なのかなと感じたんですが、そういう理解でよろしいですか?
笹原和俊氏(以下、笹原):イメージとしてはそれに近いと思いますね。「森の仙人」という言い方なのか、私の感覚だと「パーソナルアシスタント」的なものだと思うんですよね。
おっしゃるとおり、これまでのWebにある、我々が言語表出してきた集合知を全部学んだ、ある種“仙人”なわけでね。
私たちが言葉で問いかけをすると、それについて答えてくれるんだけど、ちょっと頼りない仙人で、たまに知らないこともあって、嘘を言ったりとかもする。でも、気軽にサードオピニオンを聞けるような、そういう存在だと思います。
それは、我々が過去にアウトプットしてきたデータそのものなので、そういう意味では、我々と対話しているということでもあると思う。
笹原:ただ、あくまでもデータはすべて過去のデータなので、それがChatGPTの限界でもあると思うんですよね。
なので、ChatGPTの次に来るものは何かを考えると、ChatGPTに“目”とか“手足”、つまりセンサーやアクチュエーターがくっついて、AIが自分で身体性・能動性を獲得する。
そういうことがあれば、例えばカメラを自分で切り替えて使えるとか、マイクを自分で使えるとか、あるいはロボットみたいに足で自律的に動けると、もっと能力は拡大します。その時に、本当の脅威が来るのかなということは想像しています。
大岩:事前に寄せられたご質問でも、「AIの次に来るものは何だと思いますか?」というものがあったんですが、言ってみればアンドロイドのような、生成系AIの頭脳を持ち、さらにセンサーやマイクや足まで持っているような存在も想像できるという話ですよね。
笹原:そうですね。人工知能の研究の一部に「人工生命」という研究もあるんですが、つまり、生命のような振る舞いをする人工物ですね。おそらく、そういうものに近づいていくのかなという気はしますし、もうその方向を目指すのは必然なのかなと思います。
やはり、今のChatGPTのアーキテクチャだけで汎用的なAIに行くというのは、なかなか難しいんじゃないかという研究者の意見もありまして。じゃあ、何か足りないものがあるとするならば、「今の情報を自分で取ってこれる能力」だと思ったりするんですね。なので、そちらの方向に技術が発展するのは自然なのかなと思っています。
大岩:なんというか、ちょっと戦慄するような未来を想像してしまうんですが、少し未来のお話になってしまったので、これからは現在の話に戻りたいと思います。
大岩:先ほど、フェイクニュースのお話や、静岡県の水害のフェイク画像のお話も出ました。これまでは日本語の障壁もあって、アメリカなどに比べると、日本ではフェイクニュースやフェイク画像が社会問題になる可能性は低いと言われてきたと思います。
ただ、生成系AIが登場したことによって、こうした状況に変化が起きるのではないかということは、先生も言われていたかと思います。
その時に考えなければいけないのは、フェイクニュースやディープフェイク画像の検証や、規制をする方法であるとか、どこが主体であるかというところかと思うんです。
ちょっと素人考えなんですが、どこが規制をするのかと考えた時に、民間企業、例えばメディアや報道機関が主体になってやるとすると、経済合理性の問題というか、「やってもお金儲けにはならないだろう」という問題があります。
じゃあ、国家がするのかというと、ある程度はしなければいけないんでしょうが、表現の自由を規制することにもつながりかねないという問題があるのではないかと思います。
最後にプラットフォーマー自身が検閲するのか? という可能性があると思いますし、Googleなどではすでに一部実践もされていますが、私企業の内部でどのくらいちゃんとやっているのかという、透明性の担保の問題もあるのかなと考えております。
大岩:フェイクニュースやディープフェイク画像をどういうふうに検証・規制をしていくのかという方法や、どこが担うのかという主体について、お考えをお聞かせいただければと思います。
笹原:すごく重要な問題だと思います。なかなか難しいのは、おっしゃるとおり表現の自由の問題があるので、国家がそこに強く介入するわけにもいかないでしょうし、営利団体、企業までそういうものに着手できるのか。
そもそもインセンティブが湧くのか? ということもありますので、特にエフェクティブ(効果的)にこういう問題を制限しようと思った時に、どこに一番介入できる余地があるかというと、私はプラットフォーマーだと思っているんですね。
プラットフォーマーは、これだけのコンテンツを配信する場を提供しているわけなので、そういう人たちに対してずっと使い続けてもらわなければいけないと思うんですね。その場合に何が大事になるかというと、「信頼」ですよね。
プラットフォームでしっかりとした情報が流れています。あるいは、フェイクニュースが出た時には、きちんとそれに対してアクションを起こして取り除いたり、事前に見えないような仕組みが入ってくるということは、プラットフォーマーが一番自由度が高いと思うんですね。なので私としては、そういうところに技術を入れていかなきゃいけないと思います。
笹原:今では、ちょっとしたナッジのような仕組みを入れると、それだけで十分プラットフォームレベルでスケールするような、人々の行動を変容させるような仕組みも、いくつかあることはあるんですね。
あくまでもユーザーに選択権は残しつつも、そういったナッジや技術をうまくプラットフォームの中に入れていくのが、まずはやることかなと。そのあとで、法による規制が来るのかなと思ってます。
大岩:なるほど。「ナッジ」というのは行動経済学の用語だと思うんですが、少し具体的に「こんな例がある」とか、教えていただいてもよろしいですか?
笹原:実際に、Googleのシンクタンクの「Jigsaw」というところが取り組んでいるものですが、ユーザーが不確かな情報を目にしている時に、情報の正確さにユーザーのアテンションを向けさせるんですね。
例えば、「これはどのくらい正確なのでしょうか。不確かではないでしょうか」というプロンプトを表示するわけです。そうすると注意が向くようになったり、次からユーザーがそういうコンテンツに出会うと、「信じない」とか「拡散しない」という行動が生じやすいことが知られています。
最初『Nature』に掲載された論文で、MIT(マサチューセッツ工科大学)のグループがそういうオンライン実験をやったんですね。基本的な結果を得て、それを今度はJigsawがシステムに導入して、もう少し大規模にやってみたところ、確かにYouTubeでも効果があるし、すごく大きいシステムでも効果があることを検証したわけですね。
そういった、システムレベルで機能するような行動変容の仕組みを入れていくことは重要です。これは、ナッジの実際の例の1つですね。
大岩:なるほど、ありがとうございます。
大岩:現在進行形で、そういった試みがいろいろ動いているのかなと思うんですけれども、先ほど「規制」のお話が出ましたので、それについてもおうかがいできればと思います。
ちょうどQ&Aのチャットからも、「日本では、政府として積極的にChatGPTを活用しようとしていますが、一方で世界では規制をしようとする動きもあります。利用する上での危険性などがあるとすれば、どんな点があるのでしょうか。また、サービスを利用する・データを提供することについて、どのように考えればいいのでしょうか」というご質問をいただいておりました。
関連して私からもお聞きしたかったことがありまして、ちょうど昨日(2023年4月24日)、EUが生成系AIをEU全体で規制するという方針を明らかにしましたが、特に規制の理由としては、個人情報の保護の問題があるかと思います。
笹原:そうですね。
大岩:そのあたりも含めて、日本で政府として積極的に活用しようとしていることがどうなのか。あるいはその上での危険性、メリット・デメリットなどを教えていただければと思います。
笹原:ヨーロッパはGDPR(EU一般データ保護規則)があるので、個人情報に非常に厳しいです。その観点からすると、とりあえず今のところはブレーキを掛けておかなければいけない、というところはあると思うんですね。
ただ、ずっと掛け続けるかというと、もちろん大きな機会損失になる可能性もあるわけですね。これだけChatGPTが騒がれる理由の1つは、業務の効率性だったり、あるいは我々の想像力をもっと広げることに、これが活用できるとわかったからです。
日本やアメリカだったら、どっちかというと「積極的に活用していこう」という動きがあるわけで、なかなか両極端の態度ではあるんですけれども。
笹原:利用する上で危険なところがあるとすると、どういうところか。その時に我々がインプットするデータは、非常に機密性が高いものですよね。
そういうものが学習に使われてしまったりすると、非常に問題があるわけなので、そこをOpenAIとやるとか、あるいはGPT系のサービスを運営しているところがどう扱うかが1つの鍵になってくるし、危険性があるとすると、そこにあるかなと思っています。
サービスを提供する・データを提供することについては、先ほど言った点と同じですかね。こちらがデータを提供して、「それが学習に使われてしまっては困る」とか、あるいは「これは使わないでくれ」といったことが、ちゃんと守られるかどうかですよね。
大岩:本日、読売新聞の記事でも先生がコメントされていらっしゃいましたが、機密情報を勝手にデータとして投げていかないということもありますし、あるいは、そうした情報を犯罪などに利用される可能性もありますよね。悪用されないための仕組みを整備するべき、というようなお考えでよろしいですか?
笹原:プロアクティブにはそうだと思いますね。最初に簡単にできることは、“爆弾の作り方”みたいなものは、もちろん伏せなきゃいけないので、そういった知識を引き出せないような仕組みを入れていくとか。
あるいは、やはり言語がインターフェースになっているので、AIを誘導して聞き出すこともできなくはない。ホール(抜け穴)がいっぱいあるわけですね。なので、そのホールをどうやって埋めていくのかは、最初にやっておかなければいけないと思うんですよね。
大岩:ありがとうございます。みなさま、まだまだご質問をお待ちしておりますので、ぜひ送っていただければと思います。
大岩:データに関する倫理的側面についてもおうかがいしたいと思います。先ほども“森の仙人”という話をしましたが、これまでのAIは過去のいろんなデータをなめていって、新しく知識として提供してくれる、ということだと思うんですけれども。
過去のデータを参照しているということは、我々の脳にかかっているバイアスが影響してしまうというか、それこそ顔認証で黒人の男性の顔が犯罪率が高く認識されてしまったりといった、倫理面での側面(の問題)もあると思います。
(人間の脳のバイアスと)どう付き合っていけばいい? というご質問だと、少しぼんやりとはしているんですけれども、そういったことについてはどのようにお考えでしょうか。
笹原:そうですね。難しいところで、それはAIに限った問題ではなくて、我々がふだん身の回りで経験することも、結局そういう偏見や偏りを普通に受けているわけですよね。
職業において、「男性のほうがこういう職業に就きやすい」とか、ネットで検索しても、例えばお医者さんや大学の教授というと、男性ばかりが出たりすることもあると思うんです。そういった偏りって、我々の行動の結果として記録に残っているものですよね。
だから、AIそのものの問題というよりは、我々の社会が持っているもともとのバイアスですよね。ただ、AIが何か問いに対して答えて、それを次の自分の行動や意思決定に直接使えるようになる。
しかも、誰もがそういうことができるようになったら、偏見を我々がより増長するようなことをしてしまっているかもしれないし、AIによって自分たちの行動が変わって、それをまたAIが学習すると、より偏見が増幅される方向に行く恐れもあるわけです。
そういった負の連鎖というか、フィードバックループは切っておかないと、ちょっと怖いなというところはあると思います。
大岩:それを監視する主体はどこになるかというと、やはりそれはOpenAIだったり、開発元に働きかけていく、というかたちになりますか?
笹原:そこはすごく難しいところですね。フィードバックループは、アルゴリズムの外にあるループですよね。つまり、OpenAIのサービスの外と我々とが作り出しているループなので、OpenAIにすべてを押し付けられるかと言うと、そうではなくて。半分は、我々「使う側」にもあると思うんですね。
使う側が結果を受けて、できるだけ公平性を担保して使うことが重要になってくるので、必ずしもOpenAIやプラットフォーマーだけに押し付けられる問題ではないのかな。やはり半分は、技術を受容する我々の社会や、制度に答えを求めなきゃいけないのかなと思います。
大岩:なるほど。我々も、AIとどのように付き合っていくかを考えなければいけないというお話でしたが、次に、労働環境や社会にどのような影響を及ぼすかについておうかがいしたいです。
今後、生成系AIが普及すると、AIを使用して生産性を高めていく人と、取り残されてしまう人、あるいは国の間で格差が拡大してしまうのかなと思うんですけれども。
このような格差だったり、あるいは倫理面での問題をおさえるためには、例えばプロンプトエンジニアリングという、「ChatGPTにどのような指示を出せば望む答えが得られるか」という技術を義務教育で必須教育化するとか、パソコンが必須科目化したように、AIの科目が教育にも必要になってくるんでしょうか?
笹原:これは、私個人の意見です。今、プロンプトエンジニアが重要だと言われているのは、今のGPT-4ベースのChatGPTで、言語だけから作られた知識になっているので、そのAIが持っている新体制に合う聞き方を人間がしないと、適切に答えが返ってこない。
そういう意味でプロンプトエンジニアリングが必要だと思うんですけれども、そこは変わっていく可能性がありますよね。
笹原:GPT-4から次のバージョンに変わった時に、今度はセンサーからやってくる情報が入ってくるかもしれないし、実はプロンプトエンジニアリングの時代はそんなに長く続かないのではないかという、個人的な見解です。
ただ、現時点でツールとして使うためには、もちろんある程度「どういう聞き方をしたらいいのか」「AIは、何を学習してからこういう聞き方をするのか」「ゴールに近づけるためには、どういう質問の連鎖をさせればいいのか」とか、ちょっとした使い方は学ぶ必要があるかなと思います。
まず、そういうものが使えるか・使えないかで二分されますよね。例えば、日本だったら、もしかしたら全員が使えるかもしれませんが、後進国はそういうものに対してそもそもアクセスができないということになると、そこでも二分が起きます。
使える国の中でも、すごくクリエイティブな使い方ができる人と、「大学のレポートを書いてください」みたいな使い方しかできない人とで、また二分されるということが起こるので。
できる人はますますできるようになり、あまり上手な使い方ができない人はますますできなくなるという、そこの分断も起こる危険性があるのかなとは思っています。
大岩:その対策というのも、これから考えていかなければいけないのかなと感じました。
2024.11.13
週3日働いて年収2,000万稼ぐ元印刷屋のおじさん 好きなことだけして楽に稼ぐ3つのパターン
2024.11.21
40代〜50代の管理職が「部下を承認する」のに苦戦するわけ 職場での「傷つき」をこじらせた世代に必要なこと
2024.11.20
成果が目立つ「攻めのタイプ」ばかり採用しがちな職場 「優秀な人材」を求める人がスルーしているもの
2024.11.20
「元エースの管理職」が若手営業を育てる時に陥りがちな罠 順調なチーム・苦戦するチームの違いから見る、育成のポイント
2024.11.11
自分の「本質的な才能」が見つかる一番簡単な質問 他者から「すごい」と思われても意外と気づかないのが才能
2023.03.21
民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?
2024.11.18
20名の会社でGoogleの採用を真似するのはもったいない 人手不足の時代における「脱能力主義」のヒント
2024.11.19
がんばっているのに伸び悩む営業・成果を出す営業の違い 『無敗営業』著者が教える、つい陥りがちな「思い込み」の罠
2024.11.13
“退職者が出た時の会社の対応”を従業員は見ている 離職防止策の前に見つめ直したい、部下との向き合い方
2024.11.15
好きなことで起業、赤字を膨らませても引くに引けない理由 倒産リスクが一気に高まる、起業でありがちな失敗