CLOSE

ChatGPTとディープフェイクの衝撃―AI技術がもたらす破壊と創造(全4記事)

ChatGPTに“目と手足”が備わった時、本当の脅威が訪れる? 生成系AIの功罪と、適切に使いこなすために大切なこと

昨今、ChatGPTが注目を集めており、AIの発展に対する期待感が高まる中、ディープフェイク技術の悪用など、情報認識や社会への影響が懸念される側面もあります。そこで今回は、計算社会科学者の笹原和俊氏の著書『ディープフェイクの衝撃―AI技術がもたらす破壊と創造』のエッセンスをもとに、AI技術が今後もたらすインパクトについて考察。本記事では、ディープフェイクの影響を踏まえた上で、生成系AIをどのように使っていけばいいのか、笹原氏が解説します。

災害時に拡散された“偽画像”のフェイクニュース

笹原和俊氏(以下、笹原):画像生成AIやディープフェイクが出てくると、当然、フェイクニュースに利用しようという人たちも現れてきます。

これは日本で起こったことですが、静岡で水害があった時に、「ドローンで撮影された様子です」といって、実際に画像生成AIで作った偽画像のツイートが出ました。ものすごく拡散したということではないんですが、ある程度拡散しました。

もし、本当に災害が起きた時にこういうフェイクニュースが流れると、混乱が生じるわけですね。画像生成AIを使うと、数十秒待てば、誰でもこういったものが作れちゃうような時代ですので、フェイクの高度化・大量化が懸念されます。

これまで、機械学習を使ったAIというのは、どちらかというと「識別タイプ」のモデルが多かったんですね。入力があって、学習して、「ある入力はこちらのクラス、ある入力はこのカテゴリー」というふうに、分類するように学習するタイプが多かったんです。

今のAIは(「生成モデル」)。生成AIの「生成」はここから来ているんですが、もともと訓練に使ったデータの特徴を備えた、新しいデータを生成することができるモデルになっているんですね。

入力の前に「確率分布」というある種のモデルがありまして、元の訓練データとそっくりな新しい画像を作ること、データを生成することができる。これが「生成モデル」と言われるものです。

例えば、こういうオートエンコーダみたいに、猫画像を入力して、これと同じ猫画像をもっと少ないユニットで表現できるようにトレーニングすると、実はこのローデータがある知識表現に圧縮されて、これをもとに同じ猫を再現することができるようになる。

こういうことをすると、その画像の特徴を抽出できるようになるんですね。これは一例ですが、こんなふうにして、今のAIはもともとのデータから特徴を抽出して、それを使って画像なり文書なりを生成できるようになっているんですね。

言葉で指示するだけで「それっぽい画像」ができる

笹原:特にディープフェイクで使われる重要な技術の1つが、「GAN」というやつです。これはGenerative Adversarial Networks、敵対的生成ネットワークと言います。

「生成器」と「識別器」という2つのモジュールがあるんですが、この生成器というのが、あたかも贋作を作る“詐欺師”のような働きをして、どんどん偽物を作っていく。“鑑定士”の識別器のほうは、作られたものをできるだけ見抜けるようにして、お互いに競い合って学習するんですね。

そうすると、最終的には本物か偽物かが見分けがつかないような、本物っぽい画像が生成できるようになるというアーキテクチャーになっています。これは、ディープフェイクの初期のアーキテクチャーとしてよく使われたものです。

その後に、「Stable Diffusion」のような、いわゆる拡散モデルと言われる、また別のタイプのアーキテクチャーの機械学習が出てきました。今日は触れませんけれども、本書で詳しく説明していますので、そちらについてはぜひ読んでいただければと思います。

例えばCycleGANを使うと、馬をシマウマにするという「スタイルの変換」は、ものすごく簡単にできてしまいます。

簡単になったとはいえ、これまでの画像生成AIは、プログラミングだったりコンピューターの知識が必要でした。しかし、今の画像生成AIは、言葉がUI(ユーザーインターフェース)になっているんですね。

だから、言葉によって指示を与える。これを「プロンプト」と言います。私たちの誰もが使える言葉で指示を与えると、それっぽい画像ができる。

例えば、OpenAIが発表している「DALL・E 2(ダリ2)」とか、「Midjourney」。それからこれはオープンソースですが、Stability AIが発表している「Stable Diffusion」。こういった、新しいタイプの画像生成AIが出てきました。まさにこれが、現在の脅威になっているわけです。

AIは、人間の脳を模倣しているわけではない

笹原:例えば、私の研究室の大学院生が、「FBI organized January 6 Capitol Riot」(FBIが1月6日連邦議会議事堂襲撃を組織)というプロンプトをStable Diffusionに入れて、30秒ぐらい待つわけです。そうすると、本当に議事堂を襲撃しているかのような偽の画像が、このリアリティでできてしまいます。本当に起こっているかのような画像ですよね。

ただ、ちょっとおかしな点があります。みなさんお気づきだと思うんですけれども、(画像右下に)「FIB」と書いてあるんですね。もちろん「FBI」という組織はありますけど、「FIB」という組織はないと思うんです。

少なくとも、このStable Diffusionはそういうことは知っていなくて、今のAIは、時々人間では起こさないような間違いも平気で起こしたりする。

よく「(AIは)人間の脳を模倣している」と言うんですが、そうではなくて。人間とは違ったかたちで、でも、こういう知識を何らかのかたちで自分の中に構造化・組織化している。それが現在のAIだと思います。

ちょっと時間がなくなってきたので、ChatGPTのお話に移っていきます。これも、いわゆる生成系AIの一部なんですが、まさに今、日々新しいサービスが生まれているAIです。

実際にChatGPTに「ChatGPTとは何ですか?」と、尋ねてみました。そうすると、「ChatGPTはOpenAIによって開発されました」「2021年9月までの知識がありますよ」「いろんな質問に答えられますよ」と、ものすごく的確に答えてくれます。

(ChatGPTは)こんなふうに対話に特化したAIですね。自然言語がUIで、対話することができるとか、これまでのWebの集合知を学習しているところに特徴があります。

ChatGPTの“本当の脅威”が訪れる時

笹原:実際に、ある研究グループは、ChatGPTを活用して、2時間で論文を執筆したというアナウンスもありました。これは今、査読中ですね。それから中国では、ChatGPTから生成されたニュースが出回ってしまって、フェイクニュース騒ぎが起こったりもしています。

ChatGPTを使った大規模なトラブルやフェイクニュース案件は、まだそこまで出てきていないんですが、これから「ChatGPT×画像生成AI×SNS」ということになると、コンテンツを簡単に作れる。

それを容易に拡散するようなプラットフォームもあるということで、偽ニュースの量産だったり、SNS上で振る舞うような偽のペルソナが現れて、より深刻なフェイクニュースの事件が生じかねないという可能性があります。

この後、質問のコーナーでもおそらく出るかなと思うんですが、ChatGPTに“目”や“手足”、つまりセンサーとかモーターがついた時に、本当の脅威になるのかなと感じています。

今のChatGPTは、あくまでも過去の情報しか参照できないので、センサーやモーターで今の情報が取れるようになった時には、もっと怖いことが起こるのかなと想像しています。

ChatGPTや生成系AIをどういうふうに使っていけばいいのか。これは、大学でもいろいろな立場に分かれています。

生成系AIをどのように使っていくか

笹原:これは本学、東京工業大学の例ですが、我々はどちらかというと「(生成系AIを)積極的に使っていきましょう」という立場をとっていますし、教育担当理事の方もそのようにおっしゃっています。

ここが特に重要だなと思っていて、「学生のみなさんの主体性を信頼し、良識と倫理感に基づいて生成系AIを道具として使いこなすことを期待します」と。そうじゃないと、みなさんがAIに隷属することになりますよ、ということを言っています。

ですので、どういうふうにこういうツールを使っていけばいいのか、どんな問題があるのか。まだ未知なところがありますけれども、できるだけクリエイティブな使い方をしていきたいと思っています。

ディープフェイクは必ずしも負の側面ばかりではなくて、リアルタイム性が高いもの、それから複雑性が高いものに対して、効果的にクリエーションを可能にするツールです。もちろん、ビジネスの文脈でもポジティブな効果をもたらすことは大いに考えられます。

同時に、ディープフェイクの弊害も考えておかなければいけないわけなんですが、インフォカリプス(情報の終焉)に向かわないように、つまり、トラストが失われた、何も信頼できないような世界に向かわないようにしなきゃいけない。

情報生態系の“汚染”も弊害の1つ

笹原:本物のような偽物が出回り、実害が生じる可能性を下げたいですし、本物と偽物の区別がつかない環境では、偽物を作っているほうこそが得をするという状況も生じがちです。これを「嘘つきの配当」と言うんですが、こういうことにも気をつけなければいけません。

そして何よりも、不確かなUser Generated Content(ユーザー生成コンテンツ)、およびAI Generated Content(AI生成コンテンツ)が混ざるような状況が生じますので、情報生態系が汚染される。我々が住んでいる情報生態系が汚染されることもありますので、それも潜在的な弊害の1つかなと思います。

我々はフェイクメディアに関する研究を続けていて、実際にディープフェイクを見抜くような技術も作っているところです。

執筆の裏話をちょっと述べて終わりにしたいと思うんですが、実はいろいろ苦労をしました。Stable Diffusionが出るまでは本当に書けなくて、なかなか苦労したんですけれども、その話題が出てから、わりと自分で考えてたことがまとまり始めて、一気に書けたところがあります。

この執筆を終えた2022年の大晦日、まさかChatGPTがここまでになるとは思ってなかったというのも、科学者として正直な感想です。ということで、ぜひみなさんご興味がありましたら、本書(『ディープフェイクの衝撃 AI技術がもたらす破壊と創造』)を手に取っていただければと思います。私からは以上で発表を終わりたいと思います。

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
著者フォローや記事の保存機能など、便利な機能がご利用いただけます。

無料会員登録

会員の方はこちら

関連タグ:

この記事のスピーカー

同じログの記事

コミュニティ情報

Brand Topics

Brand Topics

  • 大変な現場作業も「動画を撮るだけ」で一瞬で完了 労働者不足のインフラ管理を変える、急成長スタートアップの挑戦 

人気の記事

新着イベント

ログミーBusinessに
記事掲載しませんか?

イベント・インタビュー・対談 etc.

“編集しない編集”で、
スピーカーの「意図をそのまま」お届け!