2024.10.10
将来は卵1パックの価格が2倍に? 多くの日本人が知らない世界の新潮流、「動物福祉」とは
リンクをコピー
記事をブックマーク
笹原和俊氏(以下、笹原):画像生成AIやディープフェイクが出てくると、当然、フェイクニュースに利用しようという人たちも現れてきます。
これは日本で起こったことですが、静岡で水害があった時に、「ドローンで撮影された様子です」といって、実際に画像生成AIで作った偽画像のツイートが出ました。ものすごく拡散したということではないんですが、ある程度拡散しました。
もし、本当に災害が起きた時にこういうフェイクニュースが流れると、混乱が生じるわけですね。画像生成AIを使うと、数十秒待てば、誰でもこういったものが作れちゃうような時代ですので、フェイクの高度化・大量化が懸念されます。
これまで、機械学習を使ったAIというのは、どちらかというと「識別タイプ」のモデルが多かったんですね。入力があって、学習して、「ある入力はこちらのクラス、ある入力はこのカテゴリー」というふうに、分類するように学習するタイプが多かったんです。
今のAIは(「生成モデル」)。生成AIの「生成」はここから来ているんですが、もともと訓練に使ったデータの特徴を備えた、新しいデータを生成することができるモデルになっているんですね。
入力の前に「確率分布」というある種のモデルがありまして、元の訓練データとそっくりな新しい画像を作ること、データを生成することができる。これが「生成モデル」と言われるものです。
例えば、こういうオートエンコーダみたいに、猫画像を入力して、これと同じ猫画像をもっと少ないユニットで表現できるようにトレーニングすると、実はこのローデータがある知識表現に圧縮されて、これをもとに同じ猫を再現することができるようになる。
こういうことをすると、その画像の特徴を抽出できるようになるんですね。これは一例ですが、こんなふうにして、今のAIはもともとのデータから特徴を抽出して、それを使って画像なり文書なりを生成できるようになっているんですね。
笹原:特にディープフェイクで使われる重要な技術の1つが、「GAN」というやつです。これはGenerative Adversarial Networks、敵対的生成ネットワークと言います。
「生成器」と「識別器」という2つのモジュールがあるんですが、この生成器というのが、あたかも贋作を作る“詐欺師”のような働きをして、どんどん偽物を作っていく。“鑑定士”の識別器のほうは、作られたものをできるだけ見抜けるようにして、お互いに競い合って学習するんですね。
そうすると、最終的には本物か偽物かが見分けがつかないような、本物っぽい画像が生成できるようになるというアーキテクチャーになっています。これは、ディープフェイクの初期のアーキテクチャーとしてよく使われたものです。
その後に、「Stable Diffusion」のような、いわゆる拡散モデルと言われる、また別のタイプのアーキテクチャーの機械学習が出てきました。今日は触れませんけれども、本書で詳しく説明していますので、そちらについてはぜひ読んでいただければと思います。
例えばCycleGANを使うと、馬をシマウマにするという「スタイルの変換」は、ものすごく簡単にできてしまいます。
簡単になったとはいえ、これまでの画像生成AIは、プログラミングだったりコンピューターの知識が必要でした。しかし、今の画像生成AIは、言葉がUI(ユーザーインターフェース)になっているんですね。
だから、言葉によって指示を与える。これを「プロンプト」と言います。私たちの誰もが使える言葉で指示を与えると、それっぽい画像ができる。
例えば、OpenAIが発表している「DALL・E 2(ダリ2)」とか、「Midjourney」。それからこれはオープンソースですが、Stability AIが発表している「Stable Diffusion」。こういった、新しいタイプの画像生成AIが出てきました。まさにこれが、現在の脅威になっているわけです。
笹原:例えば、私の研究室の大学院生が、「FBI organized January 6 Capitol Riot」(FBIが1月6日連邦議会議事堂襲撃を組織)というプロンプトをStable Diffusionに入れて、30秒ぐらい待つわけです。そうすると、本当に議事堂を襲撃しているかのような偽の画像が、このリアリティでできてしまいます。本当に起こっているかのような画像ですよね。
ただ、ちょっとおかしな点があります。みなさんお気づきだと思うんですけれども、(画像右下に)「FIB」と書いてあるんですね。もちろん「FBI」という組織はありますけど、「FIB」という組織はないと思うんです。
少なくとも、このStable Diffusionはそういうことは知っていなくて、今のAIは、時々人間では起こさないような間違いも平気で起こしたりする。
よく「(AIは)人間の脳を模倣している」と言うんですが、そうではなくて。人間とは違ったかたちで、でも、こういう知識を何らかのかたちで自分の中に構造化・組織化している。それが現在のAIだと思います。
ちょっと時間がなくなってきたので、ChatGPTのお話に移っていきます。これも、いわゆる生成系AIの一部なんですが、まさに今、日々新しいサービスが生まれているAIです。
実際にChatGPTに「ChatGPTとは何ですか?」と、尋ねてみました。そうすると、「ChatGPTはOpenAIによって開発されました」「2021年9月までの知識がありますよ」「いろんな質問に答えられますよ」と、ものすごく的確に答えてくれます。
(ChatGPTは)こんなふうに対話に特化したAIですね。自然言語がUIで、対話することができるとか、これまでのWebの集合知を学習しているところに特徴があります。
笹原:実際に、ある研究グループは、ChatGPTを活用して、2時間で論文を執筆したというアナウンスもありました。これは今、査読中ですね。それから中国では、ChatGPTから生成されたニュースが出回ってしまって、フェイクニュース騒ぎが起こったりもしています。
ChatGPTを使った大規模なトラブルやフェイクニュース案件は、まだそこまで出てきていないんですが、これから「ChatGPT×画像生成AI×SNS」ということになると、コンテンツを簡単に作れる。
それを容易に拡散するようなプラットフォームもあるということで、偽ニュースの量産だったり、SNS上で振る舞うような偽のペルソナが現れて、より深刻なフェイクニュースの事件が生じかねないという可能性があります。
この後、質問のコーナーでもおそらく出るかなと思うんですが、ChatGPTに“目”や“手足”、つまりセンサーとかモーターがついた時に、本当の脅威になるのかなと感じています。
今のChatGPTは、あくまでも過去の情報しか参照できないので、センサーやモーターで今の情報が取れるようになった時には、もっと怖いことが起こるのかなと想像しています。
ChatGPTや生成系AIをどういうふうに使っていけばいいのか。これは、大学でもいろいろな立場に分かれています。
笹原:これは本学、東京工業大学の例ですが、我々はどちらかというと「(生成系AIを)積極的に使っていきましょう」という立場をとっていますし、教育担当理事の方もそのようにおっしゃっています。
ここが特に重要だなと思っていて、「学生のみなさんの主体性を信頼し、良識と倫理感に基づいて生成系AIを道具として使いこなすことを期待します」と。そうじゃないと、みなさんがAIに隷属することになりますよ、ということを言っています。
ですので、どういうふうにこういうツールを使っていけばいいのか、どんな問題があるのか。まだ未知なところがありますけれども、できるだけクリエイティブな使い方をしていきたいと思っています。
ディープフェイクは必ずしも負の側面ばかりではなくて、リアルタイム性が高いもの、それから複雑性が高いものに対して、効果的にクリエーションを可能にするツールです。もちろん、ビジネスの文脈でもポジティブな効果をもたらすことは大いに考えられます。
同時に、ディープフェイクの弊害も考えておかなければいけないわけなんですが、インフォカリプス(情報の終焉)に向かわないように、つまり、トラストが失われた、何も信頼できないような世界に向かわないようにしなきゃいけない。
笹原:本物のような偽物が出回り、実害が生じる可能性を下げたいですし、本物と偽物の区別がつかない環境では、偽物を作っているほうこそが得をするという状況も生じがちです。これを「嘘つきの配当」と言うんですが、こういうことにも気をつけなければいけません。
そして何よりも、不確かなUser Generated Content(ユーザー生成コンテンツ)、およびAI Generated Content(AI生成コンテンツ)が混ざるような状況が生じますので、情報生態系が汚染される。我々が住んでいる情報生態系が汚染されることもありますので、それも潜在的な弊害の1つかなと思います。
我々はフェイクメディアに関する研究を続けていて、実際にディープフェイクを見抜くような技術も作っているところです。
執筆の裏話をちょっと述べて終わりにしたいと思うんですが、実はいろいろ苦労をしました。Stable Diffusionが出るまでは本当に書けなくて、なかなか苦労したんですけれども、その話題が出てから、わりと自分で考えてたことがまとまり始めて、一気に書けたところがあります。
この執筆を終えた2022年の大晦日、まさかChatGPTがここまでになるとは思ってなかったというのも、科学者として正直な感想です。ということで、ぜひみなさんご興味がありましたら、本書(『ディープフェイクの衝撃 AI技術がもたらす破壊と創造』)を手に取っていただければと思います。私からは以上で発表を終わりたいと思います。
2024.11.13
週3日働いて年収2,000万稼ぐ元印刷屋のおじさん 好きなことだけして楽に稼ぐ3つのパターン
2024.11.11
自分の「本質的な才能」が見つかる一番簡単な質問 他者から「すごい」と思われても意外と気づかないのが才能
2024.11.13
“退職者が出た時の会社の対応”を従業員は見ている 離職防止策の前に見つめ直したい、部下との向き合い方
2024.11.12
自分の人生にプラスに働く「イライラ」は才能 自分の強みや才能につながる“良いイライラ”を見分けるポイント
2023.03.21
民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?
2024.11.11
気づいたら借金、倒産して身ぐるみを剥がされる経営者 起業に「立派な動機」を求められる恐ろしさ
2024.11.11
「退職代行」を使われた管理職の本音と葛藤 メディアで話題、利用者が右肩上がり…企業が置かれている現状とは
2024.11.18
20名の会社でGoogleの採用を真似するのはもったいない 人手不足の時代における「脱能力主義」のヒント
2024.11.12
先週まで元気だったのに、突然辞める「びっくり退職」 退職代行サービスの影響も?上司と部下の“すれ違い”が起きる原因
2024.11.14
よってたかってハイリスクのビジネスモデルに仕立て上げるステークホルダー 「社会的理由」が求められる時代の起業戦略
2024.11.13
週3日働いて年収2,000万稼ぐ元印刷屋のおじさん 好きなことだけして楽に稼ぐ3つのパターン
2024.11.11
自分の「本質的な才能」が見つかる一番簡単な質問 他者から「すごい」と思われても意外と気づかないのが才能
2024.11.13
“退職者が出た時の会社の対応”を従業員は見ている 離職防止策の前に見つめ直したい、部下との向き合い方
2024.11.12
自分の人生にプラスに働く「イライラ」は才能 自分の強みや才能につながる“良いイライラ”を見分けるポイント
2023.03.21
民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?
2024.11.11
気づいたら借金、倒産して身ぐるみを剥がされる経営者 起業に「立派な動機」を求められる恐ろしさ
2024.11.11
「退職代行」を使われた管理職の本音と葛藤 メディアで話題、利用者が右肩上がり…企業が置かれている現状とは
2024.11.18
20名の会社でGoogleの採用を真似するのはもったいない 人手不足の時代における「脱能力主義」のヒント
2024.11.12
先週まで元気だったのに、突然辞める「びっくり退職」 退職代行サービスの影響も?上司と部下の“すれ違い”が起きる原因
2024.11.14
よってたかってハイリスクのビジネスモデルに仕立て上げるステークホルダー 「社会的理由」が求められる時代の起業戦略