OpenAIがChatGPTを公開したわけ

徳力基彦氏(以下、徳力):ということで今日のメインテーマの、「僕らはChatGPTをどう使っていけばいいのか」という話をしたいです。まだ自分ごとになっていない方がおられるかもしれないので、僕の昔話をさせていただきます(笑)。

僕は、深津さんが「世界変革の前夜は思ったより静か」というnoteの記事を書いたのを、めちゃめちゃよく覚えているんですよね。

深津貴之氏(以下、深津):去年の8月ぐらいに「これから生成系AIがきて、世の中やばいことになるぞ」みたいなことを書いた記事ですね。

徳力:この時は、入口が画像生成だったんですよね。MidjourneyがはやっていたところにStable Diffusionが出てきて、深津さんの記事のページを軽くスクロールしてもらうといいと思うんですけど。

従来のAIは、「一般に解放すると一般人には良くないことが起こるから解放しないのである」というのが普通のAI開発業者です。

深津:当たり前のことではあるんだけど、このChatGPT含めてAIは、すごくなりすぎるとフェイクニュースだったりリベンジポルノだったり、いろんなものを誰もが作れてしまうような状況になるので。

ちょっと様子を見て「世に公開しないようにします」と言いながら、自分だけ独占して使っていた、みたいな状況だったんですよね。

徳力:それに対して、Stable Diffusionがオープンでこういうサービスを出すんだと言った結果……この記事の段階ではOpenAIは、その独占を守っている側のプレイヤーだったんですよね(笑)。

深津:どちらかというとこのStable Diffusionを出したStability AIという場所が、ロックスターとして、「すべてのAIは人民に解放されて、誰もが使えるべきである。ビッグテックが独占するのはよくない」というようなことを言って、Stable Diffusionという画像生成AIを、オープンソースとしてこの世にぼーんとばらまいたのが、すべてのパンドラの箱のスタート地点ですね。

徳力:当時OpenAIは「DALL-E(ダリ)」という画像生成AIを持っていたんだけど、これでStable Diffusionのほうが、ある意味革命の旗手としてもてはやされた。その結果、今度はOpenAIもChatGPTを……。

深津:オープンにしたし、DALL-Eもオープンにすることになった。いろんな論文とかが出て、もうたぶんこのまま封印をしておくと、新しいテックベンチャーがどんどん先に論文を実装して、どんどん新サービスを作る状況になりかねない。それでどんどんビッグテックが焦り始めたのが去年の年末ぐらいですよね。

AIをオープンにしたい勢力と限定したい勢力の綱引き

徳力:けっこうチャット欄でも(深津氏の記事を)「読みました」というコメントを多くいただいています。僕は正直、当時まだわかっていなかったんですよね。この記事を書く前に、深津さんはずっと画像生成AIで遊んでいたんですよ。めちゃめちゃよく覚えているんですけど、ロボットの画像とかを大量にnoteに上げておられた(笑)。

深津:作った、作った。

徳力:深津さん、何を遊んでるのかなと思ってずっと見ていました(笑)。これ、(ページを)適当にスクロールしていくと、大量にロボットの画像が出てくる。

深津:この頃は画像生成AIをいろいろ実験していた頃です。

徳力:この文脈でStable Diffusionの記事を読んだ時に「そっか、深津さんはそう考えてこういう下調べの勉強をしていたんだ」と思ったんですけど、やはりあの時も、まだ画像生成AIだったので、僕はピンときていなかったんですよね。

今回チャットAIが文章の世界に入ってきたことによって、長文ブロガーの自分としてはがぜんひとごとではない感じがあります(笑)。

深津:僕らとしては、ブログを超書く側ですからね。

徳力:ひょっとしたら半年前の私と同じで、まだChatGPTの話を聞いてもピンときていない方もいるかもしれないですが、これからたぶんピンとくることになると思います。ぜひ今から深津さんの使いこなし術をよく聞いてくださいね、と言いたかっただけですけど。

深津:これは画像AIがどうとか文章AIがどうとかというよりは、今インターネットで起きているのは「AIを民主化するために、ちょっと問題は起きるかもしれないけど全部オープンにして、誰もが触れるようにしようぜ」という勢力と、「AIはちゃんとした人たちによって管理しなければならない」みたいなビッグテックの人たちとで綱引きが起きていて、その堤に穴が開いて、解放派がぶわっと出ていってしまった。

もう今は画像AIがオープンになったし、文章AIもオープンになりつつある気がする。これからビデオもくるし、音楽もくるし、3Dもくるし、全部AIはオープンになりそうな中で、このままクローズドにしていたり封印していたらヤバい、といろんな場所のゲートが開き始めた。Microsoftもやる、Googleもやる、みたいになってきたのが先週ぐらいですか。

徳力:すごいですよね。それを半年前に予言していたんだなとあらためて思います(笑)。僕は半年前にあの記事を読んでいたのに、なんで準備していなかったんだろうという話です。今からでも間に合うと思いますので、ChatGPTをぜひみんなで学んでいきましょう。

なぜ「無難な答え」になりがちなのか

徳力:ということで今日のメインテーマです。「ChatGPTをうまく使うコツ」。冒頭にポイントとなる使い方を3つご紹介いただきましたけれども、具体的にどう使うべきなのかをお聞きしたいと思います。

深津:まず、さっきのおさらいをします。チャットAIは大きな特徴として、手前にある文章に対して、確率上一番ありえそうなことを答える。ここまではOKですか? で、確率上一番ありえそうなものを答えるということは、無難なものを答えるという特徴があります。

なので例えば今「リンゴについて教えて」とChatGPTに聞くと、無難な答えはWikipediaに書いてあるようなことを答えてくれるわけですね。ここまでは先ほどのおさらいになります。

けどリンゴについては、世の中にもっといっぱいいろんな知識があるじゃないですか。今のはフルーツのリンゴでしたけど、ニュートンがリンゴを落としたこともあれば、アダムとイブのお話もあれば、Appleコンピューター、アップル・レコード、椎名林檎、リンゴスター……リンゴスターは違うかもしれないですけど(笑)。

徳力:リンゴスターはリンゴスターですね(笑)。

深津:いろいろなリンゴがある。けれども、ここらへんの知識はAIの持つ無限の可能性の空間の中に埋まったまま、掘り出されないまま、Wikipediaっぽいリンゴだけがすくい出されて答えられているわけですよ。

徳力:でも我々は、ついついああいう質問を最初にChatGPTに投げかけてしまうんですよね。

深津:なので無難な質問をやると、ど真ん中しか返ってこないのと、次の文章が確率で求められることを考えるならば、「宗教におけるリンゴの位置づけとは」みたいに、頭に「宗教における」をつけることで、このAIが答える可能性の空間は「宗教におけるリンゴ」に対して一番確率の高いものになるわけですよね。

徳力:なるほどね。彼(AI)は確率で選んでくるから、その選んでくる場所、可能性空間を限定する。

深津:そうそう、確率の場所を限定することで、この子の持っている無限っぽい知識のどこを引き出すかをコントロールできるわけ。なので「宗教における」と指定すれば、確率上「宗教におけるリンゴ」空間に限定された知識が返ってくるので、(スライドのように)こうなる。

わかりやすくするためにリンゴの空間を「宗教のリンゴ」で区切りましたけれども、これはほかの質問でもいろいろできるわけですね。実例を話すと、最初の例でやりましたけど、「編集者として答えてください」とか「コピーライターとして答えてください」とか。あれもChatGPTが答える空間を、編集者が答えそうな空間に限定しているわけですね。

すべては「確率コントロール」

徳力:今YouTubeのチャット欄でも「ググり力みたいな」とコメントがありますけど、複数語検索みたいな感覚ですよね。まず「ここのエリア」を「宗教」と限定してみたり、「あなたは誰々です」と役割を……。

深津:役割もですけど、これも可能性の空間です。さっき言ったように「この本をレビューしてください」と言うと確率上一番平均的、あるいは確率上一番高いレビューをするので。極論を言うと、単に「レビューして」と言うと、箸にも棒にもかからない普通っぽいレビューをしてくるわけですよ。

徳力:そうか、限定すればするほどおもしろくなるわけですね。

深津:そうそう。「プロフェッショナルなライターとして答えてください」と言うと、もう少し空間が限定されて「プロフェッショナルなライターはこう答えるであろう」ものを答えてくれるんですね。

徳力:今投げかけて答えが見たくなります(笑)。限定の仕方によってけっこう変わりますよね。

深津:けっこう変わりますね。ただモノによります。プロフェッショナルなライターもピンキリだったりするので。もっと限定するんだったら「ピュリッツァー賞を受賞したナショナルジオグラフィックのなんちゃらかんちゃらっぽい」みたいな。

徳力:そういうのも理解するんですね。

深津:例えば「医療論文のなんとかマスターの人としてレビューしてください」と言ったら医療単語とかバリバリの答え方をしてくる。今(スライドに)書いてあるように「小学校の3年生の先生としてレビューしてください」と言ったら、小学3年生がわかるように答えてくれるわけです。

徳力:今YouTubeのチャット欄で「校長、話が長そう」というコメントがあって、確かにそうですね(笑)。そういう職業によってけっこう傾向が変わりそう。

深津:「以下は校長先生の訓示です」とか書いたら、きっと、すっげぇ長いのが返ってくるわけですよね。このように無限の空間を言葉によってどう可能性を切り取って、自分が欲しい答えが確率上最も高く返ってくる文章を考えるかが、ChatGPTを使いこなすすべてです。

ここから先はノウハウがいろいろ出てくるけど、結局すべてはこの「確率コントロールをどうするか」という話です。

逃げ道をなくして追い詰めていくような質問を考える

徳力:ちょっと戻ると、さっきの役割を与えるのが職業を定義するやつで、そのあとにちらっと出てきた「エモいブログのタイトルを」とかが品質の定義。

深津:同じように「ブログのタイトルを教えて」と「エモいブログのタイトルを考えて」と「誰もが無視できなくて見ざるを得なくて、ハートがキュンキュンしちゃうようなブログのタイトルを教えて」だと、可能性空間の限定の仕方が変わってくるわけですね。

徳力:品質軸ですね。文脈とか前提情報を与えるやり方もある。

深津:そうそう、こういうのもあるんですね。例えば「すてきな商品の企画を考えて」と言ったら、「すてきな商品の企画とは」から続く商品企画の可能性は、ビンかもしれないしジュースかもしれないしファミコンかもしれない……の無限から出てくる。

「私はP&Gのマーケターで、新しく出てくる飲料水に対してこう考えています。今期のテーマはこれとこれとこれです。これをもとに商品企画を考えてください」と言うと、可能性の空間がだいぶ限定されるわけですよね。

徳力:すみません、僕はどうしても検索脳だから、質問のほうを考えてしまうんだけど。質問の前の、空間を限定するところも長くていいわけですね。

深津:そうそう。空間を限定するのは、無限にあるところを砂遊びの棒削りみたいに削って削って削って、逃げ道をなくして追い詰めていくような質問を考えていく。

徳力:(笑)。なるほどね。

深津:で、ちょっとでも逃げ道があると、ふわっふわの平均的な回答をかましてくるわけですよ、この子は。

徳力:Googleの検索だと複数語にすればするほど選択肢がビューっと狭くなっていっちゃうイメージですけど、ChatGPTの場合には限定条件をあげればあげるほど回答が豊かになってくる感じですよね。

深津:狭くなる、イコール精度が上がるということですね。

徳力:なるほど、おもしろい。

深津:狭くしすぎると今度は答えられなくなって、まためちゃめちゃになっちゃったりするので、その具合をコントロールする。

空間をどう限定するかが腕の見せ所

徳力:サンプルとして、(スライドの)これが比較ですね。

深津:上がChatGPTに「ChatGPTに対する記事のタイトルを3つ考えて」と聞いたタイトル。下が「魅力的で、SNSで誰もが無視できない強いインパクトでバズりやすいタイトル」を聞いた時。

徳力:「バズりやすい」って伝わるんだ(笑)。

深津:上側の文章で考えると「ブログのタイトルとはこう考えるんです」程度の記事から学んだタイトルをふわっと出してくる。下の文章からだと、きっと「プロマーケターが教えるなんちゃらかんちゃら」みたいな記事とかで学んだものが返ってくるんですよ。

徳力:確かに感嘆符とかが入ってきますもんね(笑)。これは「強い印象でバズりやすいやつ」という、けっこうざっくりした頼み方に見えるんだけれども、ChatGPTには伝わっているわけですよね。

深津:そう。ここで空間をどう限定するかが腕の見せ所ですね。

徳力:なるほど、これは空間を限定している行為なのか。

深津:ここで「心がときめく」とか入れるのか「心が燃えたつ」と入れるのか。そういうふわっとしたのだと出ないから「32文字の」のように限定するのか。どう限定していくか。

徳力:そうか、文字数も指定できるんですよね。

深津:それも空間の限定の仕方ですよね。

徳力:だからヤフトピ職人さんのノウハウとかがインターネット上にあれば、それをもとに13文字のタイトルも作れる。

深津:まぁ「ヤフトピ職人」という単語を知らなかった場合、さっきも言ったように、息をするように嘘をついて確率上適当なものを出してくるので(笑)。

徳力:そうかそうか(笑)。すいません、そこをつい忘れてしまいました。

深津:「Redditのトップなんちゃらが」とか「売れっ子ライターが」とか、絶対知っている単語で空間を切っていったほうがやりやすいかも。

ChatGPTにある言語の壁

徳力:で、「どうしようもなかったら英語で命令しよう」。

深津:これはさっきとは別の確率上の話です。5兆語を勉強しているとはいえ、学習ソースはだいたい英語ですよね。なので日本語で命令して確率上正しい日本語を出させるより、英語で命令して確率上正しい英語の答えを出させてから、DeepLとかで日本語翻訳するほうがちょっと頭が良い(笑)。

徳力:けっこう周りの人はそうしていましたね。この間ファミリーマートのCMOの足立(光)さんと勉強会をやった時にも「英語で聞いたほうがいいよ」と言われました。

深津:イメージ的には中学生と大学生ぐらい、頭の良さが変わるかもしれない。

徳力:今ChatGPTは、世界最速で、2ヶ月で1億アクティブユーザーになったと聞きました。1億と言われたら50人に1人とか60人に1人とかですよね。日本ではそこまで話題になっている気はしないなと思うんですけど、やはり日本語でやってしまうと、僕らがより見くびってしまうんですよね。

深津:これはこれからだんだん大きな社会問題になる。我々日本人が日本語で質問すると、そんなに頭が良くない答えが返ってくる上にそこそこお金が高くて、英語でしゃべれる人が英語で質問すると頭が良い答えが返ってきて、しかもコスト的にお得だったりするので。

誰もがAIを使って対話をする時代になった時、大きな社会問題として「英語でしゃべっている人は頭がいい相棒がつく」「日本語でしゃべっている人は頭が悪い相棒がつく」ことになるので。

AIで人の生産性にレバレッジがつけばつくほど、英語の人のレバレッジは100倍、日本語の人のレバレッジは2倍、みたいになってしまうかもしれない。ただこれは、今のAIがそのまま続いた場合ですね。逆に誰かがすごく頭がいい翻訳AIを出してくれたら、差がつかなくなる未来もあるかもしれない。

徳力:その未来もありますよね。今コメント欄でも「DeepLに任せます」というコメントが。すみません、僕、世界の人口はまだ60億人ぐらいだと思ったんですけど、80億人でしたね(笑)。80人に1人ですね。

深津:けどすごく引いた見方をすると、翻訳を挟んだ場合、翻訳をするための通信レスポンスと通信代がかかる。やはり英語のAIとネイティブ相棒になれる人と、日本語AIでできる人は……。

将来「10億語を使って考えて、仮説を立てて答えを出す」ことを誰もがやる時に、アメリカ人がバーっと英語で10億語、頭の中で考えて出した答えと、日本人が10億語を1回翻訳を挟みながら答えを出した時で、答える速さや生産性が大きく変わってしまうかもしれない。これは我々が乗り越えないといけない、大きな課題になるのではないかなと考えています。

徳力:ちょっとその話は、今日深掘りすると悲しい方向にいってしまいそうなので、それは1回忘れて……(笑)。

深津:これはもうSF1本書けるぐらいのテンションの、デカいテーマですね。今の話は、未来への宿題ですね。