CLOSE

『ChatGPTによって描かれる未来とAI開発の変遷』webセミナー(全8記事)

「GPTが動的な“タスク計画と実行”をする方向に進歩していく」 日本マイクロソフトの蒲生氏が語る、GPTで描かれる未来

ユーザーの立場ではAIネイティブな働き方が身近に迫っており、データサイエンティストやMLエンジニアにとってはGPTを活用した開発を意識する必要が出てくる中、マイクロソフトの取り組みやML開発のパラダイムシフトをご紹介する「ChatGPTによって描かれる未来とAI開発の変遷」。ここで日本マイクロソフト株式会社の蒲生氏が登壇。次に、現時点でのGPTに関するFAQや使用時の工夫と、GPTで描かれる未来について話します。前回はこちらから。

国内でのGPTの導入事例

蒲生弘郷氏:「マイクロソフトがGPTを導入したという話はもういいよ。一般的にはどうなんだ」という話ですが、国内でのGPT導入事例も大変多くなってきています。

パナソニックコネクトさんがChatGPTをAI助手にするというかたちで、いち早くニュースリリースを出していました。それから、最近だとパナソニックさんがそのまま全社的にそれを拡大する流れになっていくようなニュースがあがっていた。

あとは銀行とか、それから特筆すべきところで言うと「弁護士ドットコム」さんみたいに、いわゆる一般企業じゃない領域においてもGPTがどんどん入っていくかたちで、次々にニュースリリースが打たれています。

GPTに期待される用途のマッピング

GPTにいろいろ期待される用途はあると思います。それをマッピングしました。

(スライドを示して)厳密、創造的といったように、厳密な用途を求められるのか創造的な用途を求められるのか、あるいは生活に根付くものなのか仕事に必要なものなのかみたいな感じで、ダーッと一般の事例を見ていきながら私がマッピングをしたものです。

特に左下です。やはりMicrosoft 365から始まったものもけっこうあるので、左下の発想みたいなところはすでにたくさん出回っているようなかたちになっています。

QAボット。いわゆるコールセンターのようなQA対策に使っていくものであったり、Bingのような情報検索。それから教材の作成や要件定義の壁打ちといったところで、仕事で多く使われています。

一方で生活とか創造的な軸については、左下に比べると、やはりまだまだ応用が多くないかなというところもあるので、これからのビジネスをGPTで展開されていくお客さまに関しては、こういったところがブルーオーシャンになってくるのかなというところがあります。

例えば一番創造的なところでいうと、独自のキャラクターを作っていくみたいなところもけっこう魅力的なユースケースかなとは思っています。

例えばRPGゲームで村の中に入っていくと、よく「この村はなんとかという村だ」と言って、いつ話しかけても必ず村の紹介をしてくれるキャラクターとかがいます。ああいう固定のことをしゃべるだけじゃなくて、ユーザーの問いかけに対してキャラクターがよりインタラクティブに返してくれるようになってくると、RPGをやっていても没入感が非常に高くなってくるんじゃないかなみたいなところも、私は非常にワクワクしています。

そういった現実の人間と話しているかのようなコミュニケーションが再現されていくのは、なかなか楽しみな用途かなと思います。

GPTに関するよくあるFAQ

そうした中で、これだけいきなり大ブームになってくると、GPTに関する理解もなかなか追いついていない部分もあるので、ここでFAQについて紹介したいと思います。

よく懸念される「勝手に動き出して、AIが暴走したらどうするんだ?」みたいなところについては、もう理解している方ならわかると思いますが、基本AIは指示がないと動けないんですね。リクエストをあげないと動かない作りになっている。

(とはいえ)バックエンドプログラムと組み合わせてあげれば、あたかもAIとバックエンドプログラムが人間のように振る舞っているみたいな感じに見せることはできます。

(でも)基本的には、AI単体は人間と同じく権限がないとほかのシステムに触りにいけないし、勝手に暴走して『サマーウォーズ』のような事態になるのは、今のAIはできないかたちになっています。

次に、例えば「私と会話した内容は全部学習して覚えてくれているんだよね?」みたいなかたちで、「しゃべった内容が全部取り込まれるんじゃないか」みたいな話が出てきていますが、覚えません。

GPT単体についての会話内容は揮発性になっているので、やり取りした内容は基本的には全部忘れてしまいます。「覚えさせる」という言葉が適切かどうかはさておき、学習させるには、サービス提供者がGPTにFine tuningを明示的に施してあげる必要があります。

したがって、学習されるかどうかは、サービス事業主の意思決定に完全に依存するかたちになるので、会話した内容を取られているんじゃないかどうかは、GPTの技術そのものというよりもサービス事業者がどういう方針を採っているのかを確認してもらえればと思います。

GPTの大きなモデルについては、本家のOpenAI社もマイクロソフトも、後々説明する「Azure」というサービスも、Fine tuningのリソースが今なかなかできないので、事実上、学習できる状態にないところもあります。

マイクロソフト、OpenAIのサービスにかかわらず、言語モデルが学習をするところについては、サービス事業主がどういう取り扱いをしているのかをよく確認することが大事かなと思います。

大きなモデルを学習させるということは非常にお金もかかるし、変なデータを入れてしまうと変なことを口走ってしまうこともあるので、「今はそうそう簡単にFine tuningはできない前提はあるんだな」というところはなんとなくイメージしてもらえればと思います。

3つ目は、「AIが学習したら事実関係を把握するんだよね?」というのもよくある勘違いではあります。事実関係を把握しているわけではありません。

先ほど、生成の過程みたいなところを若干見せましたが、学習においてはモデルがトークンを生成する、パラメーターを更新するだけになります。だから、次に同じ質問をしたら同じ事実関係を必ず返せるということではなくて、違う文脈や問いかけ方をしてみると、また間違えちゃうようなことも起こり得る話です。

なので、学習したら事実関係を把握するみたいなところも1つ、「ちょっと違うんだな」というのは覚えてもらえればと思います。

最後は「人間の仕事を奪うの?」みたいな話だと思いますが、先ほどもあったように、GPT単体は自律性がないです。「指示待ち人間」と言うとなんか役に立たなさそうな感じがして印象が良くないかもしれないんですけれども……。現状はそんなようなかたちにいるので、作業の最終責任を負うのも人間になります。

だから、人間が持っていたいくつもの作業の中のいくつかの作業の割合、例えば8割ぐらいをGPTが担ってくれますので、そこをコントロールしていくのはあくまで人間というかたちになってくる。

「こういうスライド作成も含めて自動でやってくれれば楽なのに」と何度思ったかはわかりませんが、残念ながらこういうところにはまだまだ行き着いていません。

GPTの弱点を理解することで外部ツールを含めて対処ができる

というGPTの弱点を理解しておくと、外部ツールを含めて対処が可能になってきます。GPTの弱点もまとめました。

(スライドを示して)これは後で資料を確認していただく用に作っていますのですべては紹介しません。最新情報やドメイン固有の情報が取れなかったり、正しい答えが決まっていない料理のレシピみたいなところは間違いやすかったり、GPTは計算が苦手というところもありますので。そういったところも意識して外部ツールと連携しながらカバーをしていくのが重要になってくるのかなと。

先ほど出てきたように、「GPTは嘘をつく」というのもかなり言われている部分ではありますが、「嘘をつくのではなく、十分な学習データや参考情報を与えないと正確な回答ができない」ということは理解してもらえればと思います。不正確性みたいなところはどうしても出てしまう部分はありますが、これをカバーするアイデアも、一応いっぱい出てきています。

いくつか紹介すると、まずは正しい情報が記載されているドキュメントとかサイトを併記してあげること。これはBing Chatでもやっていますが、回答を動的生成せずにとか、本当に正解が書いてある場所がわかっているのであれば、そちらを案内するかたちのやり取りも可能になっています。

また先ほどあったように、計算とか最適化など、(GPTが)苦手なロジックは確実にあるので、別に連携をさせて動かせるみたいなところも出てきています。これは3章にて解説します。

最後に取得情報が十分な領域になる用途じゃないケースにおいては、少なくとも事実関係を求められるようなサービス設計をしないような考え方がけっこう大事です。厳密に答えさせたいような考え方の時と、ちょっと創造的なものを作らせたい時とは基本的にはトレードオフというかたちになるので、サービス設計としてどうするのかをよく考えて(使いましょう)。

Microsoft 365においては、Copilot、副操縦士というかたちで、あくまで人間の補助として使ってもらうようなかたちにすると、「最後の10パーセントの確認まで全部自動化できるわけじゃないけれど、90パーセントはやってくれますよ」というかたちでサービス提供ができるようなものになっているので、どう活かしていくのかは、よく理解いただければなと思います。

GPTで描かれる未来

それからタイトルどおりですが、「GPTで描かれる未来」をちょっと想像して書いてみました。

(スライドを示して)我々が2022年末に「ChatGPTすげぇ!」となって世間が騒ぎ出した時にどこで驚いていたのか。

Phase 0は、高度な文章生成ができるよというところに(対して)、まず「これは革命だ」と言っていた。私はこのPhase 0はまだまだ序章であって、これからGPTは徐々にステップを踏んでいきながら新たなステージに進んでいくと考えています。

(進んでいく先の)その1つ目が、情報の集約・出力。まず先だってBing Chatが活用例を見ていたように、我々が情報を探してくる時、今まではソースの情報のサイトみたいなところがいくつか表示されて、それらを探索して見ていって結論を出していくことは人間がやらなければならない内容だった。

というところを、(これからは)基本的にはBing Chatなどを含めてGPTは広くあまねく情報をインプットとしてあげて、問いに対する回答をピンポイントで回答してくれる。膨大な文章から探す行動から解放される可能性があるといったかたちのブレイクスルーが起きていると考えています。

こういった「情報を集約していこう。社内の情報を取り込んでいこう」というアプローチは、Phase 0からPhase 1に当たって先進的にやられている企業さんであれば、今ここの導入に踏み出しているというかたちになっています。ただ、このフェーズはまだまだ続いています。

次は、デジタルツールとの自然言語コミュニケーションができるようになって、それをサービスに活かしていくというところが始まっていくかと思います。

自然言語とプログラム言語の変換がかなり柔軟にできるようになった、レベルが上がったというところで、自然言語からコンピューターやAPIと対話できるようになったという大きな変化が起こっています。これによって、デジタルツールの使い方や手続きを知ることなく実行が可能になってくるというところが見えてくるかなと思います。

いわゆるAIとプログラムを組み合わせてあげることによって、自然言語を通じてデジタルツールとのコミュニケーションがあたかもできているかのようになっていく。これがPhase 2。

そしてPhase 3は、動的なタスク計画と実行。これは入力プロンプトに応じて目的を達成するために、今GPTにタスク計画をさせようという取り組みがなされています。ちょっと前にニュースになっていた、例えば「BabyAGI」とか「Auto-GPT」も、こPhase 3に取り込んでいるようなサービスになっています。

人間が実現プロセスを意識することなくGPTにやりたい目的だけを渡す。そしてやりたいツールだけを渡していくことによって、GPTは考えて、どういう順序でツールを使って、どういう順序でアクセスをしていって、情報を得て、結論を出していけばいいのかを構築してくれるようになっていくという最後のフェーズ。

ここが最後になるかどうかはまた別の話ではありますが……。最後に向かって徐々に徐々に変化をしていくということが、GPTによって描かれる未来かなと思っています。

その結果、近い将来GPTが人間とコミュニケーションを取りながら、あらゆるサービス、AI、それからプログラム、データベースとつながって、自ら考え行動して目的を達成することを実現するサービスが出てくる可能性があります。

これは今、BabyAGIとかAuto-GPTとかがやっているように、まだまだ課題は多いものの、近い将来もしかしたら可能性として出てくる確率が非常に高いというのは、なんとなく念頭に置いておいてもらえればなと思います。

なので、当面、多くの会社はPhase 0、Phase 1をしっかり組み立てていくことが必要になってくるものの、そこから先を見据えていきながらGPT、言語モデルはどうやって人間が生活に活かしていくのかをちょっと念頭に置いてもらえると幸いです。

(次回に続く)

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
著者フォローや記事の保存機能など、便利な機能がご利用いただけます。

無料会員登録

会員の方はこちら

関連タグ:

この記事のスピーカー

同じログの記事

コミュニティ情報

Brand Topics

Brand Topics

  • 今までとこれからで、エンジニアに求められる「スキル」の違い AI時代のエンジニアの未来と生存戦略のカギとは

人気の記事

新着イベント

ログミーBusinessに
記事掲載しませんか?

イベント・インタビュー・対談 etc.

“編集しない編集”で、
スピーカーの「意図をそのまま」お届け!