セッションの留意点

山下鎮寛氏:ただいま紹介いただきました、アルプの山下と申します。本日はどうぞよろしくお願いします。

今回のセミナーのタイトルですが、「ChatGPTが変えるコーポレートIT:具体的なユースケースと実装例」と銘打たせています。実際に本日お話しする内容ですが、ChatGPTをはじめとしたLLMを使ったことによって、コーポレートIT業務を効率化するための話をできればと考えています。

事前に留意点についてもお話ししたいと思います。今回は「コーポレートIT」と呼んでいるんですが、実際にはDXの文脈であったり、ビジネスITと呼ばれる領域も含んでいます。狭義のコーポレートITというよりは、非常に広い意味でのコーポレートITであったり、あとは情シスの方であったり、CIOの方が見る領域全般といったものを含んでいるということをお伝えしておきます。

また、今日お話ししないことについても事前に伝えられればと思っています。一部触れる内容も当然あるんですが、趣旨ではないという意味で触れないと書いています。

まずは、歴史とか技術的な背景といった部分です。OpenAI社の成り立ちだったり、イーロン・マスク氏との関係などは非常におもしろいトピックではあるんですが、これだけでもう20分、30分使ってしまう、かつ実務上は正直そんなに大きな影響がないというところで省略します。

また、モデルがどういうふうに進化していったのかだったり、そもそもどういった技術的な特異点があるのかという技術的な進化の詳細も非常におもしろいトピックではあるんですが、こちらも終わらせるためには1時間では収まらないぐらいになってしまうので、興味のある方は教えてもらえれば、よくまとまっているサイトなどもあるので、ご教示します。ぜひ気軽にお声掛けください。

もう1つ、ニュースについても今回先ほど中野さん(中野仁氏)と控えトークで少しお話ししたんですが、この領域は本当に日進月歩で玉石混交でもあるという状態で、日々多くのニュースが飛び交っている。

例えば「AutoGPT」とか、日本特化のLLMとか。あとは「ChatGPT搭載のSaaSが生まれました」とか、そういうニュースが日々出ているんですが、正直これらのキャッチアップだけでも時間を浪費してしまうような状態です。

ちなみに私もこのニュース(を追うの)が大変だったということで小話なんですが、今朝、ChatGPTさんが新しい機能を提供しました。今までChat UIで入力したプロンプトはすべて学習されていたんですが、これをオプトアウトできる機能がリリースされました。それによって、私が作り上げてきた資料の構成をだいぶ変えなければいけなくなってしまった。

そんなかたちで、本当にこの領域は日進月歩というところで、今日お伝えする内容もどんどん変わっていくと思います。実際にニュースだけを伝えてもなかなか全体感がつかめなかったり、実務に活かすことは難しいのかなというところで、今回はニュースについても省いています。

最後にTips系というところ。細かなPrompt Engineeringで、例えば「ステップバイステップで考えて」とか、どのようなテキストを投げることによって精緻な回答を得られるのかというところであったり、欲しい回答結果を得られるのかという内容ですが、こちらもニーズは非常にあると思いつつ、泣く泣く省きました。

今回はとにかく大きな方向性だったり、コーポレートITでどう取り扱うべきなのかであったり、ユースケースにフォーカス(してお話し)できればと思っています。

山下氏の自己紹介

本題に移る前に、まず自己紹介を最初にできればと思っています。あらためて、私はアルプ株式会社の山下鎮寛と申します。よろしくお願いします。キャリアとしては、もともとWeb企業で事業開発だったりプロダクトマネージャーをやっていました。

中でもヤフー時代に、マーケットインテリジェンスというちょっと変わった仕事をしていました。これはヤフーの経営陣やソフトバンクの経営陣のメンバーに対して、世界中で今どのような新技術が生まれているのか、新しいサービスが生まれているのか。それが自社であったり、ソフトバンクグループに対してどのような影響があるのかをレポーティングする部署でした。

この部署は『シン・ニホン』とか『イシューからはじめよ』で有名な安宅さん(安宅和人氏)の直属チームでそういったリサーチをしていたことが、今日発表するような新技術のキャッチアップに活かされているんじゃないかなと個人的に思っています。2018年にアルプ株式会社を共同創業しました。

アルプ株式会社について知らない方も多いかと思うので、少し話します。我々はもともと販売管理領域の業務システムとして「Scalebase」という製品の開発と提供を行っている会社です。

Scalebaseって何かというと、旧来の販売管理システムではなかなか対応することが難しかったサブスクリプションのビジネスであったり、従量課金ビジネスといったような継続課金をメインに対応しているSaaSです。

我々の会社はまだ5期目ではあるんですが、非常にありがたいことに、NTT東日本さまであったりNECネッツエスアイさまなど、大規模な会社さまから新進気鋭のSaaSの企業さままで幅広く活用していただいています。

今でこそ大きな企業さまにも活用いただいてはいるんですが、創業当初に関しては、ミドル以上の企業に活用していただくにはまだまだ機能が不十分だったところも正直ありました。

そんな時に、商談とかで「Scalebaseは残念ながら導入できなかったんですが、ただ自社で作るにはやはり知見が足りないよ」というところで、そういったお客さまに対するアドバイザリーだったりコンサルティングを頼まれるケースがありました。

そういったお声掛けから始まったのが、私が今担当しているエンタープライズ企業向けのプロフェッショナルサービスというものです。

もともとは販売管理のサブスクリプションに特化したシステム開発のアドバイザリーなどをやるところがメインだったんですが、我々は今販売管理SaaSを提供している中で知見が溜まった。

プライシングのコンサルティングであったり、あと導入プロジェクトをたくさんやらせていただいたので、業務システムのリプレイスに対する協力、具体的には、例えばRFPを一緒に作成させていただいたり、ソリューションを選定するといったところを一緒にさせていただく。(また、)そもそもBPRをやらないとソリューションを載せられないようなケースも多くあったので、BPRを主導させてもらったりと、さまざまなことを現在はやっています。

ここまではいったんCMだったんですが、もしなにかシステム周りだったりデータ基盤だとかでお困りの際には、いつでもお気軽にお声掛けいただけると幸いです。

なぜアルプがChatGPTを導入したり検証しているのか

ここまでがCMでした。今私はR&Dチームに所属しているんですが、本当に毎日ずっと、ChatGPTであったりLLMと向き合っています。業務時間中ずっと触っているような状態ですね。

そもそもなぜ我々がChatGPTを導入したり検証しているのかというところなんですが、この後ディスカッションにも参加する相野谷(相野谷直樹氏)というエンジニアがいるんですけど、ネットでChatGPTが騒がれ始めた頃、相野谷に実際にいくつかの業務のユースケースをやらせてみたところ、非常に高い品質でいい回答を得ることができました。

先ほどの事前トークでも少しお話ししていたんですが、これはもう自分のキャリアにメチャクチャ影響があるなと。IT系でエンジニアをやっていくことに対するピンチをすごく感じたと。「リスタートされる!」と彼が叫び始めたのが、我々の会社が(ChatGPTを)使い始めたきっかけになったというところです。

私も実際に半信半疑で触ってみたんですね。過去いろいろなサービスだったり技術がバズワードとして出てきては消費されていくことがあったので、「すごそうだ」と思いながらも半信半疑で触ってみました。

実際に触ってみると、本当に不可逆性が高くてインパクトが大きい技術の波だと理解して、メインの業務をどんどんLLMの研究にシフトしている状態です。本当にこの数ヶ月は休みの日も含めてずっとChatGPTであったり関連するサービスを触り続けているような状況です。

ChatGPTの仕組み

そんなChatGPTですが、どのような仕組みで動いているのかについて、さっそく説明できればと思っています。

最初にみなさんに聞きたいのが、実際に今日参加されているみなさまは「ChatGPTをゴリゴリ触っているよ」「業務にも活用しているよ」という方が多いのか。それとも「ある程度試してはみたものの、まだ業務ではユースケースとして使えていないよ」という方が多いのかをお話を聞いてみたいです。

もしよければ「ゴリゴリ触っているよ」という方は、Zoomのリアクションの機能で「いいね」ボタンをつけてもらえるとすごくうれしいです。10秒ほど待っているので、Zoomの「詳細」「リアクション」から「いいね」ボタンを送ってみてもらってよいでしょうか? おっ。「いいね」が増えていますね。ありがとうございます。

全体を見たんですが、やはり10名いかないぐらいの方から「いいね」をもらっている。みなさまいろいろ試してもらっていると思うんですが、直接ユースケースでは触られていない方もいるというところで、少し幅広めに本日はお話しできればと思っています。今日はちょっと初歩的なところもあるかと思うんですが、ご容赦ください。

じゃあそもそもどういうふうに動いているのかというところで。ChatGPTは、LLMという「大規模言語モデル」と呼ばれる技術を活用したサービスです。大規模言語モデルとは読んで字のごとく、大規模な言語だったり文章データの学習を重ねたモデルがサービスの中心になっています。

少し込み入った話をするんですが、これらは文章などを中心とした大量の学習データ……。もともとはテキストの情報、英語や日本語というような文字情報があるんですが、この文字情報を分散表現、数字のベクトルにして、その距離などを用いて単語間の意味だったり文章の構文的な関係を捉えているという内容になっています。

それらの分散表現によって学習したテキストだったりワードの組み合わせだったりパターンをモデルとしてまずは持っていて、このモデルに対して新しく「プロンプト」と呼ばれる、我々が入力した文字。

(スライドを示して)この例では「Salesforce社について教えてください」というようなプロンプトを書いて、それをChat UIが受け取ってモデルに対して渡す。そのモデルが返事をする仕組みになっています。

一気にすべての文章を生成するというよりは、まずは単語だったり文章を書きながら、次に続く可能性が高いワードを常に選択しながら文章をつづる仕組みになっています。

例ではSalesforceについて聞いているんですが、Salesforceというワードと関連する確率の高い、学習データの中で頻度が高く出現している「CRM」という文言を選択して、「Salesforceは、アメリカのクラウドコンピューティング企業で、主に顧客関係管理(CRM)を提供している」というかたちで、1個前の単語だったり、その前後の文脈の文章を読み取って、可能性が高いものを出し続ける。

なので、意味を理解して答えを出しているというわけではなくて、常に確率が高い単語だったり文章を返すようなものになっています。

ChatGPTが得意としていること

我々が触っていく中で、この仕組み自体から「ChatGPTは得意としていることと苦手としていることがある」とわかりました。

得意としていることに関して1つ言うと、まずは学習している内容。基本的にChatGPTが提供している学習データは2021年の9月までとなっているので、そこまでの間に学習データの中に多く存在していたことについてのレスポンスは非常に得意としています。

具体的には、英語の学習データが比率としては非常に多いので、同じ内容でも、英語で質問をするとより精緻なレスポンスが得られたりします。

あとは、答えが一意に定まりやすい内容というところで、すでに科学的に判明しているものであったり、定説のあるもの。科学方式とかは基本的には返しやすい。

これはちょっと内容とはまた別なんですが、非常に多くの案を考えたり、何度も試行錯誤することがすごく得意です。彼はシステムなので、非常にタフです。人間が考えるよりも圧倒的に多くの案を考えさせたり、何度も試行錯誤することができる。

例えば、人間に「100個のアイデアを考えてください」と。中野さんに「この講演のタイトルを100個考えてください」と言うと、非常に嫌な顔をされると思うんです。「1,000個考えてこい」と言うと、もはや人間では絶望するかパワハラ案件になってしまうと思うんですが、ChatGPTであれば事もなげに対応してくれます。

あとは、もともとChatGPT自身の特徴でもあるんですが、パターンを認識するとか、テキストの類似性とか関連性を特定するというところを非常に得意としています。

ChatGPTが不得意なところ

逆に不得意なところは、学習データにないものです。つまり、学習していない2021年以降の情報は、わりと常識の部分……。例えば「今の日本の総理大臣は誰ですか?」という問いにも返せないようなところがあるので、学習されていないデータは当然返すことができません。

あとは有料コンテンツなど(のこと)も返すことが難しいところがあります。学習データの中に、例えば書籍だとか映像、映画など、有料で買わなければいけないものは含まれていないケースが非常に多いので。

みなさんよくやると思うんですが、「村上春樹の文章でこの文章を書き直してください」というようなオーダーを出しても、意外と返事が悪かったりするんですね。こういったところは苦手です。

あとは実は意外と計算が苦手です。「システムなのになぜ」というところなんですが、あくまでもChatGPTは言語モデルなので、計算とか数学的な処理を一気にすることは、意外にも不得意です。逆に、順を追って途中計算を試させたほうがちゃんと答えを出せたりする。一発で回答を求めようとすると、意外と間違えてしまうところがあります。

トライする価値のある2つの取り組み

こういった得意としていることと苦手としていることが実際にあるとはいえ、今日見てくださっているみなさんは、きっと1度はChatGPTに触れたことがあると思います。「あんまり賢くないかな」と感じた方も、一定数いるんじゃないかなと思っています。

そういった時にトライする価値のある取り組みが、大きく分けて2つあります。1つが「Fine Tuning」、1つが「Prompt Engineering」と呼ばれるものです。

Prompt Engineeringって、最近ソーシャルネットワークでもすごく有名になっていますが、モデルにとって答えを出しやすいプロンプトを作ることですね。事前に前提を共有したり、情報を増やしたりして質問するというかたちにすると、返答のクオリティが上がっている。

あともう1つのFine Tuningと言われるものなんですが、こちらは少しハードルが上がります。モデル自体を自分のユースケースに沿ったものに微調整する領域(のこと)です。

例えば自社のデータを学習させて、欲しい結果を返させることができる。例えば今まで自社が提供してきたマニュアルコンテンツを、学習データにどんどん追加の学習をさせていく。

それによって、例えば弊社でいうと「Scalebaseで契約を作るにはどういったステップを踏めばいいですか?」というような、今までのChatGPTだと答えられなかったものが、Fine Tuningを行うことによって返せるようになります。

こちらも興味がある方は調べてもらうか、もしくは我々にお気軽に相談してもらえればと思います。Fine TuningをしたりPrompt Engineeringをすることによって、最初に試してもらった時の印象をがらっと変えるような、すごく賢いシステムになってくるかなと考えています。

(次回に続く)