2024.10.10
将来は卵1パックの価格が2倍に? 多くの日本人が知らない世界の新潮流、「動物福祉」とは
リンクをコピー
記事をブックマーク
田中邦裕氏(以下、田中):ここからは活用上の課題に入っていきたいと思うのですが、これは順番に当てても大丈夫ですかね。では、中山さんから紹介してもらえればと思います。お願いいたします。
中山心太氏(以下、中山):そうですね。今の生成AIがこの後どうなっていくかというと、作業は楽になるけどレビューは楽にならない。先ほど契約書のレビューの話が出たので「うっ」て思っちゃったのですが、作業は楽になるけどレビューは楽にならないというのが、この後に起こっていくことかなと思っています。
僕は、仕事は基本的に2種類に大別されると思っています。仕事は2種類あって、1つは作業です。これは手を動かして実際の成果物を作ることで、今の生成AIの支援を比較的受けやすいと思っています。
一方でレビューは何かというと、人の成果物を評価して修正を指示すること、そして組織として成果物に責任を負うことです。なので、これは現時点のAIだと厳しいと思っています。
結局、成果物に対して最終的な責任を負えるのは、AIに人権が制定されない限り、今はどうしても人間だけです。なので、生成AIが上げてきた成果物を評価するには、それを評価できるだけの勉強が必要になります。
だから、先ほど挙げていたような契約書のレビューみたいなことをやって、「ここを直したほうがいいです」という案をAIが出してきたとして、AIが出してきた修正案が本当に正しいかどうかは、勉強している人じゃないとわからないわけですよ。
だから何が言いたいかというと、AIが強くなったからといって、勉強が要らないわけじゃないんですよ。AIが出してきたものを評価できるように勉強していないといけないというのが、今求められていることかなと思っています。
(スライドを示して)長文で画面が小さくて申し訳ないのですが、これはChatGPTにメールの文面を書かせたやつです。これはどこかがおかしいんですよ。これはどこかというと、これですね。「敬具」です。
敬具は、拝啓と敬具のセットなんですよ。ChatGPTにメールの文面を書かせると、敬具を最後にしれっとねじ込むんですね。ChatGPTは敬具を結びの句だと思っているんですよ。わりと最近のバージョンでも検証しましたが、拝啓と敬具の対応関係をこいつは学習していないんですね。
なので、例えばこういった文面を見た時に、「あっ、これ、拝啓と敬具が対応してないじゃん、おかしいじゃん」と見抜けるかということがわりと求められます。
なので、AIがいくら賢くなったからといって、人間の勉強が要らなくなるわけじゃないんですよ。レビューできるレベルにまで勉強しないといけないというのが、この後に求められることです。
この後に何が起こるかというと、レビューできる人材がたぶん明確に不足していきます。AIのアシストによって作業できる人はどんどん楽になるし、作業できる人は増えていきます。
そうするとどうなっていくかというと、作業者がどんどん増えていって、レビューできる人の不足や希少化が起こります。なので「この後みなさん、どうやってレビューできる側の人材に回れますか?」ということが、わりと今求められていることかなと思っています。
といったところで、僕の話はこれでいったん終わりかなと。
田中:ありがとうございます。レビューできることは本当に重要ですよね。私もChatGPTにメールを書いてもらいますが、結局全体を見直さないといけません。メールぐらいだったら全員やるんでしょうが、長文の文章で、実際に文体なんかを理解……。最終的にChatGPTは、「拝啓、敬具」まで理解するんですかね。
中山:「拝啓、敬具」くらいは、指摘しているのでたぶんそのうち直ると思います。とはいえ、生成AIにレビューが不要になるまでには、あと5年とか10年とかかかるんじゃないかなとは思いますね。
田中:なるほど。その間、人間の仕事がなくならないのは、いいことなのか悪いことなのかわからないですけど。
中山:でも、レベルの高い人の仕事はなくならないという話なので、難しいなというところはあると思います。
田中:はい、ありがとうございます。
田中:では比戸さん、お願いしていいでしょうか?
比戸将平氏(以下、比戸):はい、そうですね。今のところに関して、実はリハーサルの段階で先ほどのスライドを見て、ちょっと私も考えが違うなというところは気づいていたんですが、どうせならこの上で議論になったほうがいいかなと思ってなにも言っていなかったのですが。
レビューの中にも、レビュー作業という、照らし合わせて「ここがおかしいんじゃないか」とピックアップする作業と、中村さんがお話しされていた最終的に責任を負うと作業と分けられるとしたら、人間は最終的にその責任を負わなきゃいけないんだけれども、レビューしなきゃいけないポイント、疑わしいポイントをピックアップしてくるみたいなところは、AIのお手伝いが今後いろいろ使えてもいいんじゃないかなと思っています。
中山:そうですね。そういったレビューの支援まではできますが、最終的な責任を負うところですね。
比戸:はい。そこは一緒ですね。
中山:そこがやはり明確なポイントになってくるかな。あとは、結局見逃しちゃったら、その責任取ったやつに対してリスクが降ってくるので、「ここがおかしいんじゃない?」というリストを挙げてきたとしても、挙がっていないところの責任も負わなければいけないです。
比戸:そのとおり。なので、ある程度自動化をした時に、見逃し率みたいなものが許容レベルを超えた中で、どれぐらい効率化につながるかはちゃんと見なければいけないので、そこはまだ不十分なところはいろいろあるのではないかと思っています。
中山:そうですね。
比戸:すみません、今のところのポイントでお話したかったのですが、抽象的なところでいうと、短期的にはChatGPTがGPT-4で良かったというのがちょうどこの1年ぐらい続いていました。
そうしたところ、先週(登壇時点)出たAnthropicの「Claude 3」がもっといいぞとなって、「じゃあ、そっちに乗り換えるべきか?」という話をみんなしていますが、それはすごく短期的な話であって、将来的にはいろいろな選択肢があるものをユーザーが選ぶ時代になってくると思うので、そんなには悲観していないというか、問題視していません。
あとは、Continuous IntegrationとかContinuous Deploymentみたいなものを生成AIと組み合わせてどう確保していくかみたいなところは、システム的、短期的にはホットなんじゃないかなと思っているのが活用の課題ですね。
私が強調したいのはもうちょっと中長期的な話で、先ほど言ったようなかたちで、ChatGPTもGPT-3.5からGPT-4、そして、Claude 3みたいなやつ、(そして)たぶん近いうちにChatGPTのGPT-4.5モデルなりGPT-5が出て。それはおそらくClaude 3よりも賢いものになるっていくように、半年、1年レベルで、人間でいう小学生から高校生、高校生から博士レベルみたいな感じで、かなり知能が上がっていっています。
その中で自分の仕事が一番重要になる時、例えば私でいえば、ダイキンのサービス現場で集めている映像を使ったサービス支援みたいなものが実用化される3年後なり5年後において、もっと賢い生成AIが出ていると考えた時に、「それを最大限活かすためのデータの準備はどうしておくんだっけ?」という話なんですね。
これができるとわかった時からデータを集め始めると……。特にOTのところであれば、そこからだいたい1年、2年は少なくとも普通にかかるので、そういうことを考えると、今のうちから生成AIのモデル側の賢さの進化を予測しておいて、それが来た時に使えるデータを自分たちの組織なりで集めていかなければいけません。
そういう企画はすごく大変で。なぜかというと、今集めても価値を生まないので、「それ、何のためにやっているの?」などと言われちゃうからです。
それをどう乗り越えて、投資判断として「いや、これは将来的にはものすごく価値を生むので集めましょう」と言えるかどうかは、いろいろな組織で今後課題になっていくと思います。そしてそこで失敗すると、「いいモデルが出てきたのに使いようがない。なぜならデータがないから」というふうになるのではないかなと思っています。
そういうところは、いろいろな産業、いろいろな企業でもあることだと思うので、私がみなさんにお勧めしたいのは、そういうものを予測した上で、「だから、今からこういうデータを集めなきゃいけないんです。そのためにコストを払わなきゃいけないんです」というものをトップまで納得させて進めることが重要なんじゃないかなと思っています。
田中:ありがとうございます。
田中:ちなみにデータということでいうと、時間軸で増えるデータは当然あると思いますが、おそらくGPT-4は、検索エンジン、インターネット上で検索できる現時点のものは、もうほとんど網羅しちゃったんだと思うんですよ。だから、これからデータが増えるとしても時系列しかありません。
ただ、よく言われるのは、世界中で検索できるデータは、作られたデータの1、2割じゃないかということで、8割、9割はネットで検索できない。
先ほど開発のプロセスまでLLMやAIを導入したらという話がありましたが、メーカーさんはとてつもない、インターネットでは検索できないデータを持っているのですが、先ほどお話しされていたデータというのは、具体的にどういうものになると予想されますか?
比戸:わかりやすく言えば、先ほどお話ししたエアコンの修理をしている動画みたいなものですよね。インターネット上に公開されているものからGoogleやOpenAIが学習したら、ダイキンがやらなくても「どうやったらエアコンは直せるのか」を完全に理解した生成AIが出てくるかというと、そこはハテナマークかなと思います。
今でも「YouTube」を検索すれば、エアコン業者の方が「こうやったら自分でも修理できるよ」みたいな動画を出したりしているのですが、(その動画たちで集められる情報は)せいぜい100時間とか1,000時間というオーダーなわけですよね。
それに対して我々メーカーは、デバイスを配って集めれば、1万時間や10万時間を集められます。少なくともそれぐらいないと理解ができないぐらい、複雑な事象であり作業だと思うので、そういうところはやはり自社でやっていかないといけないんじゃないかなと思います。
田中:それこそそういうデバイス(が必要になるということ)ですね。フェアリーデバイセズさんなどが、こういうデバイスで収集したものを、単にナレッジの共有ではなくて、AIのデータの糧にしていくという発想がおそらく必要になってくるわけですよね。
比戸:はい、そうですね。
田中:かつ、それはその個社で持っているデータなので、ほかの会社に対するソフトパワーになって、その会社しか使えないLLMというかAIのリソースができてきます。これが、将来のノウハウをソフトウェア化というか、デジタル化するという背景なのかもしれないですね。
比戸:はい、そうですね。個社でまだ足りないのであれば、コンソーシアムを組んで、ある意味競合同士だけれども、「そこは一緒にやろうや」と言ってデータを共有化して、そこから使ったモデルを共有化してお互い強くなる。それで海外には勝っていくとか、そういう動きもいろいろあり得るのではないかなと思います。
田中:そうですね。ありがとうございます。
田中:中村さん、いかがでしょうか?
中村:そうですね。ところてんさんがお話しされていた「レビューのためには勉強が必要」というのもそうだし、あと、レビュー以前にそもそもやり方をLLMに教えるという以上に、LLMの前後のアルゴリズムを含めた、全体に対して業務を教えるためにも知識は必要であると思っています。
先ほどもお話ししましたが、なにもしないLLMが50パーセントぐらいの精度で、それを80から90パーセントに上げるためにということを説明する時によく使うのが、「めちゃくちゃ優秀な天才的な社員が部署に入ってきたとして、インターネットだけを渡して、『じゃあ、明日からうちの部署で働いてね』と言ってワークしますか?」ということです。
(それでワーク)する業務であれば、チューニングしなくても精度が出ると思うのですが、たいていの業務は社内のマニュアルや過去の文章を使わないと、どんなに優秀な人でもまっとうに仕事ができないかと思うので、それを伝える能力は、やる側に必要になります。
なので、そういうことができる、まずそういうのをやる覚悟を持ってもらうところと、技術的な支援は我々を含めていろいろなツールが出ているのですが、最後のところでそれをしっかりやりきるというところを、ユーザー企業の一人ひとりができるかというところが大きいのかなと思います。
田中:ありがとうございます。AIを利活用するのは誰でもできるわけですが、実際それを業務に使って会社の生産性を上げていくには、まだまだ死の谷というか、なにか渡らないといけない橋があるということなんですかね?
中村:そうですね。よくあるパターンが、DX部門とか、そういう共通のIT系の部署が、何千人、何万人という部署全体に対してLLMの活用を支援するパターンです。
そのDX部門の方々も個別の部署の個別の業務に関してはプロではないことも多かったりするので、「DX部門」対「全社員」みたいなやり方はなかなか難しいかと思っていて。各部署、各業務担当者が自分の中に、そういうソリューションを使っていくところが必要なのかなと思います。
田中:なるほど。今聞いて思い出したのが、弊社で「Slack」を入れる時に、「Slack使えません」と言う人がいて。「いや、Slackぐらい使えるやろ」っていう話なんですが。
「『エンジニア向けのツール』をいかに全社員が使いこなせるようになっていくか」という思考で取り組んでいくことで生産性が改善したと思っているので、結局それ以降、リテラシーでツールの導入の可否を決めるのはやめましょう、リテラシーが低いんだったらその教育をしましょうと。つまり、リテラシーに合わせてツールを入れるとロクなことがないので、結局は全員のスキルレベルを上げていく。先ほどの大学の話もそうかもしれないし、やっぱりね……。
比戸:そうですね。だから、ダイキンはAI人材を全部、全社共通のAI組織に固めるのではなくて、だいたい3年目から事業部に配属しちゃうんですね。
そこで彼らは、いわゆるπ型人材みたいな(人たちになって)、AI、デジタルの技術もわかるし、各事業部のドメインの知識も深めていって活躍します。彼らに対して必要なツールや予算をどうやって供給していくかが重要です。
例えば今、弊社ではChatGPTのエンタープライズプランがあるのですが、あれを実は日本で2社目に導入していて。R&D組織だけではなくて、事業部でとがったAI活用、ChatGPT活用をやりたがっている子たちに、「GPT-4を無制限で使えるからどんどん使ってね」というふうに配ったりしています。
田中:なるほど、ありがとうございます。中村さんのところだと、そういうツールの導入支援をしているわけですが、ユーザー企業のカルチャーを変えないといけないわけじゃないですか。なにか活動されていることは、あるんですか?
中村:そうですね。知識ももちろん大事かなというのはありつつ、シンプルに自信だと思っています。
エンジニアキャリアじゃなかった人が、「自分も社内でアンバサダーとして新しいITツールの使い道を発見したり、その方法論を作ったり、マニュアル化してメンバーに伝えたりする伝道師になれるんだ」っていう。大きな話ではないのですが、自信という点で、自分の中の活動範囲が狭まっている方もいるので、最初の自信、成功体験を作る支援はできたらなと思っています。
田中:なるほど。学んで、実践して、自信をつける。実は弊社の秘書もSlackやPythonを学んでいて、「Slackに調整依頼が来たらPythonのスクリプトによってWebhookでちゃんと投稿される」みたいなのを作っているんですよね。だから、(そういうことを)全員がやれるようになると、かなり会社の生産性が良くなるというのは、お話しされたとおりかなと思います。
(次回につづく)
2024.11.13
週3日働いて年収2,000万稼ぐ元印刷屋のおじさん 好きなことだけして楽に稼ぐ3つのパターン
2024.11.11
自分の「本質的な才能」が見つかる一番簡単な質問 他者から「すごい」と思われても意外と気づかないのが才能
2024.11.13
“退職者が出た時の会社の対応”を従業員は見ている 離職防止策の前に見つめ直したい、部下との向き合い方
2024.11.12
自分の人生にプラスに働く「イライラ」は才能 自分の強みや才能につながる“良いイライラ”を見分けるポイント
2023.03.21
民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?
2024.11.11
気づいたら借金、倒産して身ぐるみを剥がされる経営者 起業に「立派な動機」を求められる恐ろしさ
2024.11.11
「退職代行」を使われた管理職の本音と葛藤 メディアで話題、利用者が右肩上がり…企業が置かれている現状とは
2024.11.18
20名の会社でGoogleの採用を真似するのはもったいない 人手不足の時代における「脱能力主義」のヒント
2024.11.12
先週まで元気だったのに、突然辞める「びっくり退職」 退職代行サービスの影響も?上司と部下の“すれ違い”が起きる原因
2024.11.14
よってたかってハイリスクのビジネスモデルに仕立て上げるステークホルダー 「社会的理由」が求められる時代の起業戦略
2024.11.13
週3日働いて年収2,000万稼ぐ元印刷屋のおじさん 好きなことだけして楽に稼ぐ3つのパターン
2024.11.11
自分の「本質的な才能」が見つかる一番簡単な質問 他者から「すごい」と思われても意外と気づかないのが才能
2024.11.13
“退職者が出た時の会社の対応”を従業員は見ている 離職防止策の前に見つめ直したい、部下との向き合い方
2024.11.12
自分の人生にプラスに働く「イライラ」は才能 自分の強みや才能につながる“良いイライラ”を見分けるポイント
2023.03.21
民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?
2024.11.11
気づいたら借金、倒産して身ぐるみを剥がされる経営者 起業に「立派な動機」を求められる恐ろしさ
2024.11.11
「退職代行」を使われた管理職の本音と葛藤 メディアで話題、利用者が右肩上がり…企業が置かれている現状とは
2024.11.18
20名の会社でGoogleの採用を真似するのはもったいない 人手不足の時代における「脱能力主義」のヒント
2024.11.12
先週まで元気だったのに、突然辞める「びっくり退職」 退職代行サービスの影響も?上司と部下の“すれ違い”が起きる原因
2024.11.14
よってたかってハイリスクのビジネスモデルに仕立て上げるステークホルダー 「社会的理由」が求められる時代の起業戦略