AIインターフェースでは音声が更に重要に

小島英揮氏(以下、小島):なるほど。まさに次の質問に近いんですが、今後AIはどんなビジネスにインパクトをもたらすのか? 今だとやはり空間認識というのが1つあったので、ゲームなのか、ソーシャルでコミュニケーションするときに使えそうなのか。ほかにAIがインパクトをもたらすビジネスってどんなものが考えられそうですか?

國光宏尚氏(以下、國光):大きく言うと2つ分かれると思っていて。1つは僕が興味があるところと、もう1個は興味がないところなんですけど。

興味があるところでは、今まで、先ほどのARグラスが生まれるとか、スマートスピーカーが出てくるとか、ウェアラブルデバイスが出てくること。そこに加えて、音声認識やテキスト解析、画像認識を含めてを組み合わせるところで、今までなかったサービスを作っていくという、新しい領域。

小島:パーソナルアシスタントみたいなものですか?

國光:まさにGoogle HomeやAmazon Echoみたいなもの。あれも音声を解析して、それをどう返してくるか。

その部分で、例えば、AIスピーカーやARグラスなどを含めても、音声が重要になってくると、当然音声の解析をして、それをどう変換してどう出していくか、みたいなことが重要になってきます。なので、そうした新しい領域でAIの技術を使ってどうするか、という部分が1つ。

Web2.0のビジネスは上書きされる

國光:もう1つ、僕が興味ないところでは、単純作業をAIでもできるようにしていくという方向性。要するに人が働かなくてもよくなるというか、労働力にAIが取り入れてられていくというクリエイティブじゃない方向と、今までなかったものを作るクリエイティブな方向の2つです。

小島:なるほど。では、ベターアプローチというか、今まで人がやってきたものをより安く早く簡単にするというアプローチと、まったくできなかったことを実現するイノベーションアプローチという2つの要素があるということですね。

國光:例えばイメージとして、とくにこの10年間でかぎりなく大きいインパクトは、やっぱりスマートフォンというハードウェアがARグラスに変わってくというところが、極めて大きなビジネス的なインパクトなのかなと思って。そうなってくると、かぎりなく多くのインターネットサービスがディスラプトされていくと思います。

小島:では、今までのWeb2.0の器に入っているビジネスは上書きされる可能性があるということですか?

國光:Web2.0時代というのを見たとしても、結局1.0時代で勝ってた人がそのまま2.0でも勝てたケースはほとんどなくて。

やっぱり、オークションはあったし、メッセージもあったし、Instagramみたいなのもあったし、だいたいほとんどあったんです。でも、既存のPCチームは結局Web2.0では負けたんですよね。はやり、スマホファーストをやってきたところが勝ったわけです。

なので、今回のARグラス時代というのも、ほぼほぼ確実に、スマホ時代に勝っていたプレイヤーのサービスはそのままでは難しい。だからここからもう一段階あるはずです。

ARグラスを活用したビジネスを予想する

國光:例えば「ARグラスをつけたときにどんなビジネスができるか?」というのをイメージしてみたらいいと思うんです。

LinkedInみたいなビジネス的なサービスなら、例えば打ち合わせに行ったときに顔を見ても、担当者の名前を忘れてしまうことって多いじゃないですか。そんな時に「この人どんな人」ということで、名前が表示されたり。

小島:それは欲しいですね。

國光:いつ会って、どんな話をしていたか、みたいな情報が出てくると。話している最中に、相手の顔色を見ておもしろそうかおもしろそうじゃないか、ステータスが出てきたりとか。

小島:けっこう大変ですもんね。話を聞いているフリをしてその人のことサーチしたりとか、同時でやらなければいけない。けっこう大変なんですよね。見ながら情報が出てくるのはすごくいい。

國光:さらにこうやって話しているなかで、次にこの話題を振ったほうがいい」という感じでサジェストが出てきたりとか。

さらに、仕事用のツールだったら、話した内容をそのままクラウドに送って、全社員で共有できるようにしていくみたいな。こういうサービスってあったら便利じゃないですか。これを実現するために、どうAIを活用するかということなんです。

普通に考えて、パッと見た瞬間に相手が誰かを認識するには、画像認識をした上でAIでマッチングしなければいけないし、そこからどの情報をひっぱってくるべきかなのか、相手が喜んでいるのか怒っているのかも、画像認識してAIにかけなければいけないし。

小島:だから、あらかじめラベルを作るのはもうとてもできないけれども、ディープラーニングや機械学習を使えばそういったものがもっと早くマッチングできるし、どんどんシチュエーションに対応できるということですよね。

國光:そう。「この話をすればこの商談はうまくいく」という内容をサジェストするのも、今、Watsonが出している推薦みたいなものですし。

話している内容をクラウドに送るためには、当然、音声認識をした上でクラウド上に送り込んで、それを音声で聞くのがめんどうだから、テキスト用のAIを使って音声のところからテキストに直したり。このテキストをグローバルで共有しようと思ったら、これを翻訳したり。

今言ったものは、AIがなかったらできないんですよね。だから、とくにエンジニアのみなさんからしてみれば、どうやってデータを整理していくかが重要です。

非エンジニアの人では、今言ったような感じのもの作りたいと提案できる能力ががより重要になってくると思います。

なのでより重要なのは、AI自体でできることはないから、今言ったような新しいサービス設計、「こういうのってどう?」という感じで提案すること。さらにエンジニアは「こうしたらこんなことができるんじゃないかな?」みたいな、そういう感じでやっていくのが重要なのかなと思います。

小島:今、國光さんがおっしゃった世界だと、けっこうものぐさな人、名刺整理をしない人でも、とにかく人にたくさん会っている人は、情報がたくさん出てくるので、整理するスキルがなくても社交的になったり、ビジネスをうまく回せるようになるわけですよね。それってピンと来るところがあって。

ARグラスは工場の生産性を上げる

僕、実はABEJAという会社でエンタープライズ系のお客様のAI活用について、相談を受けたりお話を聞いたりすることがあるんですが、けっこう近いなと思っているのが……。

例えば日本って、工場で働いている方が優秀なんですよね。ラインで起こっていることを見て「これはこうだ」と類推してアクションができる。つまり上に上げなくても現場がすごくうまく回っているということがあります。

今、アジアのいろんな国が日本の製造業の部分を狙っていて工場を作っています。だけど、なかなか真似できないのがこの優秀な作業員なんですよね。今の文脈でいくと、日本の優秀な作業員の人がいろんなスキルを持ってそれを実現するんだけど、(そうでない人にはAIが)サジェストしてあげればいいのかもしれないですよね。

國光:そう。だからたぶんそこが2段階になると思います。ここも(インターフェースが)AR・VRだと思うんですけど、AIをやっていくために重要なのはデータを構造化することで、いきなり単純作業と感じるところを途上国の熟練していない人でもできるようにするのは無理な話で。

例えば、工場でこのARグラスがあると「次はこの車のこの部品を取って、あとこれを取って」と出る。

小島:あと間違っているのがポーンとわかるようになっているとか。

國光:「間違ってた」というのを作っていって、まずは人間がサジェストされながらできるようになってきて、そこでデータが構造化される。そこで「この動きを次はロボットにやらせよう」という流れになってくると思うんですよね。

小島:このあと話をするかもしれないですけど、意外にアジアの工場はAIを早く入るんじゃないかなと思います。RPA(注:ロボットによる業務自動化)みたくいろんなプロセスを自動化する動きはけっこうありますが、あれは単に自動化したいだけではなくて、クオリティを担保したいんですよね。

日本の工員がやっているようなクオリティを現地の工場でできるようになったら、もともとコストも安い上にクオリティも担保できれば勝てるということで、積極的な投資がそこにはあるんじゃないかなと思いますね。

AI活用が日本で飛躍的に進むためのカギは?

小島:ちょっと海外の話が出たところで、ここを聞いてみましょうか。「AI活用が『日本』で飛躍的に進むためのカギは?」。みなさんもしかしたらすごく興味あるところじゃないかなと思います。冒頭で「みなさん関心ありますか」と聞いたら、けっこうな方が手を挙げられていました。「実際に今それに携わっていますか」というと少ないところ。

たまたま新しいテクノロジーで初速が十分じゃないのでそうなのか、それとも世界はそうなっているのに日本が遅れているのか、いろいろあると思うんですよね。

日本が遅れているかどうかはわからないですが、今の話だとAIはあらゆるところに入るわけじゃないですか。その活用を日本は飛躍的にしていかなければいけないと思うんですが、もしそのためのいいやり方とか、逆にいうとブロッカーなんかがあったらちょっと教えてほしいなと。

國光:ここはたぶん今の働き方改革に近いんだろうなって感じで、AIを使うには、まずはデータを構造化させることが必要です。要するにデータ自体は勝手にやってくれないから、「これはこうする」というかたちを人でまとめなければいけないんですよね。

小島:意味付けをするということですか?

國光:そうですね、「これはこうこう」というのをまとめていくのが必要です。例えば日本って、AIにどこの部分をどうやって任せるかとか、ルール付けしていかなくちゃいけないんですね。ただ、ロール&レスポンシビリティみたいなかたちもほとんどなくて。

小島:それ、お仕事の進ませ方みたいな、業務のことおっしゃってます?

國光:そう。誰がなんの仕事をしているのか、なんの責任があるのか、いつまでになにをするのかって曖昧で。

小島:でも、ちゃんと結果は出るじゃないですか。日本って、その曖昧な中でも結果は出ちゃうみたいな。

職域の曖昧さがAI利用を妨げる?

國光:そこは生産性を見たら結果が出ているのかどうか怪しい気もするんですけど、ただやっぱり欧米の会社では業務って基本的に「あなたのところはここ、これ、これ」ってカチカチしてるじゃないですか。

小島:ロール&レスポンシビリティですよね。それははっきりしていますよね。そうしないとお互いに話ができないと。

國光:とくにアメリカや欧米って、ビジネスプロセスアウトソーシングとかもそうですし、必要ないところや単純な作業は安い国にどんどん出していこうというかたちで、間接部門を含めてかなり海外に出て行っています。

「海外に出ていく=フィリピンの人でもできる」というふうに仕事の業務を体系化している。インドの人でもできるように体系化している。だからどんどんと生産性が低いところを……。

小島:なるほど。業務がモジューラブルになっているんですよね。「そこはこういうことをするもんだよ」と。だからその部分だけ切り離してアウトソースもできるし、今の文脈だと、アウトソースできるんだったらAIにそれを食わせてしまえばいいじゃないかと。

國光:そう。ロボットにやらせればいいんじゃないかという。

小島:でも、それが混然一体になっていると、AIの力を借りてどこを改善すればいいのかの分岐点がなかなかわからないみたいな。

國光:そうなんです。ただ、今の方向性は正しくて、働き方改革ってやっぱり無駄な残業が多いじゃないですか。そもそもほとんど必要がないとか、なんとなくいるとか。ああいう感じはどんどんなくなってきています。

日本で言えば、AIを活用するためには、働き方を効率よくしていくためには、「あなたのタスクはこれ」「あなたはこれをする」「成果がどう」というのを目に見えるかたちにして、「あなたじゃなくてもできる単純な仕事はどんどん振っていこう」というところをはっきりさせる。そういうことが進んでいかなければならないと思います。

小島:なるほどね。(業務の)棚卸しがちゃんとできるようにならないと、入れどころがなかなかわからないという感じですかね。

國光:そう。

働き方改革がAI活用の鍵になる

小島:では、働き方改革が、日本でAIを進める鍵になるんじゃないかと。

國光:たぶんそうだと思いますよ。普通に残業ができなくなってくると、会社的にも「今までみたいにタラタラしてちゃダメ」という感じになってくるから。

小島:時間と底力でなんとか解決するのはダメだとなったときに、すごくピタっとくるんじゃないかということですよね。

國光:そう。そのなかで業務フローを定型化していって安く出せるところは安い国に出しつつ、そういう流れの中でAIを使うみたいな、たぶんこういう流れになってくるんだろうなと。

小島:さきほど「海外の工場ってすごくAIの活用に興味がある」という話がありましたが、逆にそれがわかりやすいですよね。ラインが決まっていて、仕事が決まっていて、そのクオリティを上げたいとか歩留まりを高めたいというのがわかっているから、入れるところがわかるみたいな。

國光:そうですよね。

國光氏が考える、AIビジネスの次の一手

小島:なるほどね。わかりました。國光さんに最後の質問をしたいのですが、いろいろ関心があっていろいろやられているなかで、國光さんが考える「AIビジネスの次の一手」ですね。

何度も「AIビジネスと考えるのはダメだよ」とおっしゃっていましたが、次はどういうところに國光さんはビジネスを張ろうとされているのか。もしヒントがあればみなさんにちょっと共有していただきたいと思います。

國光:そのあたりは国内外の投資先を含めて実例とかがあるとわかりやすいのかなと思います。例えば、先ほどのLinkedInみたいなもものをやる時にもAIがいっぱい入ってくる感じで。普通にAR時代ってスマホをかざすとこのへんにいろんなやつが出てくる。

1つのスタートアップで、AR版のRettyみたいなものを作るなら、外に出て「なんか腹減ったな」というときにいちいちGoogleで探すのってけっこうめんどくさいですよね。

つまり、そういうときにもし携帯をパッとかざせば、その店のレビューや評価が出てきたりとか、さらに店の内装であったりとかメニューが出てきたりしていくと、かなりピッピッピッと「お、この店こんなんなんや」となる。

「この辺りでおいしい蕎麦屋さん教えて」みたいな感じで言ったら、矢印が出てきてナビゲーションして目的地まで送ってくれるようなサービスとか。

「これがあったら便利だよね」を実現しようと思ってどういうふうにしなくちゃいけないかを考えると、パッとかざして「この店がどこ?」というのを出すのってけっこう難しいんですね。今のGPSの精度ってそこまでよくないから。

小島:あと、GPSだとフロアがわからないことがありますよね。

國光:そう。

小島:だから「ビルの何階のお店なのか」というのはわからない。

國光:この例えならたぶん3つぐらいのことをしなくちゃいけない。1個1個のGPSのデータに紐づいて、その近くの店を出しつつ、精度を特定するためにジャイロを使った傾きとか含めて見ていきつつ。

近くにある店舗の画像データをいろんなところから集めてきて、その画像データをまとめてAIに食わせていって。それで、GPSや端末で推定した上で画像認識を入れて、「ここはどこだ」を実現していくという工程が、たぶん必要になってくるよね。

小島:サーチいらずですね。「かざせばわかる」というのが次のビジネスの大きなポイント。

國光:そうですね。それ以外にも、新しいナビゲーションというので、やっぱりスマホのナビってわかりにくいじゃないですか。実際のあれじゃないから。

でも、道に矢印が出てきてナビゲーションしてくれたら、そちらのほうがはるかにわかりやすい。そういうことを実現しようとしているスタートアップもあって。

これを実現するにはやっぱりAIが必要になってきて、そのへんはある程度特定していって。特定のためのデータをどこから集めてくるかというのが、当然ストリートビューのデータも使うだろうし、ゼンリンから持ってくるデータも使うだろうし、なんならデータをまとめ上げてやっていくような必要が出てくるサービスだったりとか。

画像認識、音声認識の未来

國光:ここからいろんなサービスができます。例えば「価格.com」みたいなものでは、家電を買いに行ったときにいちいち検索せず、「これなんだろう?」ってパッとかざして見ます。するとこれがどういうものかがわかって、価格比較をしてくれて安いところを出してくれて、レビューがパッと出てきて、その場で購入できたりという感じですね。

服の場合だったら、それをパッとやったら、メルカリとか似たような感じのやつがどうこうとかってのが出てきて、その場で買えたりとか。

これを実現するのも、同じくこの画像認識を使いつつ、そこから集めたデータを構造化していって、レコメンドで出していくみたいな。

小島:なるほどね。そうすると、やっぱり画像をキーにいろいろレコメンドするのって、今まで作ろうを思うとけっこう大変でしたと。でも、そのためのいろんなAPIとかサービスとかの基盤が揃ってくるので、それをマッシュアップしてサービスにするのは1つの手かなということですかね。

國光:そうですね。例えばその音声で言っても、Googleとかぶってくるだろうからそこはなにか必要だけど、Googleが出したイヤホン(注:Pixel Budsのこと)って、まさに自動翻訳がそのままできる。

小島:早くあれが日本に入ってこないかなって思ってますけど。

國光:たぶんみなさんも気づいたと思うんですけど、Googleの翻訳の精度というのがここ最近もう飛躍的に……。

小島:高いですね。

國光:だいたい英語とか韓国語、もう韓国語と日本語だったらほぼ90パーセントぐらいそのままなのかなという感じで、英語も7〜8割ぐらいまでなってきていて。あれも当然テキスト解析が飛躍的に進んできたという感じだし。

その延長線上で言語、「ほんやくコンニャク」みたいな感じですよね。ちょうどGoogleがAppleのAirPodsのGoogle版みたいなのを出していて、僕が日本語で話したらこっちで英語になって、英語で話したら日本語になってみたいな。あれ、日本語はまだ対応していないみたいだけどね。

小島:あ、してないんですかね? たぶんしているんじゃないかなと思いますけどね。

國光:日本語はちょっと遅れるんじゃなかったでしたっけ?

司会者:日本語には対応していて、日本で発売していないようで。

小島:日本で手に入らないだけで、できるんですよね。

國光:あれもやっぱり普通に音声とテキスト解析ができるようになってきたからできるようになってきた技術で、たぶんとくに音声、画像、動画、テキストが、ディープラーニングとかで飛躍的に精度が上がってきたんですよ。

そのへんをうまく使って今までまったくできなかったものを作っていく、というのがAIビジネスの1つ大きなところなのかなと。

小島:なるほどね。

AIができること、できないこと

國光:これが未来で、もう1個は「単純作業の効率化」というかたち。「明らかにこれって誰がやってもできるよね」みたいな仕事があって、その業務フローを定型化していって、AIに食わせつつやっていくみたいな。

小島:けっこう僕が聞くのは、コードレビューとかもAIにやらせてほうがいいんじゃないかって話を聞くんですよね。

國光:絶対そうですよね。

小島:職人仕事みたいになっているけど、そのあたりのナレッジは十分置き換え可能だということをおっしゃっているので、みんな別にやりたいわけではないコードレビューを、どんどん機械作業でやっていくのがいいんじゃないかなと思いますよね。

國光:「AIが仕事を奪う」という話がよく出てくるけど、普通に考えると結局AIができることって定型化できることで、現状ではそこがAIに置き換えられてくる。10年後の話はしてないですよ。10年後ちょっと怖いのは、定型的なことじゃないところも勝手に彼らが考えてやる可能性もあるから。

でも、少なくとも向こう5年間は定型化できるところをAIが肩代わりしてくれる、というのが1つ大きなところなので、やってて楽しくない仕事が基本的にAIに置き換えられるだけの話です。

逆にAIができないのは「仮説」なんですよね。

「これをこうする」「こういうのがあったらいい」という部分はAIがまったくできないので、先ほどの「ほんやくコンニャク」があったほうがいいというのは、AI同士が会話するときに日本語も英語も使わないから、彼らは思わないんですよね。言語に悩むこともないし。

小島:悩んでいるから「そういうのがあったらいいね」ってなる。

國光:そう。例えば、メニュー。食事に行ったときに、とくに洋食屋だったら、メニューで料理がなにかよくわからないときあるじゃないですか。そのときにこうやってパッとかざして料理が見えたらめっちゃいいじゃないですか。カロリーとかも出たらめっちゃいいみたいな。

ここも基本的にはテキスト解析と画像認識をすれば実現できるんですけど、これもAI自体は「パッと料理屋さん行ってメニューを見た瞬間にこのメニューがなにかがよくわからねぇ。だから気づくといつも同じものしか俺は注文してない」という不満を持たないじゃないですか。

なので「ここってやっぱり不満だし、ここって問題だから、こういうのをどうやったら解決できるんだろう?」というのが重要。

小島:なるほどね。では、もっとエモーショナルなところに刺さるサービスで、AIとかをうまく使って作ると、次の一手としてはおもしろそうだってことですね。

エモーショナルな分野もAI適用の領域に

國光:そうです。そこまで言ったらあれだけど、ちょうど先ほどの顔認識でこうやって見てて、サジェスチョンとか出てくるのって例えば……今AIでわりと名前が売れてきている、ユビキタスのUEIの清水亮。彼は相席屋が好きなんですけど。

小島:(笑)。

國光:相席屋に行って女の子と話していると、女の子が喜んでるのか怒っているのかどうなのかというのがわからないって言ってて、「ここではなんの話をしていいのか」「喜んでると思ったら帰っちゃった」みたいなね。

そういうのってとくにエンジニア界隈でよくあると思うんですけど。だいたいその女の子の気持ちがわからないみたいな。

でも、そこを自分の目に頼るんじゃなくてAIに頼って、女の子の表情が喜んでいるのかムカついているのかなんなのかってところを……。

小島:それって今でもテキストを使って実際やったりしますよ。「こんなこと言われたんだけど、これってけっこう厳しいんだろうかどうだろうか」みたいな、サーチしたり、みんなに聞いたり。このワンクッションをやらずにパッと出てくるというのが新しいモデル。

國光:ただ、そこって表情とか見ないと、結局「この言葉を言った」といって同じ言葉だけ見てもどういう意図で言っているかってわからないじゃないですか。だから相手の表情とかを見てって感じで。

モテる男の人というのは、自分の中でディープラーニングして「この子は喜んでる」とかどうとかっていうのを言って、適切な対話をしていってゴールまで持っていくじゃないですか。

でも、そうじゃない多くのエンジニアとかネット界隈の人でいくと、相手がどういう表情しているかわからないと。でも、そこが女の子のすべての表情を画像データ・動画データに取り込んでディープラーニングして回してくれれば、この子は今どういうことをしているとかがわかるじゃないですか。

この時にどんなことを言えばいいのか。言っていくと得点がトントントンと上がっていって、その日にゴールに持ち込めるのかどうか……なんの話をしているのか(笑)。

小島:どんどんちょっと下品になりそうなので、このあたりで止めておきますけれども(笑)。

(会場笑)

小島:でも、エモーショナルなほうはチャンスがあるってことですよね?

國光:そう。より重要なのって世の中の問題。「なんで俺がこんなことに困っている?」「これはどうしたらいいんだろう?」「なんだろう?」みたいな感じの問題を見つけ出すのは人間にしかできないので、では、これをどうやって解決しようという。

小島:解決するところにAIを使うのがいいでしょうということですよね。

國光:そうですね。

子どもの音声認識率はなぜ低いのか?

小島:ありがとうございます。いただいた時間だいたい使ってしまったんですけど、前で僕らがしゃべっているだけだと非常にもったいないので、もし会場の方から國光さんに聞いてみたいというのがあれば、ご質問を受けたいなと思います。女の子の話以外で。

國光:(笑)。

小島:どなたかご質問ある方いらっしゃいますか?

質問者1:今日は楽しいお話ありがとうございました。ちょっと質問なんですけれども、「ARグラスがスマホに代わるデバイスになるんじゃないか」みたいな話があったと思います。

それに関して、「インストラクションをしないとマシンはレスポンスを返してくれません」ということで、それってやはり言葉になると思うのですが、もちろんスマホの場合は打ち込めばいいんですけど、たぶん言葉とかになっていくのかなと思うんです。

実は小学校・中学校向けのアクティブラーニングをやった時に、小学校・中学校のレベルの子どもたちの音声認識ってめちゃくちゃ難しいということを経験したんですね。

それで認識率30パーセント40パーセントで、なかなか声をトリガーにしてインストラクションをするのはたぶん今後の主流にはなっていくんでしょうけれど、音声認識の発展具合とけっこう比例するかなと。

そのへんのところのお考えというんですかね。それ以外、言葉以外のインプットというのも出てくるのかなどお聞かせいただければと思います。

小島:小学生、中学生だと音声認識が難しいようだけど、その音声認識率が上がるのか、それとも違うやり方があるのか、それを聞かせてくれってことですかね。

質問者1:はい。そうです。お願いします。

國光:中学生とか小学生がどういう意味で難しいかといはわかりませんが、ただ、音声認識って今すさまじく上がっていて、僕はもうメモ取るとかなにか文字を打つことってほとんどなくなりつつあります。書いたりとかタイプするよりも声で入力していったほうが圧倒的に早いんですね。

小島:早いですよね。

國光:だから実際ブログとか書くのも、わざわざ文字打つのって遅いし、もうここでバッバっバッてしゃべってったらほぼ間違いないですよね。

小島:ほぼ間違いないです。

國光:たぶんおっしゃっている「小さい子どもが難しい」というのは、話すほうのコツもあって、コンピュータがわかりやすいような、今の音声認識でわかりやすいような感じのしゃべり方をしてあげると精度がほぼ100パーセントになってきます。

なので現状でもちゃんとしゃべればほぼほぼ100パーセント認識されますね。たぶん小さい子とかは不規則なしゃべり方なのでまだあれという感じだと思うんですけど、でもそんな時間かかりません。

小島:かからないと思いますね。これを言ってしまうと身も蓋もない感じなんですけど、そこが大事なところだってわかったら一気に上がります。

今たぶんそこをみんなフォーカスしていないから置かれているだけで、そこのデータを取ったほうがいいって経済的な合理性が働いたらあっという間に解決されるので、いち早くサービスを作ったほうがいいと思いますね。

國光:そう、だからそこに気づいているだけで、その部分をね。

小島:そうそう。それを。でも、「今難しいですよね」って言っちゃうとできないので。典型的ないい例をもらった感じがしましたけれども。

國光:新しい基本的なビジネスモデルが生まれたみたいな。

小島:はい。

質問者1:ありがとうございます。

小島:ありがとうございます。以上でこちらの対談は終了とさせていただきます。いま一度國光さんに拍手をお願いしたいと思います。

(会場拍手)