湯川鶴章氏が語る「Eコマースの未来予測」

湯川鶴章氏(以下、湯川):こんにちは。西野(亮廣)さん(の講演)、よかったですね。めちゃくちゃよかった。彼の言ってることは物事の本質だと思います。

彼の講演の中で僕が学んだのは、これからは一人ひとりが天才になっていかざるをえない時代だということ。それは本当にそうだと思います。それで、天才になるためにはどうすればいいのかというと、自分を窮地に追い込むことだという答えでしたが、なるほどなと思いました。

やはり生物は、窮地に追い込まれることによって進化してきたわけですから。なぜ水中に住んでいた我々の先祖が地上に上がってきたのかというと、何かの異変で水が減って干上がっていったのでしょうね。そのため、地上に上がってくるしか仕方がなくなって出てきたのだと思います。

だから、極端な形に持って行くのは確かにそうだと思います。ただ、ほとんどの人がそれで死んでしまうんですよね(笑)。西野さんはそれができちゃう天才的な素質を持っていた人なのだと思います。

もちろん、我々全員がその素質を持ってはいるのですが、その素質を開花しやすくするためにはどうすればいいのか。それが一つの大きな課題だと思います。窮地に自分を追い込むことが不可欠だと思うんですが、そうなったときに、素地がないと脱皮できない。それをどうしていくのか、これから考えていろいろ情報発信をしていきたいと思います。

今日は西野さんの話だけで、僕の話を聞く必要があるのだろうかとも思いますが(笑)。まあ、簡単にAmazonがどう考えているのか、またAIとはどんなものなのかという話をさせていただき、結論は僕も西野さんと同じで、我々個人が変わっていかなければいけないというものです。

AIにできること、できないこと

まずは、AIとAmazonの現状についてお話したいと思います。その前に今、ITジャーナリストを名乗りましたが、去年の12月からエクサウィザーズというAIベンチャーに入りまして、AI新聞というウェブメディアをやっています。

西野さんは「本業で金を稼ぐな」とおっしゃいましたが、考えてみると僕自身も本業ではおそらくほぼ1円も稼いでいないと思います。原稿料は10年ぐらい前からどんどん落ちていて、10年前の原稿料は、原稿用紙10枚の原稿一本で10万円ぐらい出たと思います。ところが、今の原稿料って一本1万円ぐらいです。

住宅ローンを抱え、子ども二人を育てないといけない人間にとって、その原稿料では生活できません。なので、週刊誌やウェブ媒体へのライター稼業からは足を洗いました。ニューズウィーク日本版などにウェブコラムを持っていますが、ニューズウィークのコラムは、AI新聞の記事を転載したものが中心です。なので原稿料収入はほぼゼロですね。

しかし、湯川塾という少人数勉強会を主催したり、いくつかの会社の顧問をやっていたりして、生活には困らない状態です。ITジャーナリストという本業では一銭も稼いでいませんが、顧問であったりアドバイザーであったり、月に一度行くか行かないか分からないような会社勤めであったりとか、周辺のお仕事でお金を稼いでいるわけです。なので西野さんのおっしゃっていることが、そのまま自分にも当てはまっているんだなと思いました。

さてAIの話をしましょう。まずは、AIにできることとできないことをしっかり理解しておく必要があると思うので、ちょっとレクチャー的になりますが、AIとはどんなものかということを掴んでおきたいと思います。

誤解を恐れずに、ジャーナリズム的にサクッとまとめてしまうと、今のAIにできることは、2つです。実はもっとあるのですが、専門家でない大多数のわれわれにとっては、2つのことができるという理解でいいと思います。まずは、過去のデータをもとに統計処理を行って答えを予測するということが1つ。これが世の中のAIと言われていることのほぼ8割~9割になります。

もう1つは、目標に向かって無数の試行錯誤を繰り返すことで、最高の結果を出すこと。この2つの仕組みです。どんな仕組みなのかを簡単に見ていきましょう。

まずは、過去のデータから予測すること。過去のデータというのは、例えば気温とアイスクリームの売り上げデータです。気温が1度上がると、アイスクリームが10個多く売れました。2度上がると15個多く売れました。では、3度上がったら何個売れるでしょうか?

そうした過去のデータをいっぱい集めると、気温とアイスクリームの関係だと、y=axという式ができあがります。この式のことを予測モデルと言います。

データをもとにさまざまな予測モデルを作れる

これくらいの予測モデルなら人間の頭でも暗算はできますが、複雑になってくるとさすがに人間の頭ではできないので、コンピューターに作ってもらう。そうしてできた予測モデルがAIの1つの形です。

例えばローンの貸し倒れ予想ですね。これは、お金を借りるときにいろんなことを聞かれます。「結婚をしていますか?」「所得はいくらですか?」「出身地はどこですか?」「会社の役職はなんですか?」といったいろんなことを聞かれて、それをもとにしたいろんなデータがあり、その人が実際にお金を完済できたか、完済できなかったかというデータもあります。

そうした過去のデータを10万件ぐらい集めてコンピューターに入れると、予測モデルを作ってくれます。その予測モデルに新しくお金を借りたい人のデータを入れると、「こういうデータの人がお金を返してくれる割合は何パーセントですよ」という予測をしてくれる。先ほどの気温とアイスクリームの売り上げの関係をもっと複雑にした関係ですね。こうしたものがAIと呼ばれています。

例えば、大リーガーの契約金。野球選手はいろんなデータを取っていますが、そのデータと、今年給料をいくら払ったかというデータがあります。それをコンピューターに入れると、今年の成績から来年はいくらぐらい払うのが妥当かという予測を出してくれます。

入力データと出力データ。入力データというのが、成績などの各種のデータですね。それから出力データがいくら払ったかという金額です。この入力データと出力データがあれば、予測モデルができます。

再入院予測モデル。アメリカも日本と同じで、病院のベッド数が足りません。患者さんをどんどん退院させようとします。しかし、まだ治っていないのに退院させようとすると、また再入院をしなければならなくなる。

そうすると余計にお金がかかるので、アメリカ政府は、「まだ治っていない人を退院させるな」「治っていない人が1ヶ月以内に再入院した場合、罰金を課すぞ」と怒っています。

病院側はそれでは困るので、完全に治った人を退院させようということで、いろんなデータを全部入れて、その人が過去1ヶ月以内に再入院したかどうかというデータを合わせて予測モデルを作っています。

これをコンピューターがどのような処理をしているのかというと、例えばDataRobotというサービスの場合、入力データと出力データを入れるだけ。スタートボタンを押すと、あっと言う間に予測モデルの計算式が数百個表れる。最も精度の高いモデルから順番に並ぶわけです。このように、入力データと出力データがあれば、コンピューターが予測モデルを作ってくれるのです。これは、いろんなことに応用できます。

写真に何が写っているかを判別できる

画像認識にも使えます。画像認識の場合、入力データが写真で、何が写っているかが出力データになります。入力データと出力データが揃っているので、コンピューターにかければ、予測モデルが出来上がります。写真に何が写っているかを認識してくれる予測モデルです。

写真をどうやってデータにするのかというと、白黒写真は、拡大すると黒と白の点になりますよね。カラー写真なら青赤黄色のデータになります。それで数字のデータになるわけです。

黒を1として、白を0とすると、このチューバッカの写真は1111、0000、1111と数字の列になります。これが入力データ。それで写真に写ってるのがチューバッカである場合は1、チューバッカでない場合は0としておきます。これが出力データになります。

そして10万件ぐらいのチューバッカのデータと、チューバッカらしい写真を0と1で表現したで入力データと、それがチューバッカかどうか、「イエス」か「ノー」という出力データを両方コンピューターに入れると、チューバッカかどうかを予測してくれるモデルができ上がります。

チューバッカみたいなワンちゃんを入れると、チューバッカの確率が5パーセント。本当にチューバッカの写真を入れるとチューバッカの確率が98パーセントですよ、と出してくれます。これで写真に何が写っているのかがわかりました。

これ(資料)は画像認識のエラー率のグラフです、黄色のグラフが人間の回答のエラー率100枚見せたときに、人間は5枚程度間違えるわけです。もう一方のグラフはコンピューターのエラー率です。最初の頃、とはいえ8年ほど前ですが、コンピューターは30パーセントぐらい間違っていました。

100枚ぐらい見せると、3割ぐらい何が写っているのかわからない、ちんぷんかんぷんな答えを出していたわけです。ところがコンピューターのほうはどんどん賢くなって、今は人間よりも画像に何が写っているのかを正確に認識するようになりました。

写真に何が写っているのか分からない人間なんているのか、と思うかもしれませんが、どういう問題かというと、こんな問題です。この写真に何が写っているでしょうかというものです。答えは、フォークリフト。人間はほぼ100パーセント当てます。

これはなんでしょう。答えは「日焼け止めクリーム」ですが、これは人間でも飲み物にマルをする人がいる。人間でも間違うんですね。

次の写真も人間がよく間違うものです。火山と間違う人がいますが、正解は「間欠泉」なんですね。

コンピューターは正確に「間欠泉」だと言い当てます。

車の自動走行を現実にした「動画解析技術」

静止画の場合、写真に何が写っているのかが分かるようになりました。2012年ぐらいから急に良くなりました。写真に何が写っているのかが分かると、動画に何が写っているのかも分かります。なぜなら動画というのは、静止画のコマ送りなので、一つひとつ見ていけば何が写っているのかが分かるからです。

この部分が車で、どの部分が歩行者で、どの部分が道路なのかも全部分かるようになってきました。動画で何が写っているのかが分かったので、自動走行というものが実現するわけですね。

10年前に、誰かが「これからは自動走行車ができるよ」と言っても、誰も信じなかったと思う。できるわけがないじゃないかと。僕も最初にGoogleが自動走行の研究を始めましたと聞いたのが2012年ぐらいだと思いますが、そのときに「Googleは何を考えているんだろう、そんなことまだまだできないのに」と思っていました。

ところが、今はもう自動走行車の時代がすぐそこまで来ています。技術的にはほぼ完結していて、カリフォルニア州では無人の自動走行車を走らせてもいいという条例もできました。なので、まもなく自動走行車は我々の身の回りに出てくると思いますが、それが可能になったのはわずか数年前です。

1つの技術が出てくると、自動車産業のような大きな産業でも、一気に変わることになるのです。自動走行車になると、人々がマイカーを持たなくなって、自動車の生産台数が70パーセント減少するという予測もあります。生産台数が70パーセントも減少したら、今の自動車メーカーというのはめちゃくちゃやばいです。自動車産業に支えられている日本経済というのはめちゃくちゃやばいです。

数年前には、誰にもそんな時代が来るとは予測できなかった。1つの技術が出てくるだけで、経済も国家もガラッと変わってしまう可能性があります。今はそんな時代です。技術の動向を見ていないと、知らぬ間に我々の生活がガラッと変わってしまう。

年内にスマートフォンに搭載されるさまざまな機能

先ほどのグラフですが、AIによる画像認識の精度が人間より良くなったのはまだ2年前なのですが、今どんなことが可能になろうとしているのかをお話したいと思います。

例えば、この写真。フェンスが邪魔ですよね。フェンスを除いたときにどんな色が来るのかをコンピューターが予測してくれます。

そうすると、フェンスがなくなる写真ができます。こうした機能が、そろそろみなさんのスマホに載ってきます。年内に載ってくるでしょう。

支持政党が分かるのも簡単な話で、共和党大会に何千人もの共和党の人たちが集まるので、その人たちの写真をいっぱい撮っているわけですね。入力モデルが写真、出力データがその人が共和党であるということのラベル。

その2つがあれば、共和党にはどんな人が多いのかが分かります。民主党もそうですね。民主党大会に行って、写真を撮りまくって、民主党というラベルを貼っていけば、コンピューターが民主党員の特徴をつかむことができます。

日本人、中国人、韓国人の見分けもそうです。我々人間にはほぼ見分けられないのですが、AIは75パーセントの確率で中国人、韓国人、日本人を見分けます。これはまだできてから半年ぐらいですかね。75パーセントというとまだそんなに精度が良くなくて、これにもっとデータを入れれば、本当は90パーセントを超えると思うのですが。

これで何ができるかというと、オリンピックで、いろんな海外の方が来られたときに、その人が何人か、何国籍である確率が高いかということが分かれば、その人に対応する音声に切り替えることができる。

この動画は、Googleレンズ。これを花にスマホをかざすと、その花の名前を言ってくれます。こんなのは絶対にすぐ来るだろうなと思っていたので、別に驚きもしなかったのですが。

これはすごく便利です。Wi-FiルーターのSSIDとパスワードを認識してくれます。全部書き出すとめちゃくちゃ大変ですが、スマホをかざすだけで読み取ってくれて、しかもWi-Fiに繋いでくれます。お店にかざすとお店のレビューなども見ることができます。これも年内にみなさんのスマホに載ってきます。