「監視カメラ」が自ら考えてアクションする

湯川鶴章氏(以下、湯川):静止画でいろんなことが分かると、動画もまたいろんなことが分かるようになります。動画に対して質問ができるんですね。

これは、家に帰って来ると花瓶が割れていたので、ホームセキュリティーカメラに対して、何かがジャンプなど飛び跳ねなかったのかを尋ねるという動画。その質問に関しては、該当する動画クリッピングがありませんでした。では次に「3時~5時の間で誰かが走っていなかったか」をたずねると、子どもがスーパーマンの格好をして走り回っていたという動画が出てきます。

さて動画に質問することが可能になれば、どんなことが可能になるのでしょうか? 日本中のあちらこちらに監視カメラがありますよね。監視カメラの映像って、普通はほとんど誰も見ていません。見ている時間がない。

事件や事故があったときだけ見返して、犯人がそこに写っているか、原因が何かを特定するためだけに使われています。でも、これからは、不審者が近づいてくるとすぐにアラートが出るようになります。

もっとポジティブな使い方としては、デパートのエスカレーターのところでうろうろしている車椅子の人が映ればアラートが出て、誰かがすぐに助けに行ってあげられるなどがあります。監視カメラが自分で判断できるようになるという時代が、もうすぐそこにきているわけです。

画像認識と音声認識の技術を合わせる

では、ほかになにができるようになるかというと、読唇術。人間の読唇術のプロでも6割ぐらいしか読めませんが、AIでは93パーセントも読めちゃうのです。

画像だけで何を言っているのかが分かるということで、ここでは暗くてちょっと見えませんが、もし明るくて後ろの方でなにかをぼそぼそと喋っていたときに、僕にはまったく聞こえなくても、この辺のカメラをズームして見れば、その人が何を言っているのかが分かる。これは怖いです。

自動車にもリップリーディング機能は、搭載されていきます。車の中にも音声認識技術というのは昔からありましたが、なかなか上手く働かなくて、ちんぷんかんぷんなことばかり答えていますが、あれは車内にノイズがめちゃくちゃ多いからなんですよね。

ノイズのないところでは音声認識技術はかなり精度が高いのですが、ノイズが入ってしまうとうまく機能しないのです。なので音声認識に加えて、画像認識のリップリーディング機能を搭載すると、精度がめちゃくちゃよくなります。

「入力データ」と「出力データ」をひっくり返すことでできること

入力データと出力データがあれば、予測モデルができる。そうであるのなら、入力データと出力データをひっくり返せば、反対の予測モデルもできます。リップリーディングは、動画が入力データで、何を言っているかというテキストが出力データです。この2つのデータを合わせて、コンピューターに予測モデルを作ってもらうと、音がなくても口の動きで言ってることがわかるようになります。

これをひっくり返すわけです。テキストデータを入力データ、動画を出力データにすれば、静止画の口の部分が、まるで喋ってるかのような動きをします。まだ精度が悪いので偽物っぽいのですが、すぐに精度が良くなるでしょうね。

なので、裁判の証拠として「お前はこんなことを言っていただろう」というような動画が提出されても、なんの証拠にもならない時代がもうすぐそこに来ています。

この動画は、雪の日の景色を真夏日の景色に変換したもの。実は簡単なようでいては難しいことなんです。真夏日を雪の日に変えるのは、雪を降らせればいいだけなので簡単です。雪の日を真夏日に変えるのは、雪の下に何が埋まっているのかを予測しなければならないから、簡単なことではありません。

あとは、文字を入力すると写真が生成される技術も出てきました。GANという技術なのですが、お腹が黄色で、くちばしが黒い鳥と入力するとその写真が生成されます。これは検索して出てきたわけではありません。この鳥は世界には存在しません。架空の鳥を写真で作ってきているわけですね。

また線図を書くと、勝手に色が塗られます。(『ドラゴンボール』の)悟空の髪の毛の色は黒であるということは、いっぱいデータを読み込ませれば分かるんですね。悟空の服の色などをいっぱい読み込ませれば分かるので、悟空の絵を書くと勝手に色が塗られちゃうということです。

目を持ったAIから生まれる多様なビジネス

つまり、AIが目を持ったということですね。ビジネスのカンブリア紀です。カンブリア紀は「カンブリア大爆発」と呼ばれる生命体が非常に増えた時期なのですが、なぜその時代に生命がいっぱい生まれたのかは、実はよく分かっていません。一つの仮説があって、「生き物が目を持ったことで生存確率が高まったのではないか」と言われています。

今、コンピューターが目を持ったわけですね。ですから、これからいろいろなビジネスが出てくるだろうと言われている。例えば、レジなし店舗のAmazon GOですね。

天井のほうにいろいろなセンサーが付いていて、買い物をして、買ったものを自分のカバンに入れたり、ポケットに入れるだけ。万引きみたいな感じです(笑)。そのままレジに並ばず店の外に出ると、Amazonアカウントで勝手に支払いが終わっている。こういうことが今年の2月から始まりました。

これもコンピューターが目を持ったからできるわけですね。コンピューターが目を持ったことでいろんなことができるようになります。ビジネスチャンスがいっぱいあるのだと思いますね。

「無数の試行錯誤」で人間が気づかないことを発見する

目標に向かって無数の試行錯誤を繰り返し、最高の結果を出す。これがAIの2つ目の能力です。他にもありますが、今はこの2つが一番大きな能力です。

どんなものかというと、このゲーム。コンピューターに教えることは「得点を上げろ」ということだけなのです。3回ミスをするとゲームオーバーになる。「ゲームオーバーになるな、とにかく得点を上げろ」と。

それで与えるデータは、画面のデータですね。球の動きを見て、あとはラケットを自分で動かすようにさせるだけ。とにかく点を上げろということだけを教えます。

最初はボールが出てきても、コンピューターは打ち返せないのです。打ち返すことが正しいかどうかも教えていないので。3回ゲームをして終わらせる。それを繰り返しているうちに、たまたまラケットにボールが当たります。そうするとポイントが上がります。

すると、コンピューターが「こうするとポイントが上がるのだな」ということがわかるので、球を打ちに行きます。球を打ち始めると人間よりも打つのが上手なので、間違いなく球を打ち返します。打ち返すと上のブロックが崩れ始めます。上のブロックが崩れると点が上がるのをコンピューターが理解して、上のブロックをとにかく崩しにかかります。

これを300回くらいやらせると、人間よりめちゃくちゃ上手になるんですね。それで600回ぐらいやらせると、コンピューターが裏技を見つけてきます。

やったことがある人は知っていると思いますが、ブロックの一番端を崩して、ボールを後ろ側に行かせてしまうという裏技なんです。この時代に生きていてやっていた人みんなが知っているのですが、後ろにボールが行くとピンピンピンと後ろのブロックが勝手に崩れてくれるので、一気に点が上がる、という裏技です。これをコンピューターが見つけてきたわけですね。

このゲームをAIにやらせていたエンジニアはこの裏技を知らなかったので、朝起きて見てみるとコンピューターがこの裏技を見つけてきて、びっくりしたというのですね。エンジニアも知らなかった裏技を見つけてきたわけです。

これがAIの2つ目の力です。人間が気づいていないことを見つけだすのが2つ目の特徴ですね。

AlphaGo VS 李セドル

これと同じAIを、囲碁のコンピューターに載せました。AlphaGoという、韓国の囲碁のチャンピオン・李セドルさんを負かしたやつです。5回戦って、李セドルさんが1回だけ勝って、あとは負けちゃったのです。興味がある方は、Netflixで英語のドキュメンタリーフィルムを観ることができます。めちゃくちゃ面白いです。

実況解説をしているチームが3チームありまして、韓国のチームと英語のチームが2チームで、それぞれが手を打つたびに解説をしてくれます。

僕は碁をよく知りませんが、中盤戦になると、右から3番目より右に碁を打つのか、それより左に打つのかという戦略の分かれ目があるそうなんです。右側に打つとまず右側を崩していくという戦略。左側を打つと全体を攻めていくという戦略になるそうなんです。AlphaGoは5番目という中途半端なところに打ってきたんですね。

この手をAlphaGoが打った瞬間、解説者全員が「AlphaGoが間違った」と叫んでました。3人が3人とも「AlphaGoが今間違えました。めちゃくちゃなところに打ってきました。今回は李セドル氏の勝利ですね」と、李セドル氏の勝利宣言をしたのです。

しかし、李セドルさんは、この碁盤を見て顔が真っ青になりました。彼にはAlphaGoのこの打ち手の意味するところが即座に分かったみたいです。そして結局、5番目に打ってきたその打ち手が機になって、李セドルさんは負けちゃったんです。

こういうところに打つという定石は、今までなかったのです。3000年の囲碁の歴史の中で、こんな打ち手をした人間はいなかったのですね。思いもよらないところを打ってきたそうなんです。

その後の李セドル氏の記者会見が面白かったのですが、李セドル氏は「コンピューターというのは、人間が教えたことだけをするものだと思っていたと。だから、人間よりもクリエイティビティがないものだと思っていた。ところが、本当にクリエイティビティがないのは人間の方だった」と語っていました。

人間のほうが同じような定石ばかりをずっと研究してきて、クリエイティビティがなかったんですね。李セドル氏が「コンピューターのほうがよっぽどクリエイティビティがあるじゃないか」と言っていたのが、非常に興味深いことでした。

AIの2つの能力で激変する社会

これがAIの2つ目の能力です。予想もしなかった裏技を見つけてくることが、コンピューターの2つ目の力ですね。予測モデルを作るのが1つ目、予想もしない打ち手を見つけてくるのが2つ目です。

この2つの能力が、これから我々の社会を大きく変えようとしています。この予想もしない方法を見つけ出すという手法で、AlphaGoのチームがGoogleのデータセンターの冷却システムの見直しを手がけました。その結果、40パーセントの省エネを達成したんです。

温度センサーをあちこちに置いていって、どのサーバーがどれくらい温度が高くなったときにクーラーをどの程度かけるかということを試行錯誤して、一番少ないお金で効率よくコンピューターを冷やせる方法というのを見つけてきたわけです。

これは、人間ではとても見つけられない複雑な式なのですが、コンピューターは全然平気でできちゃいますから、省エネ40パーセントを達成しました。これがもし我々日本の電力システムに使われて、国内の電力消費が40パーセント削減させることができるのならすごい話ですよね。

人間には予想もできない形で最高の結果を出す方法を見つけ出す。AIのこの能力を使って、Amazonが米国の医療の現場を大きく変えようとしています。Amazonの健康保険組合を作るということですが、まずやることは予防医療ですね。

ウェアラブル機器を使って、人々のデータを取って、どうすれば健康な生活ができるのかというデータと、それから病院にかかったときのデータと、それから健康保険のデータ。

これらを全部一緒に合わせて、「どうすれば社会全体で医療費を削減できるのか」ということに挑戦しようと言われています。これは、AIでないととてもできない話なんですね。

人間のデータ処理能力には限界があります。よく経営者の人などがおっしゃいますが、ビジネスというのは選択と集中だと。あれは何故かというと、選択して集中しないとデータ処理ができないからなのです。

我々の組織もそうですよね。なぜ今の会社の組織形態になっているかというと、あまりに部下が多すぎると上司が部下のことを理解できないからです。つまりデータを処理できないからなのです。人間のデータ処理能力に合わせて今の組織があり、企業があります。人間のデータ処理能力に合わせて今の業界がありますよね。しかし、コンピューターのデータ処理能力の限度はないのです。

ですから、組織や企業、業界というのが全部変わってくる。これがコンピューター、AIの2番目の大きな影響だと思います。