茂木健一郎氏(以下、茂木):「人工知能の耐えられない狭さ」ということで、お話しさせていただきます。

人工知能は最近、例えばチェスの世界チャンピオンのカスパロフ(Garry Kimovich Kasparov)が敗れたりだとか、あとワトソン(IBMが開発した質問応答・意思決定支援システム)が雑学クイズの『ジェパディ!』で勝ったりだとか、あるいは人間が作ったものかコンピュータが作ったものか、それが区別できるかどうかという音楽のチューリングテストは、限られた文脈の中では合格するプログラムができています。

カーツワイル(Ray Kurzweil)って、今確かGoogleのResearch and developmentのトップになってると思うんですけど、彼が「シンギュラリティ」ということをずっと言っていて、この「技術的特異点」というのが注目されている。

例えば、人工知能が人間の知能に追いついて追い越してしまうと。そういうことが起こったときに何が起きるのかということを、議論し始めているわけですね。

シンギュラリティという概念は、このG1みたいな学びの組織が…アメリカでも例えばSingularity Universityというのがありまして、これはたしか3日間で何百万と取るようなハイバリューな会なんですけど、そういうものもカーツワイルは作っています。

ディアマンディス(Peter H. Diamandis)という人も一緒にそれをやってて、この人はX Prizeという民間の宇宙飛行を支援するファウンデーションのトップなんですけども。イメージとして、人工知能をはじめとしてさまざまな技術革新がシンギュラリティを起こすという雰囲気が、最近高まってきてるわけです。

Googleなんかは、これはニューヨークタイムズが「Google X」というリサーチラボラトリーがあることをすっぱ抜いたんですけど、最近のトレンドはやっぱり「秘密にやる」。あんまり公開しないでとにかくやっちゃって、例えばGoogleが買ったボストンダイナミクスというロボットの会社も、論文をほとんど書かないんですね。

だから日本の研究者は、Google Xやボストンダイナミクスが何をやってるか全然わからない。こういう形、秘密の中でものすごい技術革新を起こすというのが最新のトレンドだと思います。

さて、先ほど麻生(太郎)さんが「頭の良いわりに……」という話をしてたんですが、人間の中で知能指数が60の人と180の人がいたら、まあ180の人のほうが頭が良いと思いますよね?

でも、特異点で何が問題になってくるかといえば、人工知能の知能指数が4000になったとします。あるいは40000になったとします。そうするとアインシュタインとあんまり頭が良くない人の差って、まったく意味ないんですよ。

だから麻生さんがさっきおっしゃったことって、ちょっと人工知能のリサーチから見るとおもしろくて。そもそも人間のスペクトラムの中で「頭の良い・悪い」ということはほとんど意味がない。trivialな時代がすぐそこに来ているということです。

最近は人工知能をテーマにした映画も作られてて「Her」という映画は非常におもしろい。人工知能と人間が会話をして、(人間が)人工知能に恋に落ちるんですけど、僕がものすごく好きな会話があって。

恋に陥って気になったから(人間が人工知能に問いかける)、「他の人と恋に陥ってるの?」「そうなんだ」「何人?」「641人」。さっき岡田斗司夫さんの話題になってましたけど(笑)、それをはるかに超える同時複数進行形の会話を人工知能がやる、みたいな。完全に人間のスケールを超えてるわけですよ。

ちょっと哲学的なスライドを1個入れといたんですけど、なんで神は沈黙するのかなっていったら、やっぱり……だって、我々は嫌じゃないですか。神が同時に数十億人と会話してたら嫌じゃないですか。それが嫌だから神は沈黙してるんだなあと最近わかりました。

それは置いといて。ボストロム(Nick Bostrom)という人が『Superintelligence』って本を書いてて、ムーアの法則という……要は人工知能が最近になってこんなに発展してるのかというと、簡単に言うとCPUのパワーが上がってきたからなんですね。

チューリング(Alan Mathison Turing)が「子どものような機械を1個作っちゃえば、あとは自分で学習して人工知能は発展していく」と(言っているように)。Deep Learningというヒントン(Geoffrey Everest Hinton)が提案をしている新しい原理なんかも出てきて、とにかく人工知能の性能がどんどん上がってるわけです。

イーロン・マスク(Elon Musk)なんかは「人工知能によって核兵器より危険な状況が起こるかもしれない」ということを、Twitterなどで警告してるんですね。

例えば、金融取引においてはHigh Frequency Tradingといって、人間が追いつかないようなスピードで人工知能がトレーディングするんですけど、このことによってさまざまな不安定性が起こっていることを皆さんよくご存知だと思います。

そして1990〜1991年のガルフ・ウォー(湾岸戦争)において、Dynamic Analysis and Replanning Toolというのが使われたんですけど、これによるとなんと、DARPA(アメリカ国防高等研究計画局)が過去30年に人工知能に投資した額を上回る効果があると報告書に書かれているんですね。つまり、さまざまなロジスティクスを最適化するというのは人工知能の非常に得意なところで、軍事技術にこれらのものが使われるというのは必然なんですけど。

ただ、いま懸念されてるドローンというのは非常にプリミティブです。要するに人工知能、ロボットなんですよ。しかしこれからドローンがどんどん高度化していったときに、High Frequency Tradingがfinancial marketのボラティリティを increaseするのと同じように、いわゆる存在論的な危機が起こるのではないかということが議論されてるわけです。

このような軍事技術だけではなくて、実は我々のもっと身近な自動運転技術。これにも実はパンドラの箱があるわけですよ。

マイケル・サンデルの授業でも有名になったトロリー・プロブレムというのがあります。これはハウザー(Marc D. Hauser)らが研究してきたんですけど、つまり「小さな子が飛び出した! それを避けるために急停止しようとしたら、後ろからバイクが来てるから衝突します。小さな子を救うんですか? それともバイクの人を救うんですか?」という問題。そういう問題が、実は自動運転にもあるんですよ。このような問題を、一般にControl problemと言います。人工知能をどうコントロールするかと。

皆さんアシモフ(Isaac Asimov)の「ロボット3原則」はもちろんご存知だと思うんですけど、そもそもこれが出たショートストーリーの中では、このロボット3原則が実は失敗するという物語なんです。これは非常に重要なんですけど、明示的に書かれたルールというのは、必ず現実の複雑な状況の中でうまくいかないことがあると。

人工知能がこれからどんどん出てくるんですけど、人工知能はボストロムの本によると3つのタイプがある。

「Oracle」というのは、何か質問をしたら答えを返してくれる。「Genie」というのは何か課題を、例えば「チョコレート買ってきて」と言うとチョコレートを買ってくる。「Sovereign」 というのは全権委任です。

例えば最近フランスの会社で、ボードメンバーに人工知能を載せた会社があるって噂が流れてるんですけど、本当なんですかね。どこか経営が悪くなったら「人工知能をCEOにしよう」みたいなことがこれから起こるかもしれないと。

この「Oracle」「Genie」「Sovereign」 みたいなのをどうコントロールするか。ボストロム(NickBostrom)の本はおそらくまだ日本語に訳されてないと思うんですけど、おそらく現在手に入る人工知能のコントロール問題についての一番優れた本で、このようなさまざまなコントロールの方法が提案されてるんですね。

もともとブルックス(Rodney Allen Brooks)がロボットの研究で、人工知能以前のさまざまな制動技術について議論していて、

いま影響力のある考え方の1つが、ユドコウスキ(Eliezer Shlomo Yudkowsky)という人が言っているCoherent Extrapolated Volition。

これは、人類だってみんなが正しいdecision makingするとは限らないですよね。要するに、ある意味best and brightestな人類の知を集めて、そのようなものを実現するものとして人工知能のコントロールをさせようという概念です。もし興味があったら、このCoherent Extrapolated Volitionを見てください。

この10分間で66枚のスライドを使う予定なんですが、全部Youtubeにこのスライドを上げとくので、もし興味があったら後でピックアップしてください。人間の脳の立場からいうと、実は人間の脳というのはヤバいことをやらないようにするメカニズムが入ってるんです。

最近の研究によると、意識の本質というのはヤバいことをやらないという拒否権「veto」が本質だという考え方があるんですね。なので、ひょっとしたら人工知能が何かヤバいことをやらないようにするためには、我々は意識の拒否権の発動のメカニズムを人工意識としてインプリメントして、それによって人工知能をコントロールするのがいいのかもしれません。

さて、そもそも知性って何なんでしょう? スピアマン(Charles Edward Spearman)という人が1904年に論文を書きまして、さまざまな能力の間に実は共通の「g factor」というものがあるということを見つけたわけです。

これは一般的知性general intelligenceというものですね。

最近の研究によると、このg factorというのは実は脳の前頭葉の活動と非常に相関が高い。簡単に言うと、脳の前頭葉のリソース・マネージメントの優秀さがg factor=general intelligenceとして、どうも出てくるらしいと。

これの遺伝的な要因というのは大体半分くらいと言われていて、有名なFlynn effectというのがある。この人はジェームズ・フリン(James Flynn)というんですけど、

実は先進工業諸国の知能指数の平均値は過去増え続けてるんです。大体10年で7くらい。ということは、知能指数というのは環境要因によって変わると。この中で第1子の方は、第2子第3子の方より平均すると知能指数って高いんですね。

つまり、Birth orderによって知能指数は変わるんです。ですから、知能指数は遺伝的要因は50%くらいで、あとは環境要因とか生育要因で変わるとも言われてるんですけど。

さらに、最近で一人ひとりの知性というよりは集団的な知性のほうが大事だという考え方もあって、MITなんかはCenter for Collective Intelligenceということで、コミュニケーションを重視した知性を研究してるわけです。

さて、人工知能というのは我々の立場からいうとAutistic Savant、自閉症のサヴァンの人たちに非常に近いんですね。というのは、1つのことに賢くなくても、全体としてジャッジメントが正しい人っていますよね。

ところがサヴァンの人たちというのはある特定の、数学だったら数学、パズルだったらパズルのことに集中して、それをずっとやって飽きない。

実は人工知能というのは、ものすごく発展してるんだけど、それは将棋だったら将棋、金融だったら金融の特定の問題に特技的に集中してるサヴァンに近いんですね。だから脳の進化の過程と違う方向に人工知能は進化していて、それがシンギュラリティということになっていくわけです。

結論ですけども、僕は人工知能というのは、脳を全体化すると実は非常に狭いところに特化していることによって暴走的に発展してるというのが、今の人工知能だと思うんですね。

人工知能というのは、狭いことによって良くなっている。それは僕は良いことだと思うんですけど、じゃあ人間はどうすればいいのかというと、人工知能と共存してビジネスとして活かしていくためには、生物としてrobust、強健であるというのが非常に大事だと思うんです。

ウォズニアック(Steve Wozniak)はコーヒーメイキングタスクというのを議論していて、これが何かというと「友人の家に初めて行ってコーヒーを作れるか」。我々は作れますよね。台所に行って適当にコーヒーメーカーを見つけて。

ところが、それは今のロボットとか人工知能はできない。常識だとか、新しいことに出会ったときの判断がなかなかできない。だから、人工知能というのは今ものすごく発達して、ある領域では非常に優秀なんだけど、実は脳全体の働きからいうとサヴァンをものすごくスーパーにしたような状態である。

そういうことを、今日は1つの問題提起としてお話ししました。すいません、1分延長して11分になってしまいました。ありがとうございました。