『ウェブ進化論』から約10年の間に起こったこと

梅田望夫氏(以下、梅田):今、『ウェブ進化論』をご紹介いただいたので、最初にちょっとだけ加賀谷さんの前座で話をしますと、『ウェブ進化論』っていうのは、発売されたのは2006年の2月なんですよ。今から思うともう、遥か昔になる。

ウェブ進化論 本当の大変化はこれから始まる (ちくま新書)

2006年2月に本を出すためには、2005年の夏くらいから仕込んで、秋までに構想練って書くっていうのをやってたわけで、ちょうどその頃から今、10年。2015年ですね。

もう、10年っていうとこの世界では遥か昔なんで、さっきサインなんて久しぶりにしましたけれども、あれを改めて読むと、ほとんど何も書いてないなと思われるかも知れません。

っていうのは、コンセプトは書いてるんだけど、2015年には当たり前のいろんなことが書かれてないわけです。例えばYouTubeは書いてないですね。YouTubeはその頃まだなかった。

2006年の夏にYouTubeはGoogleに買収されました。Facebookもほとんど書いてない。Facebookがブレイクしてくるのは2007年ですね。

iPhoneもない。iPhoneは2007年、アメリカで2007年、日本が2008年くらいだと思いますね。もちろんiPadもない。それからAmazonのAWSもない、みたいな感じで、今から思うと無い無い尽くしなんですけど、無い無い尽くしの時にコンセプトみたいなものを捻り出そうと努力した結果みたいなものが、あの本だったなと。

今日のAIとかIoTっていうのは、AIだったら2012年くらいにブレイクして、現在に至る。IoTは2010年くらいからキーワードとして言われ始め、いろんな試みがされて今に来てると。

昔から「『ウェブ進化論』の続編は書かないのか?」と聞かれて、「それは僕よりも多分10年くらい若い人が書くべき本ではないか?」っていう話をしていて、そういうことをする候補者の1人が加賀谷さんです。

AI、IoTについては、加賀谷さんのお話がこれからの羅針盤になるんじゃないかと思うんです。まぁ、そんな感じでしょうかね?

脳波を感知して動くnecomimi

加賀谷友典氏(以下、加賀谷):先ほど金城さんのほうからもあったように今日「飲み会のノリでいこう!」ということだったんで、ここはサンサンの素敵なオフィスなんですけど、気分的にはロフトプラスワンな感じですよね。

僕も一応、資料を多少用意したんですが皆さんの中にnecomimiを知らない方、どれくらいいますか?

梅田:手、挙げにくいよ(笑)。

加賀谷:じゃあ、necomimi知ってる方は、どのくらいいらっしゃいますか? これ、説明なしで大丈夫?(笑)。一応、あそこにモデルさんが居ますので。

(会場どよめく)

加賀谷:簡単に話すとですね、僕は3年前からneurowearというプロジェクトを始めまして「テクノロジーを使った新しいコミュニケーション体験をつくろうよ!」という目的でやってたんですね。その最初のプロダクトが、彼女が今つけているnecomimiなんです。

これは一体何かというとただ単に耳がモーターで動いているわけじゃないんです。彼女の脳波を感知して、集中すると耳が立って、そしてリラックスすると耳が寝るという、新しいコミュニケーションツールとして僕らがつくったものなんです。

「TIME」のベストインベンション・オブ・ザ・イヤーを受賞

加賀谷:「何でつくったんだ?」ってよく聞かれるんですけど、これもお聞きになった方、何人もいらっしゃるかと思うんですけど、コミュニケーションには2つあるなと思って。

1つは言語的なコミュニケーション。例えば僕が話している、言葉は言語ですし、あと、普段皆さんが使っているチャットだったり、EmailだったりSNSだったり、これらはみんな、言語的なコミュニケーションですよね。

一方で言葉を使わないコミュニケーションってのもある。例えばどういうものかって言うと、ジェスチャーだったり、顔色だったり、声色だったり。

こういった言語に依存しないような表現でもコミュニケーションをしている。だけど、実は我々人間はもっと他に沢山の情報を持っているんじゃないかと考えたわけです。

僕らは脳波という言葉は知っていて、聞いたことがあるんだけど、じゃあ「脳波を使ったコミュニケーションはやったことがあるのか?」というとまだ未体験なんじゃないのか。

そういったところから我々、研究を始めまして、脳波を何に変換したら一番面白いだろうと考えてつくったのが、このnecomimiというツールだったんですね。

necomimiは2011年に発表しまして、「TIME Magazine」というアメリカの雑誌で、ベストインベンション・オブ・ザ・イヤーをいただきまして。

(会場拍手)

プロダクトがデカデカと掲載されると、日本に限らず海外からいろいろと、「製品化したい!」という話がいっぱい来て、いろんな話があったんですけど。

その中でアメリカのベンチャー企業がやりたいということで、necomimiの中に入っている脳波測定チップをつくっているニューロスカイという会社から2012年に発売しました。

ドワンゴのほうで、「ぜひやりたいな」ということで、ニコニコ超会議の第1回目で先行販売をさせていただきました。

大体、現在では10万台くらい、ワールドワイドで出荷してるという感じです。

耳があるなら、アレも必要だろう!

加賀谷:で、これをつくって発表したら、急に世界中から色んな問い合わせがあって、「ちょっと待ってくれよ!」と。

「耳があるんだったら何でアレがないんだ?」と。そういう問い合わせが非常に多かったんですね。

アレって何かっていうと、コレなんですよね。コレをつくってくれっていう要望が多くて。

やっぱり「耳だけじゃなくてシッポも欲しいんだよ!」というリクエストが世界中から来まして、「脳波に応じて動くシッポ」というのもつくりまして、これは2012年の東京ゲームショーですね。ここで発表させていただきました。

今日はニューロウェアの試みが、トピックスのメインじゃないんで、パッパと行きますね!

脳波計つきヘッドホンが生み出す新しい体験

加賀谷:necomimiをつくりながら、我々、身体拡張をやってみたんですけど、もうちょっと違うことを生体信号を使ってできないかなということで、やってみたのが、これなんですね。

これ、MICOっていうんですけど、コンセプトとしては、「Music Inspiration From Your Subconsciousness」ということで、何かっていうと、脳波計つきのヘッドホンなんですね。

このヘッドホンつけると何ができるかというと、自動的にその人の今の脳波の状態、気分に合った音楽を、探して来てくれて再生してくれるという新しい音楽サービスなんです。特に今だと日本でも始まりましたね。Apple Musicが。

サブスクリプションサービスといって、1千万曲とか2千万曲の曲が聞き放題になるんです。けれど大きな問題があるんですね。何が問題かっていうと「新しい曲を探す」っていうことができないんです。曲名を知らなかったら探せないし、アーティスト名を知らなかったら探せない。

だから、自分の生体信号っていうものをトリガーにして、気分に合った音楽を探してくれるツールは、非常にサブスクリプション時代に合ってるんじゃないかというアプローチがこのMICOというヘッドフォンですね。

実際にはこんな感じで動いてて、側面にはLEDのスクリーンをつけたんですけど、これでつけてる人の状態、意識の状態を表現しようと。これもですね、つくっただけだとコンセプトだろうと言われるんで、ちゃんとデモやりましょうと。

これはサウス・バイ・サウスウエストというアメリカで非常に有名なIT系のイベントなんですけど、これ今、彼の脳波に応じて曲を探してるとこですね。見つけたと!

(会場笑)

良いリアクションしてくれましたね。めちゃくちゃこれが喜んでいただけまして。こんな感じでいろんな方に試していただいて気に入られたと。

コントロールではなく、コミュニケートするデバイス

加賀谷:これは引き続き進めているのですが。このmicoというものの後にさらに1歩進めてみようかなと思って。micoは音楽と人のコミュニケーションなんですけど、機械と人とのコミュニケーション、もしも機械が人の気持ちというものをちょっとでも理解できたら何ができるのかな、と思ってつくったのが、次の作品なんです。

例えばカメラが人の気持ちを理解できたら一体何ができるのかな? それをコンセプトにつくったのがneurocamです。

これ一体何かっていうと、見てもらえばすぐわかるんですが、この時はiPhoneをカメラデバイスとして使ったんですけど、何かというと。

数字出てますね。数字が彼女が見てる風景の後ろに出てて、これは彼女の「気になる度」なんですね。彼女が今気になってる度合いが数値でリアルタイムにで出てきます。

で、ある程度「気になる度」が上がってくると、この時は60で設定したんですけど、それを超えると自動的に気になったものだけがショートビデオクリップとして録画される。

neurocamをつけて街を歩く。それだけで自分が気に入ったものだけが記録されていく。そういったコンセプトでつくったのがこの、neurocamです。

ここまでザッと、ほんとに駆け足で見ていただきました。普通テクノロジーカンパニーって、生活信号だったり脳波を使って、物をコントロールしようとするんです。

例えばテレビのチャンネルの切り替えだったり、ライトをオンにする、オフにするということなんですけど。僕らが考えてるのは、そこじゃないんです。

そうじゃなくて、我々の周りのものが、我々の気持ちを察して動いてくれるような、そういった環境をつくっていきたいなと。コントロールするんじゃなくて、コミュニケートする。これを我々、一番に考えてやっております。

注目すべきはハイエンドではなく、ローエンドの部分

加賀谷:necomimiでは、人と人のコミュニケーションを拡張していって。今見ていただいたneurocamでは、人とマシーンの関係を拡張していったかなと。それがどんどん拡がっていくと思っていて。

人、マシーンときたら次にですね、今度は部屋だったり、あるいは家だったり、さらに外に拡がって、ストリートだったり、あるいは我々の環境全体だったり。そういう風にコミュニケートできる環境、対象っていうのが拡がっていくかなぁと思っていますね。

こういうことを考えていく際に、僕がけっこう重要視しているテクノロジーのトレンドがいくつかあって、これはよく使う資料なんですけど。

ちょっと前のですけど、これはNVIDIAっていう、我々のスマホに入ってるチップ。モバイルのチップの会社なんですけど、そこのCPUのロードマップなんですね。

例えば2012年のTegra3っていうのと、今、我々のところ、2015年くらいですね。このParkerと比較すると、たった3年なんですけど、性能を比較すると10倍くらい上がってるんですよ。通常だと、もうちょっと最近の資料だとこんな感じですね。

今のTegra4、Tegra3が2014、15年だとすると、2018年くらいですね、Tegra X1だとここまで上がってる。このぐらいの角度で、ハイエンドのCPUがどんどんどんどん高性能化していくんですね。

通常だとこっちのハイエンドのTegra X1みたいなとこに注目するんですけど、僕が見るのはそっちじゃないんですね。

そっちじゃなくて、ローエンドのほうなんですね。理由は何かっていうと、ハイエンドがこの性能になるってことは、ローエンドのほうはどうなるか。ハイエンドのほうの性能がもしも100倍くらいになるとしたら、ローエンドのほうのCPUの価格は100分の1ぐらいまで下がるんですね。

なのでスケールのインパクトがでかくなるんで、僕はここを注目してて、necomimiでも実はこういうトレンドを使ってるんですね。例えばの話、TGAMっていうのが、あのnecomimiに入ってるチップなんですね。でも全く同じ性能のものが、たった2年後、BMDっていう3ミリ×3ミリ、こんぐらいまで小さくなってきてるんですね。

この辺からだんだんIoTの文脈になってくるんですけど、やっぱりコストとサイズが下がっていくんで、あらゆる場所、今までコンピューターあるいはセンサーが入ることができなかったところに、どんどん、コンピューターが入り込んでいくなぁと。

「意識」とはネットワークそのものである

加賀谷:具体的には例えば、こんな感じですね。

いろんな場所、例えば、テーブルだったり椅子だったり壁だったり、あるいはカーテン、窓、エアコンディショナー、様々なところにおそらく入っていくんじゃなのかなぁと。

で、僕が思っているのはこういった、様々なセンサー及びCPUっていうのが、ある一定値を超えて我々の生活空間の中に入ってくると、そこが人間の意識とは違うんですけど、何らかのですね、雰囲気みたいなものを検出できるような環境が出来ていくんじゃないのかなぁと考えています。

そういうことをなんで考えているかっていうと、これ去年、NHKスペシャルで立花隆さんのドキュメンタリー番組をやってたんですけど、人の意識ってのは何なのかに迫っていく番組で。その中に出てきたトノーニ教授という方なんですけど、この方が「人の意識っていうのは実はこういうものなんじゃないか」という仮説を立てたんですね。

例えば、悲しいとか嬉しいとか何らかの特定の意識状態っていうのがあるんじゃなくて、脳の中に、様々な状態が同時に存在してると。これらのネットワークそのもの、ネットワーク自体を「意識」と呼ぶんじゃないのか、と。これがトノーニ教授が言ってたことなんですね。これ多分、本屋に行くと書籍で出ているはずです。

意識はいつ生まれるのか

そんなことを考えつつ、我々もIoTの分脈の中で1個何かやりたいなということで、新しいチャレンジをやってみようと思ったんですね。

物と人のためのコミュニケーションツール

加賀谷:コミュニケーションを専門とするチームがIoTを考えた時に何ができるかっていうのが、次のこのプロダクトなんですね。

これは何かというと、mononomeというプロダクトです。普通はIoTって言ったらInternet of Thingsですよね。でも我々の捉え方はちょっと違っていて、あらゆる物に「目」をつけたらどうなるんだろう?

僕らのはですね、IoTなんですけど、アイが違うんですね。「Eyes of Things」なんです。あらゆる物に目をつけていくというアプローチ。

目をつけることによって、つけられた対象とユーザーの距離がぐっと縮まるんじゃないのかなぁと。例えば、mononomeをつけることで、冷蔵庫であったり、何でもいいんですけど、取り付けられた物がキャラクター化していく。

それで人と対象の距離が縮まっていく、変わっていく。こういったことができないかなぁという思いでつくったのが、このmononomeというプロダクトです。

こんな感じですね。おやつを食べすぎると叱ってくれたり、掃除機も使われないで放って置かれると寂しくなっちゃう。だけど使ってあげると喜ぶ。こんな感じで、人と物の距離を近づけることができないかなぁと。

まさに物と人のためのコミュニケーションツール、そういった位置付けで。

「美女と野獣」の世界がありならば

加賀谷:あっ、質問が来ました。

質問者:すごい楽しいんですけど、僕らインターネットとか一応全員使ってるじゃないですか。ある日、物が全てネットで繋がった時の、ある種の気持ち悪さみたいなのは、少なからずの人が感じるかも知れないじゃないですか。

そういう時に対して、「繋がることで良いことがあるんだよ」みたいなことは、どういうふうに説明してるんですか?

加賀谷:そこはすごくおもしろくて。日本と海外で、受け取られ方が随分違いますね。日本の場合はスムーズに入っていくと思うんですけれど、海外、特にヨーロッパとかだと受け取られ方が違うように感じています。それはですね、ロボットに対する受け止め方とも似てるように思いますね。

日本だと人型のロボットは割と受け入れられやすいんですよね。でも海外だと「何であれが人型なんだ?」と、なっていくわけですよね。

「なんであれに癒されなきゃいけないんだ?」と。なんかそういう、この辺から思想の話になってくるんで。

僕はmononomeに関しては位置付けとしては、説明をちょっと端折ったんですけど、どこから来てるかと言うと、「美女と野獣」という映画、ご存じですか?

あれにダンスのシーンがあるんですね。あのダンスのシーンを思い出していただきたいんですけど、あの中ではティーポットだったりキャンドルだったり、周りのモノに目がついてて、彼らも踊ったりするんですね。

ああいった生活空間があったら、僕らは気持ち悪いのかどうか、検証したかったんですよね。

僕としては、あれが映画として成立して受け入れられているのであれば、これはおそらく楽しいんじゃないのかな、少なくとも殺伐としている空間ではなく、より楽しい空間にはなるんじゃないのかな、と思ったんですね。僕はというか、うちのチームでは、そういう風に考えたということですね。答えになってますか?

反応はハッキリわかれた

質問者:現在進行形だと思うんですけど、検証の結果ってどうなんですか?

加賀谷:わからないです。なんでわからないかと言うと。プロトでつくってて、次、バージョン2まで来たんですけど、実際に日常空間に入れて試すまでにはもうちょっとかかるんですよ。

今ようやく、プロトのバージョン2が仕上がったところなので、これからですね!

質問者:それって、いろんな国とかで試されてるんですか?

加賀谷:いや、まずは日本国内ですね。ただ、ちょっと補足をすると、僕、去年北京で講演をやってきたんですが、その時の会場の反応でいうと、中国では滅茶苦茶ウケましたね。

あともう1個、思い出しました。これ、東京デザイナーズウィークっていうところにも展示したんですね。

そしたらですね、明らかに2つにわかれて「なんだこれ」っていう人と「欲しい!」という人に分かれたんですね。で、「なんだこれ」という反応だった方のほとんどがスーツのネクタイの人でした。

(会場笑)

「これ、何の役に立つんですか?」という質問をするのはスーツにネクタイの方が多くて。「絶対欲しい!」「かわいい!」と言ってくれたり、ずっとmononomeから離れなかった子供達が何人もいましたね。

あと若い女性。これはほぼ全員「かわいい!」「欲しい!」「買いたい!」というような反応が。日本の中でも随分、分かれました。

質問者:ありがとうございます!

センサーのデータを直感でわかる表現に

加賀谷:というようなmononomeなんですけど、もう少しだけ補足すると、僕思うにですね、IoTのソリューションって、いろんなところでやられている。

IoTという文脈でいろんなソリューションをつくっていく中でセンサーからのデータを羅列するだけでは人にはなかなかダイレクトに伝われないのではないかと思っています。

僕らがmononomeでやりたいのはIoTだったり、様々なセンサーのデータを取得して、直感でわかる表現に変換してあげることなのではないかと考えております。

mononomeの話はそろそろ終わりなんですけど、ちょっとバージョン2の片鱗だけ。

加賀谷:インタラクション変えただけなんですけど。センサーも新たに追加してるんですが、こんな感じで徐々に進化してまして。

これは8月1日からのメーカーフェア東京で展示しますので、興味ある方は見に来ていただければ、実物をご覧いただけるかと思います。