物理学からものづくりへ方向転換した父の影響

レイ・イナモト氏(以下、イナモト):こんにちは。……あれ、元気ないですね。こんにちは!

会場:こんにちは。

まず、質問から始めます。僕のことを知らない方がほとんどだと思いますので、軽く自己紹介をさせていただいてから「未来の作り方」という題で、あまりテクニカルなお話というよりは基本的な、ごく個人的な考え方でどう仕事にスタンスを置いていくかをお話しします。

まず最初に質問なんですけれども、(スライドを指して)これは自分なんですけど、どっちが僕でしょう? 

実はこれ、自分でもよくわからなくて。子どもの頃は双子で……今も双子ですけれども、どちらなのかをわかったかというのは、実は母親だけしかいなかったという。そういうことです。

僕は東京で生まれまして、幼少の頃から(岐阜県の)飛騨高山という山の中でスキーをしながら育ちました。飛騨高山に行かれたことある方、いらっしゃいますか? 

(会場挙手)

けっこういらっしゃいますね。

次の写真なんですけれども、ちょうど僕が8歳か10歳ぐらいの頃の父親の写真です。僕が父親から受けた影響はすごく多いです。彼がやってきたことと僕が今やっていることは、まったく業界は違うんですが、そのときの影響が今でも響いているのではないかなと思います。

うちの父親は、大学の頃は物理学をやっていた人なんです。しかし20代後半から30代前半の頃に、物理学の限界に失望したわけではないんですけれども、そこから少し「ものを作る」ということに専念しまして、今から40年くらい前に「オークヴィレッジ」という会社を飛騨高山で始めました。

これは僕が生まれた数年後なんです。その頃に家族で東京から飛騨高山の山の中に引っ越して生活していたというわけです。当時は僕が3歳ぐらいの頃だったので、それから14〜15歳までそこで育ちました。

アートとエンジニアリングの融合で新しいものを作る

その後なんですが、(スライドを指して)この写真、どこかわかる方いらっしゃいますか? わかります? これは日本ではなくてスイスなんですけれども、16歳の頃からスイスのインターナショナルスクールに留学をしまして、そこで数年過ごしました。

16歳の頃に日本を出たのがきっかけで、もうその頃からずっと僕は海外に身を置いている人間です。なので、一応日本語は少ししゃべれるんですが……日本語をしゃべれる外国人だと思っていただければ。

その後、18歳の頃からアメリカに動きまして、ミシガン大学で勉強をしました。

ミシガン大学にはすごく有名なアメフトのチームがありまして、毎年秋、フットボールのシーズンのときには、10万人が入るスタジアムが毎回満員になるぐらい人気のあるチームです。これが90年代後半なんです。

僕がそこでなにをやっていたかというと、子どもの頃から美術などがすごく好きで、美術の専攻でミシガン大学に行きました。(スライドを指して)これは実際に、そのミシガン大学の美術学部のスタジオの写真です。僕が撮ったものではないですが、実際にスタジオで生徒が絵を描いたりしている風景です。

当時は90年代後半なんですけれども、ちょうどインターネットが出てくる時代です。まだモバイルがない時代なので、インターネットへのアクセスは、こういうすごく古いPCで、UNIXといったものを使っていました。

ここに僕の考え方の起点があると思っているんです。アートをやりながら、もう一方はコンピュータサイエンスというすごくテクニカルなことを勉強しました。

そこから今までテーマとしてつながっているのが、「アートとエンジニアリングの融合で新しいものを作る」「新しい発見をする」「新しいことを見出していく」が、今の僕のテーマになっています。これが10代後半から20代前半です。

21歳ぐらいの頃に1回、日本に帰ってきたんです。そのときタナカノリユキさんというすばらしいクリエイターの方の下で修行をさせていただきました。そこで僕は、デザインというものを身につけ始めました。そのため、今やっていることの1つはデザインです。これが1990年代後半から2000年前後です。

今日本でも支社があると思うんですが、R/GAという、有名なところだと昔は映画のオープニングタイトルとかをやっていた会社です。ここはデザインと、あとはすごく技術が発達しているテクノロジーが強い会社です。テクノロジストと一緒にデザイナーとして仕事をし始めたのが、このR/GAという会社です。

僕は、大学で少しかじっていたアートとテクノロジーの融合をどうやってお仕事としてカタチにしていくのかを、ここのR/GAの会社で見つけました。

その後、2004〜2005年ぐらい。AKQAという、これも今日本に支社がある会社です。ここでデザインやテクノロジー、そしてデータをくっつけて、そこからインサイトを引っぱってきて「どうやって新しい答えを見出すのか」ということを学びました。

その後、AKQAには2015年までいたんですけれども、1年半か2年ほど前に独立することを決めました。今はInamoto&Co.というニューヨークにある会社ですけれども、そこでデザイン、データ、テクノロジーの融合をしながら新しい発見をしていく会社をしています。

「次になにがあるのか」を想像する仕事

手前味噌ですけれども、軽く会社の紹介をします。デザインとデータ、テクノロジーの中間点から新しい答えを見出していくという。どういう会社かというと、形態としてはなかなかない会社です。

少し説明がしにくいんですけれども、我々が言っているのは「新しいビジネスを開発するビジネスインベンションスタジオ」という位置づけをしてます。

(スライドを指して)今は20人ぐらいになった会社ですけれども、最初はこの4人で始めました。僕、そして隣の女性はデータサイエンスをしています。その右がウィルという、テクノロジー専門にしている男性です。そして一番右側の男性がストラテジーをやっている。

(このメンバーで)デザインやデータ、テクノロジーにストラテジーのレイヤーをくっつけて新しい発見をしている会社です。

先ほども申し上げましたように、なかなか今までにないカタチなので説明しづらいんですが。今、既存のある会社のハーフみたいなことです。

僕は今までエージェンシーという代理店で仕事をしてきました。デザイナーでもあるので、デザインファンドのお仕事をしたんです。エージェンシーとコンサルティングの会社と、あとデザインファンドのハーフと考えていただければよろしいかと思います。

クライアントは、いわゆる大企業の方たちとお仕事をさせていただいています。僕は日本には頻繁に来ているんです。そのため、日本の会社のお仕事もありますし、海外の会社のお仕事もさせていただいています。

日本の会社だとトヨタさんだったりユニクロさんだったり。後ほど軽く事例を見ていただくんですが、日本の会社でも海外の会社でも、今後企業やブランドがどうやって世の中に人とつながっていったらいいのかを、デザインやデータ、テクノロジーを使って解決をしていく。そういうことをしています。

メインテーマになっているのは、これは大げさな言い方かもしれないんですけれども、次になにがあるかということを常に想像していかなきゃいけないのが僕らの仕事だと思っているんです。

僕もデザイナーとして、明日、明後日、そして来年どういうことがあるかを想像していくことが、仕事の内容になります。

モノから情報、そして人工知能の時代へ

少しメディアの歴史と言いますか、情報の歴史のお話をさせていただきます。

ここ20〜30年の軸で、どう世の中が変わってきたのか。とくに情報に基づいてどうカタチが、そして情報の消費の仕方が変わったかを考えると、大まかに分けていくつかあります。

1990年代までは、これはもうここ何百年も続いている行動、そしてカタチで、本だったり雑誌だったり新聞だったり、物理的な媒体で情報を吸収していました。それが1990年ぐらいのことです。

そして2000年頃からインターネットが普及して、情報を動画などで常にどこでも見られるという時代が来ます。

それから、情報というものがモバイルだったりタブレットだったりするもので、実際にタッチできる時代になります。それが2010年ぐらいです。

今後、情報の消費の仕方で、今まで読んだり見たりタッチしたりすることがあったと思うんですけれども。今後、会話を聞くことによって、しゃべることによって、ただこの耳で聞くだけだったり。あとはIoTなどに語りかけて、言葉で指示を出して機械が動く。そういう時代になっていくのが今です。

このことを少し違う言い方で置き換えると、20世紀まではモノの時代でした。それが20世紀から21世紀の境目で、今度は情報の時代に変わっています。2020年から今後どういう時代になっていくのか。今は盛んに人工知能と言われていることだと思います。

先ほどの落合陽一さんのお話にもありましたが「機械がどんどん知能を身につけ、インテリジェンスの時代になる」と言っていました。インテリジェンスの時代がこれからまたメインになってくるのではないのかなと思っています。

このインテリジェンスの時代は、2015年、2016年ぐらいを境目に、かなり大きな違いがあるとは思います。けっこう抽象的なことだったり、いろいろな応用の仕方があったり、なにに使ったらいいのか、人工知能はなにが得意なのかは、まだ初期状態です。

では、今現在での人工知能の応用にはどういったものがあるのか。ビジネス業界もしくは産業の中で使われている事例はたくさんありますが、ここでは僕個人で興味があるものをいくつかお見せします。これは僕がやったことではなく、世の中に出回っている事例です。

「数秒前の未来」を予測する人工知能

これから映像をお見せします。少しわかりにくい映像なので、1回お見せをして、またもう1回、その中でなにが起こっているかを説明いたします。

(スライドを指して)これはTeslaの車の中にあるダッシュボードです。Teslaのダッシュボードの中のカメラから撮られた映像ですね。これは1年ぐらい前にオンラインで流されて、けっこうバズっていたので、みなさんももしかしたら見られたことがあるかもしれないんですけれども。まず1回流します。

(動画が流れる)

一瞬だったので少しわかりにくかったかもしれませんが、ピピピピピと音が流れているじゃないですか。この画面の下のダッシュボードのところに電気がポポポポと点滅するんです。これはなにかと言うと、Teslaの中に搭載されているレーダーやカメラによって、事故が起こることを予測できるシステムなんです。

これは事故が起こるほんの数秒前です。そんなにすごく遠い未来の話ではなくて、車の中に搭載しているカメラとレーダーが、自分の車の前の状況を把握しているわけです。そして今このTeslaに(この予測システムが)載っています。

その前に赤い車があるんですけれども。実はその向こうにまた別の車があって、このTeslaに搭載されているレーダーが「前の赤い車と、その向こう側にある車の距離感があまりにも近すぎる」「これは危ない」ということで、ピピピピピと「事故が起きそうだ」ということをTeslaの運転手に予測しながら教えているわけです。

もう1回また流します。

(動画が流れる)

おわかりになりました? すごく小さいものですけれども、人工知能にはこういう使い方があります。

表情を表現し、人と触れ合う人工知能

もう1つは、ぜんぜん違う使い方なんですが、これはちょうど1年ぐらい前に発表された「COZMO」というおもちゃです。この後に映像がありますので、それを見ながら説明いたします。

(動画が流れる)

これはなにかと言うと、アメリカのピッツバーグにあるカーネギーメロンというすごく理系に強い大学があるんですけれども、そこの大学院生が数年前に立ち上げたスタートアップの会社です。

一見、彼らが作っているものはおもちゃとしか見えないかもしれないんです。これは去年発表されたCOZMOというおもちゃで、実は人工知能が搭載されているんです。この顔のところがカメラになっていて、自分の目の前にあるものを察知しながら、人の表情も理解し、あたかも感情があるように反応するロボットです。

数年前にピクサーが作った映画でロボットが出てくるものがあったと思うんですけど。ここではピクサーでアニメーターとして働いていた人たちが働いているんです。

こういう、まだまだ基礎的な人工知能ですが。そういったものをおもちゃの中に搭載して、そして知能を与えて、生きているように、ペットのように動く。機械なんですけれども、こういう表情を表現しながら人と触れあっていくことを、この会社は作っています。

これも人工知能の1つなんです。先ほどお見せしたTeslaとはまったく違う使い方です。

Teslaはすごく機能的で、車の中に搭載されているもの。こちら(COZMO)の場合は、正直なところ機能はないですが、人の心を穏やかにしたり、人と遊んだりすることができる人工知能の使い方は、すごく幅があるんだと思います。

人工知能の使い方は「自動化、予測、感情」

大きく分けると、僕は人工知能の使い方には3つあると思っています。

まず1つは自動化、Automation。これは、もう実際にみなさんが日常使えるものです。

例えばGoogleの翻訳機能です。モバイルですごく簡単に使うことができる。人間が今まで何回も繰り返して学習してきたことを、人工知能は機械学習を使って、何回も繰り返さなきゃいけない作業を自動化する。これが人工知能の1つの使い方です。

もう1つはPrediction、予測。先ほどのTeslaの事例はその1つです。予測をしながら未来になにが起こるか。数秒前後の未来なので、すぐ近い未来なんですけれども、そういうものがあったりします。

あとは去年か一昨年か、今まで人工知能では不可能だと言われていた囲碁です。AlphaGOという囲碁の人工知能で、人間を初めて負かしてしまった。その動き方も、今までの人間の考え方や想像力ではなかなか追いつけなかった動きをするようなPrediction、予測をできるのも人工知能の使い方です。

そして最後に、先ほどのおもちゃの事例でお見せしたものなんですけれども、究極的にたどりつかなきゃいけないと僕が思っているのは、このEmotion、感情です。

Automation、Prediction、Emotionという3つのことなんですが、機械がどんどん物事を学んでいくことによって、そして人間のようにどんどんなっていくことによって、このEmotionを備えていく。

まだまだおもちゃの段階でしかないんです。しかし、先ほどお見せしたCOZMOだったり、この(スライドの)右上にあるものは去年の冬に発売されたバービー人形も、人間の言葉を理解して、それに対して適切な答えを出していく。

今、人間と会話をするロボットはまだまだすごく原始的なものです。実際に人と会話をするようなレベルには達していません。

このバービー人形がどういう仕組みでやっているかというと、これは何十人、下手したら何百人というハリウッドの映画の脚本家をMattelというバービー人形を作っている会社が雇い、何千何万というシナリオを書いて会話のベースを作っていくんです。

そして、人間がこのバービー人形に問いかけたときに、この何万、下手したら何十万ぐらい用意されている答えの中からリアルタイムで引っぱってきて人間と応答しているというのが、今の人工知能のレベルです。これをずっと積み重ねていけば、人と人がしゃべるように、(AIも)いずれかはなるのではないかということです。