ITやAIはインタラクションをどう変えるか

安西祐一郎氏(以下、安西):社会とAIの関係を、技術の側・人間の側・社会の側から見ることになります。

すでに第5期科学技術基本計画でSociety 5.0と言っております。Society 5.0って何なの? といろんな方に聞かれるのですが、これはなんとも言いようがない。それを決めていかれるのは、むしろこのプロジェクトをやっておられるみなさま方ではないかと思います。

そういう中で私自身は非常に大事だと思っているのは、インタラクションの問題です。人と人とのインタラクション、あるいは人と環境との間のインタラクション、あるいは人とロボット、人と機械の間の、人とネットワークの間のインタラクション。

インタラクションと言うと、すぐ「インターフェースか?」って言われるのですが、インターフェースは、コンピュータインターフェースでもロボティクスのインターフェースでも、やはり人間から見て機械を使いやすくするということです。

インタラクションというのは、究極的には人と人とのインタラクションの問題を扱うことで、それに対して「ITやAIがどう役に立っていくか」ということになります。

あとで申し上げますが、AIの専門家の方は多いわけですが、AIというのは肉体労働だけではなくて認知の世界、コミュニケーション、あるいは人間の社会性のキャパシティへ入り込んでくる技術だというところが今までにあまりなかったことだということ。

英語で申し訳ありませんが、これ実は、JST(Japan Science and Technology Agency)で、インタラクションの国際シンポジウムがあった際に使ったスライドでございます。私がもといた大学の研究室は、1990年代の初めから人とロボットのインタラクションの研究をずっとやっております。

もう25年になりますが、これは10年近く前の京都の研究学園都市のスーパーマーケットでATR(Advanced Telecommunications Research Institute International)と一緒に、ずっと実際の現場で実験を続けていた当時のものになります。これはビデオになりますが省きます。

リターナーと書いてあるのは、スーパーから見てお客様に何度も来てもらうようにするにはどうしたらいいか? そのためにロボットはどう役に立つか? お客さんとスーパーの経営者、その間のインタラクションの問題になります。

クライアントとマネジメント側の間を、ロボットという機械がどうつなぐか。それが、ロボットの設計の非常に重要なところです。インターフェースと言うとどうしてもロボットと人間だけに限られてしまうので、そういうことではありません。

ダボス会議の有識者が予想すること

もう何度も波が来ているので、この中でAIやってる方はよくご存知の通りです。

今まで何度も若い研究者の方々でも本当に持ち上げられて「これからAIの時代だ」と言われてやってたら、いきなり波が落ちて、誰も見向きもしなくなったということが繰り返されて来たわけです。

似てる点はずいぶんあります。昔いったん上がって落ちた。その波と今の波が似てる点はかなりあります。ただ似てない、違う点もずいぶんあるわけです。

違う点の1番大きなものは、ITの技術が相当いろいろ進歩していることだと思います。それからマシンラーニングの技術にいたしましても、今のところ限界があまり見えてはいない。

ハードウェアのスピードとの勝負になるとは思いますが、あんまり限界が見えてるということではない。そういう意味ではまだ希望はあると。波が明日からガタっと落ちるということはないだろうと見ています。

これはいわゆるダボス会議ですね。ダボス会議の予測なんですが。1番だけ言うと、「人間の10パーセントがインターネットに接続された衣服を着ていると思う人」。これがダボス会議の下にあるGAC(グローバル・アジェンダ・カウンシル)というカウンシルの中での有識者の調査。

2025年にこれが起こっていると思う人のパーセンテージ。その有識者の中で90パーセントくらいの人は、人間の10パーセントが着てる洋服がインターネットにつながっていると思ってるということ。これはもちろん出てくると思います。

人文学・社会科学と人工知能の関係

今言ったようなことを、私も関与してAIを中心にした技術開発を政府が進めるようになっています。おそらくそんなに大きな額とは思いませんが、今年度か来年度か、政府としてだいたい1,000億円くらいがAIあるいはIoT等々関連の予算として計上されているのではないかと思います。

そのうえで人文学・社会科学と人工知能の関係というと、これは本当にいろいろあるわけです。この中には哲学の方も心理学の方もおられますので申し上げにくいですが、人文学のほうから申し上げますと、人文学が果たす役割は本当に大きいと思います。

私自身、北海道大学の文学部の社会心理学講座の助教授をしておりまして、一応肌で文学部がどういうところなのかは教員として知っているつもりです。

これは本当に大事なのです。ただやはり技術のスピードが速くて、なかなか本当の技術屋さんの心をキャッチできるくらいの具体性を持って、人文学の方がこの流れを掴むことはそんなに簡単ではないように思われます。

それには哲学全体の問題、科学哲学の問題、いろいろある。例えば人工知能の哲学、あるいは認知科学の哲学と言いますか。これは1960年代くらいから80年代くらいまでずっと。

いわゆるファンクショナリズム(functionalism)とか、コンピュテーショナリズム(computationalism)、リプリゼンティネーショニズム(representationalism)とか、いろいろなことが言われてきたわけです。

とくにファンクショナルな認識論的な考え方がなかなか現実には通用しないというのでしょうか。いろいろなことが言われまして。現在は、今申し上げた流れはそれほどメジャーになっているとは思いません。

哲学はロボットについて何を語れるか

そういう中で、とくに科学哲学がAIに対してどう切り結ぶことができるのかは答えはないわけですが、非常に大事な問題だと思います。科学哲学は主に私の見るところでは、物理学の哲学。それから生物学の哲学です。こういうところはずいぶんやってこられています。

ただ例えば情報科学の哲学ということになりますと、例えばアルゴリズムとは何か? あるいはアルゴリズムのアウトプットとは何か? 例えば物理学の哲学で言えば、クオークというのは存在するか? データとしては取れます。

この間、重力波でノーベル賞が出ましたが、重力波の実験は2回しか、2つしかデータが取れていないわけですが、2つデータが取れて、それでノーベル賞なのです。それはいったいどういうことなのか? 

その一方で、アルゴリズムは存在すると思っていいのかどうか? そういう問題はそれほど重要と思われるかどうかわかりませんが。

やろうと思えばできないことはないと思いますが、人間とロボットが複合するような、あるいは自律性を持ったロボットが出てきたとき、「ものの見方はどういうものであるべきか」ということに、かなり影響を及ぼすと思われます。1つの例で申し訳ありませんが。

それから認識論とか存在論とか、とくに倫理とか正義とか善とか徳とかそういう問題です。これをAIということを後ろに乗せて、それでかなりシャープに語っていただければ非常にありがたいと思います。

いろいろな方がいろいろなことを言うので、科学技術の側も、教育と哲学は素人でも語れるのです。ところがやはり教育も哲学もプロがいるのです。いるというのは必要というのではなくて、存在しておられます。そのプロの方にきちんとシャープに語っていただかないと、みんながいろいとなことを言ってて、それで「うん、うん」とうなずいている。こういう状況に今なっているように思われます。

「社会とは何か?」「知識とは何か?」「自律性とは何か?」「生命とは何か?」「情報とは何か?」こういうことはもうすでに、國領先生のプログラムではいろいろな議論がされてきたと思います。その下も、人間と他の生物はどこが違うか? 哲学と人工知能がなんとかとか。cul-de-sacというのは隘路です。

社会的存在としての人工知能

1つだけ、私が一応今取り掛かっていることだけ申し上げます。これはご存知の通り、ロールズの正義論というのがあります。

倫理とか正義とか善とか徳に関わる多くの問題は、孤立した人間の問題ではなくて、社会の中での人間の問題になっていることが非常に重要だと思います。

このロールズの有名な正義についての定義もそうですが、社会ということを想定したうえでの人間の問題を扱っているわけです。この中にいわゆる自律移動ロボットが入ってくる。あるいは、それが本当に自律性を持って自分で考えるようになる。こういうときにどうしたらいいの? ということを議論しておられるのだと思います。

ここにあります通り、社会的存在としての人工知能ということです。それを考えたときに、サイエンスの側といわゆる認知科学、情報科学の側と哲学の側からの歩み寄りで。

今私が少ない時間で一応いろいろ考えているのは、情報の共有ということです。2つのAgent、アクティブなAgent、あるいは意思決定主体です。意思決定主体の間で情報が共有されるとはどういうことなのか? 

哲学の方はよくご存知の通り、「それは情報が共有されていると思っているだけだ」「推論しているだけだ」という考え方がありますね。それから「いや、実際に共有されているんだ」という考え方があって。これは例えば社会心理学で2つに分かれるわけです。

社会心理学というのは、社会学的社会心理学と心理学的社会心理学があるわけです。心理学的社会心理学のほうはむしろ、個人の認知のキャパシティをベースにして社会とは何か? ということを考えていく。

社会学的社会心理学は、社会があることを一応presupposeして、そのうえでその中で暮らしていく人間のことを考えている。両側があるわけであります。そのちょうど真ん中あたりのところにsharing of information、情報の共有です。情報の共有とはいったいどういうことか? その情報とは何なのか? 

情報というのは物についてのただのラベルだけじゃなくて、共感の問題もあります。エンパシーです。共感というのは、ある人の気持ちをこっちがいわゆる忖度しているということですが。

その研究は、発達心理学などでずいぶん行われてきているわけです。それを両側が持っていることが、ある意味感情を共有することになりますが、それは「共有している」と思っているだけと。のちほどまた情報共有のことも申し上げます。

自律的なロボットと進化の問題

社会的存在としての人工知能は、人間の倫理と人工知能の倫理の問題。それから、その上の2つはかなり哲学に近い、あるいは心理学に近い問題なのですが。実際に、国際会議などでAIの人とパネルとかで話すと、とくに多くのアメリカの方々が気にしているのはこれです。政治の道具、あるいは軍事利用です。

これは哲学の問題とは違うかもしれませんが、道具としてもいろいろなことに使えてしまう。これをいったいどういうふうにコントロールしていけばいいのか? アシロマ会議とかと似たようなものかもしれませんが、そういうことになる。

それからもちろん、人工知能に関わる法律から経済への影響。経済への影響で申し上げると、予測するのが非常にやりにくいのです。なぜかと言いますと、政府による業種があります。製造業など、定義があるわけです。ところがITというのは全部横串なんです。製造業がどのくらい伸びるかという計量経済学的な予測をしても、その中のITの部分はどのくらいなの? というのがわからないわけです。

ですから、国がITにどのくらい投資をすればそれによってGDPがどのくらい上がるの? ということがなかなか計算できないと思います。本当は、産業構造のベースになっている業種の定義から考えていかないと、1番最後のところはデータとしては議論しにくい。

1つは情報の共有の問題。もう1つは進化の問題です、エボリューション。ロボットになぞらえて言えば、自律的にものを考え自分でなにかを実行してしまうようなロボットと、言われたことやプログラムされたことはやるが、そのほかのことはやらない。

面倒くさいことに、その間にディープラーニングとかマシンラーニングとか言われて、とにかく勝手にデータのマイニングをやって勝手にディシジョンをして、そういうことができるようになってきているわけです。

それはむしろ例えば前者に入れると。オートノマス(自律的)なマシンに入れると。そうしたときに、これはまったくの叩き台でありますが、オートノマスなマシンは進化の問題と切り離すことはできないのではないかと思います。

なぜかと言いますと、動物愛護法を例にとってみると、これは実は動物の愛護と管理に関する法律っていう名前なのですが、これを読みますと、動物とどう付き合うかということがたくさん書いてあります。

動物とは何かと言うと、法律の方は物なわけです。とにかく二者択一で人間かそうではないかで法律ができているわけです。一方で動物を愛護しなければいけませんよという法律にもなっているわけです。

そういう中で今申し上げた自律的なロボットは、different speciesであるという考え方ができるのではないかと思われる。

ロボットに命令された人間は言うことを聞くか?

これは、私がめずらしく論文を書いたものでありますけど。今こういうことを自分ではやっています。

これは全部私の考え方ですので、反論があって然るべきだと思いますが。2行目の自律性はブレイン・マシン・インターフェースが進化したような複合的なものとか、進化の観点、情報の共有が私の個人的な関心事です。

SAMRAIと書いてありますけど、これは1つの種として見る必要があるのではないかと。自律的な機械を1つの種(Species)として見たときに、例えば動物と並べて見たときにそのロボットをどう見るべきか。

iとdの2つがありますけど、independentとdependentですね。dependentはプログラムを入れて動かすだけで、ほかになにもしないというものです。

iのほうが少し問題で、それについては私は進化心理学の考え方がかなり活きてくるのではないかと見ています。

dについては実際に30年近く、20何年前に私どものところでいろいろな実験をやっておりまして、インタラクションに置ける権限と責任というのはとくに我々の20何年前にやってた実験の、今産総研にいる山本吉伸君のドクター論文です。

ロボットが人間に命令をしたときに、人間は言うことを聞くか? という実験をいろいろな条件を付けてやる。自然言語で命令をするのですが、「この部屋から出て行ってください」というだけなのですが、人間がロボットの言うことを聞いて出ていくか? という実験をやる。

どういうときに出て行って、どういうときに出て行かないか。なかなかはっきりしなかったのですけど、ある程度申し上げると、ロボットの後ろのオーソリティがわかれば、そのオーソリティが信頼できれば出て行くと。

まあ当たり前ですね。テレビでも、例えばテレビが有名なメーカーの名前が付いていれば安心して「このテレビは壊れないだろうな」と思うけど、ぜんぜん知らない会社の名前が付いてると「大丈夫かな!?」と思うというのと似ているわけです。そういうことも関係してくると思います。

議論よりも実践が求められる時代へ

1990年代半ばに、ロボット用のリアルタイムのオペレーションシステムを設計して実装をやっていました。

このロボットの実装はどうやってやるかと言うと、OSの中にマナーモジュールというのを組み込む。これはこういうことをやってはいけないというルールが書いてあります。これは状態遷移図ですが。人間とそのロボットが物のやりとりをする。物を渡してあげる、そういうロボットです。

そのロボットがやってはいけないことは、物を放り投げたりしてはいけないし、人間が「ここで会おうね」と言ったらそこへ行かなければいけないし。そういうことをきちんと言うこと聞かなければいけないわけです。

人間が「ここで会おうね」と言って、そこへ来なかったら困ってしまう。当時ですからルールベースですが、それをプログラムとしてOSに組み込めるようになっておりまして。

OSレベルで組み込むと、いい点は外からのインタラクトに対して即座に反応できるのです。こういうところをすでに1990年代にやってきてるわけです。

こういうことを科学技術の側もぜひ考えていただいて、やることはいっぱいあるので。むしろ非常に抽象的な大きな議論よりは、もっと具体的な何かをぜひやっていっていただければ。時代のスピードはものすごく早いものですから。

今日は法制度の議論、世界でやられている議論とかAIについての制度的、ルールの議論とか、そういうことはまったく申し上げませんでしたが、みなさんのほうがよくご存知だと思います。

非常に大きな議論もけっこうなんですが、やはり現実の問題が動いておりますので、そこに向けてセーフティをきちんと組み込むような技術とかいろいろとやれることがありますので、ぜひそれはよろしくお願い申し上げます。

この話はたぶん丸1日以上はかかると思いますが、それぞれの専門家の方とは多少の話はできると思いますので、ご関心のある方はぜひ個人的にご連絡いただければと思います。

最初に申し上げた通り、私の1番関心のあるテーマの1つですので、ぜひ今後ともよろしくお願い申し上げます。どうもありがとうございました。

(会場拍手)