CLOSE

AI時代の「責任・主体」(全2記事)

2018.04.12

Brand Topics

PR

人工知能が事故を起こした場合、誰が責任をとるのか 哲学・心理学・法学の観点から見たAI規制

提供:国立開発研究法人科学技術振興機構

2018年3月14日、科学技術振興機構(JST)社会技術研究開発センター(RISTEX)が推進する「人と情報のエコシステム」研究開発領域の第1回シンポジウムが行われました。この日の最終セッションでは、「AI時代の『責任・主体』」というテーマで哲学・心理学や法学の観点から人工知能についてディスカッションしました。

AI時代の「責任・主体」がテーマ

信原幸弘氏(以下、信原):東京大学の信原です。

本領域のアドバイザーを務めさせていただいています。私自身の専門は科学哲学で、本領域のテーマにもそれなりに関わっているかと自認しています。

いよいよ最後の第3セッションですが、このセッションでは「AI時代の『責任・主体』」ということで、この人工知能の時代に自律的な機械が現れてきた状況において、改めて責任や主体などの問題、極めて根源的な問題ですけれども、これを考察していこうと思います。

そして考察の観点としては、心理学と哲学と法学、つまり基本的には人文・社会的な観点から、非常に基本的・原理的な問題を、しかも基本的・原理的な次元から考察していくセッションになろうかと思います。

一番最初に國領総括が言われたように、このような趣旨のセッションなので、一番最初に持っていくのが相応しいかとも思われますけれども(笑)、逆にこのような原理的な問題だからこそ、一番最後に行うのがよろしいという考えもあるかと思います。締めくくりに相応しいようなセッションにできれば、と願っております。

全体の進め方ですけれども、まず最初にそれぞれのパネリストの方に、プロジェクトの紹介も兼ねながら、今やってらっしゃることのもっとも基本的な概要を1人6分ずつで説明していただきます。

ただし松原さんを除きます。松原さんは領域アドバイザーであって、プロジェクトの推進担当者ではないからです(笑)。

そのあと、今度は松原さんも含めて、パネリストの間でのディスカッションを行いたいと思います。それからさらに、松原さんから話題提供ということで、人工知能の専門家である松原さんに、この人工知能における「責任・主体」の問題に関する話題を提起していただいて、それをめぐってさらにディスカッションを行っていきます。

そして最後に、フロアの方々からもご意見をたまわり、それについてパネリストの方にお答えいただく、という時間をなんとか確保したいと考えております。

ただ私は、こういう時間を厳密に行う司会が極めて不得意なので……(笑)。そのようにできるのかどうか、こちらの事務方の人たちの協力を得ながら、できるだけそうしていきたいと思います。

脳科学と心理学の見地から

信原:それでは、さっそくですけれども葭田さんから、最初にお願いしたいと思います。

葭田貴子氏(以下、葭田):東京工業大学の葭田でございます。

先ほどの(セッションの)分子ロボットと同じ大学の工学部の機械系におりますが、専門は脳科学と心理学で、肩書き上は人文社会学と言いますか、文学博士です。

最近研究しているのは、人と機械がハイブリッドなシステムに関するものが半分くらいで、ご覧いただいているのは、そういったシステムの中から、「着るロボット」や「履くロボット」と呼ばれるもののビデオを持って参りました。

(動画が流れる)

ご覧いただいているのは私たちの研究室の製品ではなくて、ほかの研究室の製品で、今たぶん一番世の中に出ているタイプです。着ると力をサポートしてもらえたり、弱っている体を外から支えてもらったりなどの機能が発揮できると期待されて、医療現場では下半身に関してはもうすでに導入が始まっています。

これを私自身が初めて履いたときの感覚が、非常におもしろかったものですから、これを研究して今日に至ります。とくに一番印象的なのは、このタイプの人と一緒に協調して動くロボットが、使っている人の「体を動かしたい」という意思や意図のとおりに滑らかに協調動作しているときは、ロボットが文字どおり自分の体の一部に馴染みます。

自分が体を操作しているのであって、ロボットに自分が動かされているのではない、という感覚がありありと生じます。これを最近の認知科学や脳科学の現場では、「エージェンシー」や「操作主体感」と呼んだりすることがあります。

一方、モデルによってはロボットが、使っている方の意思や意図と無関係に動作することが可能なモデルもありました。そういった動きをしたときは、非常に違和感があったり、あるいは「自分の体をへし折られるんじゃないか」というような恐怖感が発生したりすることがございます。

人の感覚を計測や可視化する研究

葭田:ですので、このタイプの人と一緒に協調動作するような、人の体に装着するようなタイプの機器の価値を高めていくには、ユーザーの意思や意図に合わない、恐怖や驚きを発生するような動きをどのように軽減していくかが技術的な問題だろうと思います。

人の感覚を計測や可視化する研究を、心理学者として進めております。その中で私たちの研究室でも、「着るロボット」「履くロボット」を作っているんですが、先ほどビデオでご覧いただいた現在市場に出ているタイプのロボットとは、かなり見た目や機能が異なったものを作っております。

(スライドを指して)最終製品のイメージ図なんですが、こんな感じに「編んで」あって、薄くて軽くて使い捨てで、ふだん私たちが着ている衣服の下に、下着のように着られるタイプのロボットを目指しています。

これを達成するために、ほかの研究室が開発している細い繊維状の人工筋肉と呼ばれるものを使いまして、収縮いたします。これを人の体の外側に装着しまして、この柔らかい素材を使って、衣服のように私たちの体を外側からサポートする、という機械の研究をしています。

このロボットは、最初にご覧いただいた従来製品と比較しまして、医療機器ととても親和性が良いものです。なのでこのロボットを着たままの人を、fMRIと呼ばれる脳を計測する装置の中に入れまして、その装置の中で例えばロボットが使っている人の意思や意図のとおりに動いているとき、あるいは意思や意図に合わない動きをして少し変な感覚が出ているときの脳活動を計測する研究を実施しています。

これが私の研究のメインなんですが、こういうものを作ったり使ったりしている現場にあって、いつも素朴に思うことが1つあります。このタイプの、人と一緒に協調動作するものが事件や事故を起こしたときに、人と装置と、どちらが責任を負うんだろう。

こうした事例はパワーサポートスーツロボットですが、パワーサポートスーツは1つの人間の体に、それを操作する人間の頭脳と、ロボット、あるいは人工知能のようなコンピューターの頭脳が、いわば相乗りして互いに操作し合っている状況です。

なんとなく人工知能やロボット開発の現場を見ていて、同じように1つの操作対象に対して、人間と人工知能、人間とロボットといった、人と人工物が一緒に相乗りしていて互いに操作する事例は、今後増えていく印象を持っています。ですのでそういった事例一般に関して、この問題は問いかけています。

ロボットや人工知能に強制された行為の責任

葭田:その先に、いくつかの問題があると考えております。一般的に人間は、自分が主体となって自分自身が引き起こした意思決定に関しては、そこそこ責任感を感じてくださるだろう。

そう考えたときに、ロボットや人工知能などに強制されたり、制御されて行ってしまった行為や意思決定に対して、ユーザーは責任を感じるんだろうか。恐らく、「あれは機械にやらされたんだ」あるいは「機械が勝手にやったんだ」と、無責任なことを主張するんじゃないか、という問題が1つ考えられる、と考えています。

もう1つは、先ほどご覧いただいたような人と機械のシステムが、一緒にハイブリッドで動いている状態では、第3者から見ると人の体の表面になにか機械のようなものがくっついて、一緒に動いているようにしか見えませんので、その状態でユーザーが無責任になって、例えば「機械が私の体を乗っ取って、勝手に動いた」「機械が誤動作をして勝手に動いた」。

だから先ほどの事故が起こったのであって、自分は責任を負わないと主張し始めたときに、それが責任逃れのための嘘や錯覚ではないことを、どうやって現代の科学で客観的に評価するか、という問題が発生すると考えています。

そもそも人間は自分の体を制御できるのか

葭田:一番最後が、とくに脳科学や心理学で主張したいことで、「そもそも私たち人間自身ですら、自分で主体的・意識的に自分の体を制御したり、コントロールしたりしているんですかね?」という問題があると思います。

むしろ、私たち人間は自分が意識して記憶できるくらいの「意識的に考えて行った体の動作」と、覚えていられないくらいの「あまり考えないで行っている体の動作」が、うまく協調することで複雑な認知的な活動を行っている、と考えるのが現代の脳科学や心理学だと思います。

なのでこういうことを考えたときに、この先人間と、機械や人工知能のような人工物が、ハイブリッドな状態で動いたときの問題をどう考えていくかという疑問を、今日はみなさまと共有して議論していければ、と思います。

信原:どうもありがとうございました。葭田さんからはとくに心理学の観点から、この「責任・主体」の問題を考察していただきました。

それと共に葭田さんには、先ほどのお話の中にもありましたけれども、人と機械が「馴染む」という、そのあり方がどういうことなのか、逆に、「馴染んでいない」ということがどういうことなのか。この「馴染み」も、本領域の1つの大きなテーマですけれども、それを心理学的な観点から触れていただきました。

法学の観点から

信原:それでは続いて、法学の観点から、稲谷さんにお願いします。

稲谷龍彦氏(以下、稲谷):京都大学の稲谷でございます。

私の専攻は刑事学、あるいは刑事政策と言われるものです。具体的には、哲学・経済学・認知科学等の知見を生かして、学際的な視点から刑法や刑事訴訟法等の刑事法の解釈・立法のあり方を研究しています。

最近では、近代刑事司法制度を構成する基本原理の再検討に取り組んでいます。先ほど葭田先生がおっしゃられた「そもそも主体ってなんですか?」といった最近の認知科学の研究や、近代的な哲学にこだわらない、新しい哲学の登場などにより、従来の議論の基盤が変化を余儀なくされていることが、刑事法上のさまざまな問題にどう影響するのかについて強い関心を持って研究しています。

今回のテーマとの関係では、『アーキテクチャと法』という書籍に『技術の道徳化と刑事法規制』という論を寄稿したことがございますので、もしご関心があればそちらもご笑覧たまわれば幸いです。

それでは、プロジェクトの紹介に移らせていただきます。先ほど「プロジェクトの推進担当者のお話を聞きましょう」というお話も出ておりましたが、実は私はプロジェクト全体の推進担当者ではございません。

私は、「自律性の検討に基づくなじみ社会における人工知能の法的電子人格」を研究テーマとする「浅田プロジェクト」内の1つの研究グループについてリーダーとして研究を推進する立場でございます。

プロジェクトの具体的内容としては、大阪大学の浅田稔教授及び河合祐司助教を中心とする工学グループと、首都大学の西貝小名都准教授と私を中心とする法学グループとが共同して、「なじみ社会」における人工知能の受け入れ方を探究することとなっております。

「なじみ社会」とは、人工知能と人間とが相互に、インタラクションしながら、かつ共生していく社会です。このうち工学グループは主として、人工知能の自律性の検証と人間とのインタラクションの測定を行っています。一方法学グループは、人工知能に法人格を付与するための条件の探究と、人工知能の法的責任について検討しています。

このような構成の中で私のグループは、人工知能の特性に応じた刑事司法制度を実現し、「なじみ社会」において人工知能の法的責任を適切に定位するために、現行刑事法の限界の克服を目指して研究しています。

人工知能の開発・利用をめぐる現行刑事法の限界

稲谷:では、なぜ現行刑事法の限界を考えなければいけないのでしょうか。そもそも現行刑事法の限界は、現行刑事法の基礎をなす近代刑事法の基本的な考え方、すなわち、近代哲学における厳格な主客二分論や自由意志論に由来しています。

そこでは完全な自由意志を備えた主体による、完全な客体のコントロール、という基本的な図式を採用していますので、事物は主体による完全な統制対象たる客体である、という前提があります。

そういたしますと、客体たる事物が危険を生じさせた場合には、その事物を統制するべき主体に、「統制に失敗したんだね」ということで刑事罰を科されることになる。そのような帰結が導かれることになります。

このように近代哲学に大きな影響を受けている刑事法に対して、民事法は、ローマ法以来の考え方、近代以前の考え方も採用していますので、必ずしも自由意志を備えた主体による完全な客体の統制、という図式に囚われているわけではありません。

ですから、例えば一定の危険の管理者に、過失の有無を問わずに責任を負わせるような危険責任原理であったり、あるいは統制できない危険を当然の前提とする保険制度の存在などは、そもそも民事法はその基盤とする法思想のレベルで刑事法とやや異なることを示しているようにも思われます。

つまり、現行刑事法が近代哲学に立脚することによって、人工知能の開発・利用をめぐって直面することになる種々の法的問題に、現行民事法は必ずしも直面せずに済むわけです。その結果、どちらかというと刑事法の分野において理論的に困難な問題が多く生起することになります。人工知能の開発・利用をめぐる法的責任を考えるにあたり、刑事法分野を中心に議論している背景には、こうした事情があります。

哲学者の「非近代的な決着」への着目

稲谷:現行刑事法が、人工知能の開発・利用をめぐって直面することになる法的問題は、大きく分けて2つ存在いたします。

1つは、人工知能の発展的・流動的な性質が、そもそも完全な統制対象という本質化された客体の性質と外れている点です。

もう1つは、先ほどの葭田先生の話にもございましたけれど、人工知能の発展と共進してきた認知科学や脳神経科学の知見と、外的環境に影響を受けない自由意志を備えた本質化された主体という性質がそもそも嚙み合わない点です。

こうした理論的なレベルでの問題に加えて、現行刑事法は基本的に主体の処罰か非処罰か、という選択肢しか用意していません。その結果、開発・利用者の危険統制の失敗を理由とする過失犯規定等での処罰による過度の萎縮か、あるいは免責による自由放任かという2択しか存在しない、という実践的な問題も存在しています。

先ほど申し上げたとおり、現行刑事法の限界は、近代哲学に起因いたします。したがって、その限界を克服するためには近代哲学とは異なる哲学、とりわけ主客二分や自由意志論を前提とする必要のない哲学に立脚することが基本的な指針となります。

この観点からまず注目されるのが、ブルーノ・ラトゥール(Bruno Latour)による「非近代的な決着」の提唱です。

ラトゥールによれば、人と事物は元来相互浸透的な関係ですので、問題とするべきなのは「人はどうあるべきか」、あるいは「事物はどうあるべきか」という本質的な決着ではなく、両者の関係性のあり方とそれが向かっていく先をどのように規範的に評価するべきか、という点に議論の重点がおかれることになります。

こうした問題意識を発展させ、より実践的な解決のあり方を提唱している、ピーター=ポール・フェルベーク(Peter=Paul Verbeek)の見解も重要な意味を持つように思われます。

とりわけ彼の提唱する「合成志向性」という概念は、人間の意識自体が常に外的環境との合成ベクトルであるということを明確化した上で、それぞれにどのように働きかけるのが規範的に望ましいのか、という問いの立て方を可能にする点で、主体と客体の本質化が許されない事態を取り扱うにあたり重要な意味を持つことになります。

なお、志向性概念を利用することの長所としては、最近の認知心理学における心理学的主体性研究が、現象学から派生しているという側面を持っていますので、哲学的に妥当であると同時に実証的なデータを利活用していく可能性も開かれる点もあげることができます。

法学の方法論自体がシフトする

稲谷:このようにラトゥールやフェルベークの見解に立脚し、主客の本質化よりもむしろ両者の合成のあり方を問うことは、「人間は本質的にどうあるべきなのか」という近代的な倫理学的問いから法規範を導いてきた従来の法学の方法論から離脱していくことになります。

むしろ「人間はこれからどうありたいのか」という、ミシェル・フーコーが再生した徳倫理学的な問いや、生の美学に関わるような問いから法規範を導いていくことへと、法学の方法論自体がシフトすることになるでしょう。

この点で興味深いのは、「接触」と「ずらし」を特質として、我と世界との関係性の再解釈・再構成を尊んできた日本的な美意識の存在です。

より良き人間存在のあり方を求めて、遊びと導きを批判的に実践する日本的な美意識は、主客定かならぬ世界における法規範のあり方を再考する上でも、重要な意味を持ち得るのではないかと考えています。

このように主客を本質化することなく、絶え間なく両者の関係性に働きかけ、より望ましい在りようを探究する哲学ないし思想が、新たな刑事法の理論的基礎となるとすると、人工知能の開発・利用をめぐる刑事法規制のあり方も、従来とは異なるものとして構想されます。

第1に、事物から人間への影響力を正面から捉える制度が必要になります。この文脈では、人工知能そのものの矯正に焦点を合わせた制度が必要になるでしょう。といっても私が提案するのは、人工知能に感情等をプログラミングして処罰するような、若干フェティッシュで、人間と刑罰をむしろ本質化したような解決ではありません。

現在主流の自由刑という刑罰ですら、自由を尊ぶという特定の人間像の教育・訓練によって成立しているように、刑罰や人間のあり方になにか本質的な要素があるわけではなく、権力を通じた存在態様の強制的な変更という以上に、刑罰の意義を見出すことは難しいと考えられるからです。

「法人処罰制度」の応用が望ましい

稲谷:そこでむしろ、人工知能のリプログラミングや、それを実装した機器の再設計を刑罰に確保するために、いったん人工知能そのものに刑事責任を帰属させ、必要な矯正がなければその流通を止めるという強迫を背景に、種々のステークホルダーの協力を引き出し、その履行を刑事制裁で確保するという制度を考えております。

この制度によって、人工知能やそれを搭載した機器は、まさにその存在態様を強制的に変更されることになるのです。なお人間以外の存在態様を強制的に変更する制度のひな形は、合衆国をはじめとする諸外国において採用されている、法人の構造改革に焦点を合わせた「法人処罰制度」に求めることができますので、それを応用することが望ましいでしょう。

第2に、こうした矯正の方向性を、民主主義的なプロセスによって行う必要が生じます。このような解決は、法に規定された画一的処罰を前提とする近代法の罪刑法定主義の縛りを必然的に外れてしまう以上、民主主義的な統制の確保が重要な意味を持つことになるからです。

フェルベークの「技術の道徳化」論に示された設計思想や、ラトゥールの「物の民主主義」論、さらには法学の分野でも、レイチェル・バルコー(Rachel Elise Barkow)による公共政策としての刑事司法制度論などは、こうした方向性を補強する上で重要な意味を持ち得るでしょう。

最後に、近代法の前提に縛られない解決は、我と世界との関係性を常に再解釈・再構成すること、例えば日本的世界観の発信に繋がることも指摘しておきたいと思います。こうした解決法の提唱は、主客二分にさほどこだわる必要のない我が国だからこそ提案できるものだと考えられるからです。以上でございます。

信原:非常に多様な論点を出していただいてありがとうございます。私からは総括できません(笑)。

人工知能を哲学の観点から

信原:それでは続きまして、今度は哲学の観点から、松浦さんにこのAI時代の「責任・主体」の問題を、簡単にプロジェクトの紹介をしていただきながら、お話していただければと思います。

松浦和也氏(以下、松浦):私は、今日登壇された先生の中で一番人工知能から、まったく遠い研究をしております。

専門は哲学なんですけれど、古代ギリシアの哲学が中心なので。古臭い埃まみれの本にまみれて、ロッキングチェアーに座ってちまちま研究をする一生を理想と思っているような人間でございます。

それでもやはり社会の変化に対して人文学者もある程度寄与しなければいけないと思っております。哲学とひとことにいっても、さまざまな研究対象と方法論がありますが、そこからどういうことが言えるのか、という簡単なお話をさせていただきたいと思います。

まず、哲学から人工知能の話をすると、「コンピューターは知能を持つのか」のような話が主流になってしまって、それに答えるためには結局のところ「知能とはなにか」を問わねばなりません。

ただし、「知能とはなにかを問う」だけで一生かかります(笑)。なぜなら、「知能」という概念が歴史的産物だからです。

人工知能に社会思想たちは影響するのか

松浦:私のプロジェクトでは(スライドを指して)こういうアプローチを取っております。

人工知能に対して、これまでの社会思想をはじめとした哲学的知見は、どのような社会的位置付けを与えるのか、ということを考えていきます。このときに、1回「人工知能とはなにか」などの問いかけは、カッコにくくります。

なぜカッコにくくらないといけないか、と申しますと、技術が発展する余地を残しておかないと、技術革新が興ったときに最初からやり直さなければならなくなるからです。むしろ、さまざまタイプの人工知能を受け止める「受け皿」を用意することが、科学技術の変化により柔軟に対応できるはずです。

ただし厄介なことがいくつかあります。責任という概念を1つとってみましょう。調べてみればすぐ判明することですが、この概念にはさまざまなタイプがあり、しかもそれが重層的にかつ多義的に織りなしてます。

さまざまな文化において責任概念が多様な形で形成されてきて、その延長に位置する現在の社会で流通している責任概念も歴史的に形成されてきた中で取捨選択が行われてきたもののはずです。そして、その多様性の中からわれわれは現在の社会やそれぞれの目的に合わせマッチしたものを用いているのではないでしょうか。

そういった中で私のプロジェクトの場合は、全体的な見取り図を、2人の先生方のプロジェクトに提供するという役割を果たすつもりでいます。

私としては、市民、あるいは社会制度と人工知能の間を繋ぐときに、心理学的なアプローチではすくいきれない部分が多いのではないか、と勝手に思っています。

例えば「こういうことは違和感あるよね」となったときに、どうして違和感があるのか。その違和感を社会的にどう評価するのか、あるいは人間的にどう評価するのか。このような問いは、人工知能と付き合っていくためには向き合わなければならない問いだと考えていますが、それはおそらく哲学や文学の領域からアプローチしてはじめて明らかになることではないでしょうか。

このように、責任概念や人工知能のあり方に関する厳密な基礎づけは与えられないかもしれないけれど、2つのプロジェクトの間をつなぐような正当性を与えられるような理解を提供することを目指しています。

AIはどうすれば人間と対等の存在となり得るのか

松浦:そのための、私のプロジェクトの根本的な問いかけは、「人工知能はいかなるものか」「人工知能は人間と対等になるか」ではなくて、「人工知能がいかなる能力を持てば、人間と対等の存在となり得るのか」です。

この場合の人間は、社会的な人間です。言い換えると、一人前の人間です。

一人前の人間とは誰か、という問いに対する応答から、現状の個々の人工知能技術を対比させれば、あの人工知能にどういう能力が足りていて、どういう能力が足りていないという観点が浮かび上がるはずです。そして、その人工知能に、たとえば法的人格が認められない根拠を提供することもできるでしょう。さらに、個々の人工知能に対して、我々人間の側がどういうケアをするべきか、といった論点も現れてくると想定しています。

具体的にお話しします。私はアリストテレス研究者なので、そこからお話を提供すると、アリストテレスに「じゃあ責任主体って誰?」と聞いたらこのような応答が返ってきそうです。

まず、行為には2通りの種類があって、「意図的な行為」と「不本意な行為」があります。そうしたときに「Xは責任主体である」。誰かが責任主体であるのはどういうことか。「その責任主体が意図的な行為を為すことができる」ということです。これによってなにが除外されるかというと、例えば強制的に人から命令された人間が、責任主体からいなくなるわけですね。

例えば子どももこういった論点で責任主体から除外されるし、あるいは一部の知的疾患を持っている人たちの行為に関しても、こういった点からある程度「責任主体ではない」というかたちで除外することができるわけです。

アリストテレスの見地から

松浦:他方、行為は基本的に実践三段論法から導かれると考えられています。

大前提と小前提、「健康的な食べ物を食べるべきである」あるいは「食べたい」があって、そして「目の前のこれは健康的な食べ物である」ということがわかった場合は、結論として「これを食べる」という行為が帰結する。

このような行為モデルを基盤にすれば、誰かが責任主体であるということは、その人が意図的な行為を為すことができるということであり、さらに意図的な行為を為すためには、実践三段論法が可能な知的能力を持つということになります。

この観点から見れば、AIは基本的に推論ができる能力を持っていますので、責任主体となり得るのではないか、と評価することは可能です。

今は簡単に一部を紹介しましたが、これ以外にも責任主体として見なされるためのさまざまな要件がテキストに散りばめられています。例えばおもしろい論点としては、行為の結果が悪いものであったときには、「後悔」の情を持ちうることが、一人前の人間とみなすための条件の一つであるようです。

財産などを保証するような能力をAIに求めるのか

松浦:もう1つは、他人に害悪を及ぼしたときに、その害悪を弁償する能力、例えば財産などを持つ能力が必要だ、という論点もあります。

このように、過去の思想をフィルターとして用いれば、現状の人工知能に対してどのような反応が起きるか、あるいは違和感が起きるのか、という課題もある程度、予測することができるのではないかと思います。

その予測をいくつか集積したあとに、その違和感等々をうまく接合できるようないくつかのアイディアを提示するくらいまでは、私たちのプロジェクトから作り出せるのではないかと考えています。

信原:どうもありがとうございました。松浦さんからは、哲学の観点ですけれども、とくにご専門のアリストテレスを含めて古代、中世、そして場所も西洋に限らない広い視野からの、思想史的なパースペクティブ。

こういう観点から責任主体という問題を考慮し、現在の人工知能をその観点からどう位置付けられるのか。こういうプロジェクトをやっていただいております。そのようなことをお話いただきました。

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
著者フォローや記事の保存機能など、便利な機能がご利用いただけます。

無料会員登録

会員の方はこちら

国立開発研究法人科学技術振興機構

この記事のスピーカー

同じログの記事

コミュニティ情報

Brand Topics

Brand Topics

  • ランサムウェア攻撃後、わずか2日半でシステム復旧 名古屋港コンテナターミナルが早期復旧できた理由 

人気の記事

人気の記事

新着イベント

ログミーBusinessに
記事掲載しませんか?

イベント・インタビュー・対談 etc.

“編集しない編集”で、
スピーカーの「意図をそのまま」お届け!