2024.12.10
“放置系”なのにサイバー攻撃を監視・検知、「統合ログ管理ツール」とは 最先端のログ管理体制を実現する方法
提供:国立開発研究法人科学技術振興機構
リンクをコピー
記事をブックマーク
城山英明氏(以下、城山):どうもありがとうございました。それでは、パネルディスカッションで2つほど議論させていただきたいと思います。
1つ目は、アセスメントする、ELSIをする人たちと技術者、研究開発の当事者との関係、ここが1つのポイントです。同時に、そういうアセスメントを当事者にフォードバックするのもそうですが、ルールメイキングのプロセスやマルチステークホルダーのプロセスにどうやってフィードバックしていくのか。このプロセスの設計の仕方というのが1つの共通の課題なのではないかと思います。そのあたりについて、もう少し踏み込んでご意見をうかがえればと思います。
例えば最初の小長谷先生のお話では、たしかにアシロマ会議方式でサイエンティストだけでやっているのではなかなか狭い。やはり外の声を入れなければいけない。そういう意味ではELSIという概念は意味があったんですが、あんまり外というか外在的すぎても研究者というのはなかなか動かない生き物でもあるので、そういう意味では、Responsible Innovationという考え方が魅力的だという話だったと思います。
そういう意味でいうと、いいかたちでの技術開発と、こういうELSI、あるいは社会学・人文科学やってる人たちの付き合い方というのはどういうものなのか、あるいはなにが難しいのか。そのあたりもう少し踏み込んでおうかがいしたいと思います。
これは小長谷先生には技術開発の側からその点についてどう思うか。標葉先生には逆に人文社会科学というかつなぐ立場として、そのような場を作っていく上でどんな配慮が必要なのかなど、どんなかたちであればうまくいくのか、少しご意見をうかがえればと思います。
たまたまIEEEという電気工学や電子工学の技術の学会で、Ethically Aligned Designという議論をする機会がありました。
AIのようなAutonomous Intelligent Systemについて、倫理的に整合的なデザインをどうやるのかというガイドラインのようなものを作ってるんですけれども、そうしたところにいくと、けっこう「あれ、大丈夫なのか?」みたいなコンセプトがあるわけです。
例えばこれは企業を念頭においているかと思いますが、CVOを置けって言うんです。Chief Value Officerを置いて、そうしたEthicalな話を見れる、Chief Information OfficerだったりCOOに該当するような人を置いて、外から見ましょうということを言うわけですが、ただここはまさに小長谷先生が言ったように、「外在的にやって本当に動くか?」という問題があるんだろうと思います。
あるいは他分野でいうと、これは実際に制度化をされているわけですが、例えば医療のような分野だと院内の倫理委員会ですね。internal review boardみたいなものあって、そこでまさに倫理を見る人がいるわけですが、そういう人たちが本当にうまく役割を果たせるかというと、どうも課題があるところもあります。
そういう意味でいうと、たぶん外からの視点はすごく大事なのですが、同時に中からの視点とうまく融合するような視野が大事で、そのあたりについて、どういうかたちでやっていったらいいのかを、とくに小長谷先生、標葉先生におうかがいしたいと思います。
新保先生にも、そういうことを促していく、ある意味では仕組みとしてどのようなかたちがありうるのか。それこそ民間でやっていくのがいいのか、政府が関与するのか、関与するにはどうするかということについて、ご意見があればと思います。
もう1つは、新保先生が最後におっしゃられたようなマルチステークホルダーのプロセスをいろんなかたちで研究会で実験的に実践をされていると思いますが、どのようなかたちで設計して動かしていったらいいのか。あるいは、例えば従来の審議会のシステムのようなものも、そうした機能を期待されているのだと思いますが、どんなところを改善していく必要があるのか、そのあたりも少しちょっと広げてご意見をいただければと思います。
城山:ということで、最初は小長谷先生よろしいでしょうか?
小長谷明彦氏(以下、小長谷):合成生物の研究者はELSIに対して非常に敏感なんです。これはなぜかというと、遺伝子組換えがベースになっていますので、研究計画を必ず倫理委員会に出さなきゃいけないという意味で非常にセンシティブなんです。
ですが、それはある意味ルーチン的になっていて。本当の意味でのELSIという視点から、どこまで本当に理解して実践しているかというと少し疑問なところはあります。
あと、分子ロボットの研究者は、基本的に「ELSIはちょっとめんどくさいな」という人が多いです。それは工学系も、情報系も基本的にみんなそうだと思うんです。
ただ、いろいろ対話を重ねていくうちに、やはり「自分の研究が社会にどう受け入れられるかを考えることは大事だね」と気づくのです。その気づくということが非常に重要で、それはある意味、研究者や技術者が自分の視点でELSI的な問題を考えるようになってくる。そして、そのような文化が伝わることが本当の意味で一番大事なのかなと思っています。
城山:文化というものはどのように育っていくんでしょうか?
小長谷:私自身もそれほど倫理に詳しかったわけではないので、プロジェクト始めてからいろいろ勉強したところはあるんですけれど、多くの分子ロボット研究者はELSIを知らない。そういう世界があるということすら自分の視野の中に入ってないのです。ですから、ELSIをまず視野に入れるということしないかぎり、まったく理解は進まないだろうと思います。
ただ、ELSIは知識として知るだけでは不十分で、やはり自分の問題として捉えるところまでいくかどうか。おそらくそこでなにかしらの変化点が出るのかなと思っています。
城山:標葉先生いかがでしょうか?
標葉隆馬氏(以下、標葉):はい。2点あると思うんですが、まず1点目、これは社会科学側の問題かと思うんですが、そもそも科学研究、あるいは技術開発の現場と関わり、あるいはネットワーク、つながりをもちながらそうしたテーマを扱う社会科学者の人数が、そもそもクリティカルマスに達していないのではないか、というのが大きい問題として感じる点です。
そうすると当然カバーできない領域であったりとか、当然あとは個別に非常に専門性が高くなっている研究現場だからこそ、それなりに特化したかたちの専門性が発揮されると思うんですが、それができないという構造的問題を非常に強く感じるというのが1つです。
なので、そもそも非常に1人あたりのワークフローも多くなる。こういった問題に関わる議論は繰り返しやる必要があります。ちょっと言い方を変えれば、場合によっては「三顧の礼を尽くす」みたいなことがけっこう大事な場合も出てくると思うので、そういったことがそもそもできない状況があるのも非常に大きい問題ではないかと思っています。なので、コミュニケーションの回数自体がぜんぜん足りていません。
もう1つの問題としては、教育の問題とも絡むんですが、実際の理工系、科学研究、技術開発の現場の方が、その研究開発がどのような制度の基盤に立っているのかをご存じなかったりする。そういったものをどうやって共有していくのか、という問題があると思います。
例えばちょっと違った事例で変化球的な答え方になるかと思うのですが、再生医療学会さんの事例では、学会さんが文科省のリスクコミュニケーションモデル事業というのをとっています。そこで調査した内容では、例えば「再生医療を巡って起きた患者さんをめぐる事件だったり、あるいは制度基盤についてどの程度知っているか?」みたいな質問をすると、あんまり知らなかったりするんですよね。
そういった事象、「これ知らないのはまずいよね」という状況自体が共有されていないという問題があって、それはおそらくほかの分野でもそうなのではないかと思うんです。
今日は小長谷先生はお話になられませんでしたが、例えば今回の分子ロボの事例でいえば、デュアルユースの問題。生物系のBWC系の国際協定ですよね。禁止条約みたいなものの対象になるかもしれない。
一方で、国内法と国際協定が必ずしも整合性がとれているわけではなく、技術開発をするなかで、国際協定的には網にひっかかるけど、国内法では網から逃れ抜けてしまうかもしれないという状態が放置されていると、技術開発そのもの自体に影響してくる、あるいはブレーキがかかってしまいます。
あるいは、いったんモラトリアムを取ろうと思ったとしても、そのタイミングを間違えるかもしれないということがあるので、そういった制度的基盤の状況自体をどうやって共有していくのか。
そういう状況があるということをまず共有していく必要があるのではないかと思います。では、そのチャンネルをどう作るのか、教育コンテンツとしてはどういうかたちがよいのか、そのやり方で、ある種納得感のようなものが生まれてくるのかという問題もあるのかなと思います。
城山:ありがとうございました。では新保先生お願いします。
新保史生氏(以下、新保):先ほどのマルチステークホルダーや共同規制など、言葉が先行して具体的になにをすべきかよくわからないというものがよくあると思います。ところが、これは政治学的な思考から考えると方法論としては長年研究がなされてきていますので、具体的になにをすべきかということは実はかなり明確なんですね。
このような問題を政治学の観点から考えると、集団理論と多元的民主主義といいますけれども。集団理論とはどのようなものかというと、利害関係を強く感じる人は積極的に活動するわけです。ところが利害関係を持たない人は傍観者に留まって、とくになにも関係してこない。
ですから、例えば「原則を作ります」ということで原則を提示しても、私が2015年に「ロボット法 新8原則(新保試案)」というものを出しても、具体的に問題が発生しているわけではなく、それを適用するような場面も想定されない段階では、ほとんど関心を持っていただくことはできなかったというのが現状だと思います。「なんじゃそれ?」ということですね。
つまり、ほとんどの方がなんの利害関係もないので、「原則」というと利害関係がある人がほとんどいないということになると、結果的にその当時はほとんどの方が傍観者に留まった。
ところが、昨年あたりからは、かなりいろいろなところで具体的に検討しなければならないことが意識されるようになりつつあります。これが多元的民主主義の観点から考えると、コストとベネフィットがかなり明確になってきているわけです。つまり費用と便益の関係で考えたときに、傍観者でいると損するのではないかと考える人が増えてきたわけです。
とくに2015年の時に、法学の研究者はほぼ誰も関心がなかったのが、今は気がつくと法学雑誌、とにかくAIとつければ売れるということで、「AIと〇〇」「AIと……」と、とにかく全部AIとついてます。これは法学だけじゃないでしょうね。もうとにかくなんでもAIとついているので、費用と便益の関係でかなり明確に利害関係を持っていたほうが得なんじゃないかと思い始めています。
新保:では、どうするか。これはかなり政治学的ですが、5つ方法があると思います。
まずは人ですよね。こうしたシンポジウムを開いたり、人を集めて影響力を行使する。人の数。会員数と資金力と言いますけれども、こうして発言をして聞いていただければ、それによってかなり影響を及ぼすことができる。
2つ目は専門的能力です。RISTEXのプロジェクトはそれぞれ非常に色が濃いプロジェクトが多いわけですけれども、これはそのプロジェクトごとの専門的能力が、他のプロジェクトとはまったく色合いが違うということで社会に様々な影響を与えることができる。
3つ目は政策決定の中心部分とのつながりです。これは政策決定にいかに関与するかというところであります。
4つ目が社会的影響力です。社会的影響力は、いろいろな数の力、専門的能力含めて、例えば論文をどれだけ公表したかなど、そういったことで明確に社会的な影響力を発揮することができる。
最後に、政策や主義が理解を得られるか? たとえその原則を提示しても、みんなから受け入れられない、または受け入れがたいものができてしまうと、逆に反感を買ってしまうということもありますので、政策や主義がみんなに共通のものとして受け入れられるかどうか。
ですから、こういった観点からかなりシステマチックに体系的にこの問題を考えることができます。これを体系的に考えてこなかったので、このRISTEXのプロジェクトではこういうかたちで体系的・構造的に考えるべきではないか、というのが私の考えであります。
城山:ありがとうございます。最後のマルチステークホルダーのプロセスなんですけれども、なかなか難しいのは、ステークホルダーをどう確定するかというところですよね。それはまさにさっきおっしゃったように、なかなか広く薄く広がるinterestだとなかなか自律的には組織化されてきません。ある程度specificなinterestがあって、小規模であれば声は出しやすい。
会議にやってきてくれる方は、もちろんそれはそれで大事なんですが、やっはりある種のハードルを課しているわけですね。そういう意味では、ある課題を議論する上で適切なステークホルダーをどうやって発掘していくか、という若干能動的な側面が必要になるのかなと思うんですけれども、そのあたりはなにかご示唆ありますか?
新保:その取り組みとして、今「AI社会論研究会」という研究会を毎月開催しています。この研究会はまさにこのステークホルダーが誰かということも意識せず、そもそも誰がどういうかたちで参加するかという参加要件もなにもないんですね。
ですから研究者もいますし、実務家もいますし、作家もいますし、もう本当にありとあらゆる、ステークホルダーなのかどうかもわかりませんけれども、ただマルチです。
ですから、私が常日頃、例えば個人情報とかプライバシーの世界で各国の方からいつも言われるのは「日本はprivacy advocateがいない」って言われるんです。advocateとはなにかというと、その分野について専門的な知見を持って影響力を行使できる人たちの集まりなんですけれども。
日本の場合は、マルチステークホルダーと言いながらも会議に出てくる方というのは、日弁連、経済関係の団体、消費者関係団体など、団体から代表として派遣されて出席している方々なんですね。ステークホルダーではない可能性もあるわけです。
ですから、このマルチにステークホルダーが存在しない状況でマルチステークホルダーというのはなかなか難しいので、AI社会論研究会という研究会はまさにこのマルチにいろいろな方に出てきていただいて、ステークホルダーとして構成できれば、これは非常におもしろいかなと思っているところです。
城山:ありがとうございました。目的を過度に限定しすぎないということも大事だったり、こうした社会的影響は、さまざまな影響が相互作用するので、ある意味では適度な広がりも大事だという、そういうインプリケーションがあるのかなと感じました。
実はもう1つ中身の話をしたかったんですが、一度みなさんからおうかがいしたほうがいいと思うので、最後に触れていただくかたちにしたいと思います。その前に、すこし私のほうのコメントだけしておくと。
例えば標葉さんのところでデュアルユースの話がありましたが、要するに通常社会的影響として考えられていることはちょっと違うんだけど、実はちゃんと考えていくことが大事だというイシューがあって。それをちゃんと提起するというのもすごく大事なんだろうと思います。
そうした意味では、小長谷先生のお話の中でも「やってみてはじめて気づいた」みたいなことがあったので、逆にいうと「実は当初は想定していなかったんだけど、こういうことに気づかされました」とか、あるいは「世の中ではあまり議論されていないけど、実はこういうことが大事なんだと思います」というサブスタンスについても最後コメントがあればひと言いただければと思います。
城山:このセッションはたしか40分までということなので、ここでみなさんから、質問やご意見のようなものがあれば少しいただければというふうに思いますが、いかがでしょうか? またごく短くということでよろしくお願いをします。
質問者1:じゃあ30秒でいきますね。小長谷先生と新保先生のお話とリンクしてくると思うのですが、やはりAIを含めた科学、とくに日常生活と密接に濃厚に関わる科学の場合は、expert wisdomに偏ってきたのが今までの傾向だったんですけれども……expert wisdom、エキスパートの知恵だけでなく、crowd wisdomというものも必要じゃないでしょうか? つまりcrowdとexpertが相互にコラボレーションするクリエイティブディスカッションの場ですよ。
先ほどの新保先生が「集団的民主主義」「集団理論」と言いましたけど、まさしくそれじゃないかなと思います。そこからexpertとcrowdで問題点や解決策を相互に発見していく。つまり今まではexpert wisdomにちょっと偏りすぎていると思います。
それとcrowd wisdomがコラボレーションしていくということが、AIを含めたもの、AIを含めて日常生活に密接に関連した科学の上で必要だと思いますので、小長谷先生と新保先生からその点をおうかがいできればと思います。
城山:ほかどなかたいらっしゃいませんか?
質問者2:行政でELSIに関わりがあったりしたのですが、最近の行政は規制に関して非常に臆病になってるようなところがありまして。そういう状況下で分子ロボット、今後の出口としてそういった方向につなげる方向を考えているかどうか、そのあたり聞かせていただければと思います。
城山:すいません。今のご趣旨でいうと、規制に対して臆病になってるということと、その……。
質問者2:規制側がなかなか受け取ってくれないと。例えばゲノム編集の規制の迷走。昨年あったように、なかなか行政側が責任を持って規制するということに躊躇するケースが増えているなかで、こういった研究をされるのは非常にすばらしいことだと思ってるんですが、なかなか出口が見えにくいんじゃないかと。
城山:わかりました。そのあたりは小長谷先生は触れられませんでしたけども、それこそ規制なりPMDA(注:医薬品医療機器総合機構)なりにどうやって関心をもってもらうか、ということでもありますし、これはおそらく新保先生の話にも絡むと思います。
規制緩和の話はよくやるんですが、規制を作るという話はなかなかなくて。でも、新しい技術を入れていこうと思うと、実は規制を作ることのほうが期待を安定させるために大事だというところもあるので、どういうチャレンジがあるのかなど、そのあたりにも関わってくるのではないかなと思います。どうもありがとうございました。
質問者3:一般市民です。倫理ということについてうかがいたいんですが、AIが関係ない倫理もあると思うんですね。例えばGMO(Genetically Modified Organism)だとか人間の遺伝子操作。
もう1点はAIによって生じる倫理というのもあると思うんです。例えば医療費が高騰することに対して対策といったら、健康寿命が過ぎたら積極的に治療しないとか。NHKの番組で話題になった、「病院を減らせば健康になる」というAIの推測も出てきて。そのAIによって生じるもの。
その境界にあるものもあると思うんですね。例えば自動運転なんかでは、運転者が死んだほうがより被害が少なくなる場合、本人の判断なら問題ないんですが、AIで外部から本人が死んだほうが全体の被害が少なくなるのでスクールバスを優先させるとか、そういうことになるとまた問題になると思うんですね。そういう観点からはいかがお考えでしょうか?
城山:ありがとうございます。ここは先ほど議論できなかった中身の問題で、ある意味ではAIなり分子ロボット、こういったインプリケーションなりELSIの問題とその他について、特徴があればぜひうかがいたいと思います。
質問者4:新保先生に質問です。ロボット法やAI法を作る、その草案を作るというときにどういうことを考慮しながら、どういう点を考えながら作っていくのかということについて、詳しく教えていただければと思います。
質問者5:前のセッションとのつながりを知りたいんですけれども、お話を聞いてるとステークホルダー、マルチステークホルダーでいろいろやっていくのが大事。それで実際にステークホルダーとして関わっていく事例をいろいろ見せていただいているように見えるんですけれども。その場合、制度設計と実際のステークホルダーの関わりの二面性があるように思えます。
この制度設計に関しては、先ほどのセッションのように、「なにが善いことか?」「なにが幸せか?」という社会全体がそもそもなにを目指すのか、というところが見えてこないとできないと思うんですが、今回のセッションはそこの部分はやや弱めだった気がするので、国際的な関わりは見えたんですが、前のセッションでの議論とこのセッションの議論の関わりをお聞かせいただければと思います。
城山:それはまた私がお話をして、どなたかにフォローアップしていただくべき話かなと思います。ではそちらの方。
質問者6:一市民として、城山先生と標葉先生に。リアルタイムTAの「リアルタイム」とはどのぐらいのものを求めているのか。リアルタイムにわかったところで、社会がリアルタイムに応答できるわけではなくて、ドローンでなにか官邸に変なものを持っていくぐらいしないと、速攻で社会が変わるとか法が変わるということはないわけですよね。
どのぐらいの頻度でリアルタイムでわかっていればいいのか。また、法改正とかそういうアプローチ以外で社会側が応答する方法があるのかということと同時に、できれば、行政府のプロジェクト管理じゃないですけど、パイプラインをある程度管理できないと、イシュー自体が捌ききれないぐらい集まっているので、そのギャップを明確にしてちゃんと通るようにするのかどうか、とい点についてをおうかがいしたいです。
城山:ありがとうございます。先ほど質問があった「規制をちゃんと作れるシステムをどう作るか?」ということにつながってくるかと思います。では、小長谷先生から順々にお願いします。
小長谷:なかなか全部には答えられないんですけれども(笑)。まぁそうですね。倫理の研究会をやって一番感じたのは、グループディスカッションが多いんです。それでいろんな人が入ってきて、いろんな視点で意見を言うことで、研究者だけではまったく思いつかないことがけっこう出てくるんです。
極端な話、分子ロボットって、研究者からは「キャッチーな名前つけたね」って言われるんですけれども、一般市民から見ると「ぜんぜんわからない。名前を変えたほうがいい」という意見が出てくるんですね。これは非常に貴重な意見で、本当にどこかで変えないといけないのかなとは本当に考えています(笑)。
あと……ちょっと忘れちゃったな。1回パスします。
城山:はい。戻ってきます。では標葉先生。
標葉:では一番最後のご質問から。
まずどの程度のタイムスパンを想定しているかというと、できるかぎり早く。どちらかというと、リアルタイムアセスメントは、どうしても分析をしてしまうとレトロスペクティブなものになるという宿痾のようなものは確かにあります。
なので、できるかぎり想像(イマジナリ―)を捉える。まだ語られていない段階でどういうことが想像として出てくるのか、どのように捉えるのかという手法開発自体も1つ課題です。それもうちのプロジェクトはやろうかなと思っていて今がんばっているところなんですが。どのような社会的技術の想像がされるのかを捉える技術・技法の開発自体が必要であろうというのが1つ。
もう1つは行政府の問題と、それを法規制以外でどのうようにやっていくのか、ということもありますが、それに関連する日本における問題として、実はTAという議論自体は日本では70年代に科学技術庁が積極的に進めてきて、その後は企業に、とくに技術的な安全性の評価というかたちで非常に積極的にされてきた歴史的経緯があります。ですが、相対的に国会、立法におけるTA部門の弱さというものがあります。
国会図書館さんがその議会のTA、立法府のTA機関として存在していますが、マンパワー含め、あるいはexpertiseを含めてまだ弱い状況にあるので、その部分の解決というのが、制度的な問題としてあるのかなと思います。
あと、ほかにもいくつあると思うのですが、先ほどのデュアルユースの話に関しても、通常と違う使われ方・考え方を考えておく必要があるのではないかと、城山先生からも振っていただいていたところですが。これについても、やはり制度的な部分で、デュアルユースとひと言で言っても、軍事と民生の利用の問題と同時に、用途多義性というもう少し広い網の分け方によって、議論のフェーズが違ってきます。
そこをきちん切り分けて、制度的にケアできるところはケアしなければならない。一方で制度的なケアができないところをどのようにケアをするのかというところですね。制度では届かないところでどのようなケアが可能なのか、各国が考えないといけません。
まさしくイノベーションプロセスの開発競争になっている。このプロジェクトの領域でも、そういったものも対象になってくると思います。
城山:新保先生、お願いします。
新保:はい。なるべく短く4つ。1つ目の日常生活に密接に関わる問題とエキスパートの知恵の問題ですけれども、専門的知見について個人の見解が正しいとは限らないんですね。さらに集団の利益が正しいとも限らないわけでありまして。
これもやはり政治学的に「集団のクリス・クロス」と言いますけれども、異なった人が異なった利益でいろいろところに加入されることによって中和されると言いましょうか。交差圧力と言うんですが、それが働いて、結果的にうまい方向に進んでいく。これはなかなか抽象的ではあるんですが、集団のクリス・クロス理論がこの点では使えるのかなというのが1つ目です。
2つ目は、行政が規制に萎縮しているのではないかという問題。行政による規制への萎縮効果が生じているのではないかと、これは私もひしひしと感じるところであります。
一方で、海外の方と話していて、AIに関する書籍をSpringerから出版するために原稿を執筆したところ、日本の紹介において「どうしてもこの部分に言及してもらいたい」と言われたのが特区なんですね。
日本の規制改革は、イギリスのPFI(注:公共施設等の建設、維持管理、運営等を民間の資金、経営能力及び技術的能力を活用して行うこと)をはじめとして、イギリスの手法を真似て様々な規制緩和の取り組みを実施してきた背景があります。ところが、本家のイギリスではその後うまくいかず、逆に日本でうまくいってる取り組みが多いので、最近ではレギュラトリー・サンドボックスと海外で言い始めているわけです。「日本ではうまくいってるのになんで海外でうまくいかないんだろう?」という疑問があるといえます。
特区については、国内的には例のモリカケ問題で怪しさが漂ってしまっていますが、私は特区の活用は、行政における規制の萎縮効果を解消する上でも、逆に規制が必要ない領域を確保するというのは非常に有効な手段だと思っておりますので、これはぜひとも活用したい。
3つ目の、AIに関係ない倫理問題も含めて、これはひと言で「人間が解決できない倫理問題はAIでも解決できない」ということは確かだと思うんですけれども、この点を踏まえて責任と判断と倫理的な基準をどう考えていくべきかということを、今までどおり考えていくしかないだろうと。
最後に、ロボット法、AIをめぐる原則。これについては、もしよろしければ先ほどの私のスライド表示をしていただきたいと思うんですけれども。
(スライドを指して)この4番目なんですが、「規制の不存在に伴う萎縮効果について」。まず萎縮効果があるということと、日本の法文化や法令遵守意識と国外の状況を意識した検討は当然必要なので、基本的に私は国内では法規制はすべきではないと思っています。日本では規制がなされていて、中国では何の規制もないという現状があるとなんのメリットもありませんので、基本的に法規制はする必要はないと。
さらに、ガラパゴス化ってよくマイナスにとられますけれども、発展的ガラパゴス化という考え方もあります。例えば自動運転の車について、ドイツはもうガラパゴス化一直線ですよね。製造物責任はメーカーが全部負うという方針で、責任を負担できないメーカーは参入できない方向に進みつつある。いわば非関税障壁なんですね。ですから、ガラパゴス化って意外にそういう利用もあります。
あとは、よくロボット法というのは法整備を行うことと勘違いされるのですが、法整備=法規制ではありません。ですから、ロボット法というと非常に抵抗を持つ方がいるんですけれども。イメージとしては、最近どうやって説明しようかなと思っていまして、慣習法といってもちょっとピンと来ないと思いますので。具体例を示したいと思います。
みなさんがネットにつなぐときに、どんなルールにしたがっているでしょうか? IPですね。Internet Protocolです。Protocolというのは、もともとは外交儀礼です。つまり慣習法なんですね。みなさんがネットにつないできちんと安定的にネットを使える環境というのはインターネットのProtocolがちゃんとしているからです。法律でそのルールが定められているわけではありません。
ですから、AIを使うときにも、このAIのProtocolみたいなような、みんなが安心して使うためのProtocolがもしできればと思っています。原則の次に考えているのはこのような「Protocol」といった慣習が確信として定着することができるものかなというのが私の今の考えです。
城山:では小長谷先生、フォローアップで。
小長谷:分子ロボットに関して、出口をどう考えてるかという話があったと思うんですけれども。私自身は、分子ロボットというのは生体分子からできてますので、身体との親和性がいい。
ですから最終的には身体に入るような分子ロボットを作れたらいいなって思っています。ただ、それはおそらく2040年とか相当先になるだろうと思っています。ただ、それを実現するためには医薬品応用ガイドラインの策定が必要です。「身体の中に入れるためにはこれとこれを守らなきゃいけない」というガイドラインがないと、許認可もできません。
ただ、こうした医薬品応用ガイドラインをいきなり決めるのは難しいので、基礎研究ガイドラインとか、その前の分子ロボット原則から決めようということを、分子ロボット研究会で、倫理の人といろいろ交じりながら議論しています。
おもしろかったのは、分子ロボット原則というのを、もう過去1年ぐらいプロジェクト内でいろいろ議論していて、これを2018年3月の年会で分子ロボット研究者に提案した時に、みなさん最初は「それはいいね」「そういうことやってるのはいいね」って話だったんです。けれども、「これをじゃあ分子ロボットの年会として一緒に声明出しましょう」って言った瞬間にけっこう大騒ぎになりまして。
要するに当事者意識を持った途端にみなさん真剣になるんですね。やはり当事者意識を持たせるということがかなり重要なポイントになると思っています。
城山:どうもありがとうございました。
たぶん最後は私が答えるべきなので。このセッションと前のセッションの関係とかいうことだと思うんですけれども。前のセッションは先ほども申しましたように、まさに幸せとか、通常だと効率化だとか、そういうことだけで言われるのに対して、どういう価値の次元が追加的にあるのかという話をしました。
逆にこのセッションは、意図的にその価値の次元はいろいろあるということを前提にして、ではそれを個々の具体的な技術やその応用に即して考えるときに、いったいどんなプロセスを設計すればいいのか。コミュニケーションすべき相手は、主として研究開発者にフィードバックする、思わぬことに気づかせることが大事でしょう。
それから最後の、これは大きなチャレンジですけれども、忙しい規制当局にどうやって関心を持ってもらうか、あるいは忙しくて回りそうにならなくなりそうなときに、どういう仕組みを作るのかというフィードバックの話もあるので、ここはそうしたプロセスの設計に焦点を置いたという、そういう区分けです。
ただ、おっしゃるように、この2つというのは分けられるかというとなかなか難しくて。例えば前の第1セッションのところでも、実際にはワークショップの話が多かったと思いますが、まさにその価値、それ自身を議論するというよりは、むしろ価値を発見していくプロセスをどう作るかということとセットなんです。
逆にいうと、このプロセスの中から思わぬことに気づいて。それが本当に、あるいは第1セッションで議論したような、幸せとして考えるべきことが出てくるかもしれないので、切り分けてますけれども、必ずしもきれいに切り分けられるわけではないという。とりあえずはそういう整理かなと思います。
では、以上で終了したいと思います。
このプロジェクト自身もある種の実験でして。小長谷先生のような研究開発と、標葉先生、あるいは新保先生のような人文社会科学系の人たちが、ボトムアップで一緒にやっていく中から、いろんな気づきの機会や、それをどうやったら促されるかということを定式化して、ほかの領域でもぜひ応用していただきたいと思いますし、それが可能になるような制度的仕組みの提案も必要になってくると思います。
このあたり、今後議論を詰めていかなければいけないところですので、みなさまからもいろんなかたちでご意見等をいただければと思います。
それでは、3人のパネリストの方、またご質問等いただいたみなさま、どうもありがとうございました。
(会場拍手)
国立開発研究法人科学技術振興機構
2024.12.10
メールのラリー回数でわかる「評価されない人」の特徴 職場での評価を下げる行動5選
2024.12.09
10点満点中7点の部下に言うべきこと 部下を育成できない上司の特徴トップ5
2024.12.09
国内の有名ホテルでは、マグロ丼がなんと1杯「24,000円」 「良いものをより安く」を追いすぎた日本にとって値上げが重要な理由
2024.12.12
会議で発言しやすくなる「心理的安全性」を高めるには ファシリテーションがうまい人の3つの条件
2023.03.21
民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?
2024.12.10
職場であえて「不機嫌」を出したほうがいいタイプ NOと言えない人のための人間関係をラクにするヒント
2024.12.12
今までとこれからで、エンジニアに求められる「スキル」の違い AI時代のエンジニアの未来と生存戦略のカギとは
PR | 2024.11.26
なぜ電話営業はなくならない?その要因は「属人化」 通話内容をデータ化するZoomのクラウドサービス活用術
PR | 2024.11.22
「闇雲なAI導入」から脱却せよ Zoom・パーソル・THE GUILD幹部が語る、従業員と顧客体験を高めるAI戦略の要諦
2024.12.11
大企業への転職前に感じた、「なんか違うかも」の違和感の正体 「親が喜ぶ」「モテそう」ではない、自分の判断基準を持つカギ