お知らせ
お知らせ
CLOSE

AIは“バイアスなき意思決定”を実現できるか?─ 組織の判断力を支えるAI活用のリアルと、成果につながる意思決定デザイン(全3記事)

「バイアスなき意思決定」のためにAIをどう活用するか 期待値コントロールと人間の能動性を利用した使い方 [2/2]

可視化することでバイアスに気づける

佐々木:僕はもともとCERN(European Organization for Nuclear Research、欧州原子核研究機構)っていう、一応科学をやっているところにいた時のことを考えると、やはり可視化するプロセスによってバイアスに気づけるっていうのは、まず間違いなくあるなと思うんですよね。

國本:そうですよね。

佐々木:だから、本日のトピックに戻ると、バイアスなき意思決定は、可視化を挟むのが大事ですよねっていう話が1個あると思っていて。

ChatGPTを挟むことによって、よりフットワーク軽く可視化するみたいなこともできるようになっているので、バイアスに気づける機会は増やそうと思ったら増やせるのかなと思っています。

山内:そうですね。(AIは)ブラックボックスにもなり得るし、逆にそいつらに可視化させれば、それをホワイトボックス化するツールとしても使えるっていうことですよね。

佐々木:そうですよね。

ルールと運用が違うことは山のようにある

山口:企業の中でいろいろなルールを作っていますが、例えば人事のルールでも、「こういうふうに人の評価をしてください。こうしてください」って書いていても、実際の運用が違うことって山のようにあるじゃないですか。

山内:あります。

山口:人事として会社として、意図していない、バイアスのあるように偏ったような運用みたいなものは本当にいろいろなところで発生していて、そうやって評価された人は、そこにすごくフラストレーションを抱えているんですけど、それが可視化されていないっていうことが可視化できるという。

山内:まさにおっしゃるとおりです。人事の人たちがそれを見て一番ショックを受けていて(笑)。「嘘だ、こんなの」「私たちはちゃんとしたルールを作っているし、『ちゃんと運用してね』って私たちは言っているのに」って言うんですけど、まぁ、人間はそんなうまく動かないっていう。

山口:やはりエグゼキューション、運用がすべてですもんね。

山内:そうですね。

山口:ちなみに私の会社は100年企業で、いわゆるザ・ジャパニーズ・トラディショナル・カンパニーなんですけども、3年前から全部ジョブ制にしているんですよね。

ジョブ制に移しているのでだいぶ変わってきてはいますが、しかしまだまだチャレンジはあって。先ほどの運用のところは、今までの考え方の上での運用になりがちなので、そこにチャレンジをしている感じですね。

國本:そうですよね。

責任は人がとることを明確化する

國本:そこに対してどうしてもバイアスがまだまだ入ってしまうがゆえに、AIとしてもバイアスが出てしまうみたいな問題があると思うんですけども、みなさんの中で、バイアスに対して変えるべき課題みたいなところを思われていらっしゃる方はいますか?

山内:繰り返しの部分も含めると、AIで何かプロセスを自動化する方向にAIを使うのがみんなの最初の発想ですが、そうすると中身がブラックボックスになって、付随してだんだんみんな責任を取らなくなっていくんですよ。

なので逆に、その中身を説明させるような方向でAIやLLMを使う。かつ、責任は人が取るということを組織などで明確にする。やはり「私がこのAIを使ってやるんです」っていう責任とか、その人の人間である価値みたいなものをちゃんと明確にしていくみたいな動きが大事かなとは思います。

AIに正解は求めない

佐々木:僕、今回の「経営における意思決定」みたいなのを見た時に、「自分はどうだったかな?」って振り返ってみたんですよね。あまりかかっていない自信は正直あって。

なんでかっていうと、GPTとかに聞く時に、僕はどっちかっていうと3択で、「この意思決定とこの意思決定とこの意思決定のどれが正しいと思う?」「その証拠を集めて」みたいな、そういう聞き方しかしないんですよね。一応仮説も頭の中にあって、その証拠集めに使っている感じ。ハルシネーションのリスクは引き続きありますが、最近だいぶ良くなってきているので。

GPTの言ってきたことをそのままやったら、バイアスとかのリスクがあるのかなと思うんですけど、人間が最終的に責任を取るというのと、僕の場合のように仮説を立てるところまでは人間の仕事っていうスタンスの上で使うと、意外と「バイアスなき」なのかなって思っています。

國本:そうですね。正解を求めず、1択だけで出さないっていうのもすごく重要っていうことですね。

佐々木:そうですね。

國本:パナソニック コネクトさんだとたくさん社員の方がいて、「そういうふうに使ってほしい」って言っても、なかなか難しいと思うんですけど。

山口:でも明確に言っていますよ。「基本的には意思決定はYou、人間です」と。いまだに(GPTが出してくる)いろいろな情報が100パーセント(正解)なんてことはないじゃないですか? なので、今のところは原則「決定するのは人間です」っていうベースにさせていただいていますね。

國本:なるほどです。

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
スピーカーフォローや記事のブックマークなど、便利な機能がご利用いただけます。

無料会員登録

すでに会員の方はこちらからログイン

または

名刺アプリ「Eightをご利用中の方は
こちらを読み込むだけで、すぐに記事が読めます!

スマホで読み込んで
ログインまたは登録作業をスキップ

名刺アプリ「Eight」をご利用中の方は

デジタル名刺で
ログインまたは会員登録

ボタンをタップするだけで

すぐに記事が読めます!

関連タグ:

この記事のスピーカー

同じログの記事

この記事をブックマークすると、同じログの新着記事をマイページでお知らせします

コミュニティ情報

Brand Topics

Brand Topics

人気の記事

    新着イベント

      ログミーBusinessに
      記事掲載しませんか?

      イベント・インタビュー・対談 etc.

      “編集しない編集”で、
      スピーカーの「意図をそのまま」お届け!