すでに2001年には注目されていた「自然言語処理」

エリザベス・ブラムソン・ボードロー氏:これは、2024年のリストに関する私たちのサイトの美学です。私は、私よりもはるかに技術に精通している多くの人々の声としてここにいることを、明確にしておきたいと思います。

MITテクノロジー・レビューの同僚たちは、テクノロジーに関する素晴らしい、時には奇妙、時には不穏、あるいは挑戦的なストーリーを発見することに日々費やしています。ですから私は、非常に深い詳細な知識を代表する者として、ここにいるのです。これらのテクノロジーについて、もう少しわかりやすく説明します。

私たちが発表しているレポートやコンテンツを掘り下げていくと、もっとたくさんのことがあります。項目1は、あらゆるものにAIを適応することです。なので、AIがリストに入っているのは驚きではありません。

私たちが2001年に発表した最初のリストには「自然言語処理」、つまりChatGPTのような生成的AIツールを駆動する、大規模な言語モデルを支える技術が含まれていました。そして昨年も私はこの話をしましたが、もちろん生成AIもリストに入っていました。

2023年はAIにとって激動の年で、多くのことが起こりました。最初の項目は、そのすべてを要約する試みです。私たちは今、一般の人々がAIと直接対話し、意識的にAIと戯れる時代にいます。みなさんもチャットを使ったことがあるでしょうし、コードを書いたこともあるでしょう。

人々は生成AIを使って画像を作っています。検索、チャットボット、電子メールサービスなどに組み込まれている多くの生成AIツールが登場しています。ですから、AIについて語ることはたくさんあります。

今週はずっと生成AIに焦点を当てたセッションがあり、私もいくつか招待されました。「ここで何を話せば違うものになるのか?」と考えたのですが、いくつかの質問を投げかけ、予測や私たちの考えを共有することにしました。

OpenAIに対する著作権侵害の訴訟

まずはバイアスについてです。これらのツールには、バイアスの問題があることを知っています。その理由は、モデルがWebからのデータ、つまり、例えばジェンダーのステレオタイプや人種差別を含む画像やテキストで訓練されているからです。

では、バイアスの問題はどのように解決されるのでしょうか? それが問題です。私たちは「偏見という問題に対する意識が高まるにつれて、回避策が開発され続けるだろう」と予測しています。

しかし、すぐに解決するものでも簡単に解決するものでもありません。ですから、偏りの問題もまた、回避策が生まれ、改善されることを期待しています。この問題を解決するためには、まだまだ努力が必要です。

トピックその2は著作権法です。モデルがデータ、コンテンツ、クリエイティブな作品に対してトレーニングされるにつれて、より多くの訴訟が起こることが予想されます。

ジャーナリズム業界では『ニューヨーク・タイムズ』紙が、モデルを訓練するためにニューヨーク・タイムズ紙が発表したコンテンツを使用したとして、OpenAIを提訴しました。また、サラ・シルバーマンや作家ジョージ・R・R・マーティンのような有名人(もOpenAIを提訴しました)。

アルゴリズムを混乱させるような方法で画像を変更する、Nightshadeという技術ソリューションがあります。つまり、公開前に画像を改変して、その画像がモデルに取り込まれる時にアルゴリズムを混乱させることで、コンテンツや著作権で保護されたコンテンツが使用されるのを少し防ぐ方法があります。

しかし、モグラたたきのゲームは続くでしょう。個人的には、OpenAIに対する『ニューヨーク・タイムズ』の訴訟がどうなるかを注視しています。私たちの分野では、さまざまな業界団体が政策的な保護や法的な裁判に取り組んでいます。しかし繰り返しになりますが、モグラたたきのゲームは続くでしょう。

ディープフェイクを禁止することが困難な理由

3つ目の大きな疑問は雇用についてです。どれくらいの雇用が失われるのでしょうか? 一般的に言って、今日私たちが耳にしたところでは、研究者たちは「仕事の範囲は変わるだろうが、その数は必ずしも変わらない」と考えているようです。そのため、職を失うというよりは、再教育を受ける必要があるでしょう。

この記事は無料会員登録で続きをお読み頂けます

既に会員登録がお済みの方はログインして下さい。

登録することで、本サービスにおける利用規約プライバシーポリシーに同意するものとします。

SNSで会員登録

メールアドレスで会員登録

パスワードは6文字以上の文字列である必要があります。