あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

Donald Trump氏がニューヨーク市警に逮捕された偽の写真から、まだ生存しているコンピュータ科学者が悲劇的な死を遂げたと説明するチャットボットまで、説得力はあるが架空のテキストや画像を作成する新世代の生成型人工知能システムの能力は、詐欺や誤報に対する警報をステロイド状に鳴らしている。実際、人工知能の研究者や業界関係者のグループは2023年3月29日、業界に対し、最新のAI技術のさらなる訓練を一時停止するか、それを除けば政府が “モラトリアムを課す”よう促した。

DALL-E、Midjourney、Stable Diffusionなどの画像ジェネレーターや、Bard、ChatGPT、Chinchilla、LLaMAなどのテキストジェネレーターといったこれらの技術は、現在何百万人もの人が利用でき、使うのに専門知識は必要ない。

テクノロジー企業がAIシステムを開発し、一般消費者にテストすることで、広範囲に害を及ぼす可能性があることから、政策立案者は、この新しいテクノロジーを規制するかどうか、またどのように規制するかを決定するという課題に直面している。The Conversationは、テクノロジー政策の専門家3人に、AIを規制することがなぜこれほど難しいのか、そしてなぜそれを正しく行うことが重要なのかを説明してもらった。

人間の欠点と動く標的

S.ペンシルベニア州立大学メディアエフェクト教授・社会的責任AIセンターディレクター S. Shyam Sundar

AIを規制する理由は、技術が制御不能になったからではなく、人間の想像力が暴走しているからです。湧き上がるようなメディアの報道は、AIの能力や意識に関する不合理な信念を煽る。こうした思い込みは、「自動化バイアス」、つまり機械がタスクを実行するときに警戒を怠る傾向があることに基づいている。例えば、航空機が自動操縦で飛行しているときに、パイロットの警戒心が低下していることが挙げられます。

私の研究室での数多くの研究から、人間ではなく機械がインタラクションのソースとして特定されると、ユーザーの心の中に “機械ヒューリスティック”と呼ばれる精神的なショートカットが引き起こされることが分かっています。このショートカットは、機械は正確で、客観的で、偏りがなく、無謬である、などという信念です。これがユーザーの判断を鈍らせ、結果的に機械を過度に信用させてしまうのです。しかし、AIの無謬性を否定するだけでは十分ではありません。なぜなら、人間は、技術的に保証されていない場合でも、無意識のうちに有能であると思い込むことが知られているからです。

また、コンピュータが会話をするなど、少しでも人間らしさを感じさせると、人はコンピュータを社会的存在として扱うという研究結果もあります。このような場合、人は礼儀や互恵性といった人間関係の社会的ルールを適用します。そのため、コンピュータが感覚を持ったように見えると、人々は盲目的にそれを信頼する傾向があります。AI製品がこの信頼に値し、それを悪用しないようにするためには、規制が必要です。

AIは、従来のエンジニアリングシステムとは異なり、AIシステムがどのように動作するかを設計者が確信することができないため、ユニークな課題を提起しています。従来の自動車が工場から出荷されるとき、エンジニアはそれがどのように機能するかを正確に把握していました。しかし、自動運転車の場合、エンジニアは、新しい状況でどのように動作するかを確信することができません。

最近、世界中の何千人もの人々が、GPT-4やDALL-E 2のような大規模な生成AIモデルが、プロンプトに反応して何を生み出すかに驚嘆しています。これらのAIモデルの開発に携わったエンジニアの誰もが、モデルが何を生成するかを正確に伝えることはできません。さらに複雑なことに、このようなモデルは、対話を重ねることで変化し、進化していく。

このことは、誤作動の可能性が十分にあることを意味します。したがって、AIシステムがどのように展開され、人間の感性や福祉が傷つけられたときにどのような救済措置が用意されているかによって、多くのことが決まります。AIは、高速道路のようなインフラと言えます。しかし、スピード違反のような悪用や、事故のような予測不可能な事態に対処するためのメカニズムが必要です。

また、AI開発者は、システムがどのように振る舞うかを想定し、社会的な基準や責任に違反する可能性を予見するために、非常に創造的である必要があります。つまり、AIの成果や製品について定期的な監査や取り締まりを行う規制やガバナンスの枠組みが必要になるわけですが、こうした枠組みは、システムの設計者が常に災難に対して責任を負うわけではないことも認識すべきと考えます。

ソフト」と「ハード」の組み合わせによるアプローチ

テキサスA&M大学公衆衛生学助教授 Cason Schmit

AIの規制は厄介です。AIをうまく規制するためには、まずAIを定義し、予想されるAIのリスクと利益を理解する必要があります。AIを法的に定義することは、何が法律の対象となるかを特定するために重要です。しかし、AI技術はまだ進化しているため、安定した法的定義を突き止めることは困難です。

AIのリスクとベネフィットを理解することも重要である。優れた規制は、リスクを最小限に抑えつつ、公共の利益を最大化するものであるべきです。しかし、AIの応用はまだ生まれて間もないため、将来のリスクやベネフィットを把握したり予測したりすることは困難である。このような未知の部分があるため、AIのような新興技術を従来の法律や規制で規制することは非常に困難です。

法律家は、急速に変化する技術環境に適応するのが遅すぎることがよくあります。新しい法律の中には、制定されるまでに、あるいは導入されるまでに時代遅れになるものもある。新しい法律がなければ、規制当局は新しい問題に対処するために古い法律を使わなければならない。その結果、社会的利益のための法的障壁や、有害な行為のための法的抜け穴が生じることもある。

ソフトロー」とは、特定の違反行為を防止することを目的とした従来の「ハードロー」アプローチに代わる法規制のことです。ソフトローのアプローチでは、民間団体が業界メンバーのためにルールや基準を設定します。これは、従来の法律制定よりも迅速に変更することができます。このため、ソフトローは、新しいアプリケーションやリスクに迅速に対応できるため、新興技術に有望です。しかし、ソフトローはソフトな執行を意味することもあります。

Megan DoerrJennifer Wagner、そして私は第3の道を提案します:コピーレフトAI with Trusted Enforcement(CAITE)です。このアプローチは、知的財産における2つの非常に異なる概念、コピーレフト・ライセンスとパテント・トロールを組み合わせたものです。

コピーレフト・ライセンスは、例えばオープンソースソフトウェアのように、ライセンス条件の下でコンテンツを簡単に使用、再利用、修正することを可能にします。CAITEモデルでは、コピーレフト・ライセンスを使用して、AIユーザーに、バイアスの影響の透明な評価など、特定の倫理的ガイドラインに従うことを求めています。

私たちのモデルでは、これらのライセンスは、ライセンス違反を執行する法的権利も信頼できるサードパーティに譲渡します。これにより、倫理的なAI基準を実施するためだけに存在し、非倫理的な行為による罰金で資金を調達することができる実施主体が誕生します。このエンティティは、政府ではなく民間であり、他者から収集した法的な知的財産権を行使することで自らを支えるという点で、パテント・トロールと似ています。この場合、利益のための執行ではなく、ライセンスに定義された倫理的ガイドラインを執行する。”善のためのトロール “である。

このモデルは、変化するAI環境のニーズに合わせて柔軟に対応することができます。また、従来の政府規制当局のような実質的な執行オプションも可能です。このように、ハードローアプローチとソフトローアプローチの最良の要素を組み合わせて、AIに特有の課題に対応します。

4つの重要な質問

カリフォルニア大学ロサンゼルス校 電気工学・法律・公共政策・経営学教授 John Villasenor

大規模言語モデルベースの生成AIの最近の異常な進歩は、新しいAI固有の規制を作ることを求める声に拍車をかけている。ここでは、その対話が進むにつれて問われる4つの重要な質問を紹介します:

1)AIに特化した新たな規制は必要なのか?AIシステムがもたらす潜在的な問題のある結果の多くは、既存の枠組みですでに対処されています。銀行がローン申請書の評価に使用するAIアルゴリズムが人種差別的なローン決定につながれば、公正住宅法に違反することになる。ドライバーレスカーに搭載されたAIソフトウェアが事故を起こした場合、製造物責任法が救済措置を追求するための枠組みを提供します。

2) 急速に変化する技術を、時間のスナップショットに基づき規制することのリスクは何か。この典型的な例が、電子メールのような当時としては斬新なデジタル通信技術に対処するために1986年に制定されたストアドコミュニケーション法(SCA)である。SCAを制定する際、議会は180日以上前の電子メールに対するプライバシー保護を大幅に緩和しました。

その理由は、ストレージの容量が限られているため、新しいメッセージを入れるために古いメッセージを削除して受信トレイを常に整理しているというものでした。その結果、180日以上保存されたメッセージは、プライバシーの観点から重要性が低いと判断されたのです。しかし、この理屈が正しかったかどうかは定かではありませんし、電子メールやその他のデジタル通信の大半が6カ月以上前のものである2020年代には意味がないことは確かです。

ある時点のスナップショットに基づいて技術を規制することへの懸念に対する一般的な再反論として、次のようなものがあります:法律や規制が古くなったら、それを更新すればいい。しかし、これは言うは易く行うは難しです。SCAが数十年前に時代遅れになったことは、ほとんどの人が認めるところです。しかし、議会は180日条項をどのように改正するかについて具体的に合意することができなかったため、制定から3分の1世紀以上経った今でも、この条項は有効なままです。

3)意図しない結果の可能性は?2017年のAllow States and Victims to Fight Online Sex Trafficking Actは、性売買に対抗する目的で通信品位法230条を改正し、2018年に成立した法律である。性売買を減少させたという証拠はほとんどありませんが、FOSTA-SESTAによってオフラインに叩き落されたウェブサイトを頼りに、危険なクライアントに関する情報を交換していたセックスワーカーという、別のグループには大きな問題のある影響を及ぼしました。この例は、提案された規制の潜在的な影響について幅広く検討することの重要性を示しています。

4) 経済的、地政学的な影響は?米国の規制当局がAIの進歩を意図的に遅らせるような行動をとれば、投資とイノベーション、そしてその結果としての雇用創出を他所に押しやるだけです。新興AIは多くの懸念を抱かせる一方で、教育、医療、製造、輸送の安全、農業、天気予報、法的サービスへのアクセスなどの分野で膨大な利益をもたらすことが期待されています。

私は、上記の4つの質問を念頭に置いて立案されたAI規制は、AIの潜在的な害悪にうまく対処しつつ、その恩恵へのアクセスを確保する可能性が高くなると考えています。


本記事は、The Conversationに掲載された記事「Regulating AI: 3 experts explain why it’s difficult to do and important to get right」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする