人工知能(AI)の主流アプリケーションのほとんどは、大量のデータを解析し、その中からパターンや傾向を検出する能力を利用している。その結果、金融市場や都市交通の将来的な動きを予測したり、症状が現れる前に医師が病気を診断するのを助けることさえできる。
しかし、AIはオンラインデータのプライバシーを侵害したり、人々の仕事を自動化したり、ソーシャルメディアに偽情報を氾濫させて民主的な選挙を弱体化させたりするためにも使われる可能性がある。アルゴリズムは、それを改良するために使用される現実世界のデータからバイアスを受け継ぐ可能性があり、それは例えば、雇用の際に差別を引き起こす可能性がある。
AI規制とは、この技術が潜在的な害に対処するために、どのように開発され、使用されるべきかを規定する包括的なルールの集合である。ここでは、そのための主な取り組みとその違いを紹介する。
EUのAI法とブレッチリー宣言
欧州委員会のAI法は、AIにおける起業家精神とイノベーションを奨励しつつ、潜在的な危険性を緩和することを目的としている。最近ブレッチリー・パークで開催された政府サミットで発表された英国のAI安全研究所も、このバランスを取ることを目的としている。
EUの法律では、許容できないリスクがあると判断されたAIツールは禁止されている。このカテゴリーには、人々を行動に基づいて分類する「ソーシャルスコアリング」や、リアルタイムの顔認識のための製品が含まれる。
同法はまた、次のカテゴリーである高リスクAIを厳しく制限している。このラベルは、安全性を含む基本的権利に悪影響を及ぼす可能性のあるアプリケーションを対象としている。
例えば、自律走行や、雇用プロセス、法執行、教育で使用されるAI推薦システムなどである。これらのツールの多くは、EUのデータベースに登録する必要がある。限定的リスクのカテゴリーには、ChatGPTのようなチャットボットやDall-Eのような画像生成ツールが含まれる。
全面的に、AI開発者はアルゴリズムの「訓練」、つまり改善に使用されるすべての個人データのプライバシーを保証し、その技術がどのように機能するかについて透明性を確保しなければならなくなる。しかし、この法律の主な欠点のひとつは、この法律が主に技術者たちによって策定され、一般市民が広く関与していないことである。
AI法とは異なり、最近のブレッチリー宣言は、規制の枠組みそのものではなく、国際的な協力を通じて枠組みを開発するよう呼びかけている。この宣言を作成した2023年AI安全サミットは、世界の政治、商業、科学界がEU法に呼応する共同計画に合意したことから、外交的な突破口として評価された。
米国と中国
北米(特に米国)と中国の企業が、AIの商業的展望を支配している。欧州本社のほとんどは英国に拠点を置いている。
米国と中国は、規制分野での足場を争っている。Joe Biden米大統領は最近、AIメーカーに対し、サイバー攻撃に対するアプリケーションの脆弱性の評価、AIの訓練とテストに使用されたデータ、性能測定値を連邦政府に提供するよう求める大統領令を発表した。
米国の大統領令は、国際的な人材を誘致することでイノベーションと競争を促進するインセンティブを導入するものだ。この大統領令は、米国の労働力におけるAIのスキルを開発するための教育プログラムの設置を義務付けている。また、政府と民間企業のパートナーシップに州からの資金援助が割り当てられる。
雇用、住宅ローン申請、裁判所の判決におけるAIの使用によって引き起こされる差別などのリスクには、米国の行政府の長にガイダンスの公表を義務付けることで対処する。これは、連邦当局がこれらの分野におけるAIの利用をどのように監督すべきかを定めたものである。
中国のAI規制は、生成AIとディープフェイク(実在の人物の外見や声を模倣して合成的に作られた画像や動画でありながら、実際には起こっていない出来事を伝えるもの)に対する保護に大きな関心を寄せていることを明らかにしている。
また、AI推薦システムの規制にも焦点が当てられている。これは、人々のオンライン上の行動を分析し、広告を含むどのコンテンツをフィードの上位に表示するかを決定するアルゴリズムを指す。
不健全または感情的に有害とみなされる推薦から国民を保護するため、中国の規制はフェイクニュースを禁止し、企業がダイナミック・プライシング(個人データのマイニングに基づいて必要不可欠なサービスに対して高い保険料を設定すること)を適用することを防止している。また、自動化された意思決定はすべて、それが影響を与える人々に対して透明でなければならないと義務付けている。
進むべき道
規制の取り組みは、米国のサイバー防衛への懸念、中国の民間セクターへの牙城、EUと英国のイノベーション支援とリスク軽減のバランスを取ろうとする試みなど、各国の状況に影響される。倫理的で安全かつ信頼できるAIを推進する試みにおいて、世界の枠組みは同様の課題に直面している。
重要な用語の定義が曖昧で、少数の影響力のある利害関係者の意見を反映しているものもある。また、一般市民の意見が十分に反映されていない。
政策立案者は、テック企業の大きな政治的資本に対して慎重になる必要がある。規制の議論にハイテク企業を参加させることは不可欠だが、強力なロビイストであるハイテク企業自身を取り締まることを信用するのは甘い。
AIは経済構造の中に入り込み、金融投資に情報を提供し、国の医療や社会サービスを支え、私たちのエンターテインメントの嗜好に影響を及ぼしている。つまり、支配的な規制の枠組みを設定する者が誰であれ、世界のパワーバランスを変化させる能力も持っているのだ。
重要な問題は未解決のままだ。例えば、雇用の自動化の場合、従来の常識では、デジタル見習い制度やその他の再教育が、労働力をデータサイエンティストやAIプログラマーに変身させると考えられてきた。しかし、高度なスキルを持つ人々の多くは、ソフトウェア開発に興味を示さないかもしれない。
世界がAIがもたらすリスクとチャンスに取り組む中、このテクノロジーの責任ある開発と利用を確保するために、私たちにできる前向きなステップがある。イノベーションを支援するために、新しく開発されるAIシステムは、EUのAI法で定義された高リスクのカテゴリーからスタートし、その効果を調査するにつれて低リスクのカテゴリーに降格させることができる。
政策立案者は、薬物や原子力といった規制の厳しい産業からも学ぶことができる。これらはAIに直接類似しているわけではないが、これらの安全が重要な経済分野を管理する品質基準や運用手順の多くは、有益な洞察を与えてくれるだろう。
最後に、AIの影響を受けるすべての人々の協力が不可欠である。ルールの策定を技術者だけに任せてはならない。一般市民は、個人生活や職業生活に重大な影響を及ぼす可能性のあるテクノロジーに対して発言権を持つ必要がある。
コメントを残す