欧州連合(EU)は、激しい交渉を経て、人工知能法(AI法)に関する「暫定合意」に達した事を発表した。EUのAI法は、AIを統制するための世界初の包括的な規則セットとして期待されており、他の地域が類似の法律を制定する際のベンチマークとなる可能性がある。
交渉者たちは、「高影響力」を持つ一般目的AI(GPAI)システムに対する義務を確立した。これには、リスク評価、敵対的テスト、事故報告などが含まれる。特に大きなのは、これらのシステムによる透明性の確保が義務付けられた事だろう。これには、技術文書の作成や「トレーニングに使用されたコンテンツに関する詳細な要約」の提供が求められている。なお、ChatGPTの製造者であるOpenAIのような企業はこれを明らかにしていない。
さらに、市民はAIシステムに関する苦情を提出し、自身の権利に影響を与える「高リスク」システムに関する決定について説明を受ける権利を持つべきであるとされている。
プレスリリースでは、これらがどのように機能するか、または基準が何であるかについて詳細には触れていないが、規則に違反した企業に対する罰金の枠組みについては言及している。罰金は違反の内容や企業の規模によって異なり、3500万ユーロまたは全世界の収益の7%、750万ユーロまたは全世界の収益の1.5%となる。
合意内容の詳細はまだ明らかにされていないが、欧州議会が発表したプレスリリースによれば、理事会との合意にはAIの使用を全面的に禁止することが含まれている:
- センシティブな特性(政治的、宗教的、哲学的信条、性的指向、人種など)を利用したバイオメトリクス分類システム;
- 顔認識データベースを作成するための、インターネットやCCTV映像からの顔画像の非ターゲットスクラッピング;
- 職場や教育機関における感情認識;
- 社会的行動や個人的特徴に基づく社会的スコアリング;
- 人間の自由意志を回避するために人間の行動を操作するAIシステム;
- 年齢、障害、社会的または経済的状況による)人々の脆弱性を利用するために使用されるAI。
AIの使用が禁止されているアプリケーションもいくつかある。例えば、監視カメラ映像からの顔画像のスクレイピング、人種、性的指向、宗教、政治的信念などの「敏感な特性」に基づく分類、職場や学校での感情認識、または「社会的スコアリング」システムの作成などである。最後の2つの禁止されたポイントは、人間の行動を操作して自由意志を回避するAIシステムや、人々の脆弱性を悪用するAIシステムである。規則には、リアルタイムでの使用や録画からの証拠検索のための法執行機関による生体認証システムの使用に関する一連の安全対策と例外も含まれている。これには、事前の司法承認が必要であること、使用は「厳密に定義された」犯罪リストに限定されることなどが含まれる。
遠隔バイオメトリクスID AIのレトロスペクティブな(非リアルタイムの)使用は、「重大な犯罪を犯したと有罪判決を受けた、またはその疑いのある人物の的を絞った捜査」に限定される。一方、この侵入的なAI技術のリアルタイムの使用は、時間と場所が限定され、以下の目的にのみ使用できる:
- 被害者(誘拐、人身売買、性的搾取)を対象とした捜査、
- 特定かつ現在のテロリストの脅威の防止、または
- 規則で言及されている特定の犯罪(例:テロ、人身売買、性的搾取、殺人、誘拐、強姦、武装強盗、犯罪組織への参加、環境犯罪)のいずれかを犯した疑いのある人物の特定または識別。
最終合意は年内に達成されることが予想されているが、法律が実際に施行されるのは早くても2025年になる見込みである。
EUのAI法の最初の草案は2021年に公開され、AIとは何かを区別し、EU加盟国間でAI技術を規制するためのルールを同期させることを目指していた。しかし、その草案はChatGPTやStable Diffusionのような急速に変化する生成AIツールが出現する前に起草されたものであり、法案への多数の改訂が必要だった。
暫定合意がなされた今、議会の内部市場委員会と市民の自由委員会による投票を含む、さらなる交渉が必要となる。
生体認証のモニタリング(顔認識など)やOpenAIのChatGPTのような「一般目的」の基礎AIモデルを規制するルールに関する交渉は非常に分裂的であった。これらは今週、金曜日の発表に先立ってまだ議論されていた。
EUの立法者はAIを生体認証監視に完全に禁止することを推進していたが、政府は軍事、法執行、国家安全保障のための例外を求めていた。フランス、ドイツ、イタリアからの遅い提案により、生成AIモデルの製作者が自己規制を行うことも遅延に寄与したと考えられている。
Source
- European Parliament: Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI
コメントを残す