欧州連合(EU)のAI法は、人工知能(AI)のアプリケーションを規制するためのリスクベースの計画であるが、本日EU加盟27カ国の大使が全会一致で、人工知能に関する世界初の包括的な規則を承認した。
この進展は、12月に達成された政治的合意に続くもので、数日間にわたるEUの共同立法者による「最終的な」3者協議の末に決定された。その後、交渉用紙に書かれた合意事項を最終的な妥協案としてまとめ、議員の承認を得る作業が開始された。
フランス、ドイツ、イタリアは、Open AIのGPT-4のような高性能AIモデルについては、より緩やかな規制を求めたが、最終版の法律には、すべてのモデルに対する透明性要件と、高リスクモデルに対する追加義務が含まれている。
予定されている規制は、AIをソーシャル・スコアリングに使用するような、AIの禁止された用途(別名、容認できないリスク)のリストを定め、高リスクの用途(AIアプリが健康、安全、基本的権利、環境、民主主義、法の支配を害する可能性がある場合)、および「システミック・リスク」をもたらすとみなされる最も強力な汎用/基盤モデルについて、いくつかのガバナンス・ルールを導入し、AIチャットボットのようなアプリに透明性要件を適用する。しかし、AIの「低リスク」アプリケーションは法律の対象とはならない。
域内市場委員会と市民的自由委員会は2月13日にAI法案を採択し、その後4月10日と11日に本会議で採決される。
Source
コメントを残す