あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

最近、「リスク」という言葉が「人工知能」と同列に語られることが多くなっている。世界のリーダーたちが、AIがもたらす産業的・戦略的なメリットとともに、潜在的な問題点を考えていることは心強いことだが、すべてのリスクが同じではないことを忘れてはいけない。

6月14日(水)、欧州議会は、AIの規制におけるグローバルスタンダードを形成するという野望のもと、2年の歳月をかけて作成されたAI法の独自案を承認する投票を行った

欧州議会、欧州委員会、欧州理事会が作成した異なる草案を調整するための最終段階の交渉を経て、年内にこの法律が承認される予定だ。この法律は、社会のほぼすべての分野でAIを規制することを目的とした世界初の法律となるが、防衛は除外される。

AIを規制する方法にはさまざまなものがあるが、この法律が完全にリスクという概念で組み立てられていることに注目すべきだろう。規制の対象となるのはAIそのものではなく、社会の特定の領域で使用される方法であり、それぞれ異なる潜在的な問題をはらんでいる。リスクは、「許容できない」「高い」「限定的」「最小」の4つのカテゴリーに分類され、それぞれ異なる法的義務が課される。

基本的な権利やEUの価値観を脅かすと判断されたシステムは、「許容できない」リスクに分類され、禁止されることになる。このようなリスクの例としては、「予測的取り締まり」に使用されるAIシステムが挙げらる。これは、個人情報に基づいて個人のリスク評価を行い、犯罪を犯す可能性があるかどうかを予測するためにAIを使用することだ。

より議論を呼ぶのは、街頭カメラのライブ映像に顔認識技術を利用するケースだ。これも許容できないリスクのリストに追加され、犯罪の実行後、司法の認可を得た場合にのみ許可されることになる。

高い」リスクと分類されたシステムは、情報公開の義務が課せられ、特別なデータベースに登録されることが予想される。また、さまざまな監視や監査の要件が課される。

高リスクに分類される予定のアプリケーションの種類には、教育、雇用、金融、医療、その他の重要な分野におけるサービスへのアクセスを制御できるAIが含まれる。このような分野でのAIの利用は望ましくないとは考えられていないが、安全性や基本的権利に悪影響を及ぼす可能性があるため、監視が不可欠だ。

私たちの住宅ローンに関する意思決定を行うソフトウェアが、性別や民族的背景などの保護特性に基づいて差別されていないことを確認するために、欧州の法律に準拠しているかどうかを慎重にチェックすることを信頼できるようにすべきだということだ–少なくともEUに住んでいる場合。

限定的」なリスクのAIシステムには、最小限の透明性要件が適用される。同様に、生成AIシステム(例えば、テキストや画像を生成するボット)の運営者は、ユーザーが機械と相互作用していることを開示する必要がある。

2019年に始まった欧州機関を通過する長い道のりの中で、この法律は、敏感な状況下でAIを導入する際の潜在的なリスクについて、その監視と緩和の方法とともに、ますます具体的かつ明確になってきていり。しかし、物事を成し遂げたいのであれば、具体的であることが必要である、ということは明らかだ。

絶滅の危機?

これとは対照的に、最近、AIがもたらすとされる「絶滅のリスク」の軽減を求める請願が見られるが、それ以上の詳細は示されていない。様々な政治家もこの意見に賛同しています。この一般的で非常に長期的なリスクは、AI法を形成するものとは全く異なるものだ。なぜなら、AI法は、私たちが何に注意すべきなのか、また、そのリスクから守るために今何をすべきなのか、何ら詳細を示していないからだ。

リスク」が何かから生じるかもしれない「予想される害」であるとすれば、害があり、かつ確率の高い可能性のあるシナリオに焦点を当てるのが良いだろう。なぜならそれが最も高いリスクを伴うからだ。小惑星の衝突のような非常に起こりにくい事象が、公害の影響のような起こりやすい事象より優先されるべきではない。

その意味で、今回EU議会で承認された法律案は、AIに関する最近の警告のいくつかに比べて、派手さはないが、実質的ではある。イノベーションを妨げることなく、権利と価値を保護し、危険と救済の両方に具体的に対処するという、絶妙なラインを歩もうとしているのである。完璧とは言い難いが、少なくとも具体的な行動を示している。

この法案の次の段階は、議会、委員会、評議会の別々の草案を最終的なテキストに統合するトリローグ(3者間対話)であろう。この段階で、妥協が生じることが予想される。出来上がった法律は、おそらく2023年末に発効し、次の欧州選挙に向けたキャンペーンが始まる前に投票される予定だ。

2~3年後には法律が施行され、EU域内で事業を行う企業はこの法律に従わなければならなくなる。2027年にAIが、そして世界がどうなっているかは分からないからだ。

欧州委員会のUrsula von der Leyen委員長がこの規制を最初に提案したのは、パンデミック、戦争、エネルギー危機の直前、2019年の夏だったことを忘れてはいけない。ChatGPTが政治家やメディアにAIによる存亡の危機を定期的に語らせる前のことでもある。

しかし、この法律は十分に一般的な方法で書かれているため、しばらくの間は関連性を保つことができるかもしれない。この法律は、研究者や企業がヨーロッパを越えてAIに取り組む方法に影響を与える可能性がある。

しかし、はっきりしているのは、どんな技術にもリスクがあるということだ。何かネガティブなことが起こるのを待つのではなく、学術機関や政策立案機関は、研究の結果について前もって考えようとしている。化石燃料のような過去の技術を採用する方法と比較すると、これはある程度の進歩であると言えるだろう。


本記事は、Nello Cristianini氏によって執筆され、The Conversationに掲載された記事「EU approves draft law to regulate AI – here’s how it will work」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする