OpenAIのSam Altman氏は、米国議会で「AIを規制するように」呼びかけたが、それは「我々の望むあり方で」という括弧付きのものであったようだ。
欧州連合(EU)により今後制定されるAI関連法案について、Time誌が入手した欧州委員会の内部文書によると、OpenAIはこの法案が6月14日に欧州議会で承認される前に、草案を修正するよう議員に要請したとのことだ。そして、OpenAIが提案したいくつかの変更は、最終的に法律に組み込まれたという。
AI法の承認に先立ち、議員たちはAIのシステムをリスクに応じて分類し、OpenAIのChatGPTやDALL-Eのようなすべての汎用AIシステム(GPAI)を、同法のリスク分類の下で「高リスク」に指定することを議論した。そうすることで、最も厳しい安全性と透明性の義務が課されることになる。
だが、OpenAIは、「欧州連合(EU)の人工知能法に関するOpenAI白書」と題されたEU議員に送られたロビー活動文書の中で、OpenAIの大規模な基盤モデルは高リスクとみなされるべきではないとの主張を展開しているという。
「例えば、我々のGPT-3言語モデルは、要約、分類、質問と回答、翻訳など、言語に関わる様々なユースケースに使用することができます。それ自体では、GPT-3は高リスクのシステムではないが、高リスクのユースケースに採用される可能性のある機能を有しています。」
OpenAIの代表者3人は、AI法で提案されているリスク分類を明確にするため、2022年6月に欧州委員会の担当者と面会した。「彼らは、汎用のAIシステムが高リスクのシステムに含まれることを懸念し、デフォルトでより多くのシステムが高リスクに分類されることを懸念していた」と、Time誌が入手した会議の公式記録は述べている。また、匿名の欧州委員会関係者がTime誌に伝えたところによると、OpenAIはこの会合の中で、過剰な規制がAIのイノベーションに影響を与えかねないとの懸念を表明し、AIに関するリスクは認識しており、それを軽減するためにできることはすべて行っていると主張したという。
基本的に、このロビーペーパーは、「高リスク」の指定はAIモデルのより少ない用途に適用されるべきであると主張している。そしてこのメッセージは、Altman氏が先日主張したような、政府の監視を求める声とは異なっている。
事実上、OpenAIのような企業は政府の規制を望んでいるが、自分たちの機械学習技術が、より厳しい規則が適用されないように、規制の舵取りをしたいと考えているのだろう。公の場では、より多くのルールとすべての人のためのセーフガードを求めているが、裏では規制を軽くするよう求めているのだ。
業界大手による規制の掌握は、多くの分野で知られている問題だ。OpenAIのこれまで見られなかったロビー活動は、同社が独自のルールを作ろうとしていることを示している。規制への関心を公言する同社は、小規模なライバルを圧迫しているかどうかや、モデルの訓練に必要なオンラインコンテンツの大規模な無報酬の採取に対して、コンテンツクリエイターが補償を受ける資格があるかどうかにはあまり関心がないらしい。
GPAIは、6月14日に承認されたEUのAI法の最終草案では、自動的に高リスクに分類されていない。しかし、「基盤モデル」(さまざまなタスクに使用できるChatGPTのような強力なAIシステム)には、より高い透明性要件が課され、企業はリスク評価を実施し、AIモデルの学習に著作権で保護された素材が使用されているかどうかを開示する必要がある。
EUのAI法は、発効までにはまだ道のりがある。この法律は今後、欧州理事会の最終段階である「トリローグ」で審議される。最終的な承認は年内に行われる見込みで、発効までには2年ほどかかるかもしれない。
Source
コメントを残す