米連邦取引委員会(FTC)が、ChatGPTやDALL-Eを開発したOpenAIの調査を開始したことが、Washington Post紙の取材でわかった。当局は、同社が大規模言語AIモデルから生じるリスクにどのように取り組んでいるかを示す文書を要求している。FTCは、同社が一般の人々のプライバシーやセキュリティ、評判を傷つける可能性のある「不公正または欺瞞的」行為によって消費者保護法に違反している可能性を懸念している。
同委員会が特に関心を寄せているのは、支払いやチャット履歴を含むChatGPTユーザーの機密データを流出させたバグに関連する情報だ。OpenAIは、影響を受けたユーザーの数は非常に少なかったと述べているが、FTCはこれがセキュリティ慣行の不備に起因することを懸念している。FTCはまた、AIが個人について虚偽または悪意のある発言を行ったとする苦情の詳細や、ユーザーが使用している製品の正確性をどの程度理解しているかを示す情報も求めている。
FTCはこの件に関してコメントを控えており、通常、調査について言及することはないが、以前、当局は、「生成AIは消費者に利益よりも害を与えることで法律に抵触する可能性がある」と警告していた。例えば、詐欺に使われたり、誤解を招くようなマーケティングキャンペーンを行ったり、差別的な広告につながったりする可能性がある。政府機関は、企業が違反していると判断した場合、罰金を科したり、一定の慣行を強制する同意命令を出したりすることができる。
AIに特化した法律や規則は近い将来には期待できない。それでも、政府はテック業界への圧力を強めている。OpenAIのCEOであるSam Altman氏は5月に上院で証言し、AIの利点を謳いながらプライバシーと安全対策について説明し、自社を擁護した。Altman氏は、保護措置は実施されているが、OpenAIは「ますます慎重になり」、安全対策をアップグレードし続けると述べた。
FTCがGoogleやAnthropicといった他の生成AI開発企業を追及するかどうかは定かではない。OpenAIの調査は、FTCが他のケースにどのようにアプローチするかを示しており、規制当局がAI開発者の精査に真剣に取り組んでいることを示している。
Sources
コメントを残す