あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

中国政府、ジェネレーティブAIの規制ルールを公開

自動生成されるAIにはまだある程度の不確実性や制御不能性があるため、ChatGPTブームに伴うプライバシーやセキュリティの問題も多く、「企業はAI技術の開発を控えるべき」「政府機関はAI利用を担保する法律を制定すべき」という業界内の意見も少なくない。

これに関し、中国の規制当局はChatGPTのようなジェネレーティブAI製品の開発方法を企業が管理することを目的とした規則「生成型人工知能サービス管理条例」の草案を発表し、5月10日までに意見を求めている。草案の最後の条項には、早ければ今年中に法律を成立させ実施すると書かれているが、具体的な時期は確認されていない。

中国サイバースペース管理局の強力な規則案は、国内初のもので、国内のハイテク企業がChatGPTスタイルの製品を展開し始める中、急速に発展しているAIをターゲットとしている。

いわゆるジェネレーティブAIとは、膨大なデータで学習させたアルゴリズムで、画像や文章などのコンテンツを生成することができるものを指す。米OpenAI社が開発したChatGPTは、ユーザーの問いかけに対して回答を生成することができ、大きな人気を博している。

この発表に先立ち、中国AlibabaはジェネレーティブAI製品「Tongyi Qianwen」を発表し、様々なサービスに統合する予定としている。Baiduも先月、これに相当する「Ernie Bot」をテスト用に発表している

草案によると、人工知能技術による画像・映像の自動生成は、「中国インターネット情報サービス深層合成管理規定」を遵守し、ロゴで明確に識別する必要があるとしている。

また、コンテンツは社会主義の中核的価値を反映する必要があり、国家権力を破壊するものであってはならないとされている。

また、人工知能サービスを利用する際には、中華人民共和国ネットワークセキュリティ法に基づき、利用者に真の身元情報の提供を求める必要がある。また、テロリズム、過激派、民族憎悪、暴力、わいせつ・ポルノ情報、虚偽の情報、経済・社会秩序を乱すような内容を含むものであってはならない。

企業は、これらのAIモデルを訓練するために使用されるデータが、民族、人種、性別などに基づいて人々を差別しないことを確認する必要があるとしている。また、虚偽の情報を生成してはならない、と規制当局は付け加えている。

すべてのAIサービスは、正式に公開される前に中国政府の監査を受けることが義務付けられており、規制に違反した場合は罰金や刑事責任を問われるほか、ユーザーは規制に違反したAIサービスを通報することができるようになっている。

以前、中国政府はChatGPTタイプのサービスの利用を禁止しており、ChatGPTをモデルとしている中国国内の多くのAIサービスは、関連するインタラクティブなコンテキストの内容に制限が加えられることになる。

Baidu、Alibabaなどの大手企業が自社の自動生成AIや大規模な自然言語モデルを発表しており、中国政府が自動生成AIに対する監視を強めていくことは明らかだ。

確かに、これらの要件の中には、責任あるAI産業にとって慎重なもの、あるいは重要なものと考えられるものもあるが、実際のところ、その多くは、今日の企業や研究開発努力では、信じられないほど難しく、おそらく不可能なものだろう。OpenAIが成功を収めたのは、ほぼ完全な規制の空白地帯で活動していることも理由のひとつだ。もし法律で、例えばモデルの学習に使用したテキストやメディアの権利者から許可を得ることが義務付けられていたら、おそらくまだGPT-2の構築を待っていたことだろう。

Ars Technicaが転載したFinancial Timesでは、AlibabaのDaniel Zhang最高経営責任者の言葉を引用して、「10年後、20年後に振り返ったとき、私たちは皆同じスタートラインに立っていたことに気づくだろう」と述べている。規制がいかにイノベーションを阻害したか、あるいは停滞する独占をいかに防いだか、組織的なデータの大量窃取から人々をいかに守ったかが、同じような視点から見えてくるかもしれない。


Source

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

おすすめ記事

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする

CAPTCHA