Metaは、Facebook、Instagram、Threadsにアップロードされたコンテンツについて、OpenAIやGoogleなどの他社が提供するAI生成画像を検出し、それがAIによって生成されたことを明らかにするラベル付けを開始する計画を発表した。この動きは、同社のプラットフォームにおいて、ユーザーが目にするコンテンツが本物の写真や動画ではなく、デジタル合成されたメディアであることをユーザーに知らせることで、透明性を高めることを目的としている。
同社は、目に見えるラベル、目に見えない透かし、画像ファイルに埋め込まれたメタデータを通じて、動画や音声を含むAI生成コンテンツの透明性を高めることを目指している。
具体的には、Google、OpenAI、Microsoft、Adobe、Midjourney、Shutterstockなどの業界パートナーと協力し、C2PAやIPTCメタデータなど、AIが生成したコンテンツにタグを付け、識別するための共通規格を開発している。
また、MetaのAI機能で作成されたフォトリアリスティックな画像には、「Imagined with AI」という目に見えるラベルと目に見えない透かし、そして適切なメタデータも表示される。
「我々は現在この機能を構築しており、今後数ヶ月のうちに、各アプリがサポートするすべての言語でラベルの適用を開始する予定です」と、MetaのNick Clegg氏は述べている。
ただし、これは技術的に実現可能な最善のアプローチではあるが、AIが生成したコンテンツをすべて識別することは不可能であり、人間が不可視のタグを削除することもできる点について、Metaは注意も促している。
合わせてMetaは、AIが生成したコンテンツを自動的に認識するためのより高度な分類器の開発に取り組んでおり、画像作成プロセスに電子透かしを直接統合し、無効化しにくくするStable Signatureのような電子透かし技術を模索しているという。
ビデオやオーディオの検出技術が標準化され、成熟するまでは、Metaはまた、デジタル的に作成または修正された写実的なビデオやリアルに聞こえるオーディオを持つ有機的なコンテンツをラベル付けするようユーザーに促しており、これに従わない場合は、“罰則を科す”可能性もあるとMetaは述べている。これについては、Metaの方でもタグ付けツールを提供する予定だ。“特に高いリスク”をもたらす画像、動画、音声コンテンツは、より目立つようにラベル付けされる可能性があるとのことだ。
Metaはまた、コミュニティ基準を強化し、ポリシーに違反するコンテンツを特定するために、大規模言語モデル(LLM)をテストしている。Metaによると、初期のテストでは、LLMが既存の機械学習モデルよりも優れた性能を発揮できることを示している。
同社はまた、コンテンツがポリシーに違反していないと確信できる場合、LLMを使用してコンテンツをレビューキューから削除する。これにより、レビュアーはポリシー違反の可能性が高いコンテンツに集中することができる。
OpenAIはまた、言語モデルがコンテンツのモデレーションを部分的に自動化できる範囲をテストしている。
Source
コメントを残す