FacebookやInstagramを運営するMetaは、自社製品やプラットフォームにおける人工知能(AI)の倫理的かつ安全な使用を保証することを任務としていた、「責任あるAI(RAI)」チームを解散した事が、The Informationによって報じられている。
責任あるAIとレイオフ
The Informationによると、RAIチームのメンバーの大半は、機械学習を用いてテキストや画像などの人工的なコンテンツを作成する同社の生成AIプロダクトチームにシフトしたという。他の何人かは、AIの開発と展開の技術的側面を扱う同社のAIインフラチームに配属された。
Metaは、生成AIを競争の激しいハイテク業界における革新と成長の重要な分野と捉え、多額の投資を行ってきた。Metaは、AI分野で先行しているGoogleやMicrosoftに追いつこうとしている。
RAIチームの解散は、2月にCEOのMark Zuckerberg氏が発表したように、Metaが組織とビジョンの大改革を進めている時期に行われた。Zuckerberg氏はこの年を「効率化の年」と呼び、事業を合理化し、中核となる強みに集中すると述べた。その結果、社内でいくつかのレイオフ、合併、組織再編が行われた。
しかし、同社は責任を持って安全にAIを開発することを約束し、説明責任、透明性、安全性、プライバシーなどの「責任あるAIの柱」に従うとも主張している。同社は専用のウェブページで、責任あるAIの原則と実践について概説している。
Metaの広報担当者であるJon Carvill氏は、The Informationの取材に対し、同社は「安全で責任あるAIの開発を優先し、投資を続けていく」と述べた。また、元RAIチームのメンバーは、「責任あるAIの開発と使用に関するMeta全体の取り組みを引き続き支援する」と述べた。
RAIチームは2019年に結成され、MetaのプラットフォームやサービスにおけるAIアプリケーションの潜在的な害やリスクを監視し、軽減する役目を担っていた。しかし、チームは自律性、権限、リソースの不足など、いくつかの課題や制約に直面していたとも伝えられている。また、同チームは勧告を実施する前に、様々な利害関係者との長く複雑な交渉を経なければならなかったといい、実質的に機能していなかったとも伝えられている。
RAIチームはまた、Metaが使用するAIモデルやデータにおける偏見、多様性、公平性の問題に取り組む責任も負っていた。同社は、不当逮捕につながったFacebookの翻訳ミス、特定の入力に対して不快な画像を生成したWhatsAppのAIステッカージェネレーター、児童性的虐待資料の発見を容易にしたInstagramのアルゴリズムなど、同社のAIシステムをめぐっていくつかの論争や批判に直面してきた。
MetaによるRAIチームの解散の動きは、AIに対する世界的な規制環境がより厳しく、要求が厳しくなっている中でのことだ。米国政府は複数のAI企業と協定を結び、AI安全規則を策定するよう政府機関に指示している。欧州連合(EU)もまた、AI規制のための包括的な法的枠組みを提案しており、そこには人間の監視、透明性、説明責任、基本的権利といった側面が含まれている。
Source
- The Information: Meta Splits Up Its Responsible AI Team
コメントを残す