AIのリーディングカンパニーが手を組み、安全で責任あるAIの構築に乗り出した。
ChatGPTの登場により、AIの普及が加速し、これがもたらすセキュリティやその他のリスクに人々は不安を抱いている。既に政府による規制の動きも出ているが、今のところ予防措置を講じるのは企業自身だ。
ChatGPTのOpenAI、それと手を組みBing Chatを構築するMicrosoft、BardチャットボットのGoogle、そしてClaudeのAnthropicら4社は「Frontier Model Forum」を設立し、生成AI、特にフロンティアAIモデルの「安全で責任ある開発」を保証することを表明している。
フロンティアAIモデルとは、このグループによって “既存の最先端モデルの能力を超える大規模な機械学習モデルであり、多種多様なタスクを実行できる”ものと説明されている。
Frontier Model Forumの設立を発表したGoogleのブログ記事で、グループはその目標を発表している:
- フロンティアモデルの責任ある開発を促進し、リスクを最小化し、能力と安全性の独立した標準化された評価を可能にするために、AIの安全性研究を推進する。
- フロンティアモデルの責任ある開発と展開のためのベストプラクティスを特定し、一般市民が技術の性質、能力、限界、影響を理解できるようにする。
- 政策立案者、学識経験者、市民社会、企業と協力し、信頼と安全性に関するリスクを共有する。
- 気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会が直面する最大の課題への対応に役立つアプリケーションの開発努力を支援する。
メンバーは今後1年間、最初の3つの目標に取り組むと伝えられている。OpenAIのグローバル担当副社長であるAnna Makanju氏は声明で、「AI企業、特に最も強力なモデルに取り組んでいる企業は、強力なAIツールが可能な限り広範な利益をもたらすことを保証するために、共通の基盤で連携し、思慮深く適応可能な安全対策を進めることが不可欠です。これは緊急の課題であり、このフォーラムはAIの安全性を向上させるために迅速に行動するのに適している」と、述べている。
共同メッセージでは、MicrosoftのBrad Smith社長も以下のように声明を寄せている:
AI技術を開発する企業は、それが安全でセキュアであり、人間のコントロール下にあることを保証する責任があります。このイニシアチブは、AIを責任を持って発展させ、全人類に利益をもたらすように課題に取り組むために、テックセクターが協力するための重要な一歩です。
Frontier Model Forumはまた、フロンティアAIモデルに取り組んでおり、”技術的・制度的アプローチを含め、フロンティア・モデルの安全性への強いコミットメントを示す”企業であれば、このグループにさらに参加することを歓迎している。
Sources
- Google The Keyword: A new partnership to promote responsible AI
コメントを残す