2023年7月、テック大手4社(Open AI、Microsoft、Google、Anthropic)は、Frontier Model Forumと呼ばれる、生成AI、特にフロンティアAIモデルの安全で責任ある開発を保証することを目的としたプラットフォームを発表した。
本日、各社は共同で、Frontier Model Forumの初代エグゼクティブ・ディレクターにChris Meserole氏を任命し、AI安全性分野の研究を促進するために1000万ドル以上のイニシアチブを持つAI安全性基金を設立することを発表した。さらに、Frontier Modelはレッド・チーミングに関する初の技術ワーキンググループの最新情報を共有している。
Googleのブログ記事によると、Meserole氏は最近まで、ブルッキングス研究所で人工知能・新興技術イニシアチブのディレクターを務めていたようだ。
Meserole氏は以下のように述べている:
「最も強力なAIモデルは、社会にとって大きな可能性を秘めていますが、その可能性を実現するためには、安全に開発し、評価する方法をよりよく理解する必要があります。私は、Frontier Model Forumでこの課題に挑戦できることを嬉しく思っています」。
AI安全性基金に関しては、4人の技術界の巨頭の他に、Patrick J. McGovern Foundation、David and Lucile Packard Foundation、Eric Schmidt氏(Google元CEOで慈善家)、Jaan Tallinn氏(エストニアの億万長者)から大きな寄付が寄せられている。
また、発表では次のようにも述べられている:
「フォーラムは、Meseroleと協力し、パートナーシップ・オン・AI、MLCommons、その他の主要なNGO、政府機関、多国籍組織を含む、より広範な研究コミュニティとの関わりを深め、AIの安全な開発と利用を促進しながら、AIの利益の実現を支援することに興奮しています」。
以前、フォーラムのメンバーは、ホワイトハウスで自主的なAIの約束に合意した。その中には、AIフォーラムの脆弱性を報告し、第三者による発見を支援するという誓約も含まれていた。その後、今後の議論において共通の土台を確保するため、用語の定義やプロセスの確立に取り組んでいる。
この基金は、AIモデルをレッドチーム化するための新たなモデル評価と手法の開発を優先するとしている。これらは、フロンティア・システムの潜在的に危険な能力に対する評価技術の開発とテストに役立つだろう。
最新のワーキンググループの更新では、レッド・チーミングの定義として、「有害な能力、出力、またはインフラの脅威を特定するために、AIシステムや製品を調査するための構造化されたプロセス」を紹介した。また、この問題を浮き彫りにするケーススタディも共有した。
ブログでは、同フォーラムが最近進めているプロジェクトについても触れている。同フォーラムは、フロンティアAIラボがフロンティアAIモデル内の脆弱性や潜在的に危険な能力の発見とその緩和策に関連する情報を共有できるよう、新たな責任ある情報開示プロセスに取り組んでいる。また、将来的には戦略立案を支援するための諮問委員会の設立も計画している。
Meridian Instituteが運営するこのファンドは、今後数カ月以内に提案書を募集し、その後すぐに助成金が期待できる。
Sources
コメントを残す