米政府がAI安全コンソーシアムを立ち上げ、Google、OpenAI、Microsoft、Appleら200社以上が参加

masapoco
投稿日 2024年2月9日 16:01
artificial intelligence

米国Biden政権は、OpenAI、Google、Microsoft、Amazonなどの大手AI企業を含む200社以上の企業で構成されるUS AI Safety Institute Consortium(AISIC)を発表した。このコンソーシアムは、Biden大統領が10月に発表したAI大統領令の優先事項に対応し、生成AIの安全な開発と利用に焦点を当てる。

「米国政府は、リスクを軽減し、人工知能の巨大な可能性を活用するために必要な基準を設定し、ツールを開発する上で重要な役割を担っている」とGina Raimondo商務長官は声明で述べている。

AISIC結成の発端となった10月の大統領令には、6つの主要原則がある。

  • 最も強力なAIシステムの開発者に対し、安全性テストの結果やその他の重要な情報を米国政府と共有することを義務付ける。
  • AIシステムの安全性、安全性、信頼性を確保するための基準、ツール、テストを開発する。
  • AIを使用して危険な生物学的物質を製造するリスクから保護する。
  • AIが生成したコンテンツを検出し、公的なコンテンツを認証するための基準とベストプラクティスを確立することにより、AIを利用した詐欺や欺瞞から米国人を保護する。
  • 重要なソフトウェアの脆弱性を発見し修正するためのAIツールを開発する、高度なサイバーセキュリティ・プログラムを確立する。
  • AIと安全保障に関するさらなる行動を指示する国家安全保障覚書の作成を命じる。

大統領令は広範囲に及んだため、このコンソーシアムは、”レッドチーム、能力評価、リスク管理、安全性とセキュリティ、合成コンテンツの電子透かし”に関するガイドラインの開発に重点を置くことになる。

レッドチームとは、冷戦時代にさかのぼるサイバーセキュリティ用語であり、敵が “レッドチーム”と呼ばれるシミュレーションを指す。この場合、敵は悪行に狂奔するAIである。この行為に従事している人々は、プロンプト・ハッキングによって、AIを騙してクレジットカード番号の暴露のような悪いことをさせようとする。システムを破る方法が分かれば、より優れた防御を構築することができる。

合成コンテンツに電子透かしを入れることも、Biden大統領の当初の命令の重要な側面である。コンソーシアムのメンバーは、ユーザーがAIが生成した素材を容易に識別できるようにするためのガイドラインと行動を開発する。これによって、ディープフェイクのトリックやAIによって強化された誤情報が減少することが期待される。デジタル電子透かしはまだ広く採用されていないが、このプログラムはその背景にある根本的な技術仕様を「促進し、標準化を助ける」ものである。

AISICは、U.S. AI Safety Institute(USAISI)の傘下に置かれ、テスト・評価チームの最大の集まりとなる。商務省によれば、その目的は「AIの安全性における新しい測定科学の基礎を確立することに焦点を当てる」ことである。参加者の全リストはこちら [PDF]。


Sources



この記事が面白かったら是非シェアをお願いします!


  • 3d23053a964725edf737b803f0c299cc
    次の記事

    Google DeepMind、探索アルゴリズムを用いずグランドマスターレベルのチェスAIを開発

    2024年2月10日 6:26
  • 前の記事

    OpenAI、世界のAI用チップ製造能力を加速するために数兆ドルの投資を求める

    2024年2月9日 15:45
    openai

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


今読まれている記事