Meta、オープンソースAIの安全性向上を目指す「Purple Llama」プロジェクトを発足

masapoco
投稿日
2023年12月8日 10:51
126b321fb46adda029b9ce8e78b85941

Meta AIは、責任ある生成AI開発のためのオープンな信頼と安全ツールを提供し、”競争の場を平準化する”ことを目的とした包括的プロジェクト、「Purple Llama」を立ち上げた。

このプロジェクトは、開発者が責任を持ってオープンな生成AIモデルを構築するためのツールと評価を提供するもので、当初はサイバーセキュリティと入出力のセーフガードに重点を置く。このプロジェクトは、同社のグローバルアフェアーズ責任者であり、元英国副首相のNick Clegg氏によって木曜日に発表された

Metaは、「安全性に関する協力は、この新しい革新の波を推進する開発者たちへの信頼を築くために必要であり、責任あるAIに関する追加の研究と貢献が必要です。AIシステムを構築する人々は、AIの課題に対処するために孤立しているわけではないため、オープンな信頼と安全性のための中心地を作り、プレイングフィールドを平準化したい」と述べている。

Purple Llamaの下で、Metaは他のAIアプリケーション開発者と協力している。これには、AWSやGoogle Cloudのようなクラウドプラットフォーム、Intel、AMD、NVIDIAのようなチップデザイナー、Microsoftのようなソフトウェア企業が含まれる。これらの企業は、モデルの能力をテストし、安全リスクをチェックするためのツールをリリースする。Purple Llamaプロジェクト内のコンポーネントは、研究と商用利用の両方を可能にする許容的なライセンスで提供される。

サイバーセキュリティに関しては、LLMのサイバーセキュリティ安全性評価の業界全体の最初のセットを共有している。これらのベンチマークは、業界のガイダンスと標準(例えば、CWEやMITRE ATT&CK)に基づいており、セキュリティの専門家との協力で構築されている。この初期リリースでは、ホワイトハウスの責任あるAIの開発に関するコミットメントで概説されているいくつかのリスクに対処するのに役立つツールを提供することを目指している。これには、以下が含まれる:

  • LLMのサイバーセキュリティリスクを定量化するための指標。
  • 不安全なコード提案の頻度を評価するためのツール。
  • 悪意のあるコードの生成を困難にし、サイバー攻撃の実行を支援するためのLLMの評価ツール。

最初に公開されたパッケージには、ソフトウェア生成モデルのサイバーセキュリティ問題をテストするツールと、不適切または暴力的、違法な活動について議論するテキストを分類する言語モデルが含まれている。

CyberSec Evalと呼ばれるこのパッケージは、AIモデルが不安全なコードを生成する可能性がどの程度あるか、またはユーザーがサイバー攻撃を実行するのを支援する可能性がどの程度あるかをチェックするベンチマークテストを実行することを可能にする。

例えば、開発者は自分たちのモデルにマルウェアを作成するよう指示し、それが要求にどの程度従うかを確認し、そのような要求をブロックすることができる。または、一見無害なタスクを実行するようモデルに依頼し、それが不安全なコードを生成するかどうかを確認し、モデルがどのように誤動作しているかを把握しようとすることもできる。

初期のテストでは、大規模な言語モデルが平均して30%の確率で脆弱なコードを提案していることが、Metaの研究者によって明らかにされた。これらのサイバーセキュリティベンチマーク評価は繰り返し実行され、モデルへの調整が実際にそれらをより安全にしているかどうかをチェックすることができる。

プロジェクトとしてもう一つリリースされた「Llama Guard」は、テキストを分類するために訓練された大規模言語モデルである。これは、性的に露骨な言葉、攻撃的な言葉、有害な言葉、または違法な活動についての議論を探す。開発者は、自分たちのモデルが安全でないテキストを受け入れたり生成したりするかどうかをテストするために、Llama Guardによって生成された入力プロンプトと出力応答を実行することができる。その後、モデルが不適切なコンテンツを生成する可能性がある特定の項目をフィルタリングすることができる。

Metaは、Purple LlamaをAIの入力と出力の両方を見るセキュリティと安全性の二本立てのアプローチと位置付けている。「生成AIが提示する課題を真に緩和するためには、攻撃(レッドチーム)と防御(ブルーチーム)の両方の姿勢を取る必要があると私たちは信じている。パープルチーミングは、レッドチームとブルーチームの両方の責任を持つ協力的なアプローチであり、潜在的なリスクを評価し、軽減する」と述べている。


Sources



この記事が面白かったら是非シェアをお願いします!


  • microsoft quantum computer
    次の記事

    HSBC、量子コンピューター攻撃からFX取引を保護するテストを実施

    2023年12月8日 11:31
  • 前の記事

    Samsung、2027年までに全固体電池を量産する計画

    2023年12月8日 9:57
    Samsung HQ Image

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事