NVIDIA、より安全でセキュアなAIモデルを作成する「NeMo Guardrails」をオープンソースでリリース

masapoco
投稿日 2023年4月26日 6:02
NeMo Guardrails KV

NVIDIAは3月より、企業が独自のデータで大規模言語モデル(LLM)をトレーニングできるサービス「AI Foundations」を提供していたが、本日、同社は、開発者が生成AIアプリの正確性、適切性、安全性を確保するために設計されたツール「NeMo Guardrails」を発表した。

NeMo Guardrailsは、ソフトウェアエンジニアが社内のLLMに以下のように3種類の制限をかけることが出来る様になった:

  • アプリが望ましくない領域に逸脱してしまうのを防ぐのが、局所的なガードレールです。例えば、カスタマーサービスが天気に関する質問に答えないようにするためです。
  • 安全ガードレールは、アプリが正確で適切な情報で応答することを保証します。不要な言葉を排除し、信頼できる情報源にのみ言及するよう強制することができます。
  • セキュリティガードレールは、アプリが安全であることが分かっている外部のサードパーティアプリケーションにのみ接続するよう制限します。

NVIDIAによると、NeMo GuardrailsはChatGPTを含むすべてのLLMで動作する。しかも、同社は、ほぼすべてのソフトウェア開発者が使用できるとしている。「機械学習の専門家やデータサイエンティストである必要はありません」と、同社は述べている。NeMo Guardrailsはオープンソースであるため、企業の開発者がすでに使用しているすべてのツールでも動作するとNVIDIAは指摘している。

NVIDIAは、生成AIモデルを構築するための既存のNeMoフレームワークにNeMo Guardrailsを組み込んでいる。企業顧客は、同社のAIエンタープライズ・ソフトウェア・プラットフォームを通じてNeMoにアクセスすることが出来る。また、NVIDIAは、AI Foundationsサービスを通じて、このフレームワークを提供している。NeMo Guardrailsのリリースは、Microsoft BingやGoogle Bardなど、最も注目されている生成AIのいくつかが、情報を「幻覚」する傾向があるとして批判の的になっていることを受けてのことだ。実際、Googleのチャットボットは、最初の公開デモで事実誤認を起こし、評判を著しく損なっている


Source



この記事が面白かったら是非シェアをお願いします!


  • spotify icon
    次の記事

    Spotify、月間アクティブユーザー数が5億人を突破、自社の予想を上回る結果に

    2023年4月26日 6:28
  • 前の記事

    月着陸船「Hakuto-R」、通信途絶の末に行方不明に

    2023年4月26日 5:51
    230425 lander

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


今読まれている記事