あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

NVIDIA、より安全でセキュアなAIモデルを作成する「NeMo Guardrails」をオープンソースでリリース

(Credit: NVIDIA)

NVIDIAは3月より、企業が独自のデータで大規模言語モデル(LLM)をトレーニングできるサービス「AI Foundations」を提供していたが、本日、同社は、開発者が生成AIアプリの正確性、適切性、安全性を確保するために設計されたツール「NeMo Guardrails」を発表した。

NeMo Guardrailsは、ソフトウェアエンジニアが社内のLLMに以下のように3種類の制限をかけることが出来る様になった:

  • アプリが望ましくない領域に逸脱してしまうのを防ぐのが、局所的なガードレールです。例えば、カスタマーサービスが天気に関する質問に答えないようにするためです。
  • 安全ガードレールは、アプリが正確で適切な情報で応答することを保証します。不要な言葉を排除し、信頼できる情報源にのみ言及するよう強制することができます。
  • セキュリティガードレールは、アプリが安全であることが分かっている外部のサードパーティアプリケーションにのみ接続するよう制限します。

NVIDIAによると、NeMo GuardrailsはChatGPTを含むすべてのLLMで動作する。しかも、同社は、ほぼすべてのソフトウェア開発者が使用できるとしている。「機械学習の専門家やデータサイエンティストである必要はありません」と、同社は述べている。NeMo Guardrailsはオープンソースであるため、企業の開発者がすでに使用しているすべてのツールでも動作するとNVIDIAは指摘している。

NVIDIAは、生成AIモデルを構築するための既存のNeMoフレームワークにNeMo Guardrailsを組み込んでいる。企業顧客は、同社のAIエンタープライズ・ソフトウェア・プラットフォームを通じてNeMoにアクセスすることが出来る。また、NVIDIAは、AI Foundationsサービスを通じて、このフレームワークを提供している。NeMo Guardrailsのリリースは、Microsoft BingやGoogle Bardなど、最も注目されている生成AIのいくつかが、情報を「幻覚」する傾向があるとして批判の的になっていることを受けてのことだ。実際、Googleのチャットボットは、最初の公開デモで事実誤認を起こし、評判を著しく損なっている


Source

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

おすすめ記事

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする

CAPTCHA