本日のGTC 2024の基調講演で、NVIDIAのJensen Huang CEOは、「Covert Protocol」と呼ばれる新しいAI NPCのデモを披露した。
このデモは、AIゲームのスタートアップであるInworld AIと共同で構築され、NVIDIAのAvatar Cloud Engine(ACE)テクノロジーを使用している。ACEは、NVIDIAが昨年5月に公開した未来的なラーメン屋のデモを動かしたのと同じ技術だ。
11月、MicrosoftはInworld AIとの提携を発表し、AI設計Copilotとキャラクター・ランタイム・エンジンを特徴とするマルチプラットフォーム・ツールセットを開発した。現在、Inworldの技術は、昨年のComputexで発表されたAvatar Cloud EngineプラットフォームであるNVIDIA ACE for Gamesに統合されている。
Unreal Engine 5上で構築されたCovert Protocolは、InworldのSDKを活用してMetaHumanとの統合を迅速かつシンプルにしている。
そしてNVIDIA ACEは、完全な「デジタル・ヒューマン・パイプライン」の提供を目指している。これは、カスタマイズ可能なNemotron大規模言語モデル(LLM)による自動音声認識(ASR)とテキスト音声合成(TTS)を可能にするRivaからなる。ここで開発者は、開発者のゲーム世界に合った特定のキャラクターのバックストーリーや性格を作成することが出来る。また、NeMo Guardrailsを使用したNPC用のプログラム可能なルールにより、シーンのコンテキスト内でプレイヤーのインタラクションをより適切に調整出来る。そして、NVIDIAのAudio2Faceテクノロジーを用いて、より自然な顔の動きが再現される。
Audio2Faceテクノロジーは、近日公開予定のMMO「World of Jade Dynasty」の映像でも紹介され、英語と北京語の両方の音声にリップシンクするキャラクターが実演された。Audio2Faceは、オーディオソースだけからゲームキャラクターの表情豊かなフェイシャルアニメーションを自動的に作成する。手作業でキャラクターの動きを修正する必要がなく、多言語でのゲーム制作を容易にするというものだ。また、近日公開予定のアクションMeleeゲーム『Unawake』のビデオクリップでは、Audio2Faceを使用して、シネマティックとゲームプレイの両方でフェイシャルアニメーションを作成する方法を実演している。
Inworld側では、開発者は特定のNPCごとに、性格、知識と認識力、目標、シーン、安全性、長期記憶、人間関係など、さまざまなパラメータを微調整できます。Inworld AI社のCEOであるKylan Gibbs氏も次のように述べている:
NVIDIA ACEのマイクロサービスとInworld Engineを組み合わせることで、開発者は、ダイナミックなナラティブを駆動できるデジタル・キャラクターを作成することができ、ゲーマーがどのように解読、推理、そしてプレイするかについて、新たな可能性を開くことができます。
開発者の採用を加速させるため、InWorldは近い将来、Covert Protocolのソースコードを公開する予定であり、開発者は技術デモから学び、それを使って独自のイノベーションを生み出すことができる。
Sources
コメントを残す