Bild: NVIDIA
NVIDIA hat die NVIDIA Avatar Cloud Engine (ACE) für Spiele angekündigt, einen benutzerdefinierten KI-Modell-Foundry-Service, der zielt darauf ab, Spiele zu transformieren, indem es durch KI-gestützte Interaktionen in natürlicher Sprache Intelligenz zu nicht spielbaren Charakteren (NPCs) bringt. Der Dienst ermöglicht grundsätzlich Spielerlebnisse, bei denen der Spieler intelligente, nicht geschriebene und dynamische Gespräche mit NPCs führen kann, deren Persönlichkeit sich im Laufe der Zeit weiterentwickelt, einschließlich präziser Gesichtsanimationen und Ausdrücke, obwohl ein 4K-Demovideo, das zur Präsentation der Plattform veröffentlicht wurde, dies nahelegt Der resultierende Dialog könnte etwas steif und unnatürlich klingen. Das Video, das ein lächerlich breites Seitenverhältnis hat und in dem Jin, ein Ramen-Shop-Mitarbeiter, die Hauptrolle spielt, wurde vom Grafikteam von NVIDIA Lightspeed Studios erstellt und vollständig in Unreal Engine 5 gerendert, wobei NVIDIA RTX Direct Illumination (RTXDI) für Raytracing-Beleuchtung verwendet wurde Schatten, mit DLSS für die höchstmögliche Bildrate und Bildqualität.
„Generative KI hat das Potenzial, die Interaktivität, die Spieler mit Spielcharakteren haben können, zu revolutionieren und das Eintauchen in Spiele dramatisch zu steigern“, sagte John Spitzer, Vice Präsident für Entwickler-und Leistungstechnologie bei NVIDIA. „Aufbauend auf unserem Fachwissen im Bereich KI und jahrzehntelanger Erfahrung in der Zusammenarbeit mit Spieleentwicklern ist NVIDIA Vorreiter beim Einsatz generativer KI in Spielen.“
NVIDIA ACE für Games AI Foundation-Modelle
NVIDIA NeMo, das grundlegende Sprachmodelle und Modellanpassungstools bereitstellt, damit Entwickler die Modelle weiter optimieren können für Spielfiguren. Dieses anpassbare Large Language Model (LLM) ermöglicht spezifische Hintergrundgeschichten und Persönlichkeiten von Charakteren, die zur Spielwelt eines Entwicklers passen. Entwickler können Spielerinteraktionen durch programmierbare Regeln für NPCs mit NeMo-Leitplanken. NVIDIA Riva, das automatische Spracherkennung (ASR) und Textausgabe bietet-Speech (TTS)-Funktionen, um Live-Sprachgespräche mit NVIDIA NeMo zu ermöglichen. NVIDIA Omniverse Audio2Face, das aus nur einer Audioquelle sofort ausdrucksstarke Gesichtsanimationen für Spielcharaktere erstellt. Audio2Face verfügt über Omniverse-Anschlüsse für Unreal Engine 5, sodass Entwickler Gesichtsanimationen direkt zu MetaHuman-Charakteren hinzufügen können.
Von einer NVIDIA GeForce Beitrag:
Die Kairos-Demo nutzte NVIDIA Riva für Speech-to-Text-und Text-to-Speech-Funktionen, NVIDIA NeMo zur Unterstützung der Konversations-KI und GSC Game World Audio2Face im mit Spannung erwarteten S.T.A.L.K.E.R. 2 Herz von Tschernobyl. Und der Indie-Entwickler Fallen Leaf verwendet Audio2Face für die Gesichtsanimation von Charakteren in Fort Solis, ihr Third-Person-Science-Fiction-Thriller, der auf dem Mars spielt. Darüber hinaus nutzt Charisma.ai, ein Unternehmen, das virtuelle Charaktere durch KI ermöglicht, Audio2Face, um die Animation in seiner Konversations-Engine zu steuern.
Beteiligen Sie sich an der Diskussion zu diesem Beitrag in unseren Foren…