Imej: NVIDIA

NVIDIA telah mengumumkan NVIDIA Avatar Cloud Engine (ACE) for Games, perkhidmatan faundri model AI tersuai yang bertujuan untuk mengubah permainan dengan membawa kecerdasan kepada watak tidak boleh dimainkan (NPC) melalui interaksi bahasa semula jadi yang dikuasakan AI. Perkhidmatan ini pada asasnya membolehkan pengalaman permainan di mana pemain boleh melakukan perbualan pintar, tidak berskrip dan dinamik dengan NPC dengan personaliti berterusan yang berkembang dari semasa ke semasa, termasuk animasi dan ekspresi muka yang tepat, walaupun video demo 4K yang dikeluarkan untuk mempamerkan platform mencadangkan bahawa dialog yang terhasil boleh berbunyi agak kaku dan tidak wajar. Video itu, yang datang dalam nisbah aspek yang tidak masuk akal dan dibintangi Jin, seorang pekerja kedai ramen, telah dicipta oleh pasukan seni NVIDIA Lightspeed Studios dan dipaparkan sepenuhnya dalam Unreal Engine 5, menggunakan NVIDIA RTX Direct Illumination (RTXDI) untuk pencahayaan surih sinar dan bayang-bayang, dengan DLSS untuk kadar bingkai dan kualiti imej tertinggi yang mungkin.

“AI Generatif berpotensi untuk merevolusikan interaktiviti yang boleh dimiliki pemain dengan watak permainan dan secara dramatik meningkatkan rendaman dalam permainan,” kata John Spitzer, naib presiden pembangun dan teknologi prestasi di NVIDIA. “Membina kepakaran kami dalam AI dan pengalaman berdekad-dekad bekerja dengan pembangun permainan, NVIDIA menerajui penggunaan AI generatif dalam permainan.”

NVIDIA ACE for Games AI Foundation Models

NVIDIA NeMo, yang menyediakan model bahasa asas dan alat penyesuaian model supaya pembangun boleh menala model selanjutnya untuk watak permainan. Model bahasa besar (LLM) yang boleh disesuaikan ini membolehkan cerita belakang watak dan personaliti tertentu yang sesuai dengan dunia permainan pembangun. Pembangun boleh menjajarkan interaksi pemain dengan lebih baik dalam konteks adegan melalui peraturan boleh atur cara untuk NPC dengan Pengawal NeMo. NVIDIA Riva, yang menyediakan pengecaman pertuturan automatik (ASR) dan teks kepada-keupayaan pertuturan (TTS) untuk membolehkan perbualan pertuturan langsung dengan NVIDIA NeMo. NVIDIA Omniverse Audio2Face, yang serta-merta mencipta animasi wajah ekspresif untuk watak permainan daripada sumber audio sahaja. Audio2Face menampilkan penyambung Omniverse untuk Unreal Engine 5, jadi pembangun boleh menambah animasi muka terus kepada aksara MetaHuman.

Daripada NVIDIA GeForce siaran:

Demo Kairos memanfaatkan NVIDIA Riva untuk keupayaan pertuturan ke teks dan teks ke pertuturan, NVIDIA NeMo untuk menggerakkan AI perbualan dan Audio2Face untuk animasi muka dikuasakan AI daripada input suara. Modul ini telah disepadukan dengan lancar ke dalam platform perkhidmatan Convai dan dimasukkan ke dalam Unreal Engine 5 dan MetaHuman untuk menghidupkan Jin.

Pembangun dan pemula permainan sudah menggunakan teknologi AI generatif NVIDIA. Contohnya, Dunia Permainan GSC menggunakan Audio2Face dalam S.T.A.L.K.E.R. 2 Hati Chornobyl. Dan pembangun indie Fallen Leaf menggunakan Audio2Face untuk animasi muka watak dalam Fort Solis, filem thriller sci-fi orang ketiga mereka di Marikh. Selain itu, Charisma.ai, sebuah syarikat yang mendayakan aksara maya melalui AI, sedang memanfaatkan Audio2Face untuk menggerakkan animasi dalam enjin perbualan mereka.

Sertai perbincangan untuk siaran ini di forum kami…

Categories: IT Info