Imagem: NVIDIA

A NVIDIA anunciou o NVIDIA Avatar Cloud Engine (ACE) for Games, um serviço personalizado de criação de modelos de IA que visa transformar jogos trazendo inteligência para personagens não jogáveis ​​(NPCs) por meio de interações de linguagem natural alimentadas por IA. O serviço basicamente permite experiências de jogo nas quais o jogador pode ter conversas inteligentes, sem roteiro e dinâmicas com NPCs com personalidades persistentes que evoluem com o tempo, incluindo animações e expressões faciais precisas, embora um vídeo de demonstração em 4K lançado para mostrar a plataforma sugira que o diálogo resultante pode soar um pouco rígido e antinatural. O vídeo, que vem em uma proporção ridiculamente ampla e estrelado por Jin, um funcionário da loja de ramen, foi criado pela equipe de arte do NVIDIA Lightspeed Studios e renderizado inteiramente no Unreal Engine 5, usando NVIDIA RTX Direct Illumination (RTXDI) para iluminação ray tracing e sombras, com DLSS para as mais altas taxas de quadros e qualidade de imagem possíveis.

“A IA generativa tem o potencial de revolucionar a interatividade que os jogadores podem ter com os personagens do jogo e aumentar drasticamente a imersão nos jogos”, disse John Spitzer, vice presidente de desenvolvimento e tecnologia de desempenho da NVIDIA. “Com base em nossa experiência em IA e décadas de experiência trabalhando com desenvolvedores de jogos, a NVIDIA está liderando o uso de IA generativa em jogos.”

NVIDIA ACE for Games AI Foundation Models

NVIDIA NeMo, que fornece modelos de linguagem de base e ferramentas de personalização de modelos para que os desenvolvedores possam ajustar ainda mais os modelos para personagens do jogo. Este modelo de linguagem grande personalizável (LLM) permite histórias de fundo de personagens e personalidades específicas que se encaixam no mundo do jogo de um desenvolvedor. Os desenvolvedores podem alinhar melhor as interações do jogador no contexto de uma cena por meio de regras programáveis ​​para NPCs com Guardrails NeMo. NVIDIA Riva, que fornece reconhecimento automático de fala (ASR) e text-to-recursos de fala (TTS) para permitir conversas de fala ao vivo com NVIDIA NeMo. NVIDIA Omniverse Audio2Face, que cria instantaneamente animações faciais expressivas para personagens de jogos a partir de apenas uma fonte de áudio. O Audio2Face apresenta conectores Omniverse para Unreal Engine 5, para que os desenvolvedores possam adicionar animação facial diretamente aos personagens MetaHuman.

De uma NVIDIA GeForce postagem:

A demonstração Kairos aproveitou NVIDIA Riva para recursos de fala para texto e texto para fala, NVIDIA NeMo para potencializar a IA conversacional e Audio2Face para animação facial com IA a partir de entradas de voz. Esses módulos foram integrados perfeitamente na plataforma de serviços Convai e alimentados no Unreal Engine 5 e MetaHuman para dar vida a Jin.

Desenvolvedores de jogos e startups já estão usando tecnologias de IA generativas da NVIDIA. Por exemplo, GSC Game World está usando Audio2Face no tão esperado S.T.A.L.K.E.R. 2 Coração de Chornobyl. E o desenvolvedor independente Fallen Leaf está usando Audio2Face para animação facial de personagens em Fort Solis, seu thriller de ficção científica em terceira pessoa ambientado em Marte. Além disso, Charisma.ai, uma empresa que permite personagens virtuais por meio de IA, está aproveitando o Audio2Face para potencializar a animação em seu mecanismo de conversação.

Participe da discussão desta postagem em nossos fóruns…

Categories: IT Info