Nvidia Logo 3d

Depuis Half Life 2, les PNJ ont peu évolué au final. Il serait temps que ça change ! NVIDIA prêche pour sa technologie nommée ACE, on vous explique tout !

Depuis 20 ans, les jeux vidéo ont techniquement progressé. Nous avons eu droit à une explosion de la géométrie, des textures plus fines, du ray tracing et des upscalings, mais il y a toujours un aspect qui n'a pas trop changé, c'est l'IA. L'intelligence des personnages non joueurs est un sujet qui revient beaucoup sur la table : dialogues décalés et pas en rapport avec la situation, personnages aussi expressifs que Jocelyne Wildenstein, et débilité de comportement dans les phases de combat, il y a plein de choses à améliorer. Avec l'explosion de l'IA générée, et sentant le paquet d'oseille que cela représente, NVIDIA a donc créé une trousse à outils pour se servir des capacités de ses cartes afin d'humaniser les PNJ.

La trousse, basée dans Omniverse, se nomme ACE, acronyme de Avatar Cloud Engine. Son but est d'apporter de l'intelligence aux PNJ via divers aspects : expressions, animations faciales, dialogues, etc. Dans cette trousse, il y a 3 outils distincts et indépendants. NVIDIA NeMo se charge de développer la parole et le langage, le tout via des données, l'IA se chargeant de générer ceux ci en fonction des situations. Et pour ne pas tomber sur un PNJ qui serait supporter d'une équipe de foot et utiliserait un dialecte inadapté, il y a le garde fou NeMo Guardrails. Imaginez un personnage qui vous traiterait d'en...é, hop, il se ferait désintégrer par l'IA !

Vient ensuite le second outil : NVIDIA Riva. Ce nom rappellera des souvenirs aux anciens, le nom de la seconde puce des verts créée en 1997 (Riva 128, Riva TNT, etc), mais ici, il prend un tout autre sens. Il sert pour la reconnaissance vocale et la synthèse vocale afin de créer une conversation en direct. Si NeMo permet de choisir globalement le langage qui sera utilisé, Riva l'utilisera et l'exploitera vocalement.

Enfin, il faudra compter sur NVIDIA Omniverse Audio2Face. On peut presque comprendre l'intérêt de la chose à la lecture. Il s'agit de créer des expressions faciales, expressions hein et pas autre chose, et des animations aux PNJ pour coller aux dialogues et aux mots. Il serait bête de voir un PNJ mort de rire en annonçant la mort d'un autre PNJ, il y aurait discordance. Comme c'est Omniverse, c'est donc disponible aux développeurs qui s'inscrivent sur la plateforme dev de NVIDIA.

Par ailleurs, il faut savoir qu'il existe des passerelles vers d'autres moteurs, comme l'Unreal Engine 5. De plus les développeurs peuvent intégrer dans leurs jeux l'item qu'ils souhaitent, ils ne sont pas obligés de le faire pour les 3 que nous avons cité. A titre d'exemple, Audio2Face a été adopté par GSC Game World pour STALKER 2, tout comme Fallen Leaf un jeu indé. C'est donc une première avancée, et l'IA est clairement devenue le dada de NVIDIA, il faut dire que tout le monde veut s'y mettre, faut-il encore savoir comment et quels services en retirer. Certains le savent plus vite que d'autres !

M Galonnier


    • Tu n'as pas un dialogue préétabli avec choix multiple : Tu peux taper le dialogue que tu veux, ça change tout

  • Quand ça sera implanté dans un jeux, et pas en démo tech, je me pencherais la dessus, en MMO ou Open World "abouti", j'y passerais énormément d'heures assurément.

    @Titi: Effectivement, AMD a parlé de l'IA pour le jeux (PnJ's) et pas que pour le graphisme de façon Open effectivement

    https://www.tomshardware.fr/amd-veut-rendre-les-pnjs-des-jeux-video-plus-intelligents-grace-a-lia/

  • J'attends le jeux sims qui intègrera ça 😂

    sans déc... qui joue à un jeu pour discuter avec une IA ? Quand j'ai lu le titre je me suis dis "whoa ok on va avoir des IA digne de ce nom et des fps nerveux comme FEAR" (ou la fin des iA qui triche dans les RTS)

    edit: oui je suis passé très vite sur le "PNJ"

    finalement c'est juste pour se faire un taverne simulator 😅

13 commentaires

Laissez votre commentaire

En réponse à Some User