Depuis 20 ans, les jeux vidéo ont techniquement progressé. Nous avons eu droit à une explosion de la géométrie, des textures plus fines, du ray tracing et des upscalings, mais il y a toujours un aspect qui n'a pas trop changé, c'est l'IA. L'intelligence des personnages non joueurs est un sujet qui revient beaucoup sur la table : dialogues décalés et pas en rapport avec la situation, personnages aussi expressifs que Jocelyne Wildenstein, et débilité de comportement dans les phases de combat, il y a plein de choses à améliorer. Avec l'explosion de l'IA générée, et sentant le paquet d'oseille que cela représente, NVIDIA a donc créé une trousse à outils pour se servir des capacités de ses cartes afin d'humaniser les PNJ.
La trousse, basée dans Omniverse, se nomme ACE, acronyme de Avatar Cloud Engine. Son but est d'apporter de l'intelligence aux PNJ via divers aspects : expressions, animations faciales, dialogues, etc. Dans cette trousse, il y a 3 outils distincts et indépendants. NVIDIA NeMo se charge de développer la parole et le langage, le tout via des données, l'IA se chargeant de générer ceux ci en fonction des situations. Et pour ne pas tomber sur un PNJ qui serait supporter d'une équipe de foot et utiliserait un dialecte inadapté, il y a le garde fou NeMo Guardrails. Imaginez un personnage qui vous traiterait d'en...é, hop, il se ferait désintégrer par l'IA !
Vient ensuite le second outil : NVIDIA Riva. Ce nom rappellera des souvenirs aux anciens, le nom de la seconde puce des verts créée en 1997 (Riva 128, Riva TNT, etc), mais ici, il prend un tout autre sens. Il sert pour la reconnaissance vocale et la synthèse vocale afin de créer une conversation en direct. Si NeMo permet de choisir globalement le langage qui sera utilisé, Riva l'utilisera et l'exploitera vocalement.
Enfin, il faudra compter sur NVIDIA Omniverse Audio2Face. On peut presque comprendre l'intérêt de la chose à la lecture. Il s'agit de créer des expressions faciales, expressions hein et pas autre chose, et des animations aux PNJ pour coller aux dialogues et aux mots. Il serait bête de voir un PNJ mort de rire en annonçant la mort d'un autre PNJ, il y aurait discordance. Comme c'est Omniverse, c'est donc disponible aux développeurs qui s'inscrivent sur la plateforme dev de NVIDIA.
Par ailleurs, il faut savoir qu'il existe des passerelles vers d'autres moteurs, comme l'Unreal Engine 5. De plus les développeurs peuvent intégrer dans leurs jeux l'item qu'ils souhaitent, ils ne sont pas obligés de le faire pour les 3 que nous avons cité. A titre d'exemple, Audio2Face a été adopté par GSC Game World pour STALKER 2, tout comme Fallen Leaf un jeu indé. C'est donc une première avancée, et l'IA est clairement devenue le dada de NVIDIA, il faut dire que tout le monde veut s'y mettre, faut-il encore savoir comment et quels services en retirer. Certains le savent plus vite que d'autres !
Perso je trouve que le PNJ est vide de vie à travers les paroles de l'IA. Il y a encore du gros travail pour faire passer l'IA pour un véritable doubleur.
Vide de vie? Tu as déjà joué à un jeu vidéo de ta vie ? On dirait pas.🤣
À priori c'est toi qui joue pas au bon jeu, des doubleurs de qualité anglais/français il y en a à la pelle et ils savent très bien parler dans les jeux vidéos sans passer pour des robots.
Une amélioration de l'I.A. des PNJ, c'est bon à prendre. C'est sûr qu'il vaut mieux utiliser toute la puissance faramineuse des GPU actuels pour faire un peu plus que du rendu graphique
Tiens tiens, c'était pour tacler AMD avant qu'ils ne sortent leur propre solution? 😛
Avatar Cloud Engine :
déjà y a cloud dans le nom, donc ça tourne pas en local, donc internet obligatoire pour que ça marche, et ça va couté des sous, bientôt en plus du jeu, il va te falloir un abonnement au service d'IA dans le cloud pour le faire tourner...
c'est beau le progrès des fois.
heureusement que derrière y a l'open source qui bosse sur des ia qui elles peuvent tourner en local!
Je dois ne pas être réceptif, mais je ne vois pas vraiment en quoi ce dialogue avec ce PNJ est extraordinaire. Il nous balance une mission lambda de la même façon que n'importe quel PNJ de jdr depuis des années. Il est super statique et inexpressif, n'est même pas en train de cuisiner tout en parlant...
Après l'intention est louable, d'améliorer ce point dans les jeux. Mais je jugerai sur pièce, il y a souvent un monde entre la démo d'une technologie et la mise en oeuvre dans un vrai jeu. Au moins on n'a pas les expressions faciales débiles des pnj de Mass Effect Andromeda ou de Jedi Fallen Order.
Tu as déjà parlé à un PNJ via ton micro ?
Je dois être trop enthousiaste, mais je trouve la chose fun ^^'
Ah non, je ne fais pas ça en effet. J'avais pas du tout percuté que ça se passait comme ça. Effectivement, ça va changer l'immersion si l'IA ne déconne pas trop, du genre répondre "Non" quand on lui demande "Quel temps va-t-il faire demain ?".
Mais le dialogue ressemble tellement à un échange préétabli dans le contenu, que la nouveauté ne saute pas aux yeux.
C'est vrai que la façon dont est tournée la vidéo, on dirait juste une scène random. De fait, ça ne m'avait pas sauté aux yeux non plus au début ! ^^'