Nvidia vuole rendere disoccupati tutti i doppiatori | La nuova “rivoluzionaria” tecnologia per gli NPC

nvidia npc con ai

Pensate all’esperienza più memorabile che avete in mente in fatto di videogiochi, una di quelle scene torcibudella che mai dimenticherete nella vostra vita: adesso, sostituite allo script e alla voce creati da un team di scrittori e voice artist, delle frasi generate dall’IA e pronunciate da una voce robotica. Sembra follia, e invece è la nuova “rivoluzionaria” idea di Nvidia.

NPC completamente autonomi, generati da IA

Diciamocelo, il doppiaggio e la scrittura sono tra le poche cose che, imprescindibilmente, non possono essere demandate alla tecnologia; la necessità di esprimere le emozioni del personaggio attraverso la sua voce mal si sposa con l’idea di una voce “automatica”, figlia del fù Loquendo dei primi anni 2000. Eppure c’è chi sta sperimentando con l’idea di avere degli NPC completamente pilotati da IA, capaci di rispondere in autonomia a input vocali dell’utente, generando risposte e facendole pronunciare da voci automatizzate.

La demo mostrata da Nvidia, titano del settore delle schede grafiche, e Convai, azienda del campo IA, al CES 2024 è in realtà figlia di un precedente annuncio, di circa un anno fà, in cui la stessa coppia di aziende annunciava il cosiddetto “Omniverse Avatar Cloud Engine”, a detta loro capace di creare, in tempo reale, NPC interattivi, con tanto di espressioni facciali e dialoghi vocali.

Nel video in questione vediamo un utente interagire con gli NPC della demo utilizzando la propria voce, improvvisando una risposta, e gli NPC generati dall’IA rispondere generando sul momento una linea di dialogo. In questa specie di bar dal sapore cyberpunk vediamo due NPC provare ad imbastire una discussione; sono Jin, cuoco di un ristorante di ramen, e Nova, cliente del bar. Le voci suonano fin troppo impostate, e le espressioni facciali sembrano meccaniche, per non parlare poi del linguaggio corporeo dei personaggi praticamente inesistente. Certamente non si può pretendere molto da una demo di una nuova tecnologia, però per quanto grezza possiamo immaginare che faccia molto gola agli studios.

Ad onor del vero, sembra che Convai si sia impegnata molto per rendere la simulazione quanto più reale possibile. Come spiega Nyla Worker, Head of Product dell’azienda, alla testata online The Verge, gli NPC vengono programmati con un nucleo centrale, costituito di una descrizione del personaggio, una banca dati di conoscenze, e tratti personali; praticamente una “scheda del personaggio” da cui l’IA può attingere per evitare che l’IA rompa il personaggio. 

Per quanto questa nuova tecnologia possa sembrare il non-plus-ultra delle avventure RPG, apre la porta a diversi problemi etici, primo tra tutti il ruolo dei doppiatori e la “proprietà” della loro voce, tema caldo anche a seguito delle negoziazioni SAG-AFTRA (il “sindacato” degli attori, scrittori e doppiatori americani) con Replica Studios, che ha praticamente dato licenza all’azienda di “ingaggiare membri SAG-AFTRA con accordi equi ed etici per creare e licenziare copie digitali della loro voce.” Sembra poi che questa tecnologia arrivi al momento opportuno per gli studios, visto il vertiginoso aumento dei licenziamenti in case di sviluppo anche abbastanza grandi, per aumentare ancora di più la capacità di guadagno dei dirigenti, a discapito di scrittori ed attori.