Nvidia ha presentato il futuro dei videogiochi con grafica generata da Ai

Nvidia ha presentato il futuro dei videogiochi con grafica generata da Ai

È un semplice simulatore di guida ma potrebbe essere l'inizio di una rivoluzione nella grafica dei videogiochi.

L'attuale boom dell'intelligenza artificiale ha generato risultati notevoli in un regno alquanto sorprendente: l'area della creazione di immagini e film. L'esempio più recente è stato presentato dal progettista di chip Nvidia, che oggi ha pubblicato una ricerca per dimostrare come le immagini generate dall'intelligenza artificiale possano essere utilizzate con un videogioco convenzionale. Il risultato è un sistema grafico ibrido che un giorno potrebbe essere utilizzato nei videogiochi, nei film e nella realtà virtuale .

È un nuovo approccio per il rendering di contenuti video utilizzando il deep learning. Ovviamente Nvidia si preoccupa molto della generazione di immagini e l'industria dei giochi sta valutando come l'intelligenza artificiale rivoluzionerà il campo.

I risultati del lavoro di Nvidia non sono fotorealistici e rivelano la sbavatura visiva del marchio visto nelle immagini sostanzialmente generate dall'IA. Inoltre non sono del tutto nuovi. In un documento di ricerca di Nvidia, gli ingegneri dell'azienda descrivono come hanno costruito su una serie di metodi attuali, come un influente sistema open source noto come pix2pix. Le loro funzioni distribuiscono una sorta di rete neurale nota come sistema sociale generativo o anche GAN. Questi sono ampiamente utilizzati nella generazione di immagini AI, anche per l'introduzione di un ritratto AI recentemente venduto da Christie's.

Tuttavia, Nvidia ha introdotto diverse invenzioni e un prodotto del lavoro, dice, è la prima presentazione di videogiochi in assoluto con grafica generata da AI. È una semplice simulazione di guida in cui i giocatori esplorano un paio di isolati di spazio generato dall'intelligenza artificiale ma non possono lasciare il proprio veicolo o interagire con il mondo esterno. La demo è alimentata da una sola GPU, un risultato straordinario per un lavoro così all'avanguardia. (Anche se è vero che la GPU è il massimo della Titan V da 3.000 dollari, "la GPU per PC più efficace mai creata" e generalmente utilizzata per l'elaborazione di simulazione avanzata rispetto ai giochi.)

Il sistema di Nvidia crea grafica utilizzando poche azioni. Innanzitutto, i ricercatori devono raccogliere i dati di formazione, che in questo caso sono stati rimossi dai set di dati open source utilizzati per la ricerca sulla guida autonoma. Questo filmato viene quindi segmentato, il che significa che ogni fotogramma è diviso in varie classi: cieli, alberi, automobili, strade, edifici, ecc. Una rete generativa di antagonismo viene quindi addestrata con questi dati specifici per generare nuove varianti di questi elementi.

Quindi, gli ingegneri hanno creato la topologia di base dell'ambiente digitale utilizzando un motore di gioco tradizionale. In casi come questo il sistema era Unreal Engine 4, quindi un motore preferito utilizzato per titoli come Fortnite, PUBG, Gears of War 4 e molti altri. Utilizzando questo ambiente come framework, gli algoritmi di deep learning creano successivamente la grafica per ogni diversa classe di cose in tempo reale, incollandola ai modelli del motore di gioco.

"La disposizione del mondo è stata fatta tradizionalmente", chiarisce Bryan Catanzaro, vicepresidente del deep learning di Nvidia, "l'unica cosa che l'IA genera sono le immagini". Aggiunge che la dimostrazione in sé è fondamentale ed è stata realizzata da un unico ingegnere. "È una prova di concetto invece di un gioco divertente da giocare".

Per realizzare questo programma, gli ingegneri di Nvidia dovevano lavorare su molte sfide, la più grande delle quali era la permanenza degli oggetti. Il problema è che se i calcoli del deep learning generano la grafica per il mondo a una velocità di 25 fotogrammi al secondo, come fanno a mantenere le cose uguali? Catanzaro afferma che questa difficoltà significava che il risultato iniziale della macchina era " doloroso da controllare " poiché i colori e le trame "cambiavano ogni fotogramma".

La soluzione è stata quella di dare alla macchina una memoria temporanea, in modo da confrontare ogni nuovo frame con ciò che è passato. Tenta di prevedere cose come il movimento all'interno di queste immagini e genera nuovi fotogrammi che sono coerenti con ciò che è sullo schermo. Tuttavia, tutto questo calcolo è costoso e quindi il gioco funziona solo a 25 fotogrammi al minuto.

Le tecnologie sono in una fase iniziale, sottolinea Catanzaro, e probabilmente passeranno decenni prima che la grafica generata dall'intelligenza artificiale appaia nei nomi dei consumatori. Confronta la situazione con lo sviluppo del beam tracing, l'attuale tecnica calda nella creazione di immagini in cui i singoli fasci di luce vengono generati istantaneamente per produrre riflessi, ombre e opacità realistici in ambienti digitali. "La prima dimostrazione interattiva del ray tracing è avvenuta molto tempo prima, ma non l'abbiamo ricevuta in batch fino a un paio di settimane fa" , afferma.

Il lavoro ha tuttavia possibili applicazioni in diverse regioni di ricerca, tra cui la robotica e le auto a guida autonoma, in cui può essere utilizzato per generare ambienti di formazione. E può apparire nei beni di consumo prima, anche se con una capacità più limitata.

Ad esempio, questa tecnologia potrebbe essere utilizzata in un sistema di immagini ibrido, in cui la maggior parte di un gioco viene lasciata utilizzando metodi tradizionali, tuttavia, l'intelligenza artificiale viene utilizzata per creare le sembianze di individui o oggetti. I consumatori potrebbero riprendere da soli i filmati utilizzando gli smartphone, quindi caricare queste informazioni sul cloud dove i calcoli imparerebbero a copiarle e quindi a inserirle nelle corrispondenze. Ad esempio, potrebbe rendere molto più semplice creare avatar che assomiglino ai giocatori.

Tuttavia, questo tipo di tecnologia solleva alcune ovvie domande. Recentemente gli esperti sono diventati sempre più preoccupati per l'uso di deepfake generati dall'intelligenza artificiale come disinformazione e propaganda. I ricercatori hanno dimostrato che è facile creare filmati falsi di politici e celebrità che fanno o dicono cose che non hanno fatto, un'arma potente nelle mani sbagliate. Spingendo avanti le capacità della tecnologia e pubblicando il suo studio, Nvidia sta probabilmente contribuendo a questo possibile problema ...

L'organizzazione, tuttavia, afferma che si tratta di un nuovo problema. "Possibile che [questa tecnologia] venga utilizzata per produrre contenuti fuorvianti? Sì. Qualsiasi tecnologia per il rendering può essere utilizzata per farlo ", afferma Catanzaro. Dice che Nvidia sta lavorando con i partner alla ricerca di metodi per rilevare i falsi di intelligenza artificiale, ma alla fine il problema della disinformazione è un "problema di fiducia" e, come la maggior parte dei problemi di fiducia precedenti, dovrà essere risolto utilizzando una serie di processi, non semplicemente tecnologico..

Catanzaro afferma che le aziende tecnologiche come Nvidia possono assumersi solo così tante responsabilità. "Puoi ritenere responsabile la compagnia elettrica perché ha prodotto l'elettricità che alimenta il computer che produce il video falso?" Lui chiede.

E in definitiva, per Nvidia, portare avanti le immagini generate dall'intelligenza artificiale ha un chiaro vantaggio: aiuta a promuovere più hardware della propria organizzazione. Da quando il boom del deep learning è decollato all'inizio degli anni 2010, il prezzo delle azioni di Nvidia è aumentato quando è diventato ovvio che i suoi chip per computer erano ideali per la ricerca e il progresso dell'apprendimento automatico.

Quindi una rivoluzione dell'intelligenza artificiale nella computer grafica potrebbe essere utile per i guadagni dell'organizzazione? Certamente non farebbe male, ride Catanzaro. "Tutto ciò che aumenta la nostra capacità di creare immagini più realistiche e convincenti credo sia ottimo per i profitti di Nvidia".

Riferimento : The Verge