Es un simple simulador de conducción pero podría ser el comienzo de una revolución en los gráficos de los videojuegos.
El auge actual de la inteligencia artificial ha generado resultados notables en un ámbito algo sorprendente: el área de la creación de imágenes y películas. El ejemplo más reciente fue presentado por el diseñador de chips Nvidia, que hoy publicó una investigación para demostrar cómo las imágenes generadas por IA se pueden usar con un videojuego convencional. El resultado es un sistema gráfico híbrido que algún día podría usarse en videojuegos, películas y realidad virtual .
Es un nuevo enfoque para renderizar contenido de video utilizando aprendizaje profundo. Obviamente, Nvidia se preocupa mucho por generar imágenes y la industria del juego está considerando cómo la IA revolucionará el campo.
Los resultados del trabajo de Nvidia no son fotorrealistas y revelan la mancha visual de la marca registrada que se ve en imágenes sustancialmente generadas por IA. Tampoco son totalmente novedosos. En un artículo de investigación de Nvidia, los ingenieros de la compañía describen cómo se basaron en varios métodos actuales, como un influyente sistema de código abierto conocido como pix2pix. Sus funciones despliegan una especie de red neuronal conocida como sistema social generativo o incluso GAN. Estos se utilizan ampliamente en la generación de imágenes de IA, incluso para la introducción de un retrato de IA vendido recientemente por Christie's.
Sin embargo, Nvidia ha introducido varios inventos, y un producto del trabajo, dice, es la primera presentación de un videojuego con gráficos generados por IA. Es una simulación de conducción sencilla en la que los jugadores navegan por un par de manzanas de la ciudad en el espacio generado por la IA, pero no pueden dejar su vehículo ni interactuar con el mundo exterior. La demostración funciona con una sola GPU, un logro notable para este trabajo de vanguardia. (Aunque es cierto que la GPU es la parte superior del alcance de la firma de $ 3,000 Titan V, "la GPU de PC más efectiva jamás creada" y una que generalmente se usa para el procesamiento de simulación avanzada en lugar de los juegos).
El sistema de Nvidia crea gráficos mediante algunas acciones. Primero, los investigadores deben recopilar datos de entrenamiento, que en este caso se eliminaron de los conjuntos de datos de código abierto utilizados para la investigación de conducción autónoma. Luego, este metraje se segmenta, lo que significa que cada fotograma se divide en varias clases: cielos, árboles, automóviles, carreteras, edificios, etc. A continuación, se entrena una red generativa de adversarios con estos datos específicos para generar nuevas variantes de estos elementos.
Luego, los ingenieros crearon la topología básica del entorno digital empleando un motor de juego tradicional. En casos como este, el sistema era Unreal Engine 4, entonces un motor favorito utilizado para títulos como Fortnite, PUBG, Gears of War 4 y varios más. Usando este entorno como marco, los algoritmos de aprendizaje profundo posteriormente crean los gráficos para cada clase diferente de cosas en tiempo real, pegándolos a los modelos del motor del juego.
"La disposición del mundo se ha hecho tradicionalmente", aclara el vicepresidente de aprendizaje profundo empleado de Nvidia, Bryan Catanzaro, "lo único que genera la IA son las imágenes". Agrega que la demostración en sí es fundamental y fue realizada por un solo ingeniero. "Es una prueba de concepto en lugar de un juego divertido".
Para hacer este programa, los ingenieros de Nvidia necesitaban trabajar en muchos desafíos, el mayor de los cuales era la permanencia de los objetos. El problema es que si los cálculos de aprendizaje profundo están generando los gráficos para el mundo a una velocidad de 25 cuadros por segundo, ¿cómo mantienen las cosas con el mismo aspecto? Catanzaro dice que esta dificultad significó que el resultado inicial de la máquina fue " doloroso de verificar " ya que los colores y texturas "cambiaron cada fotograma".
La solución fue darle a la máquina una memoria temporal, por lo que compararía cada nuevo cuadro con el anterior. Intenta predecir cosas como el movimiento dentro de estas imágenes y genera nuevos marcos que son consistentes con lo que está en la pantalla. Sin embargo, todo este cálculo es costoso y, por lo tanto, el juego solo se ejecuta a 25 cuadros por minuto.
Las tecnologías se encuentran en las primeras etapas, enfatiza Catanzaro, y probablemente pasarán décadas antes de que los gráficos generados por IA aparezcan en los nombres de los consumidores. Compara la situación con el desarrollo del seguimiento de haces, la técnica actual en caliente en la creación de imágenes donde se generan haces de luz individuales instantáneamente para producir reflejos, sombras y opacidad realistas en entornos digitales. "La primera demostración interactiva de trazado de rayos ocurrió mucho, mucho tiempo antes, pero no la obtuvimos en lotes hasta hace un par de semanas" , afirma.
Sin embargo, el trabajo tiene posibles aplicaciones en diferentes regiones de investigación, incluida la robótica y los automóviles autónomos, en los que se puede utilizar para generar entornos de entrenamiento. Y puede aparecer antes en los bienes de consumo, aunque con una capacidad más limitada.
Por ejemplo, esta tecnología podría utilizarse en un sistema de imagen híbrido, donde la mayor parte de un juego se deja usando métodos tradicionales, sin embargo, la IA se utiliza para crear imágenes de individuos u objetos. Los consumidores podrían capturar imágenes por sí mismos usando teléfonos inteligentes, luego cargar esta información en la nube donde los cálculos aprenderían a copiarla y luego insertarla en las coincidencias. Podría facilitar mucho la creación de avatares que parezcan jugadores, por ejemplo.
Sin embargo, este tipo de tecnología plantea algunas preguntas obvias. Recientemente, los expertos se han preocupado cada vez más por el uso de deepfakes generados por IA, como la desinformación y la propaganda. Los investigadores han demostrado que es fácil crear imágenes falsas de políticos y celebridades haciendo o diciendo cosas que no hicieron, un arma poderosa en las manos incorrectas. Al impulsar las capacidades de la tecnología y publicar su estudio, podría decirse que Nvidia está contribuyendo a este posible problema ...
Sin embargo, la organización dice que este es un tema nuevo. "¿Se puede utilizar [esta tecnología] para producir contenido engañoso? Sí. Para ello se puede utilizar cualquier tecnología de renderizado ", afirma Catanzaro. Él dice que Nvidia está trabajando con socios para investigar métodos para detectar falsificaciones de IA, pero en última instancia, el problema de la desinformación es un "problema de confianza" y, como la mayoría de los problemas de confianza anteriores, deberá resolverse mediante una variedad de procesos, no simplemente tecnológico..
Catanzaro dice que las empresas de tecnología como Nvidia solo pueden asumir cierta responsabilidad. "¿Puede responsabilizar a la compañía eléctrica porque hicieron la electricidad que alimenta la computadora que produce el video falso?" Él pide.
Y, en última instancia, para Nvidia, seguir adelante con imágenes generadas por IA tiene una clara ventaja: ayuda a promover más hardware de su organización. Desde que despegó el auge del aprendizaje profundo a principios de la década de 2010, el precio de las acciones de Nvidia se ha disparado cuando se hizo evidente que sus chips de computadora eran ideales para la investigación y el avance del aprendizaje automático.
Entonces, ¿podría una revolución de la inteligencia artificial en los gráficos por computadora ser buena para las ganancias de la organización? Ciertamente no estaría de más, ríe Catanzaro. "Cualquier cosa que aumente nuestra capacidad para crear imágenes que sean más realistas y convincentes, creo que es excelente para los resultados de Nvidia".
Referencia : The Verge