Omniverso de Nvidia: el metaverso es una red, no un destino

  • Jul 19, 2023

Con el estándar de descripción de escena universal, dice el ejecutivo de Nvidia Richard Kerris, saltarás de un mundo 3D al siguiente con la misma facilidad con la que navegas por sitios web.

richard-kerris-nvidia-junio-2022

"La gente comenzará a ver la capacidad de experimentar ubicaciones", como una primera experiencia del metaverso, dice ejecutivo de Nvidia, Richard Kerris, y experimente cosas como caminar por una posible habitación de hotel antes reserva. Probablemente, sin embargo, el metaverso se acercará sigilosamente a nosotros como lo hizo la Web, de modo que "casi sucedió sin que lo supieras".

Tiernan Ray para ZDNet

Cuando Mark Zuckerberg de Meta lo presentó por primera vez el otoño pasado, había escepticismo en algunos rincones sobre el metaverso, los sistemas de avatares y mundos virtuales que está construyendo Zuckerberg y que dice será la próxima versión de internet.

Richard Kerris, que dirige un equipo de cien personas en el gigante de chips Nvidia que trabaja en la construcción de tecnología para el metaverso, conocida como Omniverse (más aquí), no es en absoluto escéptico sobre ese mundo futuro.

Sin embargo, es escéptico sobre una cosa.

"Lo único sobre lo que soy escéptico es sobre cómo la gente tiende a hablar al respecto", dijo Kerris. ZDNet, en un viaje reciente por la ciudad de Nueva York para reunirse con desarrolladores.

"La gente malinterpreta el metaverso como un destino, un mundo virtual, esto o aquello", observó Kerris. "El Metaverso no es un lugar, es la red para la próxima versión de la Web.

"Simplemente reemplace la palabra metaverso con la palabra red, comenzará a asimilarse".

La red, en el sentido en que la usa Kerris, es una especie de tecnología vigorosa que unirá medios enriquecidos en muchos sitios web, especialmente contenido en 3D.

También: En CES 2022, Nvidia prepara el escenario para la IA en todas partes

"De la misma manera que la Web unificó tantas cosas [...] la próxima generación de esa Web, el núcleo subyacente principios de eso será 3D, y con eso viene el desafío de hacer que eso sea omnipresente entre virtual mundos

"El resultado final sería, de la misma manera que se puede pasar de cualquier dispositivo a cualquier sitio web sin tener que cargar nada (recuerda los viejos tiempos) ¿Qué navegador tienes? ¿Qué extensión?, etc. — todo eso desapareció con la ratificación de HTML. Cuando podamos hacer eso con 3D, será transformador".

No es de extrañar que siendo de Nvidia, que vende la gran mayoría de los chips gráficos (GPU) para renderizar en 3D, Kerris señaló que "Vivimos en un mundo en 3D; pensamos en 3D", pero la Web es una realidad en 2D. "Es limitado", dijo, con islas de capacidades de representación 3D que nunca se interconectan.

También: Nvidia expande Omniverse con una nueva GPU, nuevas colaboraciones

"La consistencia de los mundos conectados es la magia que está teniendo lugar", dijo. "Puedo teletransportarme de un mundo a otro, y no tengo que describirlo cada vez que lo construyo".

El análogo a HTML para este nuevo ecosistema 3D es algo llamado USD, descripción de escena universal. Como ZDNetde Stephanie Condón ha escrito, USD es un marco de intercambio inventado por Pixar en 2012, que se lanzó como software de código abierto en 2016 y proporciona un lenguaje común para definir, empaquetar, ensamblar y editar datos 3D.

(Kerris, un veterano de Apple, tiene una especie de vínculo espiritual, si no real, con Pixar, ya que trabajó en LucasFilm durante varios años a principios de la década de 1900. Ver más en su perfil de LinkedIn.

USD es capaz de describir numerosas cosas en un entorno 3D, desde la iluminación hasta el comportamiento físico de los objetos que caen.

En la práctica, Kerris imagina el metaverso definido por USD habilitado para Omniverse como un viaje por carretera en el que las personas saltan de un mundo 3D al siguiente con la misma facilidad que navegan en sitios tradicionales. "Puedo pasar de una fábrica virtual a un centro turístico virtual a una sala de conferencias virtual a un centro de diseño virtual, a lo que sea", dijo Kerris.

También: Las nuevas herramientas Omniverse de Nvidia harán que sea más fácil que nunca construir mundos virtuales

Dentro de esos entornos, la representación 3D permitirá a las personas superar la engorrosa red de intercambio de archivos. "Y permite mucha más capacidad en lo que hago", dijo, ofreciendo el ejemplo de los diseñadores de productos.

"Con el metaverso y la plomería ubicua para 3D, estaremos en ese entorno 3D al mismo tiempo y, en lugar de compartir una página web, podemos movernos. Puedes mirar algo en este lado del producto. Puedo estar mirando otra cosa, pero es como si estuviéramos en la misma habitación al mismo tiempo".

Nvidia, dijo Kerris, comenzó el camino en USD hace seis o siete años "porque simulamos todo lo que construimos [en Nvidia] antes de construirlo en el mundo físico", dijo. Nvidia tiene colegas en la industria que trabajan en la realización de tecnología, incluido Ericsson, que quiere simular antenas. "Todos quieren una simulación de la realidad", dijo sobre las empresas en el redil USD.

Usando la tecnología, dijo Kerris, uno puede profundizar mucho más en el ámbito de los gemelos digitales, simulaciones de productos y estructuras que permiten la intervención, la experimentación y la observación.

"Hasta el advenimiento de la plomería consistente, se hacía de manera representativa", dijo, como una ilustración de un edificio en Autodesk. "No era fiel a la realidad. No pude mostrarte exactamente cómo sería en una tormenta de viento", lo cual no es bueno porque, como él dijo, "quiero ser muy claro sobre las cosas que estoy construyendo en el mundo físico".

La "base central de una situación que es fiel a la realidad", utilizando USD, permitirá a los diseñadores simular con mayor precisión, hacia adelante y hacia atrás, incluidas cosas como la resistencia a la tracción.

"Me encantaría tener una casa estructuralmente sólida antes de diseñar el acabado de mármol", observó. "Si estoy construyendo un gemelo digital de una casa que estoy construyendo, hay capas de cosas allí, cosas para ingenieros estructurales y pulido que otros están va a entrar y terminar". Lo importante es saber que es "fiel a la realidad" para los materiales y las cosas que mantienen unida la estructura, dijo. dicho.

Al hacer posibles esas interacciones más ricas en 3D, dijo Kerris, "De la misma manera que la Web transformó los negocios y experiencias y comunicación, también lo hará el metaverso, y en un entorno más familiar, porque todos trabajamos en 3D".

Diferentes empresas están contribuyendo a USD de diferentes maneras. Por ejemplo, Nvidia ha trabajado con Apple para definir lo que se llama dinámica de cuerpo rígido.

"Y hay más por venir", dijo.

Nvidia ha estado desarrollando las herramientas de Omniverse como una "plataforma", lo que Kerris llama "el sistema operativo para el metaverso".

"La gente puede conectarse. Pueden construir encima. Pueden conectarse a él. Pueden personalizarlo, está realmente a su disposición, de la misma manera que lo está un sistema operativo hoy en día".

El estándar USD ha llegado "bastante lejos" en términos de adopción, dijo Kerris, y la mayoría de las empresas 3D lo utilizan. "Todas las empresas de entretenimiento tienen una estrategia USD hoy", observó. "El CAD [diseño asistido por computadora] y la ingeniería mecánica están llegando. O tienen planes o están participando para ayudar a definir lo que es necesario".

"HTML era de la misma manera en los primeros días", dijo. Carecía de soporte para video en los primeros días, con complementos de terceros como Adobe Flash dominando antes de que evolucionaran los estándares.

¿Los gemelos digitales encenderán la imaginación del mundo sobre el metaverso? Parece un poco demasiado centrado en lo industrial, ZDNet observado.

La gente común se interesará a medida que se dé cuenta de que se trata de conectividad, no de un único destino. "Como se dan cuenta de que es la próxima generación de la Web, puedo visitar una ubicación remota sin necesidad de auriculares o [sin] instalar navegadores específicos. Ese es un aspecto", dijo Kerris. "En su vida cotidiana, mientras compartimos fotos hoy, podrás compartir objetos. Ya sabes, tu hijo llega a casa e hizo algo y podrá compartirlo con los abuelos".

"Simplemente se convertirá en parte de lo que haces, ya sea que estés comprando un mueble para tu casa e ingreses a tu teléfono. Te sincronizarás con la casa. Dejarás los muebles adentro. Caminarás alrededor, eso es lo que la gente dará por sentado, pero es la conexión perfecta".

Lo mismo para diseñar el acabado de un auto personalizado, ofreció. "De hecho, estará conectado a la fábrica que fabrica ese automóvil" para verificar todos los aspectos.

"Va a cambiar todo", dijo.

Habrá efectos multiplicadores, dijo Kerris, ya que los gemelos digitales permiten probar múltiples escenarios, como con robots de entrenamiento.

"Hoy, conectarían una computadora a ese robot y le ingresarían información" para entrenar al robot en un espacio físico, dijo. En un entorno de gemelo digital, con un robot en la sala simulada, "puede entrenar no solo a un robot sino a cientos", utilizando "cientos de escenarios que el robot podría encontrar".

"Ahora, ese robot va a ser miles de veces más inteligente de lo que hubiera sido si solo lo hubieras entrenado una vez". Nvidia tiene, de hecho, He estado siguiendo ese enfoque particular durante muchos años al realizar un entrenamiento de conducción autónoma de aprendizaje automático en carreteras simuladas. entornos.

Aunque la conducción autónoma no ha alcanzado el desarrollo prometido, Kerris cree que el enfoque sigue siendo sólido. "Puedo construir un gemelo digital de Palo Alto", la ciudad de Silicon Valley. "Y puedo tener miles de autos en esa simulación, conduciendo, y puedo usar IA para aplicar todo tipo de simulación que se me ocurra: una tormenta de viento, un niño corriendo, persiguiendo una pelota, una mancha de aceite, un perro, de modo que estos autos en simulación están aprendiendo miles de veces más escenarios que un auto físico haría."

Nvidia ha estado trabajando, combinando las pruebas simuladas con la conducción en el mundo real con el fabricante de automóviles Mercedes para la conducción autónoma de Nivel 5, el nivel más exigente.

"La eficiencia es bastante sorprendente", dijo, refiriéndose a lo bien que el software autónomo maneja los escenarios de la carretera. "Al usar datos sintéticos para entrenar estos autos, tienes un mayor grado de eficiencia" al combinar escenarios.

"Preferiría mucho más confiar en mí mismo conduciendo un automóvil entrenado en un entorno simulado que [en] uno entrenado en un entorno físico". Todavía habrá un papel para los datos del mundo real que provienen de los automóviles en el camino.

En cuanto al marco de tiempo para la visión, Kerris señaló que "ya lo estamos viendo en los almacenes", que están adoptando rápidamente el régimen de entrenamiento de robots. Eso incluye Amazon, donde un desarrollador descargó Omniverse y lo evangelizó dentro de Amazon. Amazon tomó la versión empresarial de Omniverse, que es un producto basado en suscripción, para una capacitación de robots más extensa.

Amazon actualmente está en producción con el software para sus robots pick-and-place.

"La belleza es que descubrieron mediante el uso de la generación de datos sintéticos que pudieron ser más eficientes con las cosas en lugar de simplemente confiar en la cámara" en el robot para la detección de objetos. Esas cámaras a menudo se hacían tropezar con la cinta de embalaje reflectante en los paquetes, dijo Kerris. El uso de datos sintéticos generados por Omniverse superó esa limitación. Ese es un ejemplo de ser más eficiente en robótica, dijo.

Los consumidores probablemente sentirán los efectos de tales simulaciones en los resultados.

"Hay cien mil almacenes en el planeta", dijo Kerris. "Todos están considerando el uso de la robótica para ser más seguros, más eficientes y para utilizar mejor el espacio". Es posible que las personas "no se den cuenta de lo que está ocurriendo, pero obtendrán los beneficios".

En algunas situaciones, los consumidores "lo sabrán, porque están recibiendo las cosas mucho más rápido que en el pasado", dijo. "Detrás de la cortina, las cosas serán mucho más eficientes que hace seis meses". Lo mismo ocurre con los minoristas como Kroger, que está utilizando las herramientas de Omniverse para generar datos sintéticos para planificar cómo llevar los productos a los consumidores más rápido.

En cuanto a los autos sin conductor, "la presunción de que todos estos autos serán autónomos hoy, es un poco, todavía no está ahí", admitió. "¿Pero tendremos taxis autónomos y cosas que nos lleven de aquí para allá? Oh, sí, eso es fácil".

Pero, "¿Para un automóvil que se acerque a usted y lo lleve a Nueva Jersey de forma autónoma? Tenemos un pequeño camino por recorrer".

En cuanto a las experiencias directas del consumidor, "la gente comenzará a ver la capacidad de experimentar ubicaciones", dijo Kerris. Los ejecutivos de la industria del ocio están interesados, por ejemplo, en cómo mostrar una habitación de hotel a los consumidores antes de un viaje de una manera mejor que las fotos. "Voy a permitir que te teletransportes a la habitación, que la experimentes, por lo que tu decisión se basará en una experiencia inmersiva. Mire la ventana, vea cuál será mi vista", dijo Kerris.

El impacto en la educación "va a ser enorme", dijo Kerris. Hoy en día, la ubicación física significa que algunas escuelas del centro de la ciudad podrían no experimentar viajes de campo lujosos. "Una escuela del centro de la ciudad no va a tener exactamente una excursión para hacer un safari en África", reflexionó. "Creo que los mundos virtuales [que] están perfectamente conectados pueden brindar nuevas oportunidades al permitir que todos tengan la misma experiencia sin importar en qué escuela estén".

Un avatar de investigadora como Jane Goodall podría "inspirar el aprendizaje", sugirió. "Piensa en lo que eso hace por un estudiante".

Si bien enfatiza el 3D, Kerris no está impulsando la realidad virtual o la realidad aumentada, las dos tecnologías en las que la gente tiende a enfocarse. Esas cosas son parte de la imagen, pero 3D no tiene que ser con un auricular puesto, afirmó.

Por un lado, las herramientas de realidad virtual actuales, como los videos de realidad virtual en YouTube que usan auriculares de realidad virtual convencionales, han sido bastante limitadas, dijo Kerris. "No es perfecto; no es fácil; no es como un sitio web", observó.

Además de los períodos en Apple, Amazon y LucasFilm, Kerris dirigió brevemente el marketing para el desarrollador de auriculares Avegant. Esos auriculares no eran VR. Fueron creados para ser pantallas de cine inmersivas privadas adheridas a su rostro utilizando chips de proyección DLP de Texas Instruments. La calidad del producto, reflexionó Kerris, "era fenomenal", pero era demasiado caro de fabricar, con un costo de 800 dólares al por menor. Y el hecho de que un láser se proyectara sobre la retina "asustó a todos", dijo. (Avegante todavía está en el negocio, desarrollando una tecnología llamada cristal líquido sobre silicio).

Lo que debe suceder es que los entornos virtuales dispares de hoy en día reciban ese tejido vigoroso de USD y la tecnología relacionada. "Todos están desconectados", dijo Kerris sobre el protometaverso actual, como Oculus Rift. "Si fueran solo sitios web simples, donde pudieras dar vueltas y experimentarlo, la oportunidad sería mucho mayor".

En lugar de tener que tener un visor Oculus, "si pudiera experimentarlo siendo una ventana en ese mundo", dijo, sosteniendo su teléfono inteligente, "hay muchas más posibilidades de que vaya a comprobarlo afuera."

¿El USD hará que eso suceda?

"Sí. Ese es absolutamente el objetivo de USD para unificar los mundos virtuales en 3D".

Aún así, mostrar habitaciones de hotel no parece que vaya a impulsar las cosas. ¿Cuándo es el evento de Tim Berners-Lee que hará que todo suceda para los consumidores de manera comunitaria?

"¿Cuándo se convirtió la Web en algo omnipresente entre los consumidores?" preguntó, retóricamente. "Bueno, comenzó con el correo electrónico, luego pude enviar una imagen y luego, de repente, pude hacer un video. Evolucionó a medida que avanzaba".

Kerris aludió a los primeros días de los sitios web móviles en iPhone, cuando Steve Jobs presentó por primera vez el tecnología en enero de 2007 en el escenario de Macworld, cuando Kerris estaba con Apple, y más tarde, en un chat de vídeo a través de cara a cara,

"¿Qué fue lo transformador que permitió que la Web estuviera en el bolsillo de todos? Es algo así", dijo. "Casi sucedió cuando no lo sabías, y luego la gente lo da por sentado".