EsHowto >> Electrónica >> Juegos y equipo

Cómo funciona la tecnología MotionScan

Cómo funciona la tecnología MotionScan MotionScan pretende mejorar las expresiones faciales de los juegos. Los actores se sientan en el estudio, donde docenas de cámaras capturan videos en 3D de cada detalle facial.

Los ávidos jugadores de videojuegos están familiarizados con la montaña rusa emocional que provocan sus títulos favoritos. Está el vértigo vertiginoso de ganar una carrera frenética de Super Mario Kart y la tristeza desalentadora de ser aplastado por un enemigo en una batalla épica de World of Tanks.

Pero los jugadores generalmente no ven el mismo éxtasis y desánimo en sus personajes animados en pantalla. Por lo general, esos héroes renderizados digitalmente tienen características toscas que solo una madre generada por computadora y deforme similar podría amar.

Eso está a punto de cambiar. Con la tecnología de animación facial MotionScan, creada por una empresa de tecnología australiana llamada Depth Analysis, los jugadores verán las expresiones faciales de los personajes más reales que nunca.

Tecnología de animación facial es una versión especializada de la tecnología de captura de movimiento , que durante años se ha utilizado para añadir todo tipo de efectos especiales de animación a las películas. Si alguna vez ha visto tomas descartadas detrás de escena de películas animadas o películas que combinan personajes animados con acción en vivo, como "El Señor de los Anillos", es posible que reconozca parte del proceso de captura de movimiento. Los actores frente a fondos azules o verdes en blanco, visten trajes ajustados tachonados con pequeños marcadores (a menudo parecidos a pelotas de golf) que las cámaras reconocen.

Esos marcadores ayudan a las cámaras a rastrear y registrar los movimientos del actor mientras se mueve frente a los fondos, que se denominan pantallas azules o pantallas verdes. Los fondos están en blanco, de modo que las cámaras graban la actuación del actor sin objetos extraños que distraigan y que saturen la grabación o interrumpan el proceso de seguimiento del movimiento.

Más tarde, los animadores pueden usar estas grabaciones para crear un esqueleto digital o una marioneta que se mueva como el actor. Con la ayuda de un software potente, los animadores superponen esta marioneta con cualquier personaje animado extravagante e imaginativo que les guste. En efecto, los animadores se convierten en una especie de titiriteros, moviendo al personaje a través de escenas con guión. Pero estas animaciones a menudo carecen de un lenguaje corporal humano y expresiones faciales precisos.

Para los diseñadores de juegos, este es un problema importante porque los humanos se rigen por el lenguaje corporal. Somos capaces de reconocer alrededor de 250 000 expresiones faciales y dependemos del lenguaje corporal visual para hasta el 65 % de nuestras interacciones con otras personas [fuente:Pease].

Presentada por primera vez al público a principios de 2010, la tecnología MotionScan tiene como objetivo crear personajes animados que transmitan un lenguaje corporal legible. Lo hace capturando los rasgos faciales de los actores que muestran claramente la diferencia entre, por ejemplo, disgusto y felicidad, curiosidad y desinterés, y otros indicadores del estado emocional de un personaje. Como verá en la página siguiente, esta no es una tarea fácil.

Contenido
  1. El Rostro de la Revolución
  2. ¡Luces, cámara(s), acción en 3D!
  3. ¡En tu cara, película!
  4. Evolución del movimiento

El Rostro de la Revolución

Cómo funciona la tecnología MotionScan Es casi real. Este es un ejemplo del alto nivel de detalle que puede capturar MotionScan.

Jugamos videojuegos en pantallas planas de televisión bidimensionales o en monitores de computadora. Pero nuestro mundo real es tridimensional, al igual que los rostros de las personas que lo habitan. Por lo tanto, uno de los principales desafíos para los creadores de juegos es crear caras que tengan un atractivo tridimensional. Es por eso que MotionScan requiere una configuración de estudio compleja a prueba de luz y sonido llena de una gran cantidad de hardware y software robusto.

Los diseñadores de juegos comienzan grabando actores reales de carne y hueso actuando mientras están sentados en el estudio, que está iluminado con una luz suave y uniforme que no deja áreas oscuras ni sombras que puedan afectar la precisión del sistema. Se aplican marcadores en el pecho y el cuello de los actores; más adelante en el proceso, básicamente le dan al software un punto de referencia para sustituir la cabeza del actor por la de su personaje animado.

MotionScan es diferente de la tecnología normal de captura de movimiento porque graba tantos ángulos simultáneamente, creando una imagen 3-D en cada toma. Los productores usan 32 cámaras de alta definición (2 megapíxeles) que cuestan alrededor de $6,000 cada una; de hecho, son las mismas cámaras utilizadas por la NASA para registrar los lanzamientos de transbordadores espaciales [fuente:Gizmodo]. Las cámaras se colocan meticulosamente en pares en puntos específicos alrededor, por encima y por debajo del actor para capturar todos los matices de la cabeza humana y los movimientos faciales a una velocidad de hasta 30 fotogramas por segundo. Eso suma alrededor de 1 gigabyte de datos por segundo.

Las cámaras envían sus datos a nueve potentes servidores informáticos, cada uno de los cuales puede procesar unos 300 megabytes por segundo. Estos servidores potencian el software de animación que interpreta las transmisiones de video, creando inmediatamente texturas y formas animadas que corresponden a los movimientos del actor, mientras mantiene las imágenes y los sonidos perfectamente sincronizados.

Estos datos procesados ​​luego se pueden aplicar a una marioneta digital que los animadores manipulan con gran precisión. Todo esto se suma a un gran logro tecnológico y, como verá, requiere mucho trabajo configurarlo.

Andy se anima

En las películas de "El señor de los anillos", los cineastas tenían el encargo de dar vida a una criatura imaginaria llamada Gollum. Después de grabar la actuación del actor Andy Serkis con 25 cámaras, un equipo de 18 animadores superpuso la animación de Gollum sobre los movimientos de Serkis. Luego emplearon un sofisticado software de animación para controlar cada parte del cuerpo de Gollum. En la aplicación de software, había 10 000 tipos diferentes de movimientos faciales disponibles para manipular los 300 músculos faciales creados digitalmente debajo de la piel virtual de Gollum.

¡Luces, cámara(s), acción en 3D!

Cómo funciona la tecnología MotionScan La configuración de MotionScan es tan elaborada como parece, y comprende alrededor de 1000 equipos.

Hay más de 1000 piezas de equipo utilizadas en el sistema MotionScan. Los técnicos pueden tardar casi tres días hábiles en configurar todo este equipo, que debe ajustarse a especificaciones exactas para que funcione correctamente.

Además de los 16 pares de cámaras destinadas a registrar detalles faciales, también hay una cámara número 33 que proporciona una escena general del estudio. Esta última cámara transmite video a una habitación cercana, desde la cual el director puede monitorear el proceso de grabación y ofrecer retroalimentación al actor.

En ocasiones, el director puede recordar a los artistas que permanezcan relativamente quietos. Demasiado movimiento dificulta que MotionScan detecte pequeños detalles faciales.

Una vez que el actor termina de actuar, los productores de juegos pueden seleccionar vistas generadas por muchas cámaras en muchos ángulos diferentes. Con todos esos datos visuales, los animadores pueden duplicar movimientos faciales y emociones realistas. En el contexto de una intensa escena de juego, esos rasgos faciales pueden revelar información crítica al jugador.

Y debido a que se filma al actor desde tantas perspectivas, los animadores pueden elegir el ángulo que desean usar para una escena específica. Además, el animador puede agregar o restar diferentes efectos de iluminación, como la intensidad y el ángulo, para que la cara de la persona coincida con una barra oscura y arenosa o con un día soleado de verano en un campo.

Es posible que un personaje que miente no pueda hacer contacto visual con el jugador, y sus cejas y labios probablemente muestren una incomodidad notable. Del mismo modo, si un personaje está feliz de hablar con el jugador, una sonrisa abierta y amistosa y los ojos muy abiertos comunicarían ese mensaje.

A continuación, verá cómo una empresa está utilizando MotionScan para generar algunos de los personajes más parecidos a los humanos que jamás hayan aparecido en un videojuego animado.

¡En tu cara, película!

Cómo funciona la tecnología MotionScan L.A. Noire es un juego de crimen oscuro en el que el jugador realiza muchos interrogatorios. Los sujetos entrevistados revelan pistas importantes con sus expresiones faciales.

La enorme potencia informática que impulsa MotionScan ajusta automáticamente los detalles finos en cada secuencia, lo que significa que los animadores no tienen que trabajar durante horas para hacer que cada expresión facial parezca más humana.

Eso significa sesiones de filmación y programación más cortas, presupuestos de filmación más bajos y un progreso más rápido desde el concepto hasta el mercado, todo lo cual ahorra dinero al desarrollador y potencialmente genera o destruye el margen de ganancias del juego.

Ahora, todo lo que queda es ver cuánto notan y aprecian los jugadores los avances de MotionScan. El juego LA Noire, que se lanzará oficialmente en mayo de 2011, es el primer tipo de medio que usa MotionScan, que se integró en el juego para agregar animación facial. Noire es un siniestro juego de crimen maduro para adultos ambientado en la década de 1940 en Los Ángeles que está diseñado para jugar como una película interactiva. De acuerdo con sus aspiraciones cinematográficas, el juego incluye a Aaron Staton (de la serie de televisión "Mad Men") en el papel del personaje principal.

El juego se basa en gran medida en el desarrollo del personaje y el diálogo, y como tal, las expresiones faciales precisas son primordiales; sin esos matices, los jugadores tendrían más dificultades para leer los personajes y moverse a través de la trama. Por ejemplo, como se trata de un drama policiaco, los rostros de algunos personajes ofrecen pistas claras de que están mintiendo. El interrogatorio y el cuestionamiento de testigos son elementos críticos para ayudar a que la trama avance, por lo que el lenguaje corporal y las expresiones faciales son clave.

En el futuro, Depth Analysis, la compañía detrás de la tecnología pionera, probablemente la licenciará a otros desarrolladores de videojuegos y también a productores de películas. Así que, algún día, es posible que veas aparecer la tecnología en largometrajes animados.

Por ahora, la empresa está comprometida con perfeccionar y expandir las capacidades de MotionScan. En última instancia, a los creadores de MotionScan les gustaría capturar imágenes de cuerpo completo, lo que sería particularmente útil para los cineastas. Sin embargo, este es un obstáculo tecnológico que MotionScan aún no ha podido superar, en gran parte debido a la inmensa potencia de la computadora y la construcción de estudio aún más complicada que se requeriría.

El debut de cuerpo completo de MotionScan tendrá que esperar. Mientras tanto, las empresas ya están desafiando las técnicas de captura de movimiento de Depth Analysis. Siga leyendo para ver cómo la competencia podría encontrar una manera de eclipsar a MotionScan con mejores gráficos, o tal vez incluso mediante el uso de animaciones menos sofisticadas.

Evolución del movimiento

Cómo funciona la tecnología MotionScan Algunas personas argumentan que los diseñadores de juegos deberían usar personajes menos realistas, lo que en realidad podría hacer que los videojuegos sean más atractivos para los jugadores.

Ahora ya sabes lo importantes que son el lenguaje corporal y las expresiones faciales para hacer que los personajes del juego sean más cautivadores. Pero convertir los tics faciales analógicos en emociones digitales no es tarea fácil. Hay alrededor de 19 músculos en el rostro humano, y duplicar todas sus acrobacias emocionales requiere una programación innovadora y un grupo complicado de tecnologías de vanguardia como MotionScan.

Otros desarrolladores están ansiosos por adoptar los objetivos de MotionScan y lograrlos mejor que el análisis de profundidad. Una empresa llamada Remedy está trabajando en una tecnología de expresión facial que registra unas 64 poses faciales; a partir de este conjunto base, los animadores pueden crear expresiones en tiempo real y sin actuaciones de actores adicionales. Incluso se dice que la tecnología tiene en cuenta el flujo sanguíneo facial y los cambios diminutos en el color de la piel que ocurren cuando la piel se arruga durante el movimiento muscular.

Si tienen éxito, Remedy y Depth Analysis producirán el tipo de personajes animados hiperrealistas que pueden convertirse en juegos muy fascinantes. Estos personajes con apariencia humana son uno de los muchos esfuerzos para salvar el llamado "valle inquietante", una teoría originalmente asociada con la robótica.

Cuando los diseñadores de juegos mencionan el valle inquietante, se refieren a la brecha entre nuestras percepciones de personas reales y sus representaciones animadas. Cuanto más realistas sean nuestros doppelgangers digitales, más probable es que los encontremos perturbadores. La gente está dispuesta a aceptar caricaturas caricaturescas de seres humanos, e incluso bastante realistas, pero las representaciones demasiado realistas tienden a percibirse como espeluznantes e inquietantes.

Entonces, a medida que los personajes humanos se vuelven más y más realistas, el efecto del valle inquietante se afianza y comienza a arruinar la diversión. Parece contrario a la intuición, pero por esta razón, esas animaciones intrincadamente detalladas en realidad podrían restarle valor a la capacidad de un juego para atrapar e hipnotizar a sus jugadores.

Los animadores y creadores de juegos son muy conscientes del fenómeno del valle inquietante, por lo que se esfuerzan por mejorar cada vez más sus animaciones. Pero algunos críticos dicen que los desarrolladores de juegos deberían invertir la dirección, centrándose menos en producir duplicaciones exactas del movimiento humano y poniendo más esfuerzo en mantener un juego fascinante. Solo entonces, insisten, los juegos se vuelven realmente más adictivos, más divertidos y más rentables para las empresas que los fabrican.

No importa cómo le vaya a MotionScan, parece que los animadores están empeñados en crear los personajes más parecidos a los humanos jamás creados digitalmente. Es probable que estos nuevos desarrollos en la tecnología de animación hagan que los juegos sean más llamativos visualmente, pero también podrían llevar los juegos a un nivel completamente nuevo, dando como resultado una forma de arte superior que es más emocionante que nunca.

Más enlaces excelentes