SHORE está diseñado para interpretar una amplia gama de señales visuales. Los humanos a menudo ocultamos nuestras intenciones con mentiras, evasivas o desinformación. Sin embargo, uno de los elementos más reveladores de la comunicación interpersonal no son las palabras, sino el lenguaje corporal. Según investigadores, más del 50% de nuestra comunicación se transmite a través del lenguaje corporal, seguido por el tono de voz y las palabras [fuente: Thompson].
En la actualidad, no solo las personas leen el lenguaje corporal: las máquinas también captan estas señales no verbales, e incluso pueden interpretar nuestras emociones.
El detector de emociones humanas SHORE es una aplicación (o 'cristalería') desarrollada para Google Glass, la computadora wearable de Google. Creada inicialmente por el Fraunhofer Institute de Alemania para el reconocimiento de objetos, SHORE significa Motor de Reconocimiento de Objetos de Alta Velocidad Sofisticado.
Para una computadora, el rostro humano es solo otro objeto, con contornos únicos y topografía cambiante. SHORE utiliza la cámara digital de Google Glass, procesando datos de imagen a unos 10 fotogramas por segundo y comparándolos con una base de datos de 10.000 rostros para calibrar su precisión.
Con estas comparaciones y medidas faciales en tiempo real, SHORE detecta con alta precisión si estás feliz, triste, sorprendido o enojado. Acierta en el 94% de los casos al identificar el género y estima la edad con notable exactitud.
La pantalla de Google Glass muestra actualizaciones visuales continuas de los datos de SHORE, con alertas de audio opcionales. El uso de esta información depende de ti: quizás ese chico esté realmente interesado, o solo busque tus Google Glass.
Más allá de las bromas, Fraunhofer destaca aplicaciones serias. Personas con autismo o síndrome de Asperger pueden beneficiarse de retroalimentación en tiempo real para interpretar señales emocionales y mejorar su interacción social.
En automoción, SHORE podría integrarse en vehículos para detectar somnolencia del conductor y activar alarmas. El personal médico lo usaría para identificar dolor físico o depresión en pacientes, vigilando residentes en hogares asistidos.
Empresas de marketing evalúan reacciones de consumidores a anuncios o tráilers, optimizando campañas publicitarias.
Un buen momento cara a cara
Aunque Google Glass es la plataforma principal, SHORE funciona en computadoras, tablets y smartphones.Todos los cálculos se realizan localmente. Comienza detectando rostros con un 91,5% de precisión, reconociendo orientación (frontal, girada o perfil), rastreando ojos, nariz, labios y rasgos, comparándolos con su base de datos. Funciona óptimo a menos de 2 metros de distancia.
Emplea algoritmos avanzados para deducir emociones, detectando incluso microexpresiones que duran fracciones de segundo y revelan emociones ocultas.
Excelente en emociones obvias como felicidad (sonrisa con ojos) o sorpresa (ojos y boca abiertos), menos preciso en tristeza o ira.
SHORE genera inquietud: si detecta emociones, ¿por qué no identidades? Gobiernos y empresas usan reconocimiento facial desde hace años. Sin embargo, SHORE procesa todo localmente sin conexión a red, protegiendo la privacidad al no almacenar ni compartir imágenes ni identificar personas.
Cualquier dispositivo con cámara puede usar SHORE. Asociado a Google, destaca entre competidores, enfrentando retos como iluminación o batería, pero el futuro del reconocimiento emocional es prometedor, como el de voz.
Llega la era de la computación emocional. Ojalá nuestras máquinas manejen nuestra fragilidad humana con empatía.
Nota del autor: ¿Cómo podría Google Glass detectar las emociones de las personas?
Las apps de reconocimiento emocional transformarán dispositivos: tu smartphone detectará tristeza y mostrará memes de cachorros, ira con paisajes calmantes o ebriedad pidiendo pizza para evitar conducir. Programadores integrarán esta tecnología de formas innovadoras, para bien o mal.