Los humanos enmascaramos nuestras intenciones con mentiras, desorientación y desinformación. Pero uno de los aspectos más reveladores de la comunicación interpersonal no son las palabras. Es lenguaje corporal. Algunos investigadores dicen que más de la mitad de nuestra comunicación ocurre a través del lenguaje corporal; el tono de voz y las palabras habladas fueron un distante segundo y tercer lugar, respectivamente [fuente:Thompson].
En estos días, no es solo la gente la que lee el lenguaje corporal. Las máquinas también están captando esas señales no verbales, hasta el punto de que algunas incluso pueden leer nuestras emociones.
Tome el detector de emociones humanas SHORE, que es una aplicación (o "cristalería") para Google Glass, una computadora portátil de Google. Una organización alemana llamada Fraunhofer Institute creó inicialmente SHORE para el reconocimiento de objetos. SHORE significa Motor de reconocimiento de objetos de alta velocidad sofisticado.
Para una computadora, su rostro es, en última instancia, solo otro objeto, aunque uno con todo tipo de contornos únicos y topografía cambiante. A la hora de realizar sus cálculos, todo lo que SHORE necesita es una simple cámara digital como la que se encuentra en Google Glass. A una velocidad aproximada de 10 fotogramas por segundo, analiza los datos de imágenes entrantes y los compara con una base de datos de 10 000 rostros que se utilizó para calibrar el software.
Usando esas comparaciones, junto con las medidas de tu cara sobre la marcha, SHORE puede adivinar bastante bien si estás feliz, triste, sorprendido o enojado. Alrededor del 94 por ciento de las veces, SHORE sabe si eres hombre o mujer. También será necesario intentar adivinar tu edad.
La pantalla de Google Glass puede proporcionar una fuente continua de actualizaciones visuales con todos los datos que produce SHORE y, si lo desea, también hay señales de audio disponibles. Lo que haga con estos conocimientos depende de usted. Tal vez ese chico realmente está dentro de ti. O tal vez sea del tipo geek que realmente solo quiere tener en sus manos tus Google Glass.
Bromas aparte, Fraunhofer quiere que los consumidores y las empresas entiendan que hay algunos usos serios para SHORE. Las personas con condiciones como el autismo y el síndrome de Asperger a menudo tienen dificultades para interpretar las señales emocionales de los demás. Los comentarios en tiempo real de un software como SHORE pueden ayudarlos a ajustar su propia caja de herramientas emocionales para comprender mejor el toma y daca interpersonal.
Los fabricantes de automóviles podrían integrar SHORE en sus vehículos para detectar la somnolencia del conductor. En esta aplicación, una alarma despertaría a los conductores en peligro de quedarse al volante.
El personal médico podría usar SHORE para identificar mejor el dolor físico en los pacientes. SHORE puede incluso detectar trastornos psicológicos como la depresión, que es notoriamente difícil de detectar en muchas personas. En situaciones de vivienda asistida, SHORE podría vigilar incansablemente a los pacientes para asegurarse de que estén seguros.
Y, por supuesto, SHORE tiene un lado lucrativo. Las empresas de marketing de todo tipo pueden implementar esta aplicación para evaluar las reacciones de los consumidores ante, por ejemplo, un comercial de un producto o un tráiler de una película, y así tener una mejor idea de cuán efectiva podría ser su campaña publicitaria.
Un buen momento cara a cara
Si bien Google Glass ha sido el principal hardware de exhibición para SHORE, la aplicación puede funcionar potencialmente en computadoras, tabletas y teléfonos inteligentes. así como.Todos los cálculos de SHORE ocurren en el dispositivo local. Y todo comienza con la detección de rostros. SHORE detecta rostros correctamente aproximadamente el 91,5 por ciento de las veces. Reconoce si su rostro está hacia adelante, girado o apuntando hacia un lado en el perfil. Realiza un seguimiento del movimiento de los ojos, la nariz, los labios y otros rasgos faciales y comprueba la posición de cada uno en su base de datos facial. El sistema funciona mejor cuando el sujeto está frente a usted y dentro de los 6 pies (2 metros) más o menos.
El software utiliza algoritmos probados y verdaderos para deducir el estado emocional de cada objetivo. Debido a que funciona tan rápido, incluso puede detectar microexpresiones , esos parpadeos de expresiones faciales que duran una fracción de segundo y delatan incluso a las personas que son excelentes para controlar su lenguaje corporal.
SHORE es mejor para leer emociones realmente obvias. Las personas que son realmente felices no solo tienen grandes sonrisas con dientes, sino que también sonríen a los ojos. Las personas que se sorprenden suelen tener las mismas reacciones con los ojos abiertos y la boca abierta. SHORE detecta esas señales con facilidad, pero no es tan preciso cuando se trata de otras emociones, como la tristeza o la ira.
Es fácil estar un poco (o mucho) asustado por SHORE. Si una pieza de software puede detectar con precisión su estado de ánimo, edad y género, ¿por qué no puede identificarlo por su nombre? La respuesta es, bueno, probablemente podría. Los gobiernos y las empresas han estado utilizando tecnologías de reconocimiento facial durante años para detectar terroristas y delincuentes.
Pero SHORE no comparte las imágenes que captura. Ni siquiera necesita una conexión de red para realizar su magia. En cambio, simplemente usa la CPU integrada de Glass para hacer su trabajo. Eso significa que ninguna de las imágenes va a la nube o en línea, donde podrían usarse para fines buenos o nefastos. También significa que SHORE no identificará a las personas, lo que en teoría alivia una gran preocupación sobre la privacidad.
Aunque Fraunhofer eligió exhibir SHORE en Google Glass, otros dispositivos pueden usar SHORE. Cualquier computadora con una cámara simple, como un teléfono inteligente o una tableta, eventualmente podrá instalar SHORE para fines de detección de emociones.
Debido a su asociación con Google, SHORE puede ser una de las aplicaciones de detección de emociones más visibles, pero ciertamente no es la única. Muchas otras empresas ven valor en la identificación automatizada de emociones, y debido a que hay mucho margen de mejora, la competencia es dura. Todas las empresas deben lidiar con desafíos como iluminación deficiente, velocidades de procesamiento de la CPU, duración de la batería del dispositivo y restricciones similares.
Pero así como el software de reconocimiento de voz ha mejorado enormemente en los últimos años, puede esperar que el reconocimiento de emociones también mejore. Se acerca la era de la computación emocional. Esperemos que nuestras máquinas manejen toda nuestra fragilidad humana con la preocupación y el cuidado que merecemos.
Nota del autor:¿Cómo podría Google Glass detectar las emociones de las personas?
A medida que avanzan las aplicaciones de reconocimiento de emociones, el software de todo tipo se transformará de maneras extrañas y maravillosas. Su teléfono inteligente lo verá cuando esté triste y mostrará imágenes de imágenes divertidas de cachorros y gatitos. Cuando esté enojado, mostrará imágenes tranquilizadoras de la naturaleza y llamará automáticamente a su terapeuta. Cuando te veas un poco borracho, pedirá pizza para que no conduzcas para recogerla tú mismo. O tal vez su dispositivo inteligente en realidad será bastante sordo a sus necesidades, muy parecido a su ex. De cualquier manera, puedes apostar a que los programadores inteligentes encontrarán todo tipo de formas de integrar la detección de emociones en las próximas aplicaciones, para bien o para mal.