EsHowto >> Electrónica >> Artilugio

¿El software de reconocimiento de voz significará el fin de los acentos?

¿El software de reconocimiento de voz significará el fin de los acentos? A medida que el software de reconocimiento de voz se estandariza, ¿podría significar que nuestros acentos regionales y globales también lo harán?

Cuando Siri, el asistente virtual de iOS de Apple, comenzó a aparecer en los iPhone a fines de 2011, la alegre voz femenina del programa se convirtió rápidamente en una sensación. No fue solo porque Siri podía entender las instrucciones habladas de sus propietarios y responder preguntas, marcar números de teléfono, dar un informe meteorológico, buscar direcciones a un destino o incluso encontrar el mejor restaurante tailandés en un vecindario y hacer una reserva. Como demostró el actor John Malkovich en una serie de ingeniosos comerciales de Apple como este, Siri aparentemente podría incluso entablar una pequeña charla, como si ella... Vaya, eso. — era una persona real.

Siri, cuyo nombre significa Interfaz de interpretación y reconocimiento de voz, eventualmente se unió a la escena por un competidor como Cortana de Microsoft y la aplicación Google Now del sistema operativo Android, que carece de personalidad pero aún puede comprender las preguntas en lenguaje natural de los usuarios y responder con palabras habladas. respuestas También está Alexa, el asistente virtual que viene con el electrodoméstico Amazon Echo, que hace de todo, desde reproducir música hasta encender y apagar las luces, según los comandos de voz. Y los consumidores que llaman a las empresas suelen encontrarse en estos días hablando con sistemas de respuesta de voz interactiva (IVR) con reconocimiento de voz, en lugar de un operador humano real.

Cuéntalo como es

Pero como han descubierto los usuarios, hay una cosa que este software tiene problemas para hacer:comprender a alguien que habla inglés con un fuerte acento regional o extranjero. No pasó mucho tiempo después del lanzamiento de Siri, por ejemplo, que los propietarios escoceses de iPhone comenzaron a quejarse de que el asistente virtual no podía descifrar sus acentos.

Un usuario de YouTube llamado James McDonald, por ejemplo, publicó este video de Siri luchando por traducir sus instrucciones para "crear un recordatorio". Los usuarios que hablaban inglés con acento indio y filipino también se quejaron de que sus teléfonos no podían entenderlos.

Desde entonces, para ser justos, la capacidad de los asistentes virtuales para entender el inglés con acento parece haber mejorado significativamente. Según el sitio web de soporte de Apple, por ejemplo, el programa ahora comprende acentos y dialectos en inglés y otros 15 idiomas. Como Dan Moren, un ex periodista de MacWorld que ahora escribe para SixColors.com, señaló el otoño pasado, Siri ya no vincula el idioma y la ubicación tan estrictamente como lo hacía antes, por lo que incluso si lo configura para que hable en inglés al estilo británico. , puede entender a alguien que no tiene ese acento.

Pero algunos acentos regionales todavía parecen hacer tropezar al software de reconocimiento de voz. Como señaló la sureña estadounidense Julia Reed en un artículo reciente para Garden &Gun, cuando un brazo roto le impedía escribir a máquina, las aplicaciones de dictado de teléfonos inteligentes y computadoras aún "se negaban rotundamente a entender casi todo lo que tenía que decir".

Cambio de código para una solución

Ese dilema eventualmente puede convertirse en una cosa del pasado, si los asistentes virtuales y el software de reconocimiento de voz eventualmente ayudan a entrenarnos para hablar inglés de la misma manera. Lars Hinrichs, profesor asociado de lengua y lingüística inglesa en la Universidad de Texas en Austin, cita el ejemplo de una amiga que tiene que abandonar su estilo jamaiquino de hablar y "fingir un acento estadounidense" para que Siri entienda sus instrucciones. Otra amiga, originaria de la India que vive en los EE. UU. desde hace 15 años, también tiene que modificar su discurso para comunicarse con el programa.

"Algunas características [del idioma] confunden a Siri más que otras", explica. "Los hablantes de inglés jamaiquino e inglés indio normalmente pronunciarían palabras como car o bird sin el sonido 'r'. Eso es realmente difícil si un dispositivo de procesamiento de idiomas está entrenado para el inglés americano, porque en inglés americano se pronunciaría la 'r'".

Muchos de nosotros ya hemos desarrollado una "voz de máquina" con una cadencia, un tono y una enunciación diferentes. Como explicó Alan Black, profesor del Instituto de Tecnologías del Lenguaje de la Universidad Carnegie Mellon, en un artículo reciente en The Guardian, un periódico británico:"Si estás parado junto a alguien en un aeropuerto o en una parada de autobús o algo así, por lo general puedes decir cuando están hablando con una máquina en lugar de hablar con una persona".

Los académicos que estudian la evolución del inglés dicen que tal estandarización, a la que llaman nivelación dialectal, ya ha estado ocurriendo durante décadas, impulsada por la influencia de la televisión y otros medios de comunicación. Dentro de los EE. UU., donde las personas se mudan a diferentes partes del país más que en el pasado, las diferencias regionales en la forma en que hablamos están comenzando a desvanecerse. El profesor asociado de lingüística de la Universidad Estatal de Carolina del Norte, Robin Dodsworth, que ha estudiado grabaciones de cientos de hablas de residentes de Raleigh, Carolina del Norte, ha descubierto que los sonidos de las vocales únicos comúnmente asociados con el habla sureña ahora son más difíciles de encontrar en Raleigh.

Habla a la máquina

Hinrichs considera que Siri y otros programas de reconocimiento de voz contribuyen a esa tendencia. "Diría que Siri y otros pueden tener la consecuencia de obligar a las personas a hablar con un acento estándar", dice.

Hinrichs señala que otros tipos de comunicación electrónica, como las videoconferencias, también contribuyen a la estandarización. "Las personas viven sus vidas en redes sociales cada vez más complejas y, como resultado, están expuestas a un número cada vez mayor de formas diferentes de hablar:escuchan más idiomas diferentes, más acentos extranjeros diferentes y más hablantes nativos diferentes. acentos de inglés", explica.

“Cuando trabajas en la oficina de un ingeniero en Amarillo y tienes una conferencia por Skype con una persona que está en Nueva York y otra en Nueva Delhi, estás expuesto a un tipo de presión similar”, dice. "Te sentirás inclinado a hablar de la manera más inteligible, y eso generalmente significa:con tu acento más estándar y menos local".

Dicho esto, Hinrichs piensa que a pesar de la influencia estandarizadora de la tecnología, los acentos no van a desaparecer por completo. Una de las razones es que es probable que el reconocimiento de voz se vuelva cada vez más sofisticado para descifrar las variaciones regionales. "También conozco a muchas otras personas, una de las cuales trabaja para Google, que dedican sus carreras a intentar enseñar a las computadoras a entender el habla y la escritura usando formas de lenguaje locales o no estándar", dice.

Además, cuando las aplicaciones de reconocimiento de voz obligan a las personas a modificar su forma de hablar, también sirven como recordatorios de lo que nos distingue. "Los individuos y las comunidades se vuelven más conscientes de que su identidad local es especial o diferente de las demás, y desarrollan un deseo más fuerte que antes de preservar y realizar su localidad", dice. Como resultado, dice, no espera que los dialectos locales desaparezcan pronto.