X
Revista

Desarrollan un dispositivo capaz de "escuchar" lo que pensamos

Se llama AlterEgo y fue creado por investigadores del MIT.

07/04/2018

Investigadores del Instituto Tecnológico de Massachusetts (MIT) desarrollaron un dispositivo similar a un auricular que puede "leer" la verbalización interna de las personas, es decir, lo no dicho en voz alta, utilizando electrodos que a través de inteligencia artificial (IA) ponen sonido a la palabra a través de una computadora.

"Nuestra idea era: ¿Podríamos tener una plataforma informática más interna, que combine humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?", contó Arnav Kapur, quien dirigió el desarrollo.

El aparato se llama AlterEgo y se presentó el mes pasado en la conferencia de la Interfaz de Usuario Inteligente de la Asociación de Informática en Tokio.

El dispositivo se ubica alrededor de la oreja y recorre la mandíbula y el mentón. Hay cuatro electrodos debajo de esta especie de auricular -de plástico blanco- que hacen contacto con la piel y captan las sutiles señales neuromusculares que se activan cuando una persona verbaliza internamente.

Cuando alguien dice palabras dentro de su cabeza, la inteligencia artificial dentro del dispositivo puede unir señales particulares a palabras particulares, alimentándolas en una computadora, explico el MIT. La computadora puede entonces responder a través del dispositivo usando un altavoz de conducción ósea que reproduce el sonido en el oído sin la necesidad de insertar un auricular (un aparato dentro del oido) dejando al usuario libre para escucharse y escuchar los sonidos externos.

La idea es crear una interfaz de computadora aparentemente silenciosa con la que sólo el usuario de AlterEgo pueda hablar y escuchar.

El desarrollo logró una precisión promedio de transcripción del 92% en una prueba de 10 personas. Eso es varios puntos porcentuales por debajo de la tasa de precisión del 95% que el servicio de transcripción de voz de Google es capaz de usar, pero Kapur dijo que el sistema "mejorará su precisión" con el tiempo.

Se cree que el umbral humano para la precisión de la palabra verbalizada es de alrededor del 95%.

El objetivo final es hacer que la interacción con asistentes de IA como el Asistente de Google, el Alexa de Amazon o el Siri de Apple sea menos embarazoso e íntimo, permitiendo a las personas comunicarse con ellos de una manera silenciosa para el mundo exterior.

El único inconveniente es que los usuarios tendrán que usar un dispositivo atado a la cara, una barrera que las gafas inteligentes como Google Glass no pudieron superar.

Pero los expertos piensan que la tecnología tiene mucho potencial. "¿No sería genial comunicarse con la voz en un entorno donde normalmente no podrías?", destacó Thad Starner, profesor de informática en Georgia Tech, al ser consultado por el diario británico The Guardian.

"Puedes imaginar todas estas situaciones en las que tienes un entorno de alto ruido, como la cabina de vuelo de un portaaviones, o incluso lugares con mucha maquinaria, como una planta de energía o una imprenta", agregó el especialista.

Starner también dijo que podría aplicarse en el ejército y para personas con problemas en el habla.