Un equipo de investigadores de las universidades de California en Berkeley y San Francisco (EE. UU.) ha desarrollado un innovador implante cerebral que convierte la actividad neuronal relacionada con el habla en palabras audibles casi en tiempo real.
Esta tecnología ha permitido que una mujer de 47 años, quien sufre de tetraplejia, recupere la capacidad de “hablar” después de 18 años de silencio.
El avance resuelve un problema histórico: la demora entre la intención de hablar y la producción del sonido en las neuroprótesis.
Utilizando modelos avanzados de inteligencia artificial (IA), el equipo creó un sistema que convierte las señales cerebrales en voz sintética de forma casi instantánea. Este descubrimiento fue publicado en Nature Neuroscience.
“Hemos aplicado técnicas similares a las que utilizan asistentes virtuales como Alexa o Siri para descodificar el habla, pero ahora lo hacemos directamente desde las señales cerebrales”, explica Gopala Anumanchipalli, coautor principal del proyecto.
El sistema utiliza un algoritmo de transmisión continua que interpreta la actividad cerebral y la convierte en voz audible, ofreciendo una comunicación más fluida y natural en comparación con los métodos previos.
Como parte de un ensayo clínico, los equipos de Anumanchipalli y Edward Chang implantaron una interfaz cerebro-computadora en la paciente, quien había perdido la capacidad de hablar tras un accidente cerebrovascular. Para entrenar el sistema, la mujer miraba frases en una pantalla (como “Hola, ¿cómo estás?”) e intentaba pronunciarlas en silencio.
Durante este proceso, los electrodos colocados sobre la corteza sensomotora del habla registraban la actividad neuronal. Con esta información, los investigadores entrenaron una red neuronal profunda que logró asociar patrones cerebrales con palabras habladas.
Sorprendentemente, el sistema pudo generar voz sintética que imitaba el timbre original de la paciente, utilizando grabaciones previas a su lesión, según informa EFE.
El dispositivo no solo descodifica palabras conocidas, sino que también puede generar sonidos no presentes en el conjunto de entrenamiento inicial.
Para comprobarlo, los científicos probaron el sistema con el alfabeto fonético de la OTAN (“alpha”, “bravo”, etc.), confirmando que el modelo estaba aprendiendo los elementos fundamentales del habla y no solo repitiendo patrones.
“Interceptamos las señales que transforman el pensamiento en articulación. Así que no estamos leyendo la mente, sino capturando la actividad motora que genera el habla”, detalla Cheol Jun Cho, coautor del estudio.
En investigaciones anteriores, la latencia para descodificar el habla podía llegar a los 8 segundos por frase. Sin embargo, este nuevo enfoque genera audio casi en tiempo real, eliminando la demora y mejorando la fluidez en la comunicación.
Chang subraya el potencial transformador de esta tecnología: “Con la aceleración de las interfaces cerebro-máquina impulsadas por IA, estamos más cerca de ofrecer soluciones reales a personas con discapacidades del habla severas”.
Este avance no solo facilita la comunicación, sino que también representa un gran paso hacia la restauración de la voz para quienes la han perdido.