La IA traduce el habla imaginada en palabras habladas para pacientes con parálisis
Ciencia 6 días atrás
Una nueva interfaz cerebro-computadora (BCI), desarrollada por investigadores de Stanford, permite a personas con parálisis comunicarse simplemente imaginando el habla. A diferencia de métodos antiguos que requerían intentos físicos de hablar, este sistema detecta actividad neural vinculada a pensamientos silenciosos, reduciendo el esfuerzo para los usuarios. El equipo entrenó un modelo de IA para decodificar estas señales usando un vocabulario de 125,000 palabras, logrando un 74% de precisión en pruebas iniciales.
El sistema incluye una función de privacidad activada por la "contraseña mental" *Chitty Chitty Bang Bang*, detectada con un 98% de precisión. Los participantes—todos con ELA o accidentes cerebrovasculares del tronco encefálico—prefirieron este método por su rapidez y facilidad. Sin embargo, persisten desafíos para distinguir el habla intencional de pensamientos privados, lo que plantea consideraciones éticas.
Aunque la tecnología aún está en desarrollo, los investigadores destacan su potencial para restaurar la comunicación en casos de parálisis severa. Regulaciones federales garantizan el cumplimiento de la ética médica, abordando preocupaciones sobre "lectura de mentes" no deseada. Futuras mejoras buscan aumentar la precisión y refinar el límite entre pensamientos compartidos y privados.