Una mujer de 47 años con cuadriplejía logró hablar luego de 18 años gracias a un dispositivo configurado con los últimos avances de la inteligencia artificial (IA). Tras detectarse actividad cerebral, se envió señales a una computadora, lo que transformó sus pensamientos en palabras.
La inteligencia artificial ayudó a una mujer que volvió a hablar después de 18 años
Una mujer quedó cuadripléjica tras un ACV. Desde la Universidad de California desarrollaron una tecnología tradujo sus pensamientos en palabras.
-
Estas son las 10 frases más usadas por los argentinos, según la Inteligencia Artificial
-
Cómo crear tu propio muñeco al estilo "Action Man" con ChatGPT

La inteligencia artificial permitió traducir los pesamientos de Ann en palabras audibles.
Una neuroprótesis -compuesta por 253 electrodos- ayudó a Ann a volver a hablar. El elemento se implantó directamente sobre su cerebro, registró su actividad cerebral y envió las señales a una computadora, que transformó sus pensamientos en palabras pronunciadas con una voz idéntica a la que tenía antes de sufrir un accidente cerebrovascular (ACV).
Convertir señales cerebrales en voz humana
El método fue desarrollado por un equipo de investigadores de Universidad de California en Berkeley y Universidad de California San Francisco. Su descripción fue publicada en la revista Nature Neuroscience y demuestra un importante avance en el campo de las interfaces cerebro-computadora.
Se trata de un sistema de transmisión que convierte las señales cerebrales en habla audible en tiempo real, según los investigadores. “Los retrasos en el habla superiores a unos pocos segundos pueden interrumpir el flujo natural de la conversación. Esto impide que las personas con parálisis participen en diálogos significativos, lo que puede generar aislamiento y frustración”, apuntaron.
A diferencia de métodos anteriores, cuyos sonidos se producían luego de que los usuarios completaran una frase, ahora se pueden detectar y transformar palabras en voz en solo tres segundos, a la par del pensamiento.
“Nuestro enfoque de streaming incorpora la misma capacidad de decodificación rápida de voz de dispositivos como Alexa y Siri a las neuroprótesis”, afirmaron los profesores Gopala Anumanchipalli, Robert E. y Beverly A. Brooks de Ingeniería Eléctrica y Ciencias de la Computación en UC Berkeley.
Una transmisión de voz casi en tiempo real
Ann, quien participó del estudio, sufrió un derrame cerebral en 2005 y 18 años después fue sometida a una cirugía en la que se le implantó el dispositivo con 253 electrodos sobre su corteza cerebral. Este implante registra la actividad combinada de miles de neuronas al mismo tiempo.
Los investigadores entrenaron algoritmos de inteligencia artificial con grabaciones de un video de su boda, logrando personalizar una voz sintética que reproduce el tono que tenía antes del accidente. Luego, la paciente leyó en silencio 100 oraciones seleccionadas y 50 frases que se mostraron en una pantalla.
El dispositivo BCI registró su actividad neuronal cada 80 milisegundos, iniciando la captura 500 milisegundos antes de que comenzara a articular mentalmente cada oración. El sistema logró generar entre 47 y 90 palabras por minuto, mientras que una conversación habitual alcanza unas 160.
El neurocirujano de la Universidad de California en San Francisco y coautor del estudio, Edward Chang, señaló que con un aumento en la cantidad de sensores, una mayor precisión y un procesamiento de señales más avanzado, la tecnología seguirá evolucionando.
- Temas
- Inteligencia Artificial
- Salud
Dejá tu comentario