IA

Vuelve a hablar 18 años después de sufrir un ictus gracias a una prótesis cerebral de inteligencia artificial

Es un equipo científico de la Universidad de California en Berkeley y en San Francisco (Estados Unidos) el que ha diseñado un dispositivo capaz de traducir la actividad del habla en el cerebro en palabras habladas.

Vuelve a hablar 18 años después de sufrir un ictus gracias a una prótesis cerebral de inteligencia artificial

Publicidad

Cuando Ann tenía 30 años, sufrió un derrame cerebral que la dejó gravemente paralizada. La mujer perdió el control de todos los músculos del cuerpo y ni siquiera podía respirar. Durante los siguientes cinco años, Ann se acostaba cada noche con el temor de morir mientras dormía. Tuvo que pasar por años de fisioterapia antes de poder mover los músculos faciales lo suficiente como para reír o llorar. Aun así, los músculos que le habrían permitido hablar permanecieron inmóviles.

"De la noche a la mañana, me lo arrebataron todo", escribió Ann, gracias a un dispositivo que le permite escribir en la pantalla de un ordenador con pequeños movimientos de cabeza. "Tenía una hija de 13 meses, un hijastro de 8 años y un matrimonio de 26 meses".

Ahora, se ha conocido que un equipo científico de la Universidad de California en Berkeley y en San Francisco (Estados Unidos) ha diseñado un dispositivo capaz de traducir la actividad del habla en el cerebro en palabras habladas casi en tiempo real, consiguiendo que esta mujer con tetraplejia 'hablara' después de 18 años.

Es un trabajo que resuelve "el viejo problema" de la latencia de las neuroprótesis del habla, es decir, el tiempo que va entre el momento en que un sujeto intenta hablar y el momento en que se produce el sonido. Gracias a los últimos avances basados en inteligencia artificial (IA), los investigadores desarrollaron un método de transmisión que lo que hace es sintetizar las señales cerebrales en habla audible casi en tiempo real.

Su descripción se publica este lunes en la revista 'Nature Neuroscience'. "Nuestro enfoque de 'streaming' lleva la misma capacidad de decodificación rápida del habla de dispositivos como Alexa y Siri a las neuroprótesis", resume Gopala Anumanchipalli, co-investigador principal del estudio. "Utilizando un tipo de algoritmo similar, descubrimos que podíamos descodificar datos neuronales y, por primera vez, hacer posible una transmisión de voz casi sincrónica. El resultado es una síntesis del habla más natural y fluida", explica el científico.

Para Edward Chang, otro de los científicos principales, es una nueva tecnología que "tiene un enorme potencial" para mejorar la calidad de vida de las personas con parálisis graves que afectan al habla. "Es emocionante que los últimos avances en IA estén acelerando enormemente las interfaces cerebro-ordenador para su uso práctico en el mundo real en un futuro próximo".

Dentro del ensayo clínico, los equipos de Chang y Anumanchipalli implantaron la interfaz cerebro-computadora en la mujer con tetraplejia (parálisis de las extremidades y el torso), que no había podido hablar o vocalizar durante los últimos 18 años después de sufrir un accidente cerebrovascular.

Los investigadores, para recopilar los datos necesarios para entrenar su algoritmo, primero hicieron que la participante mirara una indicación en la pantalla, como la frase "hola, ¿cómo estás?", y después tratara de pronunciar esa frase en silencio. De esta manera, los autores entrenaron una red neuronal de aprendizaje profundo utilizando la actividad cerebral de la participante, que se registró mediante electrodos implantados sobre su corteza sensomotora del habla, a la vez que pronunciaba internamente en su cerebro frases completas que contenían 1.024 palabras únicas.

Tras ello, se utilizó este modelo para descodificar el habla en línea, de manera simultánea con la intención vocal de la participante (Ann), y luego producir audio imitando su voz. Cheol Jun Cho, otro de los firmantes del trabajo, resume que la neuroprótesis funciona tomando muestras de datos neuronales de la corteza motora, la parte del cerebro encargada de controlar la producción del habla, y luego utiliza la IA para descodificar la función cerebral y convertirla en habla. "Básicamente interceptamos las señales en las que el pensamiento se traduce en articulación (...). Así que lo que estamos descodificando es después de que se haya producido un pensamiento, después de que hayamos decidido qué decir, después de que hayamos decidido qué palabras utilizar y cómo mover los músculos del tracto vocal".

Con el nuevo método de transmisión, la salida audible puede generarse prácticamente en tiempo real, mientras el sujeto intenta hablar, recoge un comunicado de la Facultad de Ingeniería de la Universidad de California en Berkeley. Para descartar que el sistema simplemente estuviera emparejando patrones y repitiendo partes de los datos de entrenamiento, los investigadores probaron su capacidad para sintetizar palabras que no formaban parte del vocabulario del adiestramiento primario. En este caso, eligieron 26 palabras del llamado alfabeto fonético de la OTAN, como "alpha" o "bravo". "Descubrimos que nuestro modelo lo hace bien, lo que demuestra que, efectivamente, está aprendiendo los componentes básicos del sonido o la voz", concluye Anumanchipalli.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Publicidad

Imágenes generadas con Inteligencia Artificial o vídeos sacados de contexto: desinformación tras el terremoto de Myanmar

Imágenes generadas con Inteligencia Artificial o vídeos sacados de contexto: desinformación tras el terremoto de Myanmar

Tras el terremoto de magnitud 7,7 que ha sacudido el noroeste de Myanmar, dejando al menos 1.700 muertos y más de 3.400 heridos, las redes sociales se han llenado de vídeos sacados de contexto e imágenes generadas con Inteligencia Artificial. En 'Verifica A3N' te contamos más detalles para que no piques.

La presidenta de la Comisión Europea, Ursula von der Leyen

Von der Leyen avisa a Trump de que la UE tiene fuerza para "contraatacar" sus aranceles: "No queremos tomar represalias, pero..."

La presidenta de la Comisión Europea ha defendido que Europa tiene un "plan sólido" frente a los aranceles de Estados Unidos.