La interfaz cerebro-máquina portátil convierte las intenciones en acciones

La interfaz cerebro-máquina portátil convierte las intenciones en acciones

Crédito: Instituto de Tecnología de Georgia

Un nuevo sistema portátil de interfaz cerebro-máquina (BMI) podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso aquellas que luchan con el síndrome de enclaustramiento, cuando una persona está completamente consciente pero no puede moverse o comunicarse.

Un equipo internacional multiinstitucional de investigadores dirigido por el laboratorio de Woon-Hong Yeo en el Instituto de Tecnología de Georgia combinó la electrónica inalámbrica del cuero cabelludo suave y la realidad virtual en un sistema BMI que permite al usuario imaginar una acción y controlar de forma inalámbrica una silla de ruedas o brazo robotico.

El equipo, que incluía investigadores de la Universidad de Kent (Reino Unido) y la Universidad de Yonsei (República de Corea), describe el nuevo sistema de IMC basado en imágenes motoras este mes en la revista ciencia avanzada.

“La principal ventaja de este sistema para el usuario, en comparación con lo que existe actualmente, es que es suave y cómodo de usar y no tiene cables”, dijo Yeo, profesor asociado de la Escuela de Mecánica George W. Woodruff. Ingeniería.

Los sistemas BMI son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es la electroencefalografía, EEG, que generalmente requiere un engorroso casquete de electrodos y una red de cables enredados.

Estos dispositivos generalmente se basan en gran medida en geles y pastas para ayudar a mantener el contacto con la piel, requieren largos tiempos de configuración, generalmente son inconvenientes e incómodos de usar. Los dispositivos también sufren a menudo de mala adquisición de la señal debido a la degradación del material o artefactos de movimiento, el “ruido” auxiliar que puede ser causado por algo como rechinar los dientes o parpadear. Este ruido aparece en los datos del cerebro y debe filtrarse.

El sistema EEG portátil diseñado por Yeo, que integra electrodos de microagujas imperceptibles con circuitos inalámbricos suaves, ofrece una adquisición de señal mejorada. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones quiere realizar un usuario, por lo que el equipo integró un poderoso algoritmo de aprendizaje automático y un componente de realidad virtual para abordar ese desafío.

El nuevo sistema se probó con cuatro sujetos humanos, pero aún no se ha estudiado con personas discapacitadas.

“Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto”, señaló Yeo, director del Centro de ingeniería e interfaces centradas en humanos de Georgia Tech del Instituto de Electrónica y Nanotecnología, y miembro del Instituto Petit. de Bioingeniería y Biociencias.

Nuevo paradigma

El equipo de Yeo introdujo originalmente una interfaz cerebro-máquina de EEG suave y portátil en un estudio de 2019 publicado en el Naturaleza Máquina Inteligencia. El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo trabajo de investigación del equipo.

“Esta nueva interfaz cerebro-máquina utiliza un paradigma completamente diferente, que involucra acciones motoras imaginadas, como agarrar con cualquier mano, lo que libera al sujeto de tener que mirar demasiados estímulos”, dijo Mahmood, estudiante de doctorado en Yeo’s. laboratorio.

En el estudio de 2021, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos, sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información.

“Las indicaciones virtuales han demostrado ser muy útiles”, dijo Yeo. “Aceleran y mejoran la participación y la precisión del usuario. Y pudimos registrar la actividad continua de imágenes motoras de alta calidad”.

Según Mahmood, el trabajo futuro en el sistema se centrará en optimizar la colocación de electrodos y una integración más avanzada de EEG basado en estímulos, utilizando lo que han aprendido de los últimos dos estudios.


Similar Posts

Leave a Reply