El teclado, el ratón y la pantalla táctil podrían tener los días contados. Un equipo de Meta ha desarrollado una interfaz neuromotora no invasiva que permite controlar un ordenador con simples movimientos de muñeca, sin cables, sin calibraciones personalizadas y sin necesidad de cirugía cerebral. Este nuevo sistema captura la intención motora directamente desde los músculos del antebrazo mediante un brazalete y descodifica el gesto con redes neuronales entrenadas por miles de personas.
Hace décadas que se sueñan tecnologías capaces de leer nuestras intenciones y transformarlas en acciones digitales. El problema ha sido siempre el mismo: o bien los sistemas son invasivos —como los implantes cerebrales—, o bien son imprecisos, como las cámaras o los cascos de electroencefalografía, que sufren de ruidos, calibraciones complejas y escasa portabilidad. En cambio, el brazalete desarrollado por Reality Labs, la división de investigación de Meta especializada en interfaces humanas, realidad aumentada y realidad virtual, ha logrado una combinación entre precisión y comodidad que permitiría la generalización a gran escala.
El brazalete traduce las señales musculares en comandos informáticos
El dispositivo, bautizado como sEMG-RD, es un brazalete con 48 electrodos que detecta los impulsos eléctricos de los músculos del antebrazo cuando el usuario realiza gestos, como pinzar los dedos, escribir en el aire o mover la muñeca. Esos impulsos son señales bioeléctricas conocidas como potenciales de acción de unidades motoras (MUAPs). Gracias a su alta sensibilidad con una tasa de muestreo de 2.000 Hz, el brazalete puede captar incluso los gestos más sutiles.
Lo novedoso no es solo el hardware, sino también la escala del estudio y el enfoque de entrenamiento. Los investigadores, que presentan hoy sus resultados en la revista Nature, recopilaron más de 100 horas de datos de electromiografía de 6.527 participantes que realizaron tareas como navegación por cursor, gestos discretos y escritura manuscrita. Con este método, entrenaron redes neuronales profundas capaces de traducir esas señales musculares en comandos informáticos sin necesidad de calibrar el sistema para cada persona. “Al usar sEMG en la muñeca, las personas pueden aprender rápidamente a controlar dispositivos con gestos familiares e intuitivos, como toques con los dedos, deslizamientos con el pulgar y giros de muñeca”, aseguran los autores del estudio.
Hasta ahora, uno de los grandes retos de las interfaces cerebro-computadora ha sido la falta de generalización, lo que funciona para una persona suele fallar en otra. El equipo liderado por dos doctores en neurociencia, Patrick Kaifosh y Thomas Reardon —antiguos creadores del navegador Internet Explorer para móviles y cofundadores de la empresa CTRL-Labs, adquirida por Meta en 2019—, ha demostrado que su sistema alcanza tasas de precisión del 90% en tareas como el reconocimiento de gestos y escritura, incluso en usuarios que nunca lo habían usado antes.
En pruebas de escritura manuscrita, los participantes lograron una velocidad cercana al ritmo de un teclado móvil (36 palabras por minuto de media). En comparación, los mejores BCIs invasivos —como los implantes cerebrales utilizados en pacientes con parálisis— logran velocidades similares (18 palabras por minuto), pero requieren cirugía y largos periodos de entrenamiento.
Personas con movilidad reducida podrían beneficiarse de esta tecnología
Aunque el modelo general funciona con notable eficacia en la mayoría de usuarios, los investigadores comprobaron que personalizar el sistema con solo 20 minutos adicionales de datos de un individuo mejora el rendimiento hasta un 30% en los casos más complejos. Curiosamente, cuanto más grande es el modelo genérico (entrenado con miles de participantes), menor es la mejora que se obtiene con esta personalización. Así, el sistema permite una adaptación progresiva según las necesidades y capacidades de cada usuario.
Esta investigación se inscribe en la ambiciosa estrategia de Meta para explorar formas de interacción más naturales con las máquinas, y llega tras años de trabajo en interfaces neuronales tanto invasivas como no invasivas. Reardon y su equipo ya habían presentado en 2019 una primera versión de este sistema, basada en un principio similar pero con menor resolución y sin validación a gran escala. Ahora, el salto es sustancial.
Las implicaciones de esta tecnología van más allá del confort. Personas con movilidad reducida, amputaciones o enfermedades neuromusculares podrían beneficiarse de esta interfaz para interactuar con dispositivos sin necesidad de realizar movimientos visibles. Además, el sistema permite registrar la fuerza del gesto, algo que escapa a los métodos ópticos tradicionales, lo que abre la puerta a controles ergonómicos más sutiles y perfeccionados.