Los robots que leen nuestras mentes en realidad existirán antes de lo que piensas


Los robots llegaron para quedarse, y solo se están volviendo más inteligentes. Pero pasará un tiempo hasta que respondan a cada uno de nuestros mandatos verbales, de modo que hasta entonces tendremos que usar nuestra mente para comunicarnos con ellos.
Así es, podrás controlar robots usando tu mente en el futuro, ya que MIT descubrió una forma de combinar ondas cerebrales y gestos con las manos para permitir a los humanos interactuar con las máquinas sin esfuerzo.
La idea aquí es permitir a las máquinas correlacionar e interpretar fácilmente las señales cerebrales y los movimientos de las manos de una persona y convertirlas en acciones robóticas rápidas. De esta forma, los humanos no tendrían que dominar las habilidades de codificación necesarias para preprogramar robots para realizar tareas específicas en respuesta directa a la interacción humana.
La tecnología todavía está en su infancia y requiere que un ser humano use un par de dispositivos engorrosos que medirían la actividad eléctrica del cerebro y la actividad muscular de la mano. Así es como el robot "lee" nuestras mentes y movimientos musculares.
Pero el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT fue bastante exitoso.
"Este trabajo que combina la retroalimentación [electroencefalograma (EEG) y electromiografía (EMG)] permite interacciones naturales entre humanos y robots para un conjunto más amplio de aplicaciones de lo que hemos podido hacer antes de usar solo comentarios EEG", dijo la directora de CSAIL, Daniela Rus. "Al incluir retroalimentación muscular, podemos usar gestos para ordenar al robot espacialmente, con mucho más matices y especificidad".
El equipo, dirigido por Ph.D. el candidato Joseph DelPreto, utilizó un robot humanoide llamado Baxter, de Rethink Robotics, durante las pruebas, y el proyecto fue financiado en parte por Boeing Company.
El robot pasó de elegir el objetivo correcto de 70% a 97%, dice MIT - ver el video a continuación. Mientras que los robots pueden interpretar EEG y EMG para desencadenar acciones, es la combinación de los dos lo que hace que todo sea posible.
"Al observar las señales tanto del músculo como del cerebro, podemos comenzar a observar los gestos naturales de una persona junto con sus decisiones rápidas sobre si algo está yendo mal", dijo DelPreto. "Esto ayuda a que la comunicación con un robot sea más como comunicarse con otra persona".
El sistema podría ser utilizado en el futuro por varios tipos de personas, incluidos los trabajadores con discapacidad o movilidad limitada, pero también los ancianos, según el equipo. Y quién sabe, este tipo de control de robots podría algún día ser usado para conquistar el espacio.
Un artículo que detalla la invención de MIT CSAIL se presentará en la conferencia de Robótica: Ciencia y Sistemas (RSS) en Pittsburgh la próxima semana.

No comments:

Post a Comment

Pages