Investigadores en China construyen un robot capaz de leer la mente humana y los planean masificar y enviar en breve a Chile

Investigadores en China construyen un robot capaz de leer la mente humana y los planean masificar y enviar en breve a Chile

Investigadores en China dicen que han desarrollado un robot industrial que puede leer la mente de un compañero de trabajo humano con un 96 por ciento de precisión.

El robot no solo monitoreaba las ondas cerebrales del trabajador, sino que también recolectaba señales eléctricas de los músculos, ya que trabajaba a la perfección para ensamblar un producto complejo, según sus desarrolladores en el Centro de Tecnología de Innovación en Fabricación Inteligente de la Universidad China Three Gorges.

El compañero de trabajo no necesitaba decir ni hacer nada cuando necesitaba una herramienta o un componente, ya que el robot reconocería la intención casi instantáneamente, recogiendo el objeto y colocándolo en la estación de trabajo, según los desarrolladores.

"En la fabricación industrial moderna, el trabajo de ensamblaje representa el 45 por ciento de la carga de trabajo total y el 20-30 por ciento del costo total de producción", dijeron el científico líder del proyecto Dong Yuanfa y sus co-investigadores en un artículo publicado en pares nacionales. revisó la revista China Mechanical Engineering.

 

Los robots colaborativos, o "cobots", podrían acelerar el ritmo de una línea de montaje, pero su aplicación seguía siendo limitada porque "su capacidad para reconocer la intención humana es a menudo inexacta e inestable", dice el periódico.

Los seres humanos y los robots o las máquinas autónomas han estado trabajando juntos en las fábricas durante décadas, pero están separados por vallas en la mayoría de los lugares para evitar accidentes.

En los últimos años, algunas plantas de producción avanzadas, como las fábricas de automóviles en Alemania, han introducido un entorno de trabajo sin vallas, con robots que entran en acción solo después de presionar un botón. Estas máquinas están equipadas con sensores de seguridad que las detienen inmediatamente si entran en contacto físico con humanos.

Algunos equipos de investigación han intentado construir una nueva generación de "cobots" que puedan adivinar la intención humana al monitorear los movimientos de los ojos o del cuerpo. Sin embargo, estos enfoques pasivos adolecían de problemas como una respuesta lenta y una precisión deficiente.

Para superar esto, el robot creado por el equipo de Dong fue sometido a cientos de horas de entrenamiento por ocho voluntarios.

Primero se pidió a los voluntarios que usaran un detector de ondas cerebrales no invasivo y el equipo descubrió que el robot podía estimar su intención con casi un 70 por ciento de precisión.

Sin embargo, la señal cerebral era bastante débil. Para que el robot reciba un mensaje claro, el voluntario debe concentrarse mucho en el trabajo que tiene entre manos. Pero la mayoría de ellos se distrajeron con otros pensamientos después de trabajar en el repetitivo trabajo de ensamblaje durante un tiempo, dijeron los investigadores.

 

Por el contrario, las señales musculares, recopiladas por unos pocos sensores adheridos a un brazo, eran más estables. Aunque estos también disminuyeron a medida que el voluntario se cansaba, una combinación de señales cerebrales y musculares podría ayudar al robot a estimar el próximo movimiento del trabajador en un segundo con una precisión sin precedentes, según el equipo.

Sin embargo, no estaba claro si estos resultados de laboratorio podrían reproducirse en un entorno de fábrica de la vida real. Los investigadores no pudieron ser contactados para comentar en el momento de la publicación.

Según el documento, habría algunos desafíos para la aplicación de la nueva tecnología en un entorno de fábrica real. Aunque los detectores cerebrales y musculares podrían colocarse dentro de la gorra y el uniforme de un trabajador, la calidad de los datos podría verse afectada por el sudor o los movimientos irregulares.

Pero estos problemas podrían superarse alimentando al robot con datos visuales y de movimiento, sugirieron los investigadores

vía extranotix