33.6 C
Colombia
sábado, julio 5, 2025

Robotic See, Robotic Do: System aprende después de ver movies de cómo hacer


Los investigadores de la Universidad de Cornell han desarrollado un nuevo marco robótico impulsado por la inteligencia synthetic, llamada rima (recuperación de la imitación híbrida bajo ejecución no coincidente), que permite a los robots aprender tareas viendo un solo video práctico.

Los robots pueden ser alumnos delicados. Históricamente, han requerido instrucciones precisas y paso a paso para completar las tareas básicas y tienden a dejarlo cuando las cosas salen de la escritura, como después de dejar caer una herramienta o perder un tornillo. La rima, sin embargo, podría acelerar el desarrollo y el despliegue de sistemas robóticos al reducir significativamente el tiempo, la energía y el dinero necesarios para capacitarlos, dijeron los investigadores.

“Una de las cosas molestas de trabajar con robots es recopilar tantos datos sobre el robotic que realiza diferentes tareas”, dijo Kushal Kedia, un estudiante de doctorado en el campo de la informática. “No es así como los humanos hacen tareas. Vimos a otras personas como inspiración”.

Kedia presentará el documento, “imitación de un solo disparo bajo ejecución no coincidente”, en mayo en la Conferencia Internacional de Ingenieros de Ingenieros Eléctricos y Electrónicos sobre Robótica y Automatización, en Atlanta.

Los asistentes de robotic en el hogar siguen muy lejos porque carecen del ingenio para navegar por el mundo físico y sus innumerables contingencias. Para poner a los robots al día, investigadores como Kedia los están entrenando con lo que equivale a movies de cómo hacer: demostraciones humanas de varias tareas en un entorno de laboratorio. La esperanza con este enfoque, una rama del aprendizaje automático llamado “aprendizaje de imitación”, es que los robots aprenderán una secuencia de tareas más rápido y podrán adaptarse a los entornos del mundo actual.

“Nuestro trabajo es como traducir el francés al inglés: estamos traduciendo cualquier tarea dada de humano a robotic”, dijo el autor principal Sanjiban Choudhury, profesor asistente de informática.

Sin embargo, esta tarea de traducción aún enfrenta un desafío más amplio: los humanos se mueven demasiado fluidamente para que un robotic rastree e imite, y entrenar robots con video requiere un gour de él. Además, las demostraciones de video, por ejemplo, recoger una servilleta o apilar platos de cena, deben realizarse lenta y perfectamente, ya que cualquier desajuste en las acciones entre el video y el robotic ha deletreado históricamente la fatalidad para el aprendizaje de los robots, dijeron los investigadores.

“Si un humano se mueve de una manera que es diferente de cómo se mueve un robotic, el método se desmorona inmediatamente”, dijo Choudhury. “Nuestro pensamiento fue: ‘¿Podemos encontrar una forma de principios de lidiar con este desajuste entre cómo los humanos y los robots hacen tareas?'”

Rhyme es la respuesta del equipo, un enfoque escalable que hace que los robots sean menos llamativos y más adaptativos. Superada un sistema robótico para usar su propia memoria y conectar los puntos al realizar tareas que ha visto solo una vez dibujando en movies que ha visto. Por ejemplo, un robotic equipado con rima mostró un video de un humano que busca una taza del mostrador y la colocó en un fregadero cercano peinará su banco de movies y se inspirará en acciones similares, como comprender una taza y bajar un utensilio.

La rima allana el camino para que los robots aprendan secuencias de múltiples pasos, al tiempo que reducen significativamente la cantidad de datos de robotic necesarios para la capacitación, dijeron los investigadores. La rima requiere solo 30 minutos de datos de robotic; En un entorno de laboratorio, los robots entrenados utilizando el sistema lograron un aumento de más del 50% en el éxito de la tarea en comparación con los métodos anteriores, dijeron los investigadores.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles