“Este trabajo apunta a un cambio de robots de programación a robots de enseñanza”, dijo Sizhe Lester Li, investigador principal y doctorado. Estudiante en el MIT CSAIL. “Hoy, muchas tareas de robótica requieren una ingeniería y codificación extensas. En el futuro, imaginamos mostrar un robotic qué hacer y dejar que aprenda a lograr el objetivo de forma autónoma”.
MIT intenta hacer que los robots sean más flexibles, asequibles
Los científicos dijeron que su motivación proviene de un easy replanteamiento: la barrera principal para la robótica versatile y asequible no es {hardware}: su management de la capacidad, que podría lograrse de múltiples maneras. Los robots tradicionales están construidos para ser rígidos y sensor-Wealthy, lo que hace que sea más fácil construir un gemelo digital, una réplica matemática precisa utilizada para el management.
Pero cuando un robotic es suave, deformable o de forma irregular, esos supuestos se desmoronan. En lugar de obligar a los robots a coincidir con algunos modelos, NJF voltea el script dándoles la capacidad de aprender su propio modelo interno de la observación.
Este desacoplamiento del modelado y el diseño de {hardware} podría expandir significativamente el espacio de diseño para la robótica. En robots suaves y bio inspirados, los diseñadores a menudo incrustan sensores o refuerzan partes de la estructura solo para que el modelado sea factible.
NJF levanta esa restricción, dijo el equipo del MIT CSAIL. El sistema no necesita sensores a bordo o ajustes de diseño para hacer posible el management. Los diseñadores son más libres de explorar morfologías no convencionales y sin restricciones sin preocuparse por si podrán modelarlas o controlarlas más tarde, afirmó.
“Piensa en cómo aprendes a controlar tus dedos: te mueves, observas, te adaptas”, dijo Li. “Eso es lo que hace nuestro sistema. Experimenta con acciones aleatorias y descubre qué controles se mueven qué partes del robotic”.
El sistema ha demostrado ser robusto en una variedad de tipos de robots. El equipo probó NJF en un neumático suave Mano robótica capaz de pellizcar y agarrar, una mano rígida Allegro, un brazo robótico impreso en 3D e incluso una plataforma giratoria sin sensores incrustados. En todos los casos, el sistema aprendió tanto la forma del robotic como cómo respondió a las señales de management, solo de visión y movimiento aleatorio.
NJF tiene aplicaciones potenciales del mundo actual
Los investigadores del MIT CSAIL dijeron que su enfoque tiene un potencial mucho más allá del laboratorio. Los robots equipados con NJF podrían algún día realizar algún día agrícola Tareas con precisión de localización a nivel de centímetro operan en construcción Sitios sin matrices de sensores elaborados, o navegar en entornos dinámicos donde los métodos tradicionales se rompen.
En el núcleo de NJF hay una pink neuronal que captura dos aspectos entrelazados de la realización de un robotic: su geometría tridimensional y su sensibilidad para controlar las entradas. El sistema se basa en los campos de radiación neural (NERF), una técnica que reconstruye escenas 3D de imágenes mediante el mapeo de coordenadas espaciales a los valores de colour y densidad. NJF extiende este enfoque aprendiendo no solo la forma del robotic, sino también un campo jacobiano, una función que predice cómo cualquier punto en el cuerpo del robotic se mueve en respuesta a los comandos del motor.
Para entrenar el modelo, el robotic realiza movimientos aleatorios, mientras que varias cámaras registran los resultados. No se requiere supervisión humana o conocimiento previo de la estructura del robotic: el sistema simplemente infiere la relación entre las señales de management y el movimiento al observar.
Una vez que se completa el entrenamiento, el robotic solo necesita una sola cámara monocular para el management de circuito cerrado en tiempo actual, que se ejecuta a aproximadamente 12 Hertz. Esto le permite observarse continuamente a sí mismo, planificar y actuar de manera receptiva. Esa velocidad hace que NJF sea más viable que muchos simuladores basados en la física para robots blandos, que a menudo son demasiado intensivos computacionalmente para el uso en tiempo actual.
A principios de simulacionesincluso los dedos y controles deslizantes 2D simples pudieron aprender este mapeo usando solo unos pocos ejemplos, señalaron los científicos. Al modelar cómo los puntos específicos se deforman o cambian en la respuesta a la acción, NJF construye un mapa denso de controlabilidad. Ese modelo interno le permite generalizar el movimiento a través del cuerpo del robotic, incluso cuando los datos son ruidosos o incompletos.
“Lo que es realmente interesante es que el sistema se resuelve por sí solo qué motores controlan qué partes del robotic”, dijo Li. “Esto no está programado, emerge naturalmente a través del aprendizaje, al igual que una persona que descubre los botones en un nuevo dispositivo”.
El futuro de la robótica es suave, cube CSail
Durante décadas, Robotics ha favorecido máquinas rígidas y fáciles de modelar, como la industrial Los brazos se encuentran en las fábricas, porque sus propiedades simplifican el management. Pero el campo se ha movido hacia robots suaves y bioinspirados que pueden adaptarse al mundo actual de manera más fluida. La compensación? Estos robots son más difíciles de modelar, según MIT CSAIL.
“La robótica hoy a menudo se siente fuera de alcance debido a los costosos sensores y la programación compleja”, dijo Vincent Sitzmann, autor principal y profesor asistente del MIT. “Nuestro objetivo con los campos neurales jacobianos es bajar la barrera, haciendo que la robótica sea asequible, adaptable y accesible para más personas”.
“La visión es un sensor resistente y confiable”, agregó Sitzmann, quien lidera el grupo de representación de la escena. “Abre la puerta a robots que pueden operar en entornos desordenados y no estructurados, desde granjas hasta sitios de construcción, sin infraestructura costosa”.
“La visión por sí sola puede proporcionar las señales necesarias para la localización y el management, lo que elimina la necesidad de GPS, sistemas de seguimiento externos o sensores a bordo complejos”, señaló la coautora Daniela Rus, profesora de Ingeniería Eléctrica de Erna Viterbi y directora de MIT CSAIL.
“Esto abre la puerta al comportamiento robusto y adaptativo en entornos no estructurados, de drones navegar en el inside o bajo tierra sin mapas, a manipuladores móviles trabajando en casas abarrotadas o almacenese incluso robots de piernas atravesando terreno desigual “, dijo.” Al aprender de la retroalimentación visible, estos sistemas desarrollan modelos internos de su propio movimiento y dinámica, permitiendo una operación versatile y auto-supervisada donde fallarían los métodos de localización tradicionales “.
Si bien la capacitación de NJF actualmente requiere múltiples cámaras y debe rehacerse para cada robotic, los investigadores ya han considerado una versión más accesible. En el futuro, los aficionados podrían grabar los movimientos aleatorios de un robotic con su teléfono, al igual que tomaría un video de un automóvil de alquiler antes de conducir, y usar ese metraje para crear un modelo de management, sin conocimiento previo o equipos especiales.
https://www.youtube.com/watch?v=dfz1rvjmn7a
El equipo del MIT trabaja en las limitaciones del sistema
El sistema NJF aún no se generaliza en diferentes robots, y carece de fuerza o táctil Sensing, limitando su efectividad en las tareas ricas en contacto. Pero el equipo está explorando nuevas formas de abordar estas limitaciones, incluida la mejora de la generalización, el manejo de oclusiones y extendiendo la capacidad del modelo para razonar en horizontes espaciales y temporales más largos.
“Así como los humanos desarrollan una comprensión intuitiva de cómo sus cuerpos se mueven y responden a los comandos, NJF le da a los robots ese tipo de autoconciencia encarnada solo a través de la visión”, dijo Li. “Esta comprensión es una base para la manipulación y management flexibles en entornos del mundo actual. Nuestro trabajo, esencialmente, refleja una tendencia más amplia en robótica: alejarse de la programación guide de modelos detallados para enseñar robots a través de la observación y la interacción”.
Este documento reunió la visión por computadora y el trabajo de aprendizaje auto-supervisado del laboratorio principal del investigador Sitzmann y la experiencia en robots blandos del laboratorio de Rus. Li, Sitzmann y Rus fueron coautores del documento con CSAIL Ph.D. Los estudiantes Annan Zhang SM ’22 y Boyuan Chen, la investigadora universitaria Hanna Matusik y Postdoc Chao Liu.
La investigación fue apoyada por el Fondo de Investigación de Salomón Buchsbaum a través del Comité de Apoyo de Investigación del MIT, una beca presidencial del MIT, la Fundación Nacional de Ciencias y el Instituto de Ciencia y Tecnología Gwangju. Su recomendaciones fueron publicados en Naturaleza este mes.