Google presenta Robotics Transformer 2: sistema que permite a los robots aprender como los humanos

robótica.

Es el primer modelo de visión-lenguaje-acción (VLA) que permitirá generar acciones robóticas. Este sistema se entrena con texto de la web para aprender ideas y conceptos generales; Robotics Transformer o RT-2 transfiere conocimiento de datos web para que los robots aprendan de una manera más amplia para aprender acciones.

Google explica que los robots necesitan “conexión a tierra” en el mundo real y sus habilidades, por eso la compañía vio la necesidad de desarrollar un sistema de entrenamiento que no solo se limitara a aprender todo sobre un tema, por ejemplo: una manzana: cómo crece, sus propiedades físicas, o incluso que supuestamente aterrizó en la cabeza de Sir Isaac Newton.

Sino que un robot pudiera aprenda a “reconocer una manzana en contexto, distinguirla de una bola roja, comprender cómo se ve y, lo que es más importante, saber cómo recogerla”, asegura el buscador.

Te puede interesar: PhotoGuard: software que inmuniza imágenes originales ante edición de IA

El gigante tecnológico dice que para un robot aprenda hacer esto se requiere de entrenar “robots en miles de millones de puntos de datos, de primera mano, en cada objeto, entorno, tarea y situación en el mundo físico, una perspectiva que consume tanto tiempo y es tan costosa que la hace poco práctica para los innovadores. El aprendizaje es un esfuerzo desafiante, y más aún para los robots”.

RT-2 ayuda a minimizar este trabajo dispendioso, ya que han mejorado su capacidad de razonamiento de los robots, incluso permitiéndoles usar indicaciones de cadena de pensamientos.

A este modelo Google le introdujo sistemas como PaLM-E (un modelo de lenguaje visual o Visual-Language Mode), que ayudarán a comprender más su contexto y entorno. Esto permite que sea más fácil: imagina pensar en lo que quieres hacer y luego tener que decirle esas acciones al resto de tu cuerpo para que se mueva; RT-2 elimina esa complejidad y permite que un solo modelo no solo realice el razonamiento complejo que se ve en los modelos básicos, sino que también genere acciones de robot”.

Te puede interesar: Colombianos crean IA gratuita para ayudar a emprendedores en la creación de contenidos

Lo que es más importante, muestra que con una pequeña cantidad de datos de entrenamiento del robot, el sistema puede transferir conceptos integrados en su lenguaje y datos de entrenamiento de la visión para dirigir las acciones del robot, incluso para tareas para las que nunca ha sido entrenado.

Por ejemplo, si quisiera que los sistemas anteriores pudieran tirar un pedazo de basura, tendría que entrenarlos explícitamente para que pudieran identificar la basura, así como recogerla y tirarla.

De acuerdo con Google RT-2 puede transferir conocimiento de un gran corpus de datos web, ya tiene una idea de lo que es basura y puede identificarla sin entrenamiento explícito.

Te puede interesar: Bing AI llega a Google Chrome y Safari ¿Qué trae para estos dos navegadores?

Así mismo el modelo tendrá “una idea de cómo tirar la basura, aunque nunca ha sido entrenado para tomar esa acción. Y piense en la naturaleza abstracta de la basura: lo que era una bolsa de papas fritas o una cáscara de plátano se convierte en basura después de comerlos. Robotics Transformer 2  puede dar sentido a eso a partir de sus datos de entrenamiento de visión y lenguaje y hacer el trabajo”.

En conclusión el nuevo modelo presentado por Google, los robots podrían aprender más como nosotros, transfiriendo los conceptos aprendidos a nuevas situaciones.

Imagen: Archivo de ENTER.CO

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos