Google entrena robots para que digan «¡no sé qué hacer!» ¿Improvisarán?

robots humanoides

Investigadores de la Universidad de Princeton y Google han ideado una forma para enseñar a los robots a saber cuando no lo saben. De acuerdo con la investigación dicha técnica implica cuantificar la confusión del lenguaje humano y utilizar esa medida para indicar a los robots cuándo pedir más instrucciones.

Eurekalert, revista de divulgación científica, asegura que decirle a un robot que recoja un plato de una mesa no tiene mayor ciencia, sin embargo, decirle que recoja varias platos q, puede tender a ser confuso para el robot y hace que máquina pida una aclaración.

“Los robots modernos saben cómo sentir su entorno y responder al lenguaje, pero lo que no saben es a menudo más importante que lo que sí saben. Enseñar a los robots a pedir ayuda es clave para hacerlos más seguros y eficientes”, asegura la revista.

Te puede interesar: Video de astronauta hablando ‘español latino’ en el espacio es revelado por NASA

Los ingenieros de la universidad estadounidense utilizaron modelos de lenguaje grandes (LLM) para medir la incertidumbre en entornos complejos. Los LLM están brindando a los robots capacidades poderosas para seguir el lenguaje humano, pero los resultados de los LLM aún suelen ser poco confiables, explicó Anirudha Majumdar , profesor asistente de ingeniería mecánica y aeroespacial en Princeton.

«Seguir ciegamente los planes generados por un LLM podría hacer que los robots actúen de manera insegura o poco confiable, por lo que necesitamos que nuestros robots basados ​​en LLM sepan cuándo no lo saben», concluyó.

Además dicho sistemas ideado por la universidad y el gigante tecnológico, permite, por ejemplo, “al usuario de un robot establecer un grado objetivo de éxito, que está vinculado a un umbral de incertidumbre particular que llevará al robot a pedir ayuda”.

Es decir, un usuario configuraría un robot quirúrgico para que tenga una tolerancia a errores mucho menor que un robot que limpia una sala de estar.

Te puede interesar: Satélite hecho de un árbol de Mongolia será lanzado por la NASA, ¿para qué?

El investigador y autor del proyecto señala que a lo que quieren llegar es que el robot pida suficiente ayuda para alcanzar el nivel de éxito que desea el usuario. Pero mientras tanto, quieren minimizar la cantidad total de ayuda que el robot necesita.

De acuerdo con el estudio, los ingenieros probaron la técnica en un brazo robótico simulado y en dos tipos de robots en las instalaciones de Google en la ciudad de Nueva York y Mountain View, California.

«El uso de la técnica de predicción conforme, que cuantifica la incertidumbre del modelo de lenguaje de una manera más rigurosa que los métodos anteriores, nos permite alcanzar un mayor nivel de éxito» al tiempo que minimiza la frecuencia de activación de ayuda, dijo la autora principal del estudio, Anirudha Majumdar.

Te puede interesar: Nació el primer gato clonado de forma natural con tecnología China

Las limitaciones físicas de los robots a menudo brindan a los diseñadores conocimientos que no se encuentran fácilmente en los sistemas abstractos. Los grandes modelos de lenguaje «pueden salir de una conversación con palabras, pero no pueden saltarse la gravedad», dijo el coautor Andy Zeng , científico investigador de Google DeepMind. «Siempre estoy interesado en ver primero qué podemos hacer con los robots, porque a menudo arroja luz sobre los desafíos centrales detrás de la construcción de máquinas generalmente inteligentes».

Imagen: Archivo ENTER.CO

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos