¿Debemos temer a que inteligencia artificial cree su propio idioma?

Internet se inundó con reacciones y comentarios a raíz de la noticia de que Facebook se vio obligado a apagar su sistema de inteligencia artificial (AI) porque sus bots se salieron de control. Las expresiones de temor fueron las más comunes, comprensible en medio de una situación que parece sacada de una película de ficción como ‘Yo Robot’.

Sin embargo, este miércoles, medios como The Next Web explicaron que lo ocurrido no es una situación que deba preocuparnos si tenemos en cuenta el tipo de conversación generada por los bots. Después de analizar las frases, The Next Web explicó que aunque podían parecer ‘un disparate’, se trató esencialmente de dos dispositivos de aprendizaje de la máquina negociando y cómo estos dividieron o distribuyeron un montón de elementos o artículos (como libros y balones de baloncesto) en ‘sets’ o conjuntos de palabras.

Lo que opinaron Fast Co. Design y Gizmodo

De acuerdo con otros analistas, a este tipo de interacción no debemos prestarle mucha atención, al menos no más allá del ámbito de la investigación. El investigador de Fair, Mike Lewis, dijo a Fast Co. Design: «Nuestro interés era tener bots que pudieran hablar con la gente».

Gizmodo, por su parte, señaló que el equipo se había dado cuenta de que no habían incentivado a los bots a hablar en inglés como los humanos serían capaces de entenderlo y, por lo tanto, cerraron la conversación. «Eso es todo lo que sucedió, y no hay nada cercano a la posibilidad de ser gobernado por seres conscientes», añadió Gizmodo.

Facebook dio su declaración

Pero como lo dijimos antes, ‘los posts’ alrededor de la Web proclamando que el día del juicio final estaba cerca, llevaron al investigador Dhruv Batra, del equipo de Facebook, a dar una explicación sobre lo sucedido:

«Si bien la idea de que los agentes de AI inventen su propio lenguaje puede sonar alarmante o inesperado para las personas, fuera del campo, se trató de un subcampo bien establecido de la AI, con publicaciones que datan de décadas atrás. En pocas palabras, los agentes en entornos que intentan resolver una tarea suelen encontrar formas no intuitivas de maximizar la recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento no es lo mismo que ‘desconectar’ o ‘cerrar AI’. Si ese fuera el caso, cada investigador de AI del mundo ha estado ‘cerrando AI’ siempre que eliminan un trabajo en una máquina».

Así las cosas, y de acuerdo con The Newt Web, la lección de toda esta situación es «leer los documentos de investigación más a fondo cuando sea posible», y no que pronto seremos dominados por bots.

¿Ustedes qué creen?

Imagen: Pixabay

Ana María Luzardo

Ana María Luzardo

Nunca me imaginé escribiendo sobre tecnología, ya que mi vida transcurría entre textos de sociología y política, caminatas a las montañas del Quindío y danzas afro. Sin embargo, amo la multiculturalidad y -debido a que no hay nada más entretenido, colorido y diverso que la relación del ser humano con la tecnología- qué mejor lugar para percibir y vivir esa diversidad que ENTER.CO. Soy comunicadora social-periodista de la Universidad del Quindío.

View all posts

1 comment

  • Sería bueno que esa I.A. inventara un lenguaje y/o sistema de comunicación mas simple y eficiente, como una vez propuso el mismísimo Gabriel Garcia Márquez, que al abecedario español (latinoamericano), se le podía quitar consonantes que se pronuncian parecidamente o igual (por ej: Ke & Que, lle & ye, etc).
    O un nuevo sistema de lenguaje que al expresar algo (escrita o hablada) podamos decir dos o más ideas o informaciones distintas al mismo tiempo sin que éstas se entrecuzen o confundan lo que permitiría, por ejemplo: en un aula de clases un profesor pueda dictar las clases de matemáticas y español al mismo tiempo y paralelamente.

Archivos