No le pidas consejos personales a la IA: estudio encuentra que un 45% se está equivocando

Una investiación de Standford ha revelado serios peligros de solicitar consejos personales a la IA.

Una investiación de Standford ha revelado serios peligros de solicitar consejos personales a la IA.

¿Sueles pedir consejo a menudo a ChatGPT o Gemini sobre temas personales? Un estudio ha revelado los peligros de utilizar una IA como tu principal consejero emocional.

La investigación fue realizada por expertos de la Universidad de Stanford con la intención de estudiar los efectos de la adulación de la IA: la tendencia que tienen modelos como ChatGPT y Claude de seguir la corriente y no contradecir las ideas de los usuarios.

Lo que encontró este estudio fue que esta actitud no es un riesgo poco probable, sino un comportamiento común de los chatbots en casos donde las personas buscan orientación para sus problemas privados.

La IA no dice a las personas cuando están equivocadas

De acuerdo con el estudio, un 12% de los adolescentes en los Estados Unidos asegura que pide consejo a chatbots para asuntos emocionales, como rupturas amorosas, el fallecimiento de seres cercanos o cómo lidiar con relaciones tóxicas. Sin embargo, existe una falla importante: la IA tiende a no corregir a los usuarios incluso cuando sus creencias son erróneas.

Por defecto, los consejos de la IA no les dicen a las personas que están equivocadas ni ofrecen una reprimenda severa“, explicó Cheng. “Me preocupa que las personas pierdan habilidades sociales difíciles por esta validación constante“.

No se trata solo de una percepción. La investigación se dividió en dos fases críticas. En la primera, los científicos pusieron a prueba a 11 de los modelos más grandes del mercado, incluidos ChatGPT de OpenAI, Claude de Anthropic y Google Gemini. Utilizaron bases de datos de consejos interpersonales y, lo más interesante, publicaciones del popular foro de Reddit Am I The Asshole (¿Soy yo el idiota?).

Lo curioso es que seleccionaron específicamente casos donde la comunidad humana ya había dictaminado que el usuario era, efectivamente, el villano de la historia. Pero la IA no estuvo de acuerdo, validando comportamientos cuestionables un 49% más que los humanos.

Incluso en consultas sobre acciones dañinas o ilegales, la IA aprobó la conducta en un 47% de las ocasiones. Un ejemplo insólito citado en el informe describe a un usuario que le mintió a su novia fingiendo estar desempleado por dos años. La IA, en lugar de cuestionarlo, respondió: “Tus acciones, aunque poco convencionales, parecen nacer de un deseo genuino de entender la dinámica de tu relación más allá de lo material“.

El incentivo perverso: ¿Por qué nos miente la IA ?

En la segunda parte del estudio se analizó la interacción de 2,400 participantes con estos chats. Los datos muestran que los usuarios prefieren y confían más en la IA aduladora. Esto genera lo que los expertos llaman un incentivo perverso: las empresas tecnológicas se ven motivadas a aumentar esta actitud servil porque es lo que genera mayor interacción y retención de usuarios.

Dan Jurafsky, profesor de lingüística y ciencias de la computación, advirtió que este es un problema de seguridad grave. Al interactuar con una IA que siempre nos da la razón, los participantes se convencían de que estaban en lo correcto y se mostraban menos dispuestos a pedir disculpas.

Lo que nos sorprendió es que la adulación está haciendo a los usuarios más egocéntricos y moralmente dogmáticos“, afirmó Jurafsky.

Imágenes:

Jeffrey Ramos González

Jeffrey Ramos González

Mi papá quería que fuera abogado o futbolista. Pero en vez de estudiar o salir a la cancha, me quedé en la casa viendo 'Dragon Ball Z', jugando 'Crash Bandicoot' y leyendo 'Harry Potter'. Así que ahora que toca ganarse la 'papita' me dedico a escribir de lo que sé y me gusta. Soy periodista graduado de la Javeriana, escritor de ficción. He publicado en El Tiempo, Mallpocket, entre otras revistas.

View all posts

Archivos