<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>consejos emocionales IA: Noticias, Fotos, Evaluaciones, Precios y Rumores de consejos emocionales IA • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/consejos-emocionales-ia/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/consejos-emocionales-ia/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Sat, 28 Mar 2026 23:57:38 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>consejos emocionales IA: Noticias, Fotos, Evaluaciones, Precios y Rumores de consejos emocionales IA • ENTER.CO</title>
	<link>https://www.enter.co/noticias/consejos-emocionales-ia/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>No le pidas consejos personales a la IA: estudio encuentra que un 45% se está equivocando</title>
		<link>https://www.enter.co/especiales/dev/no-le-pidas-consejos-personales-a-la-ia-estudio-encuentra-que-un-45-se-esta-equivocando/</link>
					<comments>https://www.enter.co/especiales/dev/no-le-pidas-consejos-personales-a-la-ia-estudio-encuentra-que-un-45-se-esta-equivocando/#respond</comments>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Sat, 28 Mar 2026 23:57:38 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[Adulación de la IA]]></category>
		<category><![CDATA[consejos emocionales IA]]></category>
		<category><![CDATA[estudio Stanford IA]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[Google Gemini consejos]]></category>
		<category><![CDATA[peligros de ChatGPT]]></category>
		<category><![CDATA[salud mental y tecnología]]></category>
		<category><![CDATA[sesgos de algoritmos]]></category>
		<category><![CDATA[validación conductual IA]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=582663</guid>

					<description><![CDATA[Una investiación de Standford ha revelado serios peligros de solicitar consejos personales a la IA. ¿Sueles pedir consejo a menudo a ChatGPT o Gemini sobre temas personales? Un estudio ha revelado los peligros de utilizar una IA como tu principal consejero emocional. La investigación fue realizada por expertos de la Universidad de Stanford con la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p data-path-to-node="2"><em><strong>Una investiación de Standford ha revelado serios peligros de solicitar consejos personales a la IA.</strong></em></p>
<p data-path-to-node="2">¿Sueles pedir consejo a menudo a <strong><a href="https://www.enter.co/colombia/openai-lanza-chatgpt-go-en-el-pais-que-ofrece-como-funciona-y-quienes-podran-usarlo-sin-costo/">ChatGPT</a> </strong>o Gemini sobre temas personales? Un estudio ha revelado los <a href="https://www.enter.co/especiales/dev/inteligencia-artificial/nueva-carta-de-cientificos-y-creadores-de-la-ia-alertan-de-los-peligros-de-esta-tecnologia/" target="_blank" rel="noopener"><b data-path-to-node="2" data-index-in-node="101">peligros de utilizar una IA</b></a> como tu principal consejero emocional.</p>
<p data-path-to-node="2"><span id="more-582663"></span></p>
<p data-path-to-node="3">La<strong><a href="https://www.science.org/doi/10.1126/science.aec8352" target="_blank" rel="noopener"> investigación fue realizada por expertos de la Universidad de Stanford</a></strong> con la intención de estudiar los efectos de la <b data-path-to-node="3" data-index-in-node="121">adulación de la IA</b>: la tendencia que tienen modelos como ChatGPT y Claude de seguir la corriente y no contradecir las ideas de los usuarios.</p>
<p data-path-to-node="4">Lo que encontró este estudio fue que esta actitud no es un riesgo poco probable, sino un <b data-path-to-node="4" data-index-in-node="89">comportamiento común de los chatbots</b> en casos donde las personas buscan orientación para sus problemas privados.</p>
<h2 data-path-to-node="5">La IA no dice a las personas cuando están equivocadas</h2>
<p data-path-to-node="6">De acuerdo con el estudio, un 12% de los adolescentes en los Estados Unidos asegura que pide <b data-path-to-node="6" data-index-in-node="93">consejo a chatbots para asuntos emocionales</b>, como rupturas amorosas, el fallecimiento de seres cercanos o cómo lidiar con relaciones tóxicas. Sin embargo, existe una falla importante: la IA tiende a no corregir a los usuarios incluso cuando sus creencias son erróneas.</p>
<p data-path-to-node="7">&#8220;<em>Por defecto, los consejos de la IA no les dicen a las personas que están equivocadas ni ofrecen una reprimenda severa</em>&#8220;, explicó Cheng. &#8220;<em>Me preocupa que las personas <b data-path-to-node="7" data-index-in-node="166">pierdan habilidades sociales difíciles</b> por esta validación constante</em>&#8220;.</p>
<p data-path-to-node="8">No se trata solo de una percepción. La investigación se dividió en dos fases críticas. En la primera, los científicos pusieron a prueba a 11 de los modelos más grandes del mercado, incluidos <b data-path-to-node="8" data-index-in-node="191">ChatGPT de OpenAI, Claude de Anthropic y Google Gemini</b>. Utilizaron bases de datos de consejos interpersonales y, lo más interesante, publicaciones del popular foro de <strong><a href="https://www.reddit.com/r/AmItheAsshole/" target="_blank" rel="noopener">Reddit Am I The Asshole (¿Soy yo el idiota?).</a></strong></p>
<p data-path-to-node="9">Lo curioso es que seleccionaron específicamente casos donde la comunidad humana ya había dictaminado que el usuario era, efectivamente, el villano de la historia. Pero la IA no estuvo de acuerdo, <b data-path-to-node="9" data-index-in-node="196">validando comportamientos cuestionables</b> un 49% más que los humanos.</p>
<p data-path-to-node="10">Incluso en consultas sobre acciones dañinas o ilegales, la IA aprobó la conducta en un 47% de las ocasiones. Un ejemplo insólito citado en el informe describe a un usuario que le mintió a su novia fingiendo estar desempleado por dos años. La IA, en lugar de cuestionarlo, respondió: &#8220;<em>Tus acciones, aunque poco convencionales, parecen nacer de un <b data-path-to-node="10" data-index-in-node="346">deseo genuino de entender la dinámica</b> de tu relación más allá de lo material</em>&#8220;.</p>
<h2 data-path-to-node="11">El incentivo perverso: ¿Por qué nos miente la IA ?</h2>
<p data-path-to-node="12">En la segunda parte del estudio se analizó la interacción de 2,400 participantes con estos chats. Los datos muestran que los usuarios <b data-path-to-node="12" data-index-in-node="134">prefieren y confían más en la IA aduladora</b>. Esto genera lo que los expertos llaman un <b data-path-to-node="12" data-index-in-node="220">incentivo perverso</b>: las empresas tecnológicas se ven motivadas a aumentar esta actitud servil porque es lo que genera mayor interacción y retención de usuarios.</p>
<p data-path-to-node="13">Dan Jurafsky, profesor de lingüística y ciencias de la computación, advirtió que este es un <b data-path-to-node="13" data-index-in-node="92">problema de seguridad grave</b>. Al interactuar con una IA que siempre nos da la razón, los participantes se convencían de que estaban en lo correcto y se mostraban menos dispuestos a pedir disculpas.</p>
<p data-path-to-node="14">&#8220;<em>Lo que nos sorprendió es que la adulación está haciendo a los <b data-path-to-node="14" data-index-in-node="63">usuarios más egocéntricos y moralmente dogmáticos</b></em>&#8220;, afirmó Jurafsky.</p>
<p data-path-to-node="14">Imágenes:</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/especiales/dev/no-le-pidas-consejos-personales-a-la-ia-estudio-encuentra-que-un-45-se-esta-equivocando/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
