<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>ética inteligencia artificial: Noticias, Fotos, Evaluaciones, Precios y Rumores de ética inteligencia artificial • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/etica-inteligencia-artificial/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/etica-inteligencia-artificial/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Sat, 28 Mar 2026 23:57:38 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>ética inteligencia artificial: Noticias, Fotos, Evaluaciones, Precios y Rumores de ética inteligencia artificial • ENTER.CO</title>
	<link>https://www.enter.co/noticias/etica-inteligencia-artificial/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>No le pidas consejos personales a la IA: estudio encuentra que un 45% se está equivocando</title>
		<link>https://www.enter.co/especiales/dev/no-le-pidas-consejos-personales-a-la-ia-estudio-encuentra-que-un-45-se-esta-equivocando/</link>
					<comments>https://www.enter.co/especiales/dev/no-le-pidas-consejos-personales-a-la-ia-estudio-encuentra-que-un-45-se-esta-equivocando/#respond</comments>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Sat, 28 Mar 2026 23:57:38 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[Adulación de la IA]]></category>
		<category><![CDATA[consejos emocionales IA]]></category>
		<category><![CDATA[estudio Stanford IA]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[Google Gemini consejos]]></category>
		<category><![CDATA[peligros de ChatGPT]]></category>
		<category><![CDATA[salud mental y tecnología]]></category>
		<category><![CDATA[sesgos de algoritmos]]></category>
		<category><![CDATA[validación conductual IA]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=582663</guid>

					<description><![CDATA[Una investiación de Standford ha revelado serios peligros de solicitar consejos personales a la IA. ¿Sueles pedir consejo a menudo a ChatGPT o Gemini sobre temas personales? Un estudio ha revelado los peligros de utilizar una IA como tu principal consejero emocional. La investigación fue realizada por expertos de la Universidad de Stanford con la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p data-path-to-node="2"><em><strong>Una investiación de Standford ha revelado serios peligros de solicitar consejos personales a la IA.</strong></em></p>
<p data-path-to-node="2">¿Sueles pedir consejo a menudo a <strong><a href="https://www.enter.co/colombia/openai-lanza-chatgpt-go-en-el-pais-que-ofrece-como-funciona-y-quienes-podran-usarlo-sin-costo/">ChatGPT</a> </strong>o Gemini sobre temas personales? Un estudio ha revelado los <a href="https://www.enter.co/especiales/dev/inteligencia-artificial/nueva-carta-de-cientificos-y-creadores-de-la-ia-alertan-de-los-peligros-de-esta-tecnologia/" target="_blank" rel="noopener"><b data-path-to-node="2" data-index-in-node="101">peligros de utilizar una IA</b></a> como tu principal consejero emocional.</p>
<p data-path-to-node="2"><span id="more-582663"></span></p>
<p data-path-to-node="3">La<strong><a href="https://www.science.org/doi/10.1126/science.aec8352" target="_blank" rel="noopener"> investigación fue realizada por expertos de la Universidad de Stanford</a></strong> con la intención de estudiar los efectos de la <b data-path-to-node="3" data-index-in-node="121">adulación de la IA</b>: la tendencia que tienen modelos como ChatGPT y Claude de seguir la corriente y no contradecir las ideas de los usuarios.</p>
<p data-path-to-node="4">Lo que encontró este estudio fue que esta actitud no es un riesgo poco probable, sino un <b data-path-to-node="4" data-index-in-node="89">comportamiento común de los chatbots</b> en casos donde las personas buscan orientación para sus problemas privados.</p>
<h2 data-path-to-node="5">La IA no dice a las personas cuando están equivocadas</h2>
<p data-path-to-node="6">De acuerdo con el estudio, un 12% de los adolescentes en los Estados Unidos asegura que pide <b data-path-to-node="6" data-index-in-node="93">consejo a chatbots para asuntos emocionales</b>, como rupturas amorosas, el fallecimiento de seres cercanos o cómo lidiar con relaciones tóxicas. Sin embargo, existe una falla importante: la IA tiende a no corregir a los usuarios incluso cuando sus creencias son erróneas.</p>
<p data-path-to-node="7">&#8220;<em>Por defecto, los consejos de la IA no les dicen a las personas que están equivocadas ni ofrecen una reprimenda severa</em>&#8220;, explicó Cheng. &#8220;<em>Me preocupa que las personas <b data-path-to-node="7" data-index-in-node="166">pierdan habilidades sociales difíciles</b> por esta validación constante</em>&#8220;.</p>
<p data-path-to-node="8">No se trata solo de una percepción. La investigación se dividió en dos fases críticas. En la primera, los científicos pusieron a prueba a 11 de los modelos más grandes del mercado, incluidos <b data-path-to-node="8" data-index-in-node="191">ChatGPT de OpenAI, Claude de Anthropic y Google Gemini</b>. Utilizaron bases de datos de consejos interpersonales y, lo más interesante, publicaciones del popular foro de <strong><a href="https://www.reddit.com/r/AmItheAsshole/" target="_blank" rel="noopener">Reddit Am I The Asshole (¿Soy yo el idiota?).</a></strong></p>
<p data-path-to-node="9">Lo curioso es que seleccionaron específicamente casos donde la comunidad humana ya había dictaminado que el usuario era, efectivamente, el villano de la historia. Pero la IA no estuvo de acuerdo, <b data-path-to-node="9" data-index-in-node="196">validando comportamientos cuestionables</b> un 49% más que los humanos.</p>
<p data-path-to-node="10">Incluso en consultas sobre acciones dañinas o ilegales, la IA aprobó la conducta en un 47% de las ocasiones. Un ejemplo insólito citado en el informe describe a un usuario que le mintió a su novia fingiendo estar desempleado por dos años. La IA, en lugar de cuestionarlo, respondió: &#8220;<em>Tus acciones, aunque poco convencionales, parecen nacer de un <b data-path-to-node="10" data-index-in-node="346">deseo genuino de entender la dinámica</b> de tu relación más allá de lo material</em>&#8220;.</p>
<h2 data-path-to-node="11">El incentivo perverso: ¿Por qué nos miente la IA ?</h2>
<p data-path-to-node="12">En la segunda parte del estudio se analizó la interacción de 2,400 participantes con estos chats. Los datos muestran que los usuarios <b data-path-to-node="12" data-index-in-node="134">prefieren y confían más en la IA aduladora</b>. Esto genera lo que los expertos llaman un <b data-path-to-node="12" data-index-in-node="220">incentivo perverso</b>: las empresas tecnológicas se ven motivadas a aumentar esta actitud servil porque es lo que genera mayor interacción y retención de usuarios.</p>
<p data-path-to-node="13">Dan Jurafsky, profesor de lingüística y ciencias de la computación, advirtió que este es un <b data-path-to-node="13" data-index-in-node="92">problema de seguridad grave</b>. Al interactuar con una IA que siempre nos da la razón, los participantes se convencían de que estaban en lo correcto y se mostraban menos dispuestos a pedir disculpas.</p>
<p data-path-to-node="14">&#8220;<em>Lo que nos sorprendió es que la adulación está haciendo a los <b data-path-to-node="14" data-index-in-node="63">usuarios más egocéntricos y moralmente dogmáticos</b></em>&#8220;, afirmó Jurafsky.</p>
<p data-path-to-node="14">Imágenes:</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/especiales/dev/no-le-pidas-consejos-personales-a-la-ia-estudio-encuentra-que-un-45-se-esta-equivocando/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Colombia ya tiene ruta para el desarrollo y regulación de la inteligencia artificial: estos son los 5 puntos clave</title>
		<link>https://www.enter.co/especiales/dev/colombia-ya-tiene-ruta-para-el-desarrollo-y-regulacion-de-la-inteligencia-artificial-estos-son-los-5-puntos-clave/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Mon, 12 Feb 2024 20:00:44 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[amenazas de la inteligencia artificial]]></category>
		<category><![CDATA[colombia]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Minciencias]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=550825</guid>

					<description><![CDATA[La inteligencia artificial (IA) se ha convertido en todo un fenómeno que ha invadido cada rincón del mundo. Pero, así como esta tecnología llegó para facilitar las tareas de los humanos, también se ha convertido en un problema de seguridad, privacidad, ética, etc. Es por esto que el Ministerio de Ciencia, Tecnología e Innovación presentó [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.holbertoncoderise.com/myapplyform?utm_source=Enter&amp;utm_medium=Banner&amp;utm_campaign=Campa%C3%B1a_C23_ADM&amp;utm_id=Campa%C3%B1a_C23_ADM" target="_blank" rel="noopener"><img fetchpriority="high" decoding="async" class="alignnone wp-image-527715 size-full" src="https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1.jpg" alt="" width="970" height="250" srcset="https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1.jpg 970w, https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1-300x77.jpg 300w, https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1-768x198.jpg 768w" sizes="(max-width: 970px) 100vw, 970px" /></a></p>
<p><span style="font-weight: 400;">La inteligencia artificial (IA) se ha convertido en todo un fenómeno que ha invadido cada rincón del mundo. Pero, así como esta tecnología llegó para facilitar las tareas de los humanos, también se ha convertido en un problema de seguridad, privacidad, <a href="https://www.enter.co/especiales/dev/hollywood-finalmente-tiene-lista-su-ley-para-proteger-a-los-actores-de-deep-fakes-y-clones-de-voz-ia/" target="_blank" rel="noopener">ética</a>, etc. Es por esto que </span><span style="font-weight: 400;">el Ministerio de Ciencia, Tecnología e Innovación presentó la Hoja de Ruta de la Inteligencia Artificial (IA) para Colombia.</span><span id="more-550825"></span></p>
<p><span style="font-weight: 400;">Este documento estratégico busca dar una guía al desarrollo de políticas, acciones y decisiones del Gobierno Nacional, hacia un futuro impulsado por la tecnología, pero siempre arraigado<a href="https://www.enter.co/especiales/dev/ai/ia-podria-reemplazar-empleos-y-profundizar-la-desigualdad-en-un-40-en-todo-el-mundo-fondo-monetario-internacional/" target="_blank" rel="noopener"> en principios éticos y sostenibles,</a> de acuerdo con el comunicado del ministerio. En total, se establecen cinco puntis estratégicos de trabajo:</span></p>
<p><b>Ética y gobernanza IA: </b><span style="font-weight: 400;"><a href="https://www.enter.co/especiales/dev/ai/tribunal-reconoce-los-derechos-de-autor-de-imagen-generada-por-ia-cuales-fueron-las-razones/" target="_blank" rel="noopener">promueve la transparencia</a> en los algoritmos, fomentando la participación ciudadana en la toma de decisiones y estableciendo principios éticos y marcos normativos para guiar el desarrollo y la implementación de la inteligencia artificial en el país.</span></p>
<p><b>Educación, investigación e innovación IA: </b><span style="font-weight: 400;">busca crear programas educativos y de talento en IA, facilitando el acceso y la comprensión de esta tecnología a nivel comunitario, capacitando a profesionales y estudiantes y estimulando la investigación en instituciones académicas.</span></p>
<p><b>Industrias innovadoras y emergentes IA: </b><span style="font-weight: 400;">facilita la adopción de tecnologías de inteligencia artificial en procesos de producción, fomenta la colaboración entre empresas y academia, anticipando tendencias y cambios disruptivos e impulsando programas de educación y formación para preparar a la fuerza laboral.</span></p>
<p><b>Datos y organizaciones IA: </b><span style="font-weight: 400;">alienta la colaboración entre empresas y organizaciones para compartir datos de manera segura. Así mismo, promueve la creación de soluciones IA basadas en datos, brindando apoyo a las empresas para adoptar tecnologías de inteligencia artificial. Por último, busca desarrollar programas educativos y de capacitación para lograr una gestión efectiva de datos en las empresas.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/papa-pide-un-tratado-que-regule-la-ia-para-fomente-la-mejores-practicas-esto-dijo/" target="_blank" rel="noopener">Papa pide un tratado que regule la IA para fomentar mejores prácticas: Esto dijo</a></h3>
<p><b>Privacidad, ciberseguridad y defensa IA</b><span style="font-weight: 400;">: aborda aspectos críticos como la administración del territorio, la industria aeroespacial y sistemas de detección temprana de amenazas,<a href="https://www.enter.co/especiales/dev/ai/amie-el-medico-ia-de-google-que-es-mas-preciso-en-diagnosticos-y-empatico-con-sus-pacientes/" target="_blank" rel="noopener"> utilizando la inteligencia artificial</a> de manera ética y transparente para fortalecer la eficacia de las fuerzas de seguridad y garantizar la protección de los ciudadanos colombianos.</span></p>
<p><span style="font-weight: 400;">La Hoja de Ruta IA, no solo promueve la integridad científica en el desarrollo de soluciones tecnológicas, sino que también busca establecer estructuras de gobernanza efectivas que aseguren su aplicación ética en la resolución de desafíos sociales, económicos y ambientales a nivel nacional.</span></p>
<p><span style="font-weight: 400;">Durante el evento, la ministra Olaya también resaltó los continuos esfuerzos del Ministerio de Ciencia, Tecnología e Innovación por avanzar hacia el desarrollo ético y sostenible de la inteligencia artificial en Colombia: “En paralelo a la gestación de esta hoja de ruta, el ministerio ha desplegado iniciativas que reflejan nuestro compromiso con un enfoque científico y tecnológico integral”.</span></p>
<p><span style="font-weight: 400;">Entre estas acciones, <a href="https://www.enter.co/especiales/dev/la-universidad-de-harvard-ofrece-curso-intensivo-de-programacion-gratis-y-certificado-asi-puedes-inscribirte/" target="_blank" rel="noopener">se encuentra la convocatoria</a> para conformar un Comité de Expertos de Alto Nivel en Inteligencia Artificial, con el propósito de asegurar una visión diversa y especializada que oriente al Gobierno Nacional en la formulación de políticas y estrategias. </span></p>
<p><span style="font-weight: 400;">En el ámbito internacional, Colombia fue seleccionada para participar en un proyecto enfocado en la implementación ética de la inteligencia artificial en el país, en una colaboración conjunta entre la UNESCO y la Comisión Europea. Y a finales de febrero se lanzará el Programa ColombIA Inteligente, una propuesta ambiciosa y transformadora.</span></p>
<p><em>Imagen:<a href="https://www.freepik.es/foto-gratis/persona-que-usa-herramienta-ai-trabajo_60368920.htm#query=inteligencia%20artificial&amp;position=3&amp;from_view=search&amp;track=ais&amp;uuid=1cafd1e5-ac66-434f-8cd1-9c2f583fdcc3" target="_blank" rel="noopener"> Freepik</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>El presidente Joe Biden decidió poner límites a la IA Después de ver Misión Imposible: Sentencia Mortal ¿Por qué?</title>
		<link>https://www.enter.co/especiales/dev/joe-biden-limites-mision-imposible-ia/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Wed, 01 Nov 2023 22:30:45 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[aplicaciones de la inteligencia artificial]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[misión imposible]]></category>
		<category><![CDATA[Misión Imposible 8]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=547037</guid>

					<description><![CDATA[Esta es una de esas anécdotas que parecen sacadas de portales de parodia como Actualidad Panamericana o The Onion: el motivo por el que la administración de Joe Biden, presidente de los Estados Unidos, comenzó su batalla contra la inteligencia artificial (IA) fue la nueva película de Misión Imposible. Al parecer el gatillo de la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Esta es una de esas anécdotas que parecen sacadas de portales de parodia como <a href="https://actualidadpanamericana.com/" target="_blank" rel="noopener"><strong>Actualidad Panamericana</strong></a> o<strong><a href="https://www.theonion.com/" target="_blank" rel="noopener"> The Onion</a></strong>: el motivo por el que la administración de Joe Biden, presidente de los Estados Unidos, comenzó su batalla contra la inteligencia artificial (IA) fue la nueva película de Misión Imposible.</p>
<p><span id="more-547037"></span></p>
<p>Al parecer el gatillo de la urgencia de Biden para una mayor regulación de IA llegó después de ver la película más reciente de la franquicia protagonizada por Tom Cruise.<a href="https://www.enter.co/cultura-digital/entretenimiento/mision-imposible-sentencia-mortal-trailer-elenco-y-fecha-de-estreno/" target="_blank" rel="noopener"><strong> ‘Misión Imposible: Sentencia Mortal</strong></a> &#8211; parte 1’ inicia con una inteligencia artificial (llamada ‘La Entidad’) tomando control de un submarino y matando a toda su tripulación.</p>
<p>De acuerdo con Bruce Ried, jefe de personal de Casa Blanca “<em>Si él [presidente Biden] no estaba preocupado antes de las cosas que pueden salir mal con la inteligencia artificial antes de la película, vio varías cosas que lo hicieron tomar atención del problema</em>”.</p>
<p>De acuerdo con Ried, ‘Misión Imposible’ no fue el único detonante que motivó al presidente a tomar acción. Al parecer Biden conoce muy bien la cultura de memes que se ha creado desde el boom de la inteligencia artificial, incluyendo los videos que lo ponen a él, Barak Obama y Donald Trump a jugar Minecraft: &#8220;<em>Vio cómo se puede convertir en mala poesía</em>&#8220;, continuó Reed. &#8220;<em>Y ha visto y oído la increíble y aterradora tecnología de la clonación de voz, que puede tomar tres segundos de tu voz y convertirla en una conversación enteramente falsa</em>&#8220;.</p>
<h3><strong>Te puede interesar: <a href="https://www.enter.co/cultura-digital/entretenimiento/no-mision-imposible-8-sentencia-mortal-no-sera-el-final-de-las-peliculas-de-tom-cruise/" target="_blank" rel="noopener">No: Misión imposible 8 / Sentencia Mortal no será el final de las películas de Tom Cruise</a></strong></h3>
<p>Este lunes <a href="https://www.enter.co/especiales/dev/ai/biden-emite-orden-ejecutiva-sobre-ia-para-proteger-a-trabajadores-consumidores-y-la-privacidad-de-estadounidenses/" target="_blank" rel="noopener"><strong>30 de octubre el presidente Joe Biden firmó una orden ejecutiva</strong> </a>que tiene como objetivo el tener mayor control sobre el desarrollo de inteligencia artificial dentro de los Estados Unidos. Uno de los puntos más importantes de su nueva política es que los desarrolladores de modelos IA deberán compartir con el gobierno pruebas de seguridad que garanticen que estas inteligencias no representen un “<em>riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas</em>”.</p>
<p>Esta es solo la primera de muchas barreras que Biden quiere crear para ‘proteger’ a los ciudadanos de los Estados Unidos de los peligros potenciales de la Inteligencia Artificial. Por ejemplo, el presidente también le pidió al Congreso de USA el aprobar una legislación que proteja a los usuarios en caso de que no quieran que sus datos personales sean utilizados para alimentar estos modelos. También están pensando en propuestas para garantizar que los empleados del país no serán reemplazados por herramientas IA, así como el desarrollo de principios y mejores prácticas para mitigar los daños que puede producir.</p>
<p>Con todo, no deja de ser divertido que haya sido ‘Misión Imposible’ la razón por la que una potencia mundial finalmente haya prestado atención a la IA. Desde hace meses los mayores expertos han llamado la atención a la falta de normas y reglas para regular estos modelos, en especial en lo que respecta a permisos para educarlos y alimentarlos con material que se encuentra registrado o del que deberían solicitar autorización (por ejemplo, la voz del presidente de los Estados Unidos).</p>
<p><em>Imágenes: Universal Pictures</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>YouTube está creando una herramienta IA para imitar las voces de artistas</title>
		<link>https://www.enter.co/especiales/dev/youtube-esta-creando-una-herramienta-ia-para-imitar-las-voces-de-artistas/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Thu, 19 Oct 2023 17:30:55 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[algoritmo de youtube]]></category>
		<category><![CDATA[aplicaciones de inteligencia artificial]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[YouTube]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=546521</guid>

					<description><![CDATA[YouTube pronto podría permitir crear tu versión IA de artistas como Taylor Swift, Karol G, Peso Pluma o Bad Bunny. De acuerdo con un reporte de Bloomberg la plataforma de video está realizando diferentes acercamientos con compañías de música para poder utilizar la voz de sus artistas y entrenar modelos AI que luego puedan ser [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;"><a href="https://www.enter.co/chips-bits/apps-software/youtube-recibe-nuevas-funciones-que-mejoraran-la-experiencia-visual-en-telefonos-moviles/" target="_blank" rel="noopener"><strong>YouTube</strong> </a>pronto podría permitir crear tu<a href="https://www.enter.co/cultura-digital/ciencia/cientificas-colombianas-crean-sistema-de-ia-para-detectar-fraudes-en-procesos-laborales/" target="_blank" rel="noopener"><strong> versión IA de artistas</strong></a> como Taylor Swift, Karol G, Peso Pluma o Bad Bunny. De acuerdo con un reporte de Bloomberg la plataforma de video está realizando diferentes acercamientos con compañías de música para poder utilizar la voz de sus artistas y entrenar modelos AI que luego puedan ser utilizados por los creadores de contenido.</span></p>
<p><span id="more-546521"></span></p>
<p><span style="font-weight: 400;">De acuerdo con los primeros reportes todavía no se ha llegado a algún acuerdo, pero hay conversaciones ocurriendo y parece que ambas partes.</span></p>
<p><span style="font-weight: 400;">En los meses más recientes<a href="https://www.enter.co/chips-bits/apps-software/youtube-esta-probando-una-funcion-que-te-permitira-jugar-directamente-en-la-plataforma/" target="_blank" rel="noopener"><strong> YouTube ha presentado varios planes a futuro que incluyen el uso de inteligencia artificial</strong></a> como una manera de ofrecer herramientas adicionales a sus creadores (dispuestos a pagar un extra). Por ejemplo, modelos capaces de generar fondos para fotos y videos a través de indicaciones e incluso una IA capaz de recomendar temas para nuevo contenido.</span></p>
<p><span style="font-weight: 400;">A pesar de que YouTube parece estar bastante emocionado con la idea de IA recreando voces de artistas, la realidad es que muchas de estas estrellas no están muy felices con la situación actual. Desde que en 2023 comenzamos a ver el boom de la inteligencia artificial, también se han hecho más populares los canales especializados en covers o videos que recrean las voces de cantantes. Uno de los casos más recientes fue el de una canción por IA de ‘Drake’ que se hizo viral, con discusiones sobre si el tema podía ser aceptado para participar y ganar premios como un Grammy. Como resultado, muchos artistas han propuesto que se comience a regular el uso de sus voces sin autorización para entrenar modelos IA.</span></p>
<h3><strong>Te puede interesar: <a href="https://www.enter.co/chips-bits/apps-software/cansado-de-las-recomendaciones-de-youtube-una-actualizacion-sera-tu-salvacion/" target="_blank" rel="noopener">¿Cansado de las recomendaciones de YouTube? Una actualización será tu salvación</a></strong></h3>
<p><span style="font-weight: 400;">Se entiende por qué YouTube está interesado en llegar a un acuerdo con las productoras de música. En caso de que se cree algún tipo de ley que prohíba o limite el uso de IA para imitar voces de artista es de YouTube la tarea de impedir que los creadores publiquen estos videos en su servicio (al menos si no quiere ser multada). El crear un sistema para identificar cuando la voz de un artista es utilizada es mucho más complejo de lo que parece, porque a diferencia del sistema actual de derechos de autor no puede simplemente buscar coincidencias, sino que tendría que entrenar a su sistema para identificar ‘voces’ no autorizadas.</span></p>
<p><span style="font-weight: 400;">La segunda razón por la que YouTube está interesado es que los videos con IA son extremadamente populares en este momento. Si ingresan a la pantalla principal es normal que uno o dos de sus recomendaciones sean presidente de los Estados Unidos jugando Minecraft, el cover de alguna canción famosa con la voz de Bob Esponja o incluso intentos más serios de construir duetos con artistas fallecidos.</span></p>
<p><span style="font-weight: 400;">Tendremos que esperar para ver si los intentos de YouTube funcionan o si la compañía es lo suficientemente precavida para evitar los problemas legales que el uso de IA para recrear voces de cantantes puede generar.</span></p>
<p><em>Imágenes: Foto de <a href="https://unsplash.com/es/@nuvaproductions?utm_content=creditCopyText&amp;utm_medium=referral&amp;utm_source=unsplash">Javier Miranda</a> en <a href="https://unsplash.com/es/fotos/un-fondo-rojo-con-un-monton-de-flechas-blancas-xW7d0pvzdDk?utm_content=creditCopyText&amp;utm_medium=referral&amp;utm_source=unsplash">Unsplash</a> </em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>El vaticano publicó su propio manual de ética para el uso de la inteligencia artificial</title>
		<link>https://www.enter.co/especiales/dev/el-vaticano-publico-su-propio-manual-de-etica-para-el-uso-de-la-inteligencia-artificial/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Thu, 29 Jun 2023 21:30:33 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[amenazas de la inteligencia artificial]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[papa francisco]]></category>
		<category><![CDATA[Vaticano]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=541764</guid>

					<description><![CDATA[El crecimiento de la Inteligencia Artificial (IA) es un fenómeno que ya no se puede evitar. Ante la situación, diferentes gobiernos, entidades y organizaciones se han pronunciado ante la regulación que se debería establecer frente a esta nueva tecnología. Ahora, el Vaticano se ha sumado con un ‘manual de ética’ para el uso de la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El crecimiento de la<a href="https://www.enter.co/especiales/dev/ai/robotica-en-colombia-que-haran-coteros-o-cargueros-cuando-sean-desplazados-por-robots/" target="_blank" rel="noopener"> Inteligencia Artificial</a> (IA) es un fenómeno que ya no se puede evitar. Ante la situación, diferentes gobiernos, entidades y organizaciones se han pronunciado ante la regulación que se debería establecer frente a esta nueva tecnología. Ahora, el Vaticano se ha sumado con un ‘manual de ética’ para el uso de la inteligencia artificial.<span id="more-541764"></span></p>
<p>El documento publicado por la máxima autoridad apostólica consta de siete secciones. Cada una de ellas cuenta con hasta 46 pasos para mejorar las prácticas que se tienen al momento de usar la IA. Lleva el nombre de <a href="https://www.enter.co/especiales/dev/ai/4-libros-que-todos-deberiamos-leer-sobre-ia-impacto-capitalismo-de-vigilancia-y-etica/" target="_blank" rel="noopener">‘Ética en la era de las tecnologías disruptivas</a>: una hoja de ruta operativa’.</p>
<p>Según el Vaticano, este manual “ofrece a las organizaciones un plan estratégico para mejorar las prácticas de gestión ética, capacitándolas para navegar el complejo panorama de tecnologías disruptivas como AI, aprendizaje automático, encriptación, seguimiento y otros, manteniendo sólidos estándares éticos&#8221;.</p>
<p>El documento invita a todas las empresas a estudiar las medidas adecuadas y necesarias para proteger toda la información importante. Por ejemplo, los datos médicos, financieros y personales de los usuarios es información confidencial que debe ser tratada con el mayor cuidado, más aún cuando son procesados mediante sistemas de IA.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/harvard-lanza-curso-gratis-certificado-de-inteligencia-artificial-con-python/" target="_blank" rel="noopener">Harvard lanza curso gratis certificado de inteligencia artificial con Python</a></h3>
<p>El libro de la Santa Sede detalla un fundamento básico para las empresas: garantizar que “nuestras acciones sean para el bien común de la humanidad y el medio ambiente”. De este principio base se desglosan las otras siete secciones, tales como: “Promover la transparencia y explicabilidad” o “Respeto por la dignidad y los derechos humanos”. Así mismo, en el manual piden que los principales actores de la industria de esta tecnología se comprometan a “no recoger más datos de los necesarios”.</p>
<p>Este documento hace parte del primer proyecto tangible de la organización ‘Instituto de Tecnología, Ética y Cultura (ITEC). Esta organización nación de la colaboración entre <a href="https://www.enter.co/empresas/colombia-digital/no-la-imagen-del-papa-swagged-es-falsa-y-un-problema-real/" target="_blank" rel="noopener">el Papa Francisco</a> y el Centro Markkula de Ética Aplicada. Lo cierto es que la revista Forbes reconoció al Papa Francisco como la cuarta persona más poderosa del mundo. Habrá que esperar si su influencia es suficiente para que empresas como OpenAI consideren integrar más seguridad y privacidad a sus tecnologías de IA.</p>
<p>Puedes acceder al manual completo en la<a href="https://www.scu.edu/institute-for-technology-ethics-and-culture/" target="_blank" rel="noopener"> página del ITEC. </a></p>
<p><em>Imagen: Annett_Klingner vía Pixabay</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>No se dejen engañar: la ‘lista de los 34 trabajos que no reemplazará la IA’ es una mentira</title>
		<link>https://www.enter.co/especiales/dev/ista-de-los-34-trabajos-que-no-reemplazara-la-ia-es-una-mentira/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Wed, 24 May 2023 20:30:49 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[amenazas de la inteligencia artificial]]></category>
		<category><![CDATA[aplicaciones de inteligencia artificial]]></category>
		<category><![CDATA[chat gpt]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[Open AI]]></category>
		<category><![CDATA[Sam Altman]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=540005</guid>

					<description><![CDATA[Con el dueño de Twitter publicando todos los días una nueva manera en la que la inteligencia artificial (IA) nos reemplazará es muy fácil crear el pánico. De ahí que algunos aprovechen la incertidumbre que genera el ser cambiado por un algoritmo para promover información sin mayor profundidad. Esta semana en ENTER.CO nos llamó la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Con <a href="https://www.enter.co/empresas/elon-musk-se-12-mil-millones-desastre/" target="_blank" rel="noopener">el dueño de Twitter </a>publicando todos los días una nueva manera en la que la inteligencia artificial (IA) nos reemplazará es muy fácil crear el pánico. De ahí que algunos aprovechen la incertidumbre que genera el ser cambiado por un algoritmo para promover información sin mayor profundidad. Esta semana en ENTER.CO nos llamó la atención que comenzó a rondar una noticia que indicaba que Sam Altman, <a href="https://www.enter.co/especiales/dev/openai-lanza-curso-gratuito-para-desarrolladores-que-quieran-aprender-a-crear-apps-rapido/" target="_blank" rel="noopener">co fundador de Open AI</a> (la compañía detrás de <a href="https://www.enter.co/especiales/dev/gpt-4/" target="_blank" rel="noopener">Chat GPT)</a> había entregado una lista de 34 trabajos que o reemplazará la IA en el futuro. ¿Y a quién no le interesaría saber si su puesto está en peligro de caer en las manos de un robot?</span></p>
<p><span id="more-540005"></span></p>
<figure id="attachment_540006" aria-describedby="caption-attachment-540006" style="width: 767px" class="wp-caption alignnone"><img decoding="async" class="size-full wp-image-540006" src="https://www.enter.co/wp-content/uploads/2023/05/Captura-1.jpg" alt="IA" width="767" height="321" srcset="https://www.enter.co/wp-content/uploads/2023/05/Captura-1.jpg 767w, https://www.enter.co/wp-content/uploads/2023/05/Captura-1-300x126.jpg 300w" sizes="(max-width: 767px) 100vw, 767px" /><figcaption id="caption-attachment-540006" class="wp-caption-text">Mucho clic bait, poco contenido.</figcaption></figure>
<p><span style="font-weight: 400;">Pero lo siguiente que nos llamó la atención es que todos los artículos parecían tener dos cosas en común: tenían exactamente la misma información (incluyendo un estudio de Goldman Sachs que indicaba que cerca de 300 millones de trabajo estaban en peligro frente a la IA) y citaban un artículo (sin enlace) al medio francés Jeux Video. ¿Pero cuándo había dicho Altman esto? ¿Era producto de una entrevista con el portal? ¿Alguna conferencia en video?</span></p>
<p><span style="font-weight: 400;">Cuando finalmente<a href="https://www.jeuxvideo.com/news/1750775/voici-les-34-metiers-que-les-ia-ne-remplaceront-jamais-selon-le-createur-de-chatgpt.htm" target="_blank" rel="noopener"> encontramos el artículo original </a>que ninguna de las fuentes citaba nos hayamos con una sorpresa interesante: las declaraciones de Altman habían salido de la nada. El artículo en cuestión no menciona de dónde sale la lista  de estos 34 trabajos que no reemplazará la IA y no entrega mayores detalles del origen de la información. Más importante, Altman la semana pasada testificó frente a los Estados Unidos en una investigación que pretende regular la IA y sus posibles efectos en la economía. Y (hasta dónde encontramos) ninguna de sus entrevistas parece incluir una lista de 34 trabajos como los que el medio francés o sus ecos en español e inglés pretenden hacernos creer.</span></p>
<h2><b>La lista de los 34 trabajos que no están en peligro por la IA es una idiotez, en cualquier caso</b></h2>
<p><span style="font-weight: 400;">Para mayor frustración de aquellos que han caído en el click bait de la ‘lista de los 34 trabajos que no están en peligro por la IA’, las posiciones que son mencionadas son el equivalente de hacer una<strong> lista de 34 barrios en Bogotá en los que estás a salvo de que te ataque un tigre.</strong></span></p>
<p><span style="font-weight: 400;">El listado incluye cargos como ‘chef de comida rápida’, ‘barbero’ o ‘reparador’ de techos. Para ahorrarles la molestia, se limita a posiciones de trabajo físico o que requieren de (y no podemos creer que tengamos que decir esto) manos.</span></p>
<p><span style="font-weight: 400;">Sam Altman (o la versión inventada de estos artículos) debe ser un genio para descubrir que <strong>un chatbot no puede preparar una hamburguesa.</strong></span></p>
<p><span style="font-weight: 400;">Lo que la mayoría de expertos y líderes del mundo de la tecnología están de acuerdo es que los trabajos que requieran de tareas repetitivas o que no necesiten de creatividad e inventiva son los que más están en riesgo de estar en peligro frente al boom de la inteligencia artificial. De hecho, fuera de los más alarmistas, lo que muchos de estos expertos aseguran es que herramientas como chat GPT<a href="https://www.enter.co/chips-bits/que-tan-amenazante-es-la-ia-para-trabajos-y-empleos-bill-gates-responde/" target="_blank" rel="noopener"> primero van a transformar estos procesos de creación</a> y se convertirán en herramientas de estas profesiones antes que en el reemplazo de los trabajadores.</span></p>
<p><span style="font-weight: 400;">Incluso en el mundo del desarrollo hay un acuerdo en que herramientas como chat GPT-4 servirán para la creación de código de manera más efectiva, pero el factor humano es definitivo en la resolución de problemas que acompaña la creación de código. De hecho, lo que la mayoría de peticiones de regulación buscan es que se busque ofrecer garantías por el trabajo que otras personas han hecho y del que se alimenta la IA (por ejemplo, obras artísticas) y no necesariamente la incertidumbre porque el día de mañana solo los empleados de McDonalds tendrán oportunidades laborales en el mundo gobernado por Chat-GPT. </span></p>
<p><em>Imágenes: <a href="https://www.pexels.com/es-es/foto/hombre-tecnologia-ajedrez-estrategia-8438922/" target="_blank" rel="noopener">Foto de Pavel Danilyuk</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Leader Lars, político creado con IA, aspiraría a un cargo parlamentario</title>
		<link>https://www.enter.co/empresas/colombia-digital/leader-lars-politico-creado-con-ia-aspiraria-a-un-parlamento/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 25 Oct 2022 18:30:38 +0000</pubDate>
				<category><![CDATA[Transformación Digital]]></category>
		<category><![CDATA[ética inteligencia artificial]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Leader Lars]]></category>
		<category><![CDATA[Partido Sintético]]></category>
		<category><![CDATA[partidos políticos]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=530234</guid>

					<description><![CDATA[Leader Lars no es un ser humano, pero es el jefe político de un partido creado con Inteligencia Artificial (IA) cuyo objetivo es representar a los partidos marginales de Dinamarca en las elecciones parlamentarias de noviembre de 2022. ¿Será esto posible? En entrevista para Periódico de España, el artista e investigador danés Asker Bryld Staunæs, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Leader Lars no es un ser humano, pero es el jefe político de un partido creado con Inteligencia Artificial (IA) cuyo objetivo es representar a los partidos marginales de Dinamarca en las elecciones parlamentarias de noviembre de 2022. ¿Será esto posible?</p>
<p><span id="more-530234"></span></p>
<p>En entrevista para <a href="https://www.epe.es/es/internacional/20221020/entrevista-primera-inteligencia-artificial-lidera-partido-dimanarca-77392287">Periódico de España</a>, el artista e investigador danés Asker Bryld Staunæs, fundador del Partido Sintético (nombre oficial), describe al candidato artificial Leader Lars como un aspirante al parlamento danes que no roba ni conspira; inmune a los sobornos, a las presiones y a los chantajes. Sin embargo tampoco le conmueve el desahucio de una familia, la enfermedad rara de un niño o la precariedad de los pensionados.</p>
<p>Algunas propuestas de esta organización política, señalan que el ingreso básico para cada ciudadano danés debe ser 13.700 dólares. “El líder Lars afirma que un modelo de ingreso básico desarrollado con la ayuda de la AI tiene el potencial de reducir la pobreza en el país”.</p>
<p>También propone formación de empresas de TI y tecnologías basadas en internet con participación del gobierno del país europeo.</p>
<p>Te puede interesar: <a href="https://www.enter.co/empresas/colombia-digital/getty-images-critica-arte-hecho-con-inteligencia-artificial/">Getty Images critica arte hecho con Inteligencia Artificial</a></p>
<p>Sin embargo, para que este candidato del Partido Sintético llegue a participar en los próximos comicios parlamentarios aún se deben crear las normas y leyes que le permitan hacerlo (hasta el momento tan solo sería un proyecto más de<a href="https://www.enter.co/especiales/dev/programadores-ai-producen-menos-bugs/"> IA</a>). Desde ya, este colectivo se está preparando para las elecciones de 2025.</p>
<p>Caroline Axelsson, CEO de MindFuture y líder del proyecto, explicó que “su nicho se encuentra en ese 20% de personas que no van a ir a votar y que quieren mostrar su descontento, pero sinceramente sería un mal síntoma para nuestra democracia si llegamos a salir elegidos&#8221;.</p>
<p>Lars (candidato artificial), ha explicado que un político como él podría ser más efectivo porque “tomaría decisiones basadas en los datos y en la lógica en lugar de las emociones, Eso sí, sin renunciar a su ideología de izquierdas.</p>
<p>Juan Pazos, experto en <a href="https://www.enter.co/empresas/colombia-digital/el-trabajo-de-los-modelos-tambien-esta-en-riesgo-por-la-ia/">Inteligencia Artificial</a> en la Universidad a Distancia de Madrid, explicó para <a href="https://hipertextual.com/2022/10/inteligencia-artificial-politica-realidad-o-ficcion">Hipertextual</a>, que una verdadera Inteligencia Artificial no tendría creencias políticas. “Es un concepto complicado de entender para una sociedad que suele segmentar las decisiones en grandes grupos”.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
