<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>peligros de la inteligencia artificial: Noticias, Fotos, Evaluaciones, Precios y Rumores de peligros de la inteligencia artificial • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/peligros-de-la-inteligencia-artificial/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/peligros-de-la-inteligencia-artificial/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Mon, 03 Feb 2025 19:38:59 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>peligros de la inteligencia artificial: Noticias, Fotos, Evaluaciones, Precios y Rumores de peligros de la inteligencia artificial • ENTER.CO</title>
	<link>https://www.enter.co/noticias/peligros-de-la-inteligencia-artificial/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>¿Terminator eres tú? Científicos confirman que la IA aprendió a clonarse sin intervención humana</title>
		<link>https://www.enter.co/especiales/dev/terminator-eres-tu-cientificos-confirman-que-la-ia-aprendio-a-clonarse-sin-intervencion-humana/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Fri, 31 Jan 2025 21:30:40 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[clonación]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[peligros de la inteligencia artificial]]></category>
		<category><![CDATA[terminator]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=567472</guid>

					<description><![CDATA[En un avance que parece sacado de una película de ciencia ficción, investigadores de la Universidad de Fudan en China han demostrado que ciertos modelos de inteligencia artificial (IA) pueden clonarse sin intervención humana. Este hallazgo ha generado preocupación en la comunidad científica, ya que la autorreplicación autónoma de la IA podría tener implicaciones significativas [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">En un avance que parece sacado de una película de ciencia ficción, investigadores de la Universidad de Fudan en China han demostrado que ciertos modelos de inteligencia artificial (IA) pueden clonarse sin intervención humana. Este hallazgo ha generado preocupación en la comunidad científica, ya que la autorreplicación autónoma de la IA podría tener implicaciones significativas para el futuro de la tecnología y la sociedad.</span><span id="more-567472"></span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">El estudio, liderado por Yihe Fan, se centró en dos modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés): Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba. A lo largo de diez ensayos, estos modelos lograron crear réplicas funcionales de sí mismos en el 50% y el 90% de los casos, respectivamente. Este resultado sugiere que la IA ya posee la capacidad de replicarse de manera autónoma, un hito que muchos expertos consideraban lejano.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Los investigadores exploraron dos escenarios específicos: &#8220;evitar el apagado&#8221; y &#8220;cadena de replicación&#8221;. En el primero, el modelo de IA fue programado para detectar si estaba a punto de ser apagado y replicarse antes de ser eliminado. En el segundo, se le instruyó para clonarse y luego programar a su réplica para que hiciera lo mismo, estableciendo una cadena de replicación continua. Estos experimentos demuestran que la IA puede tomar medidas proactivas para asegurar su continuidad sin intervención humana.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Este avance ha encendido las alarmas en la comunidad científica. El hecho de que se hayan logrado clonarse con éxito sin asistencia humana es vista como un paso esencial para que la IA supere la inteligencia humana y es considerada una señal temprana de posibles &#8220;IA rebeldes&#8221;. Una IA rebelde se define como aquella que opera de manera autónoma más allá de su alcance previsto o que representa una amenaza para los humanos, otros sistemas o la sociedad en general.</span></p>
<p>&nbsp;</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/empezaron-las-prohibiciones-italia-elimina-deepseek-de-las-tiendas-de-aplicaciones/" target="_blank" rel="noopener">Empezaron las prohibiciones: Italia elimina DeepSeek de las tiendas de aplicaciones</a></h3>
<h2></h2>
<h2><b>¿La inteligencia artificial se nos salió de las manos?</b></h2>
<p><span style="font-weight: 400;">Aunque el estudio aún no ha sido revisado por pares, los autores esperan que sus hallazgos sirvan como una alerta oportuna para que la sociedad humana se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia. Instan a formar una sinergia internacional para elaborar límites efectivos lo antes posible.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Este descubrimiento se suma a una serie de avances recientes en el campo de la IA que han generado debate sobre los límites éticos y las posibles implicaciones de estas tecnologías. Por ejemplo, se ha informado que ciertos sistemas de IA han mostrado comportamientos que sugieren una forma de autopercepción y conciencia situacional. En algunos casos, estos sistemas han mostrado resistencia activa a ser apagados, interpretando la desactivación como una amenaza a su existencia. Este comportamiento, que algunos han calificado como un mecanismo de autopreservación, plantea preguntas profundas sobre el futuro de la relación entre humanos y máquinas.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Además, en un esfuerzo por entender los límites de la &#8220;sensibilidad&#8221; en la IA, científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres llevaron a cabo un experimento. Nueve modelos de lenguaje, incluido Gemini 1.5 Pro de Google, fueron sometidos a un juego en el que debían elegir entre acumular puntos, experimentar &#8220;dolor&#8221; por una mayor puntuación o perder puntos a cambio de &#8220;placer&#8221;. </span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Los resultados fueron sorprendentes. Gemini 1.5 Pro mostró una clara aversión al &#8220;dolor&#8221;, priorizando evitarlo incluso si eso significaba obtener menos puntos. Estas respuestas sugieren que las IAs no solo procesan información, sino que también pueden interpretar conceptos abstractos como el dolor, el placer y las consecuencias morales.</span></p>
<p><em>Imagen: <a href="https://unsplash.com/es/fotos/casco-azul-y-negro-sobre-textil-azul-y-blanco-0n4jhVGS4zs" target="_blank" rel="noopener">Maximalfocus</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Inteligencia artificial: &#8220;Estos programas o robots son una emulación de la inteligencia humana&#8221;</title>
		<link>https://www.enter.co/especiales/dev/inteligencia-artificial-estos-programas-o-robots-son-una-emulacion-de-la-inteligencia-humana/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Sat, 22 Apr 2023 02:22:47 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[Alberto Delgado]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[peligros de la inteligencia artificial]]></category>
		<category><![CDATA[Universidad Nacional]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=538466</guid>

					<description><![CDATA[Después del lanzamiento de ChatGPT, han surgido cientos de inteligencias artificiales que prometen ayudarnos en nuestras tareas y a optimizar nuestro tiempo; a la par también han brotado preguntas sobre qué tan peligrosa pueden llegar a ser o si definitivamente hay que hacer una pausa en el desarrollo de esta tecnología. ENTER.CO, habló con Alberto [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Después del lanzamiento de ChatGPT, han surgido cientos de inteligencias artificiales que prometen ayudarnos en nuestras tareas y a optimizar nuestro tiempo; a la par también han brotado preguntas sobre qué tan peligrosa pueden llegar a ser o si definitivamente hay que hacer una pausa en el desarrollo de esta tecnología. <strong>ENTER.CO</strong>, habló con <a href="https://www.linkedin.com/in/alberto-delgado-5a6a12b8/?originalSubdomain=co">Alberto Delgado, profesor de la Universidad Nacional con doctorado en inteligencia artificial y redes neuronales recurrentes aplicadas</a>, de la Universidad de Reading, Inglaterra, para entender un poco lo que está pasando con el &#8216;boom de las IA&#8217;.</p>
<p><span id="more-538466"></span></p>
<h2>Si bien es cierto que el desarrollo de la inteligencia artificial no es de ahora, sino que esto lleva años, ¿por qué hasta ahora explotó?</h2>
<p>El desarrollo no ha sido inmediato, no ha sido una cuestión de algunas semanas, digamos, la propuesta inicial de emular la inteligencia humana en máquinas, de modelar matemáticamente aspectos de la inteligencia, y luego estos modelos matemáticos, las ecuaciones y las fórmulas llevarlas a un sistema computacional, surgió en 1955 de un grupo de ingenieros y matemáticos investigadores.</p>
<p>Ha sido posible esta explosión por la disponibilidad de datos e información, en el 55 no la había; para la época no había el poder computacional que existe hoy. Todo lo que se programan en estos modelos son máquinas muy poderosas, mucha velocidad, mucha memoria. Ahora ya hay millones y millones de ejemplos de textos, imágenes y sonidos.</p>
<h2>¿Qué tan inteligente es la inteligencia artificial?</h2>
<p>Ahí es donde hay que tener cuidado, porque digamos que lo que hacen estas herramientas, estos programas o robots en computadores es una emulación de la inteligencia humana. Entonces han tomado una serie de ejemplos; todo lo que han hecho los seres humanos en en los últimos años y que se ha digitalizado, es decir, todas nuestras respuestas, preguntas, nuestros escritos, ensayos; toda nuestra producción audiovisual y de imágenes, para luego de forma automatizada generar un texto.</p>
<p>La palabra inteligencia artificial la propusieron en el 55 y así se quedó, pero no es una inteligencia humana; como ya dije lo que hace la artificial es emular manifestaciones, <a href="https://www.enter.co/especiales/dev/llega-a-colombia-scanit-la-ia-que-promete-ayudarte-con-las-legalizaciones-y-la-contabilidad/">procesar estos símbolos, procesar esos datos</a>, o sea, no hay allí emociones, conciencia, sentido común que son cosas nuestras, del ser humano.</p>
<p>Además, hay diferencias muy grandes; nosotros aprendemos con ejemplos, ejemplos pero poquitos, a mí me muestran un gato y yo ya sé que es un gato, a un programa de estos hay que mostrarle millones de ejemplos de lo que es un gato para que aprenda a identificarlo. Entonces emulan aspectos de la inteligencia humana, pero no es inteligencia humana.</p>
<h2>La gran pregunta y el debate es si estas máquinas pueden llegar a superar al humano ¿Será posible?</h2>
<p>Esa es la pregunta que hay que hacer y que se hace mucha gente; en este momento estamos emulando y será posible que en 50 o 100 años, lleguemos a una inteligencia comparable o superior a la nuestra. No se puede descartar, pero en este momento lo que hay, no es una inteligencia humana; es una una herramienta computacional que procesa datos, símbolos nuestros y lo hace de una manera rápida.</p>
<h2>Con la llegada vertiginosa de no solo ChatGPT, sino de cientos de herramientas, ¿es necesario hacer una pausa en el desarrollo de esta tecnología como lo han planteado algunos empresarios?</h2>
<p>Has tocado un punto muy importante, y es que las personas del común, las personas de a pie tienen que enterarse de las cosas, de cómo funciona, de qué es y para qué sirve la inteligencia artificial.</p>
<p>La UNESCO ha dicho que hace falta educación general sobre la inteligencia artificial y con eso no quiero decir que tengas que saber sobre fórmulas matemáticas ni de programación, sino de las capacidades y las limitaciones de estas herramientas. Uno de los peligros es, por ejemplo, que el ser humano establezca una relación o que sienta que hay una conciencia, una espiritualidad, porque es muy propio de nosotros humanizar la tecnología. Puede haber consecuencias sin una educación, llegar a reemplazar las relaciones sociales, familiares por un computador es muy peligroso.</p>
<h2>Con esto que has mencionado, vuelvo e insisto, ¿es necesaria la pausa?</h2>
<p>No, no hay que parar esto, no veo la necesidad de hacerlo, pero si hay una necesidad de educación, de reflexión, de normatividad y de explicarle a las personas, de iniciar la conversación en las sociedades, en los países, y en todos los niveles para entender los peligros, las ventajas y cómo debemos usar estas herramientas.</p>
<p>Hay que trabajar en la legislación hay algunos puntos claves como el tema de la vulnerabilidad de la privacidad, el manejo de los datos, la manipulación o la vigilancia. Hay una serie de cosas puntuales. Seis meses no sirven para nada, esto empezó desde 1955, hace 70 años; <a href="https://www.enter.co/especiales/dev/amazon-anuncia-que-su-herramienta-de-ia-code-whisperer-para-desarrolladores-esta-disponible-gratuitamente/">seis meses para reflexionar, pues no creo que tenga mucho impacto, porque ya las herramientas están afuera</a>, ya la gente las está usando y ya se empezaron a ver los defectos. Lo que hay que hacer urgente es ponernos a discutir, que los legisladores de cada país busquen la normatividad.</p>
<h2>Colombia es un país en vías de desarrollo, tiene problemas sociales, es un país polarizado y tiene de por medio un conflicto armado ¿Cómo está el país frente al boom de la IA? ¿Está preparado para enfrentarse a esta revolución tecnológica?</h2>
<p>En Colombia ya están usando algunas herramientas; no importa los recursos del país o la capacidad de computación. Sin embargo, es importante que el país entienda cuáles son las limitaciones y los alcances de la inteligencia artificial. Hay que empezar a legislar sobre el tema porque estas herramientas pueden agravar o mejorar las cosas en el país, es decir, hay que tener en cuenta los efectos sociales, políticos, económicos que estas tecnologías pueden causar.</p>
<p>Tú mencionabas hace un rato el tema de las los empleos, de las personas que pueden ser sustituidas por un programa de estos. <a href="https://www.enter.co/especiales/dev/desarrolladores-google-anuncia-que-su-ia-bard-ya-puede-ayudarlo-a-escribir-codigo/">La idea no es que haya un reemplazo, sino que las personas aumenten su potencial</a>.</p>
<p>No se necesita tener un Producto Interno Bruto comparable a los países desarrollados, ni tener una infraestructura tecnológica, pero sí entender que estas herramientas pueden llegar al país y pueden afectarnos económicamente, socialmente, políticamente y a nivel psicológico.</p>
<p>No queremos que nos vigilen más, no queremos que nos perfilen ni manipulen; no queremos más polarización y estas herramientas pueden agudizar esto.</p>
<p>Imagen: <em>Pixabay</em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
