<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Deepfake: Noticias, Fotos, Evaluaciones, Precios y Rumores de Deepfake • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/deepfake/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/deepfake/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Fri, 16 Jan 2026 16:53:07 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>Deepfake: Noticias, Fotos, Evaluaciones, Precios y Rumores de Deepfake • ENTER.CO</title>
	<link>https://www.enter.co/noticias/deepfake/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>La madre de unos de los hijos de Elon Musk demanda a Grok ¿Qué fue lo que ocurrió?</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/la-madre-de-unos-de-los-hijos-de-elon-musk-demanda-a-grok-que-fue-lo-que-ocurrio/</link>
					<comments>https://www.enter.co/cultura-digital/redes-sociales/la-madre-de-unos-de-los-hijos-de-elon-musk-demanda-a-grok-que-fue-lo-que-ocurrio/#respond</comments>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Fri, 16 Jan 2026 16:53:07 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[demanda Elon Musk]]></category>
		<category><![CDATA[Elon Musk]]></category>
		<category><![CDATA[Elon Musk Twitter]]></category>
		<category><![CDATA[Fortuna Elon Musk]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[Grok 4]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=579739</guid>

					<description><![CDATA[Tu plataforma de IA puede no estar muy bien, cuando hasta la madre de uno de tus hijos te está demandando. Diferentes medios internacionales reportan que Ashley St Clair, madre de uno de los hijos de Elon Musk, ha presentado una demanda contra xAI asegurando que Grok sexualizó y creo deepfakes desnudos de ella. La [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Tu plataforma de IA puede no estar muy bien, cuando hasta la madre de uno de tus hijos te está demandando. Diferentes medios internacionales reportan que <strong>Ashley St Clair</strong>, madre de uno de los hijos de <strong>Elon Musk</strong>, ha presentado una demanda contra xAI <strong><a href="https://www.enter.co/especiales/dev/xai-responde-al-lanzamiento-de-gpt-5-y-libera-grok-4-gratis-por-tiempo-limitado/" target="_blank" rel="noopener">asegurando que Grok sexualizó</a></strong> y creo deepfakes desnudos de ella.</p>
<p><span id="more-579739"></span></p>
<p>La demanda fue presentada en Nueva York y, de acuerdo con los documentos obtenidos, asegura que Grok creó imágenes explicitas de St Clair. En respuesta xAI ha presentado una contra demanda asegurando que la mujer había violado los términos de servicio de la herramienta IA. “<em>Los usuarios de<strong> X encontraron fotos de St Clair completamente vestida a los 14 años</strong> y luego le pidieron a Grok que la desvistiera y le pusiera bikini</em>”, lee el documento. “<em>Los usuarios incluso  le dieron un bikini lleno de esvásticas</em>&#8221; – St Clair es judía.</p>
<p>&#8220;<em>Pretendemos exigir responsabilidades a Grok y ayudar a establecer límites legales claros para el beneficio de todo el público, a fin de evitar que la IA se utilice como arma para el abuso</em>&#8220;, <a href="https://www.bbc.com/news/articles/cp37erw0zwwo" target="_blank" rel="noopener"><strong>declaró a BBC News Carrie Goldberg</strong></a>, abogada de St Clair. &#8220;<em>Al crear imágenes sexualmente explícitas no consentidas de niñas y mujeres, xAI es una molestia pública y un producto poco seguro</em>&#8220;, añadió Goldberg.</p>
<p>Ashley St Clair el año pasado reveló, <a href="https://x.com/stclairashley/status/1890554279749951687" target="_blank" rel="noopener"><strong>a través de una publicación en X/Twitter</strong></a> que había dado luz a un hijo del multimillonario – uno de los 13 hijos que se cree que Musk ha reconocido. Documentos legales aseguran que actualmente hay una batalla legal por la custodia de este hijo.</p>
<p><img fetchpriority="high" decoding="async" class="size-full wp-image-579742" src="https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg.webp" alt="" width="1024" height="576" srcset="https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg.webp 1024w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-300x169.webp 300w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-768x432.webp 768w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-366x205.webp 366w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-534x300.webp 534w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-165x92.webp 165w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-249x140.webp 249w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-232x130.webp 232w, https://www.enter.co/wp-content/uploads/2026/01/4c6716c0-f2cc-11f0-80cd-e77eaadcaecf.jpg-344x193.webp 344w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>Ashley St Clair, la madre del hijo de Elon Musk, que ha presentado la demanda contra Grok.</p>
<h2><strong>Deepfakes y desnudos: el dolor de cabeza de Grok</strong></h2>
<p>La IA de Elon Musk ha tenido una semana complicada después de que decenas de reportes fuera publicados, asegurando que los usuarios de X estaban utilizando el modelo de inteligencia artificial para crear deepfakes de mujeres desnudas o en ropa interior. Las acusaciones aseguraban que la falta de moderación dentro del modelo no solo permitía a las personas el solicitar a la IA imágenes realistas de desnudos, sino que Grok incluso modificaba estas imágenes cuando se trataba de menores de edad.</p>
<p>Como resultado X y Musk fueron objetivo de fuertes críticas por parte de entes regulatorios, grupos defensores de los derechos de las mujeres e incluso figuras políticas que exigían respuestas por parte de la compañía.</p>
<p>Pero la respuesta de la compañía no fue la esperada. La empresa cambió las reglas de la IA para que solo los usuarios pagos pudieran solicitar a la IA el realizar estos deepfakes – porque nada habla de tu compromiso con los derechos de las mujeres como monetizar desnudos no solicitados. La reacción fue inmediata en ciertos sectores, incluso llegando a contemplar la posibilidad de prohibir la red social en ciertos territorios como el Reino Unido.</p>
<p>El pasado miércoles 14 de enero X finalmente cedió y aseguró que todos los usuarios en adelante no podrían crear desnudos utilizando su IA… con el pequeño añadido de que la restricción solo aplicaría para aquellos territorios en el que fuera ilegal crear estas imágenes. Un sablazo legal impresionante considerando que son muchos los países y territorios sin normas claras sobre la creación de deepfakes con connotación sexual.</p>
<p>Pero ni siquiera este parche legal funcionó, pues diferentes usuarios han reportado que incluso en los territorios en los que debería estar prohibido todavía se pueden crear estas imágenes de desnudos.</p>
<p>X no parece estar muy preocupado por la ola de críticas o las posibles demandas. La era de Musk en la plataforma se ha caracterizado por una falta de moderación y una inclinación a monetizar algunos de los aspectos más problemáticos de su tecnología – por ejemplo, el incremento de estafas y spam en anuncios -. Como olvidar cuándo una de las primeras promesas de Grok fue la posibilidad de tener conversaciones picantes con una chica anime creada con IA. Con estos precedentes la situación actual de xAI debería set todo, menos inesperada.</p>
<p><em>Imágenes: Montaje ENTER.CO y BBC</em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/cultura-digital/redes-sociales/la-madre-de-unos-de-los-hijos-de-elon-musk-demanda-a-grok-que-fue-lo-que-ocurrio/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Criticas a Elon Musk por compartir un video de Kamala Harris creado con inteligencia artificial</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/criticas-a-elon-musk-por-compartir-un-video-de-kamala-harris-creado-con-inteligencia-artificial/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Mon, 29 Jul 2024 14:16:30 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[Elon Musk]]></category>
		<category><![CDATA[Kamala Harris]]></category>
		<category><![CDATA[Twitter]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=559815</guid>

					<description><![CDATA[Acabamos de comenzar la semana y ya tenemos una nueva polémica cortesía de Elon Musk. Este fin de semana el dueño de X/Twitter y Tesla compartió un video de Kamala Harris modificado con inteligencia artificial. Utilizando deepfake el clip recrea la voz de la vicepresidenta de los Estados Unidos para decir cosas como “fue escogida [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Acabamos de comenzar la semana y ya tenemos <strong>una nueva polémica<a href="https://www.enter.co/cultura-digital/ciencia/elon-musk-el-magnate-que-contribuye-con-el-deterioro-de-la-capa-de-ozono-con-sus-6-mil-satelites/" target="_blank" rel="noopener"> cortesía de Elon Musk.</a></strong> Este fin de semana el dueño de <strong>X/Twitter y Tesla</strong> compartió<strong><a href="https://x.com/elonmusk/status/1816974609637417112" target="_blank" rel="noopener"> un video de Kamala Harris modificado con inteligencia artificial.</a></strong> Utilizando deepfake el clip recrea la voz de la vicepresidenta de los Estados Unidos para decir cosas como “<em>fue escogida por la contratación por diversidad definitiva</em>” o “<em>tuve cuatro años de aprendizaje bajo el tutelaje del último títere del Estado</em>”.</p>
<p><span id="more-559815"></span></p>
<p>El principal problema para muchos está en que <strong>Musk</strong> compartió el video sin agregar algún tipo de anotación que indique que es falso. La publicación solo tiene el texto de “esto es <em>divertidísimo</em>” y un emoji de una carita llorando de la risa. Al momento de publicación de este artículo el post <strong>en X/Twitter ya supera los más 119 millones de vistas.</strong></p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">This is amazing &#x1f602;<br />
<a href="https://t.co/KpnBKGUUwn">pic.twitter.com/KpnBKGUUwn</a></p>
<p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1816974609637417112?ref_src=twsrc%5Etfw">July 26, 2024</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>De hecho, la publicación ni siquiera cuenta con algún tipo de etiqueta que señale que se trata de un video falso, incluso haciendo uso de las notas de la comunidad (después de que Elon Musk despidió a todo su personal encargado de moderar las publicaciones en la red social creó un nuevo sistema llamado ‘notas de la comunidad’ que les permiten a ciertos usuarios el agregar anotaciones a publicaciones para ofrecer el contexto adecuado cuando se necesita).</p>
<p>La respuesta en redes sociales por parte de los seguidores de Musk y los detractores de Harris es que es obvio que se trata de un video falso. Hay algo de razón en este punto, pues el montaje tiene algunos de los indicios claros de<strong><a href="https://www.enter.co/especiales/dev/youtube-esta-creando-una-herramienta-ia-para-imitar-las-voces-de-artistas/" target="_blank" rel="noopener"> un montaje con IA </a></strong>(por ejemplo, ciertos tonos). Sin embargo, lo que la historia nos ha indicado es que los videos que modifican o alteran la voz de candidatos políticos (en especial durante periodo de elecciones) son particularmente peligrosos pues no todas las personas entienden el contexto en el que fueron creados.</p>
<h2><strong>¿Deberían todas las redes sociales etiquetar sus videos creados o modificados con IA?</strong></h2>
<p>Desde que la inteligencia artificial se convirtió en el nuevo santo grial de la tecnología uno de los principales temas de conversación es cómo se debe moderar su uso al momento de recrear o imitar las voces de personalidades. El video compartido por Kamala Harris no es el primer caso en el que se viraliza un video de alguna figura pública.</p>
<p>El problema para muchos está en dos partes: que sea el líder de una de las redes sociales más importantes el que haya compartido este contenido sin etiquetarlo como falso. Más importante, X/Twitter se ha rehusado a implementar políticas para que los contenidos creados con inteligencia artificial sean etiquetados e identificados.</p>
<p>Esto es importante, porque a estas alturas plataformas como YouTube han implementado reglas dentro de sus términos y servicios con el objetivo de que estos videos creados con IA. En caso de que un video sea subido y no respete estas reglas para que sea identificado estarán expuestos a que se eliminen, a una posible suspensión del programa de socios de YouTube u otras sanciones.</p>
<p><em>Imágenes: <a href="https://www.flickr.com/people/22007612@N05" target="_blank" rel="noopener">Wikicommons a través de Gage Skidmore</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deepfakes y fraudes digitales el terror de los consumidores: No los saben identificar</title>
		<link>https://www.enter.co/empresas/seguridad/deepfakes-y-fraudes-digitales-el-terror-de-los-consumidores-no-los-saben-identificar/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 20 May 2024 21:05:40 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[FRAUDES DIGITALES]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=554892</guid>

					<description><![CDATA[Un estudio Jumio, una empresa de verificación de identidad y pagos móviles en línea, reveló que el 72% de los consumidores temen por se estafados por los riesgos riesgos asociados a la IA generativa y las deepfakes, incluido el potencial aumento de la ciberdelincuencia y el fraude de identidad. La compañía analizo las opiniones de [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Un estudio Jumio,<strong><a href="https://www.jumio.com/es/2024-estudio-identidad/" target="_blank" rel="noopener"> una empresa de verificación de identidad y pagos móviles en línea</a></strong>, reveló que el 72% de los consumidores temen por se estafados por los riesgos riesgos asociados a la<strong><a href="https://www.enter.co/especiales/dev/ai/3-consejos-sobre-como-usar-la-ia-generativa-de-forma-segura-segun-ibm/" target="_blank" rel="noopener"> IA generativa</a></strong> y las deepfakes, incluido el potencial aumento de la ciberdelincuencia y el fraude de identidad.</p>
<p><span id="more-554892"></span><br />
La compañía analizo las opiniones de más de 8.000 consumidores adultos, repartidos por igual entre el Reino Unido, Estados Unidos, Singapur y México. Los resultados sugieren que casi tres cuartas partes de los consumidores (72%) se preocupan diariamente por la posibilidad de ser engañados por una deepfake para entregar información sensible o dinero.</p>
<p>Y tan solo el 15% de los consumidores afirma que nunca se ha encontrado con un vídeo, audio o imagen falsificada, mientras que el 60% ha estado expuesto a una deepfake en el último año.</p>
<p>A pesar de la gran ansiedad que genera esta tecnología cada vez más prevalente y en constante evolución, los consumidores siguen sobrevalorando su propia capacidad para detectar deepfakes: el 60% cree que podría detectar una deepfake, frente al 52% en 2023.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/denuncias-de-consumidores-ante-la-union-europea-alegan-problemas-de-seguridad-de-productos-de-temu/" target="_blank" rel="noopener">Denuncias de consumidores ante la Unión Europea alegan problemas de seguridad de productos de Temu</a></h3>
<p>Los hombres se muestran más confiados en su capacidad para detectar una deepfake (66% de hombres frente al 55% de mujeres), siendo los hombres de entre 18 y 34 años los que muestran más confianza (75%), mientras que las mujeres de entre 35 y 54 años son las menos seguras (52%).</p>
<p>“A medida que avanza la IA generativa, la incidencia de deepfakes sigue aumentando, lo que revela una brecha significativa en nuestra capacidad colectiva para detectar estos engaños”, dijo Stuart Wells, director de tecnología de Jumio. “Este continuo exceso de confianza subraya la necesidad crítica de una educación pública más fuerte y soluciones tecnológicas más efectivas. Es esencial que las empresas y los consumidores colaboren para mejorar las medidas de seguridad digital con el fin de prevenir eficazmente el fraude de identidad”.</p>
<p>Una mayoría significativa (60%) de los consumidores pide una mayor regulación gubernamental de la IA para abordar estos problemas. Sin embargo, <strong>la confianza en la regulación varía de un país a otro: el 69% de los consumidores de Singapur confía en la capacidad de su gobierno para regular la IA</strong>, frente al 26% del Reino Unido, el 31% de Estados Unidos y el 44% de México.</p>
<h2>
El costo real del fraude en línea</h2>
<p>El fraude es un problema demasiado conocido para muchos consumidores de todo el mundo, ya que el 68% de los encuestados afirma saber o sospechar que ha sido víctima de fraude en línea o usurpación de identidad, o que conoce a alguien que lo ha sido. <strong>Los consumidores estadounidenses son los más propensos a ser víctimas directas del fraude (39%), ya sea por conocimiento o por sospecha, y Singapur es el país que más afirma conocer a una víctima (51%)</strong>.</p>
<p>Mientras que casi la mitad (46%) de los consumidores que fueron o sospechaban haber sido víctimas de un fraude en línea o de un robo de identidad declararon que la experiencia había sido un inconveniente menor, el 32% dijo que había causado problemas importantes y varias horas de trabajo administrativo para resolverlos, y el 14% llegó a calificarla de experiencia traumática.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/atencion-emprendedores-los-miercoles-de-ciberseguridad-regresan-con-mas-cursos-y-consejos/" target="_blank" rel="noopener">¡Atención emprendedores! Los miércoles de Ciberseguridad regresan con más cursos y consejos</a></h3>
<p>Independientemente de si han sido víctimas de un fraude o de un robo de identidad, la mayoría de los consumidores se preocupan diariamente por ser víctimas de filtraciones de datos (79%) y de ataques de robos de cuentas (77%).</p>
<p>Equilibrio entre seguridad y experiencia de usuario en la verificación de identidad<br />
La verificación de la identidad es una parte clave de la solución para las empresas que buscan protegerse y garantizar que sus usuarios son auténticos. <strong>Más del 70% de los consumidores afirmó que dedicaría más tiempo a la verificación de la identidad si estas medidas mejoraran la seguridad en sectores como</strong>: servicios financieros (77%), salud(74%), administración pública (72 %), e-commerce y retail (72%), redes sociales (71%), economía colaborativa (71%) y viajes y hostelería (71%).</p>
<p>A la hora de crear una nueva cuenta en internet, los consumidores de todo el mundo afirmaron que tomar una foto de su DNI y una selfie en el momento sería la forma más precisa de verificar la identidad (21%), mientras que la creación de una contraseña segura se sitúa en segundo lugar (19%).</p>
<h3>Te puede interesar:<a href="https://www.enter.co/empresas/seguridad/ojo-el-software-de-la-popular-app-china-temu-es-espia-y-es-una-amenaza-de-seguridad-por-que/" target="_blank" rel="noopener"> ¡Ojo! El software de la popular app china Temu es “espía y es una amenaza de seguridad” ¿Por qué?</a></h3>
<p>“A medida que navegamos por las complejidades introducidas por la IA generativa, el papel de los sistemas de seguridad sofisticados se vuelve crucial,” dijo Philipp Pointner, jefe de identidad digital de Jumio.</p>
<p>“Para contrarrestar el aumento de las deepfakes y el engaño cibernético, es imperativo incorporar sistemas de verificación multimodales y basados en la biometría. <strong>Estas tecnologías son clave para garantizar que las empresas puedan proteger sus plataformas y a sus clientes de las amenazas online emergentes</strong>, y son significativamente más fuertes que las contraseñas y otros métodos tradicionales y obsoletos de identificación y autenticación”.</p>
<p>Imagen: <em><a class="photographer cWU9wH5uj9cM5CMFEMVC" href="https://www.istockphoto.com/es/portfolio/Userba011d64_201?mediatype=photography" data-testid="photographer"><span class="LnOLJ4WPBg1pjxPKMDBE">Userba011d64_201</span></a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ahora podrás clonar tu voz con inteligencia artificial en TikTok</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/ahora-podras-clonar-tu-voz-con-inteligencia-artificial-en-tiktok/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 23 Apr 2024 15:00:29 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[clonación de voz]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[TikTok]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=553754</guid>

					<description><![CDATA[Ya hemos visto que la inteligencia artificial nos permite crear imágenes a partir de texto, escribir libros enteros con un solo prompt, incluso, generar deepfakes con tan solo una fotografía. Este último uso ha sido uno de los más preocupantes y de los que más se han expandido en los últimos años. Sin embargo, TikTok [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Ya hemos visto que la inteligencia artificial nos permite crear imágenes a partir de texto, escribir libros enteros con un solo prompt, incluso, generar deepfakes con tan solo una fotografía. Este último uso ha sido uno de los más preocupantes y de los que más se han expandido en los últimos años. Sin embargo, <a href="https://www.enter.co/cultura-digital/redes-sociales/tiktok-tambien-podria-ser-bloqueado-en-la-union-europea-por-que/" target="_blank" rel="noopener">TikTok está creando una nueva herramienta</a> que podría seguir propagando esta práctica, pues permitirá clonar la voz con tan solo 10 segundos de grabación. </span><span id="more-553754"></span></p>
<p><span style="font-weight: 400;">La función fue descubierta por el analista AssembleDebug, quien estuvo revisando las líneas de código de las últimas actualizaciones en la versión beta de la red social para Android. Allí encontró un nuevo elemento bajo el nombre ‘Biblioteca de voz de TikTok’. Dentro de esta nueva sección, el analista encontró </span> <span style="font-weight: 400;">una herramienta denominada ‘<a href="https://www.enter.co/especiales/dev/ai/no-sabes-si-esa-nota-de-voz-que-te-enviaron-es-falsa-verificaudio-la-nueva-ia-que-lo-descubre/" target="_blank" rel="noopener">Clonar tu voz con IA</a>’. </span></p>
<p><span style="font-weight: 400;"><a href="https://twitter.com/AssembleDebug/status/1781535172053344418?failedScript=vendor" target="_blank" rel="noopener">En las capturas de pantalla se observa</a> una primera ventana emergente que aparece al intentar usar la  nueva herramienta. En ella, la red social explica que solo se necesitan 10 segundos para clonar tu voz. También explican el proceso al usuario: deberá grabarse hablando, TikTok procesa la voz y genera una nueva, idéntica a la tuya (se supone), que podrás usar para videos. </span></p>
<p><img decoding="async" class="alignnone wp-image-553755 size-full" src="https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29.jpg" alt="voz" width="492" height="327" srcset="https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29.jpg 492w, https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29-300x199.jpg 300w, https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29-76x50.jpg 76w, https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29-123x82.jpg 123w, https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29-83x55.jpg 83w, https://www.enter.co/wp-content/uploads/2024/04/2024-04-23-09-40-29-125x83.jpg 125w" sizes="(max-width: 492px) 100vw, 492px" /></p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/aterradora-asi-es-la-nueva-ia-de-openai-clona-tu-voz-escuchandote-15-segundos/" target="_blank" rel="noopener">¡Aterradora! Así es la nueva IA de OpenAI, clona tu voz escuchándote 15 segundos</a></h3>
<p><span style="font-weight: 400;">Para ello, la red social entrega un corto texto que el usuario deberá leer mientras graba su voz. Sin embargo, la función se encuentra aún muy limitada, pues aún se encuentra en construcción. Por otro lado, la plataforma de ByteDance asegura que la información de tu voz permanecerá privada y podrás eliminarla en cuanto desees del almacenamiento. </span></p>
<p><span style="font-weight: 400;">Aún no hay claridad de cuándo llegará esta función a los usuarios, ni siquiera tenemos certeza de que esto sucederá. Por ahora solo nos queda esperar a las próximos anuncios de la compañía y confiar en sus métodos de privacidad y seguridad para que solo tú <a href="https://www.enter.co/chips-bits/apps-software/la-transcripcion-de-notas-de-voz-a-texto-finalmente-llega-a-whatsapp-para-android-asi-funciona/" target="_blank" rel="noopener">puedas usar tu voz clonada</a> dentro de la app. </span></p>
<p><em>Imagen: Soundtrap</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Incode, el unicornio americano que se expande en Colombia para blindar a usuarios con autenticación digital</title>
		<link>https://www.enter.co/startups/incode-el-unicornio-americano-que-se-expande-en-colombia-para-blindar-a-usuarios-con-autenticacion-digital/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 16 Apr 2024 23:30:11 +0000</pubDate>
				<category><![CDATA[Startups]]></category>
		<category><![CDATA[autenticación digital]]></category>
		<category><![CDATA[ciberseguridad]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[Unicornios]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=553469</guid>

					<description><![CDATA[Incode technologies, unicornio valorado en más de 1.250 millones de dólares, anunció su expansión en Latinoamérica y, Colombia es uno de sus países objetivo. La compañía tiene como objetivo contribuir a la seguridad de las empresas colombianas con ayuda de autenticación digital realmente segura.  Desde Incode explicaron, a través de un comunicado, que “Colombia es [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Incode technologies, unicornio valorado en más de 1.250 millones de dólares, anunció su expansión en Latinoamérica y, Colombia es uno de sus países objetivo. La compañía tiene como objetivo contribuir a la seguridad de las empresas colombianas con ayuda de <a href="https://www.enter.co/empresas/seguridad/infosecurity-2024-la-cita-imperdible-para-los-expertos-en-ciberseguridad-en-latinoamerica/" target="_blank" rel="noopener">autenticación digital realmente segura. </a></span><span id="more-553469"></span></p>
<p><span style="font-weight: 400;">Desde Incode explicaron, a través de un comunicado, que “Colombia es un mercado estratégico para la empresa”. Sus objetivos en el país son robustecer sus operaciones a través de servicios como el Digital Onboarding, integrado con la validación del Gobierno (RNEC), autenticaciones para transacciones de alto riesgo y múltiples puntos.</span></p>
<p><span style="font-weight: 400;">De acuerdo con el informe X-Force Threat Intelligence Index 2024 de IBM, Colombia fue el segundo país de la región con más ciberataques recibidos con un 17 %, apenas superado por Brasil. Para los próximos años se espera que este porcentaje aumente debido a la inteligencia artificial. Sin embargo, muchas de <a href="https://www.enter.co/startups/godaddy-estrena-biblioteca-de-prompts-para-facilitar-el-uso-de-ia-a-emprendedores/" target="_blank" rel="noopener">las compañías</a> pueden proteger sus datos y los de sus usuarios con una autenticación digital segura. </span></p>
<h3>Te puede interesar:  <a href="https://www.enter.co/startups/la-startup-colombiana-habi-acaba-de-recibir-30-millones-de-dolares-para-continuar-expandiendose/" target="_blank" rel="noopener">La startup colombiana Habi acaba de recibir $30 millones de dólares para continuar expandiéndose</a></h3>
<p><span style="font-weight: 400;">Las principales modalidades de ciberataques son el fraude, la suplantación y el robo de identidad, donde los delincuentes informáticos se hacen pasar por otras personas o empresas para obtener sus recursos financieros. Algunas organizaciones no cuentan con una estrategia de ciberseguridad y no están preparadas frente a <a href="https://www.enter.co/empresas/seguridad/aumentan-las-estafas-en-prestamos-individuales-las-mas-comunes-y-como-evitarlas/" target="_blank" rel="noopener">vulneraciones de este tipo</a></span></p>
<p><span style="font-weight: 400;">Ricardo Amper, fundador de Incode Technologies, destacó la importancia de desarrollar una conciencia sobre los riesgos en ciberseguridad en Colombia. Según Amper, adoptar una cultura reactiva y utilizar tecnología avanzada no solo optimiza procesos y reduce costos, sino que también mitiga riesgos y facilita la vida de los usuarios. </span></p>
<p><span style="font-weight: 400;">La compañía ha logrado una expansión significativa en América Latina, especialmente en Colombia, donde ha establecido alianzas con grandes instituciones financieras y empresas tecnológicas como Rappi Pay. Estas colaboraciones están enfocadas en mejorar los procesos de onboarding digital y<a href="https://www.enter.co/empresas/colombia-digital/spi-banco-de-la-republica-anuncia-plataforma-para-realizar-transacciones-24-7-desde-cualquier-banco-o-billetera/" target="_blank" rel="noopener"> autenticación biométrica.</a></span></p>
<p><span style="font-weight: 400;">La región sigue siendo altamente vulnerable a ataques que comprometen la seguridad de importantes entidades estatales y empresas privadas, destacando la necesidad urgente de estrategias robustas de ciberseguridad para contrarrestar estas amenazas.</span></p>
<p><em>Imagen:</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¡Ojo! Video de Messi promocionando aplicación de juegos es una estafa</title>
		<link>https://www.enter.co/empresas/seguridad/ojo-video-de-messi-promocionando-aplicacion-de-juegos-es-una-estafa/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Wed, 27 Mar 2024 23:00:29 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[estafa]]></category>
		<category><![CDATA[Lionel Messi]]></category>
		<category><![CDATA[Messi]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=552685</guid>

					<description><![CDATA[Un usuario de X (anteriormente Twitter) ha levantado la voz para alertar a la comunidad sobre una estafa que utiliza indebidamente la imagen de Lionel Messi, el renombrado futbolista, para promocionar una aplicación conocida llamada &#8220;Wildcat Dive&#8221;. Este caso, marcado por la difusión de un video deepfake con la imagen falsa de Messi promoviendo la [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Un usuario de X (anteriormente Twitter) ha levantado la voz para alertar a la comunidad sobre una estafa que utiliza indebidamente la imagen de Lionel Messi, el renombrado futbolista, para promocionar una aplicación conocida llamada &#8220;Wildcat Dive&#8221;. Este caso, <a href="https://www.enter.co/empresas/seguridad/fbi-emitio-alerta-por-aumento-de-deepfake-gracias-a-la-inteligencia-artificial/" target="_blank" rel="noopener">marcado por la difusión de un video deepfake</a> con la imagen falsa de Messi promoviendo la aplicación como una fuente lucrativa de ingresos, ha encendido las alarmas sobre la sofisticación de las estafas digitales.</span><span id="more-552685"></span></p>
<p><span style="font-weight: 400;">El video, que ha circulado a través de anuncios en Instagram, modifica una entrevista real de Messi, manipulando las voces para promover la aplicación como legítima. Sin embargo, esta promoción es completamente falsa, y detrás de ella se esconde una estrategia de estafa.</span></p>
<p><span style="font-weight: 400;">La aplicación &#8220;Wildcat Dive&#8221;, solo disponible para dispositivos iPhone, se presenta en la App Store como un simple juego de rompecabezas, sin mencionar las supuestas ganancias monetarias que el video fraudulento promete. Las reseñas en la tienda de aplicaciones sugieren funciones de apuestas dentro del juego, aunque muchos usuarios han denunciado que la aplicación es fraudulenta y no permite el retiro del dinero invertido.</span></p>
<blockquote class="twitter-tweet" data-media-max-width="560">
<p dir="ltr" lang="es"><a href="https://twitter.com/miguegranados?ref_src=twsrc%5Etfw">@miguegranados</a> totalmente denunciable <a href="https://t.co/MpsF03Shbp">pic.twitter.com/MpsF03Shbp</a></p>
<p>— tanogue (@TanoGuerrero1) <a href="https://twitter.com/TanoGuerrero1/status/1769084616793628719?ref_src=twsrc%5Etfw">March 16, 2024</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p><span style="font-weight: 400;">Este incidente no solo se está realizando con la imagen de Messi sino que, según investigaciones, también se ha utilizado indebidamente la cara de David Beckham en una maniobra similar. <a href="https://www.enter.co/empresas/seguridad/deepfake-pornografico-una-horrible-practica-que-facebook-esta-impulsando/" target="_blank" rel="noopener">La rápida difusión de esta estafa</a> subraya la importancia de ejercer cautela en el mundo digital.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/el-deepfake-crece-a-un-ritmo-de-900-anualmente-asi-puedes-prevenir-esta-ciberamenaza/" target="_blank" rel="noopener">El deepfake crece a un ritmo de 900% anualmente, así puedes prevenir esta ciberamenaza</a></h3>
<p><span style="font-weight: 400;">Ante este tipo de contenido manipulado, ESET, compañía dedicada a la detección de amenazas, recomienda verificar siempre la fuente del contenido, analizar el contexto, comparar con fuentes confiables, estar atento a las inconsistencias y mantenerse informado sobre las tecnologías de manipulación de medios. Estos pasos son cruciales para protegerse contra la desinformación y los intentos de fraude en línea.</span></p>
<p><span style="font-weight: 400;">La rápida evolución de <a href="https://www.enter.co/empresas/seguridad/zelenski-se-rindio-en-video-el-deepfake-que-meta-tuvo-que-eliminar-de-sus-redes/" target="_blank" rel="noopener">la tecnología deepfake presenta un desafío</a> significativo en la lucha contra la desinformación y el fraude en línea. A medida que estos métodos se vuelven más sofisticados, es imperativo que los usuarios estén equipados con el conocimiento y las herramientas necesarias para discernir entre lo real y lo manipulado. La estafa que involucra a figuras públicas como Lionel Messi subraya la necesidad de una mayor conciencia y educación digital entre el público para prevenir la propagación de información falsa y proteger la integridad personal y financiera en el vasto mundo digital.</span></p>
<p><em>Imagen:<a href="https://commons.wikimedia.org/w/index.php?search=messi&amp;title=Special:MediaSearch&amp;fulltext=Buscar+&amp;type=image&amp;fileres=%3E1000" target="_blank" rel="noopener"> Кирил Венедиктов</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Por qué X (Twitter) bloqueó las búsquedas de &#8216;Taylor Swift&#8217; dentro de la red social?</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/por-que-x-twitter-bloqueo-las-busquedas-de-taylor-swift-dentro-de-la-red-social/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Mon, 29 Jan 2024 15:37:25 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[Deepfake pornográfico]]></category>
		<category><![CDATA[Taylor Swift]]></category>
		<category><![CDATA[Twitter]]></category>
		<category><![CDATA[x]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=550202</guid>

					<description><![CDATA[El contenido deepfake pornográfico se ha convertido en un verdadero fenómeno difícil de controlar y, lamentablemente, las mujeres siguen siendo las más afectadas, principalmente las que están vinculadas al mundo del entretenimiento. En esta ocasión, Taylor Swift, la cantante de música pop, fue la nueva víctima de esta práctica, razón por la que X (anteriormente [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;"><a href="https://www.enter.co/empresas/seguridad/fbi-emitio-alerta-por-aumento-de-deepfake-gracias-a-la-inteligencia-artificial/" target="_blank" rel="noopener">El contenido deepfake pornográfico</a> se ha convertido en un verdadero fenómeno difícil de controlar y, lamentablemente, las mujeres siguen siendo las más afectadas, principalmente las que están vinculadas al mundo del entretenimiento. En esta ocasión, Taylor Swift, la cantante de música pop, fue la nueva víctima de esta práctica, razón por la que X (anteriormente Twitter) tuvo que bloquear su nombre dentro de la plataforma. </span><span id="more-550202"></span></p>
<p><span style="font-weight: 400;">Por si no lo sabes, el deepfake es contenido audiovisual que parece real pero que no lo es, el cual es <a href="https://www.enter.co/empresas/seguridad/deepfake-pornografico-una-horrible-practica-que-facebook-esta-impulsando/" target="_blank" rel="noopener">creado con ayuda de la inteligencia artificial (IA).</a> En este caso, el contenido es pornográfico, donde usan la cara (y en algunas ocasiones el cuerpo) de mujeres para recrear escenas sexuales. Desde el pasado miércoles, videos de este tipo con la cara de Taylor Swift comenzaron a rodar por la web, en plataformas como X. </span></p>
<p><span style="font-weight: 400;">Es por esto que desde la red social de Elon Musk bloquearon el término ‘Taylor Swift’, de manera que todo el contenido deepfake de la cantante perdiera visibilidad. En cambio, los usuarios que buscaron a la artista, se encontraron con un mensaje de error. Joe Benarroch, jefe de operaciones comerciales de X declaró para </span><a href="https://www.wsj.com/tech/x-halts-taylor-swift-searches-after-explicit-ai-images-spread-06ef6c45?mod=followamazon" target="_blank" rel="noopener"><span style="font-weight: 400;">Wall Street Journal</span></a><span style="font-weight: 400;"> que </span><span style="font-weight: 400;">&#8220;Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema&#8221;. </span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/el-deepfake-crece-a-un-ritmo-de-900-anualmente-asi-puedes-prevenir-esta-ciberamenaza/" target="_blank" rel="noopener">El deepfake crece a un ritmo de 900% anualmente, así puedes prevenir esta ciberamenaza</a></h3>
<p><span style="font-weight: 400;">Pero, aunque Benarroch asegura que la compañía tomó el tema “con preocupación” y lo “priorizaron”, la red social ha sido foco de críticas por tardar tanto tiempo en bloquear su nombre. Muchas de las cuentas que publicaron el contenido sexual, explícito y no consensuado de la cantante, <a href="https://www.enter.co/especiales/dev/openai-bloquea-a-bytedance-compania-matriz-de-tiktok-por-usar-la-tecnologia-para-crear-su-propia-ia/" target="_blank" rel="noopener">fueron bloqueadas.</a> Sin embargo, cuando se produjo el bloqueo, ya los videos habían alcanzado hasta los 45 millones de visualizaciones. </span></p>
<p><span style="font-weight: 400;">Cuando las imágenes empezaron a tomar fuerza, desde el pasado miércoles, los fanáticos de Swift se pusieron al frente de la situación. Con el fin de limitar la visibilidad del contenido, inundaron de hashtags a la red social con publicaciones positivas de la cantante. Adicionalmente, reportaron cientos de veces el contenido y a los usuarios que lo compartían para que X eliminara, tanto los videos e imágenes, como las cuentas. </span></p>
<p><span style="font-weight: 400;">De acuerdo con nuestros colegas de </span><a href="https://www.404media.co/ai-generated-taylor-swift-porn-twitter/" target="_blank" rel="noopener"><span style="font-weight: 400;">404Media</span></a><span style="font-weight: 400;">, luego de rastrear el contenido deepfake, se encontraron con que, presuntamente, un grupo de Telegram, conocido por crear imágenes de mujeres sin su consentimiento, sería el responsable de las imágenes de Taylor Swift.</span></p>
<p><em>Imagen: Taylor Swift</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>El deepfake crece a un ritmo de 900% anualmente, así puedes prevenir esta ciberamenaza</title>
		<link>https://www.enter.co/empresas/seguridad/el-deepfake-crece-a-un-ritmo-de-900-anualmente-asi-puedes-prevenir-esta-ciberamenaza/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 18 Jul 2023 22:30:26 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Amenazas cibernéticas]]></category>
		<category><![CDATA[ciberamenazas]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[delincuentes cibernéticos]]></category>
		<category><![CDATA[delincuentes digitales]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=542602</guid>

					<description><![CDATA[A medida que nacen nuevos desarrollos tecnológicos, también se diversifican las formas en que las personas hacen uso de estos. Recientemente, el avance de la Inteligencia Artificial (IA) ha dado lugar a una nueva arma en manos de los ciberdelincuentes: el deepfake. Esta perturbadora técnica, respaldada por algoritmos conocidos como GAN (Generative Adversarial Networks) o [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>A medida que nacen nuevos desarrollos tecnológicos, también se diversifican las formas en que las personas hacen uso de estos. Recientemente, <a href="https://www.enter.co/especiales/dev/compania-reemplazo-al-90-del-personal-de-atencion-al-usuario-por-inteligencia-artificial/" target="_blank" rel="noopener">el avance de la Inteligencia Artificial</a> (IA) ha dado lugar a una nueva arma en manos de los ciberdelincuentes: el deepfake. <span id="more-542602"></span></p>
<p>Esta perturbadora técnica, respaldada por algoritmos conocidos como GAN (Generative Adversarial Networks) o RGA (Redes Generativas Antagónicas), permite <a href="https://www.enter.co/especiales/dev/ai/stable-doodle-lo-nuevo-de-stability-ai-crea-imagenes-profesionales-a-partir-de-un-boceto-hecho-por-ti/" target="_blank" rel="noopener">la creación de imágenes falsas</a>. Algunos crean fotografías, vídeos o audios, que resultan increíblemente realistas, con el fin de cometer estafas virtuales o engaños en línea.</p>
<p>Según datos del Foro Económico Mundial el deepfake crece a un ritmo anual del 900%. Estas cifras son una muestra de cómo ha escalado este ciberdelito en todo el mundo, con el fin no solo de cometer fraudes, chantajes, manipulación o <a href="https://www.enter.co/empresas/seguridad/fbi-emitio-alerta-por-aumento-de-deepfake-gracias-a-la-inteligencia-artificial/" target="_blank" rel="noopener">afectar la reputación</a> de un individuo o empresas, sino también fomentar la desinformación a través de “fake news”.</p>
<p>“La continua evolución de esta tecnología basada en IA, plantea una amenaza creciente que puede tener un impacto significativo en la vida personal de las personas y en la reputación de las marcas. La sofisticación en la creación de imágenes y videos falsos exige una mayor atención para identificar posibles vulnerabilidades y proteger nuestra sociedad en constante cambio”, expresó José Castro, gerente general de Noventiq Colombia.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/colombia-dentro-de-los-5-paises-latinos-con-mas-amenazas-ciberneticas/" target="_blank" rel="noopener">Colombia dentro de los 5 países latinos con más amenazas cibernéticas</a></h3>
<h2><strong> </strong><strong>Cómo combatir el deepfake</strong></h2>
<p>La capacidad de manipular rostros, voces y expresiones con una precisión sorprendente plantea serios desafíos a la hora de discernir entre lo auténtico y lo falso. En este sentido, desde la empresa especialista comparten algunas estrategias para contrarrestar el deepfake.</p>
<ol>
<li>Concientización y educación: La batalla contra el deepfake comienza con la concientización y la educación. Es fundamental que todos, desde el público en general hasta los profesionales y empresas, comprendan qué es el deepfake, cómo funciona y cómo se puede reconocer en algunos casos.</li>
<li>Fortalecimiento de la autenticidad digital:<a href="https://www.enter.co/startups/pupa-la-plataforma-colombiana-que-recolecta-cuotas-de-administracion-en-conjuntos-residenciales/" target="_blank" rel="noopener"> las plataformas tecnológicas</a> deben invertir en tecnologías de autenticación robustas que permitan verificar la legitimidad de los contenidos compartidos en línea. Algoritmos de reconocimiento facial y de voz, así como marcas de agua digitales, pueden desempeñar un papel crucial en la protección de la integridad de los archivos multimedia.</li>
<li>Colaboración y cooperación: la lucha contra el deepfake requiere un esfuerzo conjunto de gobiernos, empresas tecnológicas, instituciones académicas y sociedad civil. Se deben establecer alianzas sólidas para compartir conocimientos, recursos y mejores prácticas en la detección y mitigación de deepfakes. Además, la colaboración internacional es fundamental para abordar este desafío global y establecer estándares comunes que promuevan la integridad y la autenticidad en los medios digitales.</li>
<li>Legislación y regulación: en ciudades como California ya se han impuesto leyes contra el uso del deepfake en aspectos pornográficos y políticos. Esto demuestra que los gobiernos deben trabajar en conjunto para establecer marcos legales que penalicen la producción y difusión de deepfakes con intención maliciosa.</li>
</ol>
<p>“Aunque existen ciertos indicios que <a href="https://www.enter.co/empresas/seguridad/deepfake-pornografico-una-horrible-practica-que-facebook-esta-impulsando/" target="_blank" rel="noopener">pueden ayudar a detectar</a> deepfakes, como movimientos bruscos o inconsistencias en la iluminación, no debemos subestimar la sofisticación de esta amenaza. Por lo que se requiere un enfoque holístico que combine la educación y capacitación respecto a la ciberseguridad, desarrollo de tecnologías avanzadas, la implementación de legislaciones adecuadas y una colaboración estrecha entre diversos actores. Solo así podremos contrarrestar el avance del deepfake y preservar la autenticidad de la información en la era digital”. Concluyeron desde Noventiq.</p>
<p><em>Imagen: Frrepik</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>FBI emitió alerta por aumento de deepfake gracias a la inteligencia artificial</title>
		<link>https://www.enter.co/empresas/seguridad/fbi-emitio-alerta-por-aumento-de-deepfake-gracias-a-la-inteligencia-artificial/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Fri, 09 Jun 2023 18:00:02 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Contenido Sexual]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[estafadores]]></category>
		<category><![CDATA[FBI]]></category>
		<category><![CDATA[pornografía]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=540762</guid>

					<description><![CDATA[El deepfake sigue en aumento. El deepfake es una practica utilizada por delincuentes cibernéticos, quienes utilizan fotos de personas reales para hacer montajes. Principalmente, este tipo de montajes están relacionados con contenido pornográfico y sexual con diferentes fines. Ahora, el Buró Federal de Investigaciones (FBI) alertó sobre el aumento de este contenido. Gracias al gran [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El deepfake sigue en aumento.</p>
<p>El deepfake es una practica utilizada por delincuentes cibernéticos, quienes utilizan fotos de personas reales para hacer montajes. Principalmente, este tipo de montajes están relacionados con contenido pornográfico y sexual con diferentes fines. Ahora, el <a href="https://www.enter.co/empresas/seguridad/fbi-habria-comprado-datos-de-internet-sin-consentimiento-de-usuarios/" target="_blank" rel="noopener">Buró Federal de Investigaciones (FBI)</a> alertó sobre el aumento de este contenido.<span id="more-540762"></span></p>
<p>Gracias al gran crecimiento que ha tenido la <a href="https://www.enter.co/especiales/dev/ai/google-cloud-lanza-10-cursos-gratis-de-inteligencia-artificial/" target="_blank" rel="noopener">inteligencia artificial</a> (IA) en los últimos meses, los delincuentes cibernéticos han logrado generar más videos falsos y con mayor facilidad. Dichos videos son utilizados en esquemas de ‘sextorsión’ o extorsión sexual, con el fin de acosar a menores y adultos con el contenido. Los delincuentes piden altas sumas de dinero a cambio del rescate del material en el que las victimas son protagonistas.</p>
<p>Tal y como lo explica el FBI, los delincuentes estarían aprovechándose del contenido que cuelgan los usuarios en <a href="https://www.enter.co/cultura-digital/redes-sociales/polemica-en-ee-uu-corte-suprema-se-niega-a-analizar-ley-que-protege-a-las-redes-sociales/" target="_blank" rel="noopener">redes sociales e internet.</a> Posteriormente, cuando los malhechores tienen las imágenes con la cara o cuerpo de sus víctimas, recurren a la inteligencia artificial con la que logran realizar videos e imágenes sexuales. Entonces, las victimas aparecen en el contenido pornográfico como si fueran ellos los protagonistas de las escenas.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/abren-convocatoria-para-financiar-investigaciones-en-ciberseguridad-como-participar/" target="_blank" rel="noopener">Abren convocatoria para financiar investigaciones en ciberseguridad ¿Cómo participar?</a></h3>
<p>En algunos casos, el material en posesión de los estafadores es real, el cual consiguen mediante algún conocido de la víctima, quien entrega el contenido a cambio de dinero. Por otro lado, los delincuentes pueden obtener el material al hackear la cuenta de la víctima. En todo caso, con el contenido sexual en sus manos realizado mediante deepfake o contenido real, sobornan a las personas: entregan el material a cambio de dinero. En caso de que las víctimas no quieran entregar el dinero que los estafadores exigen, los timadores proceden a<a href="https://www.enter.co/chips-bits/apps-software/mas-colores-imagenes-y-tematicas-lo-nuevo-chrome-para-una-personalizacion-unica/" target="_blank" rel="noopener"> subir las imágenes</a> a internet.</p>
<p>&#8220;El FBI continúa recibiendo informes de víctimas, incluidos menores y adultos que no lo consintieron, cuyas fotos o videos fueron alterados en contenido explícito&#8221;, escribieron los agentes. &#8220;Después, se difunden públicamente los materiales en las redes sociales o sitios web pornográficos con el propósito de acosar a las víctimas o como parte de esquemas de extorsión sexual&#8221;.</p>
<p>&#8220;Aunque aparentemente inofensivas cuando se publican o comparten las imágenes y los videos pueden proporcionar a los actores maliciosos una abundante fuente de contenidos para explotar con fines delictivos&#8221;, según declararon las autoridades. “Los avances en la tecnología de creación de contenidos y las imágenes personales accesibles online ofrecen nuevas oportunidades a los agresores para encontrar y atacar a las víctimas. Esto les hace vulnerables a la vergüenza, el acoso,<a href="https://www.enter.co/empresas/seguridad/precauciones-contra-sextorsion/" target="_blank" rel="noopener"> la extorsión,</a> la pérdida financiera o la revictimización continua a largo plazo”.</p>
<p><em>Imagen: imustbedead vía <a href="http://www.pixabay.com" target="_blank" rel="noopener">Pixabay</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>No: la imagen del ‘Papa Swagged’ es falsa (y un problema real)</title>
		<link>https://www.enter.co/empresas/colombia-digital/no-la-imagen-del-papa-swagged-es-falsa-y-un-problema-real/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Mon, 27 Mar 2023 23:30:34 +0000</pubDate>
				<category><![CDATA[Transformación Digital]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Midjourney]]></category>
		<category><![CDATA[papa]]></category>
		<category><![CDATA[papa francisco]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=537212</guid>

					<description><![CDATA[Desde el año pasado las imágenes generadas a través de Inteligencia Artificial han sido tema de conversación. La novedad está en poder utilizar frases para crear, en segundos, un dibujo o fotos. Y a medida que más modelos como DALL-E o Midjourney han pulido su AI, más realistas se han vuelto estas piezas. Este fin [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Desde el año pasado las imágenes generadas a través de Inteligencia Artificial han sido tema de conversación. La novedad está en poder utilizar frases para crear, en segundos, un dibujo o fotos. Y a medida que más modelos como DALL-E o Midjourney han pulido su AI, más realistas se han vuelto estas piezas. Este fin de semana, sin embargo, una de estas imágenes se volvió viral y de paso demostró el peligro actual que tienen estos modelos AI: Papa Swagged.<span id="more-537212"></span></p>
<p>La imagen muestra al Papa Francisco usando un abrigo de marca. Inicialmente la ‘foto’ se difundió como un meme, pero solo tomó un poco de tiempo antes de que algunas personas creyeran que se trataba de una verdadera fotografía y comenzaran a abrir un debate sobre las prioridades de la iglesia. De hecho, Twitter tuvo que agregar para antes del fin de semana una etiqueta indicando que se trataba de una fotografía falsa creada con Midjourney.</p>
<p>Por supuesto, los más detallistas encontrarán que hay muchos signos en Papa Swagged que indican que se trata de una imagen creada por AI. Por ejemplo, el crucifijo tiene ángulos extraños y se posiciona de manera rara encima del abrigo. El Jesús tampoco tiene buenos detalles y ni siquiera tiene brazos que se extiendan de manera correcta. La mano (que suele ser el talón de Aquiles de la AI) no tiene forma y tampoco podría sujetar el vaso de café con sus dedos inexistentes.</p>
<p>Y, sin embargo, como muchos han señalado es realista en el sentido de que a primera vista parece real. Algo importante, pues la experiencia con la información falsa nos ha demostrado que son pocas las personas que se toman el tiempo para analizar de manera crítica la información o piezas que encuentran en Internet. ¿Cuántos de ustedes verían una de estas fotos en una línea de tiempo en Twitter y la terminarían por confundir con algo que pudo haber pasado? ¿Cuántos se tomarían el tiempo de buscar las señales que indiquen que fue creada con AI?</p>
<h3>
Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/deepfake-pornografico-una-horrible-practica-que-facebook-esta-impulsando/" target="_blank" rel="noopener">Deepfake pornográfico: una (horrible) práctica que Facebook está impulsando</a></h3>
<p>Para aquellos que llevamos un tiempo en el ‘rodeo’ de las redes sociales y la Internet el problema no es nuevo. Cuando comenzaron a popularizarse los deepfake (videos en los que gracias a software era posible ‘reemplazar’ el rostro de una persona en un video) las mismas inquietudes surgieron. ¿Están preparadas las redes sociales y las personas para aprender a diferenciar estas imágenes en los momentos más críticos?</p>
<p>Y la respuesta, por desgracia es que no: no lo estamos. Las elecciones más recientes comprobaron que las redes sociales no tienen los mecanismos para controlar estas piezas antes de que se hagan virales. Lo que se entiende. ¿Está la solución en prohibir las imágenes construidas en deepfake? Por supuesto que no. Otra solución asegura que este tipo de piezas deberían incluir algún tipo de ‘huella’ digital que las diferencie de las imágenes tradicionales, pero esta alternativa olvida la facilidad con la que se duplica el contenido en la Internet…</p>
<p>Por desgracia no parece haber una solución para este problema y, más importante, tampoco la intención por parte de los responsables por crear un sistema lo suficientemente robusto para evitar que las imágenes súper realistas creadas por AI terminen por pasar de los memes a una herramienta de información falsa que no podamos controlar.</p>
<p><em>Imagen: <a href="https://midjourney.com/" target="_blank" rel="noopener">Midjourney</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deepfake pornográfico: una (horrible) práctica que Facebook está impulsando</title>
		<link>https://www.enter.co/empresas/seguridad/deepfake-pornografico-una-horrible-practica-que-facebook-esta-impulsando/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Wed, 15 Mar 2023 18:30:03 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[Deepfake pornográfico]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[FaceMega]]></category>
		<category><![CDATA[pornografía]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=536586</guid>

					<description><![CDATA[La pesadilla de no saber lo que es real se ha apoderado del mayor temor de los internautas: que su cara aparezca en un video pornográfico. Esta práctica no es del todo nueva, desde hace varios años existen cientos de aplicaciones y sitios web que permiten realizar “Deepfake” (ultrafalso). Vamos, que esto no es del [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La pesadilla de no saber lo que es real se ha apoderado del mayor temor de los internautas: que su cara aparezca en un video pornográfico. Esta práctica no es del todo nueva, desde hace varios años existen cientos de aplicaciones y sitios web que permiten realizar “Deepfake” (ultrafalso). Vamos, que esto no es del todo malo, como la mayoría de recursos tecnológicos como la Inteligencia Artificial (AI), depende del uso que se le dé.<span id="more-536586"></span></p>
<p>Lamentablemente, algunos han optado por crear videos pornográficos con la cara de otras personas, especialmente, mujeres. Lo más problemático de la situación es que las redes sociales están funcionando como una ventana para darle más visibilidad a este tipo de contenido. Recientemente, apareció en Facebook un anucio de una aplicación donde se pueden realizar este tipo de ediciones.</p>
<p>“Me encontré con este anuncio ayer y wow, ¿en serio?, se lee en el tuit publicado por la periodista Lauren Barton el lunes 6 de marzo. En él, se muestra un pantallazo de un anuncio en Facebook donde se ve un video con la actriz Emma Watson. La actriz se inclina mientras mira a la persona que la filma, luego la cámara se corta antes de que las cosas vayan más lejos. Aunque el contenido no muestra ninguna imagen explícita, no hay duda de que se trata de un montaje pornográfico.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">i got this ad yesterday and wow what the hell <a href="https://t.co/smGiR3MfMb">pic.twitter.com/smGiR3MfMb</a></p>
<p>— lauren (@laurenbarton03) <a href="https://twitter.com/laurenbarton03/status/1632769865122545664?ref_src=twsrc%5Etfw">March 6, 2023</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/zelenski-se-rindio-en-video-el-deepfake-que-meta-tuvo-que-eliminar-de-sus-redes/" target="_blank" rel="noopener">¿Zelenski se rindió en video? El deepfake que Meta tuvo que eliminar de sus redes</a></h3>
<p>El anuncio, que también cuenta con una foto de la actriz cuando aún era menor de edad, estuvo visible durante varios días en Facebook e Instagram. El anuncio promociona FaceMega, una aplicación que te permite importar la cara de cualquier persona y aplicarla a diferentes plantillas de video. Según una  reciente investigación de NBC, durante el fin de semana se emitieron nada menos que 230 anuncios de este tipo en las redes sociales de Meta.</p>
<p>De hecho, en las últimas semanas, los analistas han notado un importante incremento en el tráfico a los sitios que alojan este tipo de videos, los cuales han sido realizados sin el consentimiento de las personas cuyos rostros son usados allí. Aunque la mayoría de contenido de “deepfake” pornográfico se realiza con celebridades, hay algunas personas de a pie que han informado haber visto su cara en estos sitios.</p>
<p>En todo caso, aunque aplicaciones como FaceMega, que están dedicadas a brindar servicios de deepfake, no promocionan precisamente los videos pornográficos, hacen una clara alusión que carecen de sutiliza, como el de Emma Watson. De hecho, un informe de 2019 estimó la proporción de montajes pornográficos en el mundo del deepfake en un 96%.</p>
<p><em>Imagen: <a href="http://www.unsplash.com" target="_blank" rel="noopener">Unsplash</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Presidentes jugando Minecraft: La nueva tendencia de TikTok con AI</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/presidentes-jugando-minecraft-la-nueva-tendencia-de-tiktok-con-ai/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Thu, 23 Feb 2023 13:39:02 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[Algoritmo de TikTok]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[Inteligencia artficial]]></category>
		<category><![CDATA[Tendencias TikTok]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[Trump]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=535243</guid>

					<description><![CDATA[¿Cómo sería si Barack Obama, Donald Trump y Joe Biden estuvieran juntos en una partida de Overwatch? Gracias la inteligencia artificial lo podemos saber. Se trata de la nueva tendencia que usa AI y las voces de los presidentes y expresidentes de los Estados Unidos. La nueva moda de TikTok es bastante sencilla. Personas con [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>¿Cómo sería si B<a href="https://www.enter.co/cultura-digital/el-popurri/tienes-los-mismos-gustos-musicales-que-barack-obama/" target="_blank" rel="noopener">arack Obama</a>, <a href="https://www.enter.co/cultura-digital/redes-sociales/meta-le-devuelve-su-cuenta-de-facebook-donald-trump-pero-con-algunas-advertencias/" target="_blank" rel="noopener">Donald Trump</a> y<a href="https://www.enter.co/empresas/negocios/biden-invertira-para-estimular-la-industria-de-procesadores-y-semiconductores/" target="_blank" rel="noopener"> Joe Biden</a> estuvieran juntos en una partida de Overwatch? Gracias la inteligencia artificial lo podemos saber. Se trata de la <strong>nueva tendencia que usa AI</strong> y las voces de los presidentes y expresidentes de los Estados Unidos.</p>
<p><span id="more-535243"></span></p>
<p>La nueva moda de TikTok es bastante sencilla. <a href="https://www.tiktok.com/@zesianferummi?referer_url=www.polygon.com%2F23610381%2Fpresidents-play-minecraft-ai-voice-meme-joe-biden-trump&amp;refer=embed&amp;embed_source=121331973%2C71011722%2C120811592%2C120810756%3Bnull%3Bembed_masking&amp;referer_video_id=7201705291149348138" target="_blank" rel="noopener">Personas con acceso a herramientas de inteligencia artificial </a>alimentan una AI con las voces de figuras públicas como Trump y Obama, para luego ponerlas a leer un guion que los hace sonar como si fueran adolescentes de 13 años tóxicos jugando videojuegos.</p>
<blockquote class="tiktok-embed" style="max-width: 605px; min-width: 325px;" cite="https://www.tiktok.com/@deepfakenews/video/7202015702444756266" data-video-id="7202015702444756266">
<section><a title="@deepfakenews" href="https://www.tiktok.com/@deepfakenews?refer=embed" target="_blank" rel="noopener">@deepfakenews</a> Episode 2: Trump Finds Biden’s House <a title="trump" href="https://www.tiktok.com/tag/trump?refer=embed" target="_blank" rel="noopener">#trump</a> <a title="biden" href="https://www.tiktok.com/tag/biden?refer=embed" target="_blank" rel="noopener">#biden</a> <a title="obama" href="https://www.tiktok.com/tag/obama?refer=embed" target="_blank" rel="noopener">#obama</a> <a title="deepfake" href="https://www.tiktok.com/tag/deepfake?refer=embed" target="_blank" rel="noopener">#deepfake</a> <a title="meme" href="https://www.tiktok.com/tag/meme?refer=embed" target="_blank" rel="noopener">#meme</a> <a title="minecraft" href="https://www.tiktok.com/tag/minecraft?refer=embed" target="_blank" rel="noopener">#minecraft</a> <a title="♬ Sweden - C418" href="https://www.tiktok.com/music/Sweden-6943027366273517570?refer=embed" target="_blank" rel="noopener">♬ Sweden &#8211; C418</a></section>
</blockquote>
<p><script async src="https://www.tiktok.com/embed.js"></script><br />
Y aunque el concepto es sencillo, es muy fácil entender por qué razón estos videos se están convirtiendo en una de las tenencias de TikTok imposibles de escapar. La parodia de rivalidad entre Trump y Obama traducida a una partida de videojuegos nos hace entender que <strong>entre las discusiones en Twitter y los insultos tóxicos de una partida en línea solo hay un control de por medio.</strong> También resulta divertido escuchar a Obama regodearse por su ‘habilidad’ para lanzar bombas.</p>
<blockquote class="tiktok-embed" style="max-width: 605px; min-width: 325px;" cite="https://www.tiktok.com/@ripherkz/video/7200889405857451269" data-video-id="7200889405857451269">
<section><a title="@ripherkz" href="https://www.tiktok.com/@ripherkz?refer=embed" target="_blank" rel="noopener">@ripherkz</a> Joe Biden, Donald Trump and Obama argue over rust. <a title="joebiden" href="https://www.tiktok.com/tag/joebiden?refer=embed" target="_blank" rel="noopener">#joebiden</a> <a title="trump" href="https://www.tiktok.com/tag/trump?refer=embed" target="_blank" rel="noopener">#trump</a> <a title="obama" href="https://www.tiktok.com/tag/obama?refer=embed" target="_blank" rel="noopener">#obama</a> <a title="funny" href="https://www.tiktok.com/tag/funny?refer=embed" target="_blank" rel="noopener">#funny</a> <a title="fyp" href="https://www.tiktok.com/tag/fyp?refer=embed" target="_blank" rel="noopener">#fyp</a> <a title="rust" href="https://www.tiktok.com/tag/rust?refer=embed" target="_blank" rel="noopener">#rust</a> <a title="♬ joe loses trumps and bidens ak in rust - Ripherkz" href="https://www.tiktok.com/music/joe-loses-trumps-and-bidens-ak-in-rust-7200889431992060677?refer=embed" target="_blank" rel="noopener">♬ joe loses trumps and bidens ak in rust &#8211; Ripherkz</a></section>
</blockquote>
<p><script async src="https://www.tiktok.com/embed.js"></script><br />
Por supuesto, por más que la AI pueda imitar las voces es en<strong> el tono y la potencia donde falla y claramente vemos al robot.</strong> Cualquiera que haya estado en una partida de Overwatch sabe que el tono en el que se lanzan estos comentarios es mucho menos neutro que el de los AI-presidentes.</p>
<blockquote class="tiktok-embed" style="max-width: 605px; min-width: 325px;" cite="https://www.tiktok.com/@justpadetwitch/video/7199701031003933995" data-video-id="7199701031003933995">
<section><a title="@justpadetwitch" href="https://www.tiktok.com/@justpadetwitch?refer=embed" target="_blank" rel="noopener">@justpadetwitch</a> Replying to @blitzwv thanks for the love on the recent vids <a title="presidents" href="https://www.tiktok.com/tag/presidents?refer=embed" target="_blank" rel="noopener">#presidents</a> <a title="minecraft" href="https://www.tiktok.com/tag/minecraft?refer=embed" target="_blank" rel="noopener">#minecraft</a> <a title="parody" href="https://www.tiktok.com/tag/parody?refer=embed" target="_blank" rel="noopener">#parody</a> <a title="ai" href="https://www.tiktok.com/tag/ai?refer=embed" target="_blank" rel="noopener">#ai</a> <a title="funny" href="https://www.tiktok.com/tag/funny?refer=embed" target="_blank" rel="noopener">#funny</a> <a title="♬ original sound - pade" href="https://www.tiktok.com/music/original-sound-7199701092681206570?refer=embed" target="_blank" rel="noopener">♬ original sound &#8211; pade</a></section>
</blockquote>
<p><script async src="https://www.tiktok.com/embed.js"></script></p>
<h3><strong>Te puede interesar: <a href="https://www.enter.co/cultura-digital/redes-sociales/tiktok-trivia-la-nueva-experiencia-interactiva-de-la-red-social/" target="_blank" rel="noopener">TikTok Trivia, la nueva experiencia interactiva de la red social</a></strong></h3>
<p>Sin embargo, un área en el que esto tono neutro resulta mucho más real (y menos divertido) es en el <strong>uso de deepfakes para crear discursos o declaraciones falsas</strong> y luego compartirlas como noticias. El uso de AI para imitar voces no es nuevo y, por desgracia, ya ha sido utilizado para compartir información falsa en la guerra sucia de la información que hoy ocurre en las redes sociales. Un arma poderosa, considerando lo polarizadas que están las personas y lo fácil que es encenderlas con un discurso falso.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">i regret to inform the FFXIV community that the presidential raid group has broken up due to The Discourse &#x1f614; <a href="https://t.co/KivAjbkKk8">pic.twitter.com/KivAjbkKk8</a></p>
<p>— JAB &#x1f96a; NOPHICA&#8217;S FAVORITE (@qtrcirclejab) <a href="https://twitter.com/qtrcirclejab/status/1626374331851833344?ref_src=twsrc%5Etfw">February 17, 2023</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>Así que, entre todo, resulta al menos divertido el ver a las personas utilizando esta AI para divertirse a costa de los presidentes. En ENTER.CO levantamos el reto a los amantes de la inteligencia artificial para que se armen algún video con las figuras políticas colombianos. No podemos esperar por ver cómo se vería<strong> un video en el que el presidente Gustavo Petro y la alcalde de Bogotá Claudia López</strong> discuten por la decisión de construir una granja por encima del suelo.</p>
<p><em>Imágenes: captura de pantalla y monataje ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Venderías tu rostro a una startup?</title>
		<link>https://www.enter.co/startups/innovacion/venderias-rostro-startup-deepfake/</link>
		
		<dc:creator><![CDATA[Mónica Amézquita Aldana]]></dc:creator>
		<pubDate>Tue, 07 Sep 2021 16:30:42 +0000</pubDate>
				<category><![CDATA[Innovación]]></category>
		<category><![CDATA[comerciales]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[emprendimiento]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Marketing]]></category>
		<category><![CDATA[modelos]]></category>
		<category><![CDATA[Rostros]]></category>
		<category><![CDATA[startup]]></category>
		<category><![CDATA[Videos falsos]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=514219</guid>

					<description><![CDATA[¿Alguna vez soñaste con ser modelo pero no encontraste el camino para conseguirlo? Esta startup te ‘compra tu rostro’ y te paga cada vez que lo utilice. ¿Sabes de qué se trata el deepfake? Si eres activo en redes sociales seguramente habrás visto ‘falsificaciones’ en los que se utiliza el rostro o voz de algún [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">¿Alguna vez soñaste con ser <a href="https://www.enter.co/noticias/modelos/" target="_blank" rel="noopener noreferrer">modelo</a> pero no encontraste el camino para conseguirlo? Esta <a href="https://www.enter.co/seccion/startups/" target="_blank" rel="noopener noreferrer">startup</a> te ‘compra tu rostro’ y te paga cada vez que lo utilice.</span><span id="more-514219"></span></p>
<p><span style="font-weight: 400;">¿Sabes de qué se trata el deepfake? Si eres activo en redes sociales seguramente habrás visto ‘falsificaciones’ en los que se utiliza el rostro o voz de algún famoso en un video que no es real. O quizás hayas descargado en tu celular una aplicación para poner tu cara sobre el cuerpo del protagonista de una película de acción.</span></p>
<p><span style="font-weight: 400;">De eso se trata la tecnología deepfake y ha resultado tan hilarante en redes sociales, como peligroso a la hora de consolidar estafas o engaños. A través de esta tecnología se realizan montajes, en los que </span><span style="font-weight: 400;">el rostro o voz de una persona son manipulados utilizando software de inteligencia artificial para que un video que no es real parezca auténtico. </span></p>
<p><span style="font-weight: 400;">Una startup israelí encontró en el deepfake un nuevo modelo de negocio. Se dedica a comprar los derechos de imagen del rostro de las personas para crear videos corporativos, de marketing o educativos. </span></p>
<h2><strong>También te puede interesar: <a href="https://www.enter.co/startups/innovacion/extranos-y-exitosos-5-negocios-fuera-de-lo-comun/" target="_blank" rel="noopener noreferrer">Extraños y exitosos: 5 negocios fuera de lo común</a></strong></h2>
<p>Así, la propuesta de <a href="https://www.hourone.ai/" target="_blank" rel="noopener noreferrer">Hour One</a> es ofrecer a sus clientes videos sin el uso de actores. En su lugar crean personajes a partir de los rostros de personas que venden su imagen.</p>
<p>Para construir un personaje, la compañía <span style="font-weight: 400;">usa una cámara 4K de alta resolución para grabar a una persona mientras habla y realiza diferentes gestos: llanto, preocupación, alegría, sorpresa, etc. Después estas imágenes</span><span style="font-weight: 400;"> son alteradas a través de un software de Inteligencia Artificial que les permite crear un personaje que puede decir cualquier texto en cualquier idioma.</span></p>
<p>Finalmente, los clientes eligen al rostro para su campaña, encargan el video con un guión determinado y Hour One utiliza su tecnología para crearlo. La persona dueña del rostro seleccionado recibe una pequeña comisión por el uso de su imagen.</p>
<p>Muy ingenioso, pero también peligroso. Ceder los derechos de imagen puede significar un gran riesgo para cualquier persona, teniendo en cuenta que a través de deepfake literalmente puede resultar un video de alguien haciendo cualquier cosa ¡y con tu cara! Entonces piénsalo dos veces, ¿estarías realmente dispuesto a &#8216;vender tu rostro&#8217;?</p>
<p><em>Imagen de <a href="https://www.pexels.com/es-es/foto/hombre-en-camisa-roja-con-botones-3777931/" target="_blank" rel="noopener noreferrer">Andrea Piacquadio </a>en Pexels</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Lucasfilm contrata a un YouTube por deepfake del Mandalorian</title>
		<link>https://www.enter.co/chips-bits/apps-software/lucas-contrata-a-un-youtube-por-deepfake-del-mandalorian/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Tue, 27 Jul 2021 21:30:29 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[deepfake actores]]></category>
		<category><![CDATA[deepfake cine]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[LucasFilm]]></category>
		<category><![CDATA[The Mandalorian]]></category>
		<category><![CDATA[The Mandalorian 2]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=511929</guid>

					<description><![CDATA[El uso de tecnología deepfake ha sido uno de los puntos más polémicos de aplicación tecnológica en Hollywood. Pero Lucasfilm ha sido de las compañías que de manera más abierta han abiertos han estado en su posible aplicación para series y películas. Dicho esto, muchos de sus shows y películas prefieren aplicar CG en vez [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El uso de tecnología deepfake ha sido uno de los puntos más polémicos de aplicación tecnológica en Hollywood. Pero Lucasfilm ha sido de las compañías que de manera más abierta han abiertos han estado en su posible aplicación para series y películas. Dicho esto, muchos de sus shows y películas prefieren aplicar CG en vez de Deepfakes para &#8216;rejuvenecer&#8217; actores. Uno de los casos más recientes es el de ‘The Mandalorian’. El show de Disney+ <a href="https://www.enter.co/cultura-digital/videojuegos/evaluacion-the-mandalorian-temporada-2/" target="_blank" rel="noopener noreferrer">en su segunda temporada</a> utilizó un deepfake para traer de regreso a un Luke Skywalker joven en su episodio final. La cualidad de esta técnica, sin embargo, fue bastante criticada por los fans que aseguraban que los resultados del estudio dejaban mucho que desear y en última instancia dañaban esta ilusión de viajar en el tiempo.</p>
<p><span id="more-511929"></span></p>
<p><iframe title="YouTube video player" src="https://www.youtube.com/embed/wrHXA2cSpNU" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>Diferentes youtubers han buscado ‘arreglar’ los deepfakes del estudio. Pero uno hizo tan bien su trabajo que el mismo estudio decidió contratarlo. Su nombre de usuario es <a href="https://www.youtube.com/channel/UCZXbWcv7fSZFTAZV4beckyw" target="_blank" rel="noopener noreferrer">Shamook</a> y su canal es bien conocido entre los amantes de la tecnología deepfake por ser uno de los exponentes del nivel de perfeccionismo que es posible alcanzar al utilizarla para poner actores en algunas de las escenas y películas más importantes del cine.</p>
<h3><strong>Te puede interesar: <a href="https://www.enter.co/chips-bits/apps-software/esta-herramienta-puede-reconocer-el-deepfake/" target="_blank" rel="noopener noreferrer">Esta herramienta puede reconocer el deepfake</a></strong></h3>
<p>¿Por qué esto es importante? Para empezar, el caso de Shamook es tan solo el más reciente de una generación de creadores que han encontrado relaciones con compañías importantes a través de plataformas como YouTube. Shamok ahora tiene el cargo de Artista de captura facial senior. De hecho, Lucasfilm confirmó que siempre están atentos a la aparición de nuevo talento, en caso de que sea tu sueño trabajar en una película de &#8216;Star Wars&#8217;.</p>
<p>El otro punto importante, es porque indica la insistencia de Lucasfilm en utilizar deepfake en sus producciones. El uso de esta tecnología no ha llegado sin problemas a los estudios. Algunos actores han expresado su preocupación al hecho de que un estudio (con los derechos apropiados) pueda utilizar sus expresiones faciales para traerlos de regreso a una franquicia cuando lo deseen. ¿Se puede calificar de actuación algo, cuando es un algoritmo el que está interpretando las expresiones faciales? Para una compañía como Lucasfilm se trata de una técnica que parece necesaria, considerando que muchas de sus historias a menudo requieren cameos de actores como Hamill, que participaron en las películas caso 50 años atrás.</p>
<p><em>Imágenes: YouTube</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Qué son los deepfakes? ¿Por qué nos pueden afectar?</title>
		<link>https://www.enter.co/opinion-y-analisis/que-son-los-deepfakes-por-que-nos-pueden-afectar/</link>
		
		<dc:creator><![CDATA[Colaboradores ENTER.CO]]></dc:creator>
		<pubDate>Fri, 11 Dec 2020 13:00:56 +0000</pubDate>
				<category><![CDATA[Opinión]]></category>
		<category><![CDATA[Deefakes]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[innovación]]></category>
		<category><![CDATA[nuevas tecnologías]]></category>
		<category><![CDATA[seguridad]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=501159</guid>

					<description><![CDATA[*Por: Santiago Restrepo Escalante Los &#8216;deepfakes&#8217; son vídeos que han sido manipulados por algoritmos de inteligencia artificial que logran producir imágenes y sonidos que parecen reales cuando no lo son. Esta tecnología tiene la capacidad de hacernos creer que un personaje tan respetable y diplomático como el expresidente Barack Obama ha llamado idiota al presidente [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>*Por: Santiago Restrepo Escalante</p>
<p>Los &#8216;deepfakes&#8217; son vídeos que han sido <a href="https://www.enter.co/noticias/deepfakes/" target="_blank" rel="noopener noreferrer">manipulados por algoritmos de inteligencia artificial</a> que logran producir imágenes y sonidos que parecen reales cuando no lo son. Esta tecnología tiene la capacidad de hacernos creer que un personaje tan respetable y diplomático como el expresidente Barack Obama ha llamado idiota al presidente Donald Trump en una importante conferencia de prensa. Alterar el contenido multimedia con tal exactitud pone en riesgo nuestra capacidad de distinguir lo real de lo falso, por lo tanto, muchos terminan desarrollando posturas o ideas erróneas sobre personas u organizaciones que nunca pensaron ser vistas de esa manera. Esto lo hace a usted y a la institución para la que trabaja completamente vulnerable, y mucho más en un mundo donde las plataformas de código abierto le han dado acceso a cualquier persona a este tipo de tecnología.<span id="more-501159"></span></p>
<p>Hoy, la tecnología deepfake está siendo utilizada en gran parte contra la intimidad de las mujeres. En un artículo del diario inglés The Guardian, se expone que una compañía llamada Deeptrance encontró 15.000 videos con esta tecnología en septiembre de 2019, de los cuales un 96 % de estos correspondían a material pornográfico donde en su mayoría se asignaba rostros de celebridades femeninas a cuerpos de estrellas porno.</p>
<p>Este no es el único caso de uso que podría afectar a nuestra sociedad, ya que hemos visto cómo esta técnica ha sido utilizada para fragmentar la opinión pública; donde la democracia que conocemos podría desmoronarse si no contenemos la propagación de este tipo de videos falsos en las redes sociales. Por ejemplo, el senador republicano Marco Rubio dijo que los deepfakes se convertirán en la próxima ola de ataque contra Estados Unidos y las democracias occidentales.</p>
<p>Se dice que con el uso de simples memes la interferencia rusa logró deteriorar el resultado de las elecciones presidenciales de 2016, imaginemos lo que podría hacerse con los deepfakes en futuros años.</p>
<p>Lo más preocupante es que este tipo de tecnologías está al alcance de cualquier persona, a tal punto de que con una sencilla capacitación en línea se podría llegar a destrozar la reputación que se ha construido durante años y esto podría afectar a una persona o compañías enteras. Las consecuencias éticas que tiene esta tecnología son inmensas, algunas van desde perder nuestro siguiente empleo, a causa de algo que no dijimos ni hicimos, hasta llegar a deteriorar las democracias más fuertes del mundo.</p>
<p>El hecho de que esta tecnología pueda denigrar injustamente la imagen de un individuo o de una organización, sin ser fácilmente detectada, la convierte en uno de los retos más importantes del siglo XXI.</p>
<p>Si queremos seguir protegiendo el derecho al buen nombre, será mejor que las grandes corporaciones desarrollen algoritmos proactivos que detecten estos videos falsos para que puedan ser eliminados antes de que ocasionen una injusticia. Ahora bien, muchas de estas organizaciones ya comprenden la inmensidad del problema y vienen trabajando en soluciones que puedan mitigarlo. Por ejemplo, grandes corporaciones como Facebook y Microsoft ya han tomado iniciativas para detectar y eliminar videos deepfake. Pero mientras eso ocurre, yo recomiendo siempre verificar la fuente del contenido que vemos, no podemos dejar toda la responsabilidad en manos de las grandes corporaciones, también está en nosotros luchar por la verdad digital.</p>
<p>Imagen: <a href="https://www.freepik.com/free-vector/artificial-intelligence-face-recognition_5500888.htm#page=1&amp;query=face%20recognition&amp;position=31" target="_blank" rel="noopener noreferrer">Pikisuperstar</a> (Vía Freepik).</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
