<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Deepfakes: Noticias, Fotos, Evaluaciones, Precios y Rumores de Deepfakes • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/deepfakes/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/deepfakes/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Thu, 19 Feb 2026 16:47:13 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>Deepfakes: Noticias, Fotos, Evaluaciones, Precios y Rumores de Deepfakes • ENTER.CO</title>
	<link>https://www.enter.co/noticias/deepfakes/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>En Dinamarca las personas tendrán los derechos de autor de su apariencia, para protegerse de los Deepfakes</title>
		<link>https://www.enter.co/especiales/dev/en-dinamarca-las-personas-tendran-los-derechos-de-autor-de-su-apariencia-para-protegerse-de-los-deepfakes/</link>
					<comments>https://www.enter.co/especiales/dev/en-dinamarca-las-personas-tendran-los-derechos-de-autor-de-su-apariencia-para-protegerse-de-los-deepfakes/#respond</comments>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Thu, 19 Feb 2026 16:47:12 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[ciberseguridad]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[derechos de autor]]></category>
		<category><![CDATA[Dinamarca]]></category>
		<category><![CDATA[Europa]]></category>
		<category><![CDATA[Identidad digital]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Jakob Engel-Schmidt]]></category>
		<category><![CDATA[Ley de apariencia]]></category>
		<category><![CDATA[privacidad digital]]></category>
		<category><![CDATA[propiedad intelectual]]></category>
		<category><![CDATA[protección de datos]]></category>
		<category><![CDATA[REGULACIÓN IA]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=581144</guid>

					<description><![CDATA[Dinamarca ha dado un paso que muchos países deberían imitar: crear leyes que protejan a sus ciudadanos de los deepfakes. Esta semana, el gobierno presentó una ley que entregaría los derechos de autor de la apariencia física a las personas, convirtiendo en ilegal que cualquier aplicación pueda imitarla o usarla sin autorización previa. La propuesta [&#8230;]]]></description>
										<content:encoded><![CDATA[<p data-path-to-node="2">Dinamarca ha dado un paso que muchos países deberían imitar: <strong><a href="https://www.enter.co/empresas/seguridad/deepsight-la-herramienta-que-te-dice-si-lo-que-ves-es-real-o-un-deepfake-asi-funciona/" target="_blank" rel="noopener">crear leyes que protejan a sus ciudadanos de los deepfakes</a></strong>. Esta semana, el gobierno presentó una ley que entregaría los <b data-path-to-node="2" data-index-in-node="182">derechos de autor de la apariencia física</b> a las personas, convirtiendo en ilegal que cualquier aplicación pueda imitarla o usarla sin autorización previa.</p>
<p data-path-to-node="2"><span id="more-581144"></span></p>
<p data-path-to-node="3">La propuesta es histórica por diversos motivos; el más relevante es que, hasta el momento, los derechos de autor se limitaban a proteger creaciones originales como canciones, libros o imágenes. Sin embargo, esta nueva normativa pretende establecer un marco en el que la<strong><a href="https://www.enter.co/empresas/seguridad/deepfakes-el-nuevo-rostro-invisible-del-fraude-que-acecha-a-las-empresas-en-colombia-como-protegernos/" target="_blank" rel="noopener"> apariencia personal esté protegida</a></strong> por las mismas leyes que impiden el uso no autorizado de marcas registradas o propiedades intelectuales como <strong><a href="https://www.enter.co/especiales/dev/netflix-demanda-a-seedance/" target="_blank" rel="noopener">K-Pop Demon Hunters</a></strong>.</p>
<p data-path-to-node="4">Aunque la ley fue presentada originalmente en junio de 2025, esta semana la propuesta se acercó a su aprobación final. Esto ha captado la atención internacional, ya que Dinamarca podría imponer la <b data-path-to-node="4" data-index-in-node="197">primera ley de identidad digital</b> de este tipo en Europa. “<em>Si no protegemos a los titulares de los derechos, y si cada ciudadano puede falsificar o copiar las artes y las obras de otras personas, le quitamos el sustento a la comunidad artística</em>”, <strong><a href="https://danish-presidency.consilium.europa.eu/en/events/conference-on-copyright-and-artificial-intelligence/" target="_blank" rel="noopener">aseguró Jakob Engel-Schmidt, ministro de Cultura de Dinamarca.</a></strong></p>
<h2 data-path-to-node="5">Protección contra los deepfakes: ¿un paso obligatorio?</h2>
<p data-path-to-node="6">La norma propuesta por Dinamarca ofrecería mecanismos legales para que una persona pueda demandar si encuentra contenido que replique su <b data-path-to-node="6" data-index-in-node="137">apariencia o voz sin consentimiento</b>. Además, prohibiría de forma tajante que los deepfakes creados sin autorización sean compartidos en plataformas digitales.</p>
<p data-path-to-node="7">Existen puntos que generan dudas sobre la operatividad de la norma a largo plazo. La propuesta otorga libertad para exigir a plataformas como Instagram o TikTok la <b data-path-to-node="7" data-index-in-node="164">eliminación de contenido no autorizado</b>, de forma similar a como Disney solicita retirar clips de sus películas. No obstante, queda pendiente resolver cómo interactúa este derecho con las aplicaciones de IA cuyos términos y condiciones solicitan acceso para usar dicha información. La normativa aclara que estos derechos no aplican en casos de <b data-path-to-node="7" data-index-in-node="507">parodia o sátira</b>, protegiendo así la libertad de expresión al criticar a figuras públicas.</p>
<h2 data-path-to-node="8">¿Necesitamos en Colombia una norma que nos proteja contra los deepfakes?</h2>
<p data-path-to-node="9">El principal problema legal que representan los deepfakes hoy radica en la <b data-path-to-node="9" data-index-in-node="75">vulneración de derechos fundamentales</b> como el honor, la propia imagen y la intimidad. Esto es crítico en casos de contenido pornográfico no consentido y suplantación de identidad para fraudes financieros. Además, estas herramientas pueden manipular la opinión pública mediante <b data-path-to-node="9" data-index-in-node="352">desinformación política</b>, poniendo en jaque la integridad de los procesos electorales.</p>
<p data-path-to-node="10">Ante esta situación, diversos países han implementado medidas regulatorias con distintos enfoques. La Unión Europea, a través de su <b data-path-to-node="10" data-index-in-node="132">Reglamento de Inteligencia Artificial</b> (en vigor pleno este 2026), exige que todo contenido generado por IA sea etiquetado claramente para garantizar la transparencia. Por su parte, Estados Unidos ha avanzado con leyes federales que otorgan herramientas para la <b data-path-to-node="10" data-index-in-node="393">eliminación rápida de imágenes no consentidas</b>, protegiendo la voz y apariencia frente a réplicas digitales.</p>
<p data-path-to-node="11">En otras regiones, el enfoque se centra en el <b data-path-to-node="11" data-index-in-node="46">control técnico y responsabilidad penal</b>. China fue pionera al exigir marcas de agua digitales cifradas imposibles de eliminar, vinculando la identidad del usuario con el contenido. En países como España, se han reformado los códigos penales para tipificar la <b data-path-to-node="11" data-index-in-node="305">difusión de deepfakes sexuales</b> como un delito contra la integridad moral. Este esfuerzo global refleja un cambio de paradigma: la ley busca proteger la identidad digital como un activo esencial del ser humano.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/especiales/dev/en-dinamarca-las-personas-tendran-los-derechos-de-autor-de-su-apariencia-para-protegerse-de-los-deepfakes/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Deepsight, la herramienta que te dice si lo que ves es real o un deepfake: Así funciona</title>
		<link>https://www.enter.co/empresas/seguridad/deepsight-la-herramienta-que-te-dice-si-lo-que-ves-es-real-o-un-deepfake-asi-funciona/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Wed, 03 Dec 2025 16:32:30 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Deepsight]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=578413</guid>

					<description><![CDATA[La expansión de los deepfakes y los fraudes impulsados por inteligencia artificial ha encendido las alarmas en sectores que dependen de la verificación digital para operar con seguridad, es por eso que, Incode Technologies anunció el lanzamiento de Deepsight, una tecnología diseñada para detectar suplantaciones generadas por IA con un nivel de precisión que, según [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>La expansión de los deepfakes y los fraudes impulsados por inteligencia artificial ha encendido las alarmas en sectores que dependen de la verificación digital para operar con seguridad, es por eso que, Incode Technologies anunció el lanzamiento de Deepsight, una tecnología diseñada para detectar suplantaciones generadas por IA con un nivel de precisión que, según evaluaciones independientes, supera a cualquier solución comercial disponible hoy.</p>
<p><span id="more-578413"></span></p>
<h2>¿Qué es Deepsight?</h2>
<p>Se trata de una plataforma de detección multimodal capaz de identificar si una persona es real o si está siendo suplantada mediante deepfakes, identidades sintéticas, cámaras virtuales o técnicas de inyección de video. La herramienta forma parte de la suite de identidad de Incode y puede integrarse en procesos como onboarding digital, autenticación continua, verificación de empleados o validación de edad.</p>
<p>El desarrollo estuvo respaldado por pruebas realizadas en la Universidad de Purdue, una de las instituciones más reconocidas en ingeniería e inteligencia artificial. En su estudio reciente sobre detección de deepfakes, Deepsight obtuvo la mayor precisión y la menor tasa de falsos positivos, por encima de sistemas académicos, gubernamentales y comerciales.</p>
<h2>¿Cómo funciona?</h2>
<p>Deepsight utiliza una arquitectura de tres capas que analiza múltiples señales al mismo tiempo. La primera es la capa de percepción, que emplea modelos de IA entrenados para distinguir rostros humanos reales de falsificaciones generadas digitalmente. La segunda es la capa de integridad, encargada de validar si la cámara o el dispositivo que captura la imagen es auténtico, bloqueando cámaras virtuales u otros medios manipulados. Finalmente, la capa de comportamiento examina microacciones y patrones de movimiento imposibles de replicar por los deepfakes actuales.</p>
<p>Toda esta verificación se ejecuta en menos de 100 milisegundos, sin generar fricción para el usuario. Según Incode, la tecnología ha demostrado ser hasta 10 veces más precisa que los revisores humanos entrenados para detectar fraude, lo que revela el nivel de sofisticación que alcanzaron los ataques basados en IA.</p>
<h2>¿Por qué es importante esta tecnología?</h2>
<p>El aumento de ataques digitales hace que la capacidad de distinguir entre lo real y lo falso ya no sea un asunto tecnológico, sino un factor crítico de seguridad nacional y empresarial. En Colombia, solo en 2024 se registraron más de 74.000 denuncias por ciberdelitos y alrededor de 36.000 millones de intentos de ciberataques, cifras que posicionan al país como uno de los más afectados de América Latina.</p>
<p>Banca, salud, energía y plataformas digitales enfrentan amenazas constantes de suplantación, robo de identidad y fraude transaccional. Ante ese escenario, herramientas como Deepsight buscan reducir el riesgo operativo, evitar pérdidas millonarias y preservar la confianza de los usuarios en procesos digitales.</p>
<p>Hoy, la tecnología ya se implementa en empresas como TikTok, Scotiabank y Nubank, donde ha protegido más de seis millones de sesiones de verificación. El lanzamiento también acompaña la visión de Incode hacia una “identidad agentiva”, en la que personas verificadas podrán interactuar de manera segura con agentes de IA que actúan en su nombre.</p>
<p><em>Imagen: <a class="esY3oRyiYXaR_v4uy07w sxkUu5bV97Bq1nizhTta" href="https://www.istockphoto.com/portfolio/TeroVesalainen?mediatype=photography" data-testid="photographer"><span class="Skavx60ZymqpxWaVTy50"><span dir="auto">Tero Vesalainen</span></span></a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Opinión &#124; La Ley 2502: un paso firme hacia la protección de la identidad digital en Colombia</title>
		<link>https://www.enter.co/opinion-y-analisis/opinion-la-ley-2502-un-paso-firme-hacia-la-proteccion-de-la-identidad-digital-en-colombia/</link>
		
		<dc:creator><![CDATA[Colaboradores ENTER.CO]]></dc:creator>
		<pubDate>Tue, 28 Oct 2025 21:00:00 +0000</pubDate>
				<category><![CDATA[Opinión]]></category>
		<category><![CDATA[colombia]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Identidad digital]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=577435</guid>

					<description><![CDATA[Por: Simbad Ceballos, CEO de OlimpIA. Hace poco circuló en medios internacionales la historia de un joven cuya imagen fue utilizada en un video falso creado con inteligencia artificial. El material era tan realista que engañó incluso a personas cercanas a él. Este caso no ocurrió en Colombia, pero bien podría haber pasado aquí. La [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Por: Simbad Ceballos, CEO de OlimpIA.</p>
<p>Hace poco circuló en medios internacionales la historia de un joven cuya imagen fue utilizada en un video falso creado con inteligencia artificial. El material era tan realista que engañó incluso a personas cercanas a él. Este caso no ocurrió en Colombia, pero bien podría haber pasado aquí. La anécdota refleja el alcance de los deepfakes y pone sobre la mesa una preocupación que no distingue fronteras y es la manipulación de la identidad digital.</p>
<p><span id="more-577435"></span></p>
<p>Frente a esta situación, Colombia dio un paso significativo con la aprobación de la<a href="https://www.alcaldiabogota.gov.co/sisjur/normas/Norma1.jsp?dt=S&amp;i=188454" target="_blank" rel="noopener"> Ley 2502 de 2025,</a> que modificó el artículo 296 del Código Penal. La norma establece sanciones para quienes suplanten a otra persona o alteren su identidad con fines de provecho o daño, y contempla un agravante cuando estas conductas se realizan mediante inteligencia artificial. Con esta decisión, el país reconoce que los fraudes digitales son una realidad presente que afecta la confianza ciudadana.</p>
<p>Este avance resuena con otras iniciativas relevantes aplicadas en otras naciones. Por ejemplo, en el Reino Unido se aprobó una legislación que castiga con prisión la creación y difusión de deepfakes sexuales sin consentimiento, luego de registrarse un incremento superior al 400 % en este tipo de fraude desde 2017. Casos como este demuestran que el problema no es exclusivo de una región y que la respuesta debe estar acompañada de un marco regulatorio que brinde herramientas reales para la prevención y protección de las víctimas.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/opinion-y-analisis/opinion-humanos-2-0-que-nos-define/" target="_blank" rel="noopener">Opinión | Humanos 2.0: ¿Qué nos define?</a></h3>
<p>El deepfake no es un simple juego tecnológico: es un mecanismo que puede usarse para extorsionar, suplantar, manipular pruebas electrónicas o incidir en la opinión pública. Tipificar estas prácticas como delito contribuye a cerrar vacíos legales y nos deja un mensaje contundente: la dignidad en el entorno digital debe ser protegida.</p>
<p>Desde mi experiencia, es evidente que la regulación debe acompañarse de tecnología avanzada y una cultura ciudadana más crítica frente a lo que consume, comparte y produce en línea. La alfabetización digital en el uso de tecnologías emergentes y construcción de entornos confiables son pilares fundamentales para enfrentar los nuevos riesgos con criterio y responsabilidad.</p>
<p>El debate sobre los deepfakes no es únicamente un asunto técnico; es un desafío que compromete la democracia, reputación de las personas y estabilidad institucional. Apuntemos a sostener un ecosistema tecnológico ético, consciente y seguro.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Nueva Ley 2502: hasta seis años de prisión por suplantación de identidad con inteligencia artificial en Colombia</title>
		<link>https://www.enter.co/colombia/nueva-ley-2502-hasta-seis-anos-de-prision-por-suplantacion-de-identidad-con-inteligencia-artificial-en-colombia/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 19 Aug 2025 21:24:59 +0000</pubDate>
				<category><![CDATA[colombia]]></category>
		<category><![CDATA[cárcel]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Ley 2502 del 28 de julio de 2025]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=575154</guid>

					<description><![CDATA[Colombia ya cuenta con un nuevo marco legal para enfrentar los riesgos que trae consigo la inteligencia artificial en la vida cotidiana. Con la aprobación de la Ley 2502 del 28 de julio de 2025, se modificó el artículo 296 del Código Penal y se incluyó como agravante la utilización de herramientas tecnológicas, en especial [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Colombia ya cuenta con un nuevo marco legal para enfrentar los riesgos que trae consigo la inteligencia artificial en la vida cotidiana. Con la aprobación de la <a href="https://www.alcaldiabogota.gov.co/sisjur/normas/Norma1.jsp?dt=S&amp;i=188454#:~:text=Objeto.,utilizando%20Inteligencia%20Artificial%20%2DIA%2D." target="_blank" rel="noopener">Ley 2502 del 28 de julio de 2025,</a> se modificó el artículo 296 del Código Penal y se incluyó como agravante la utilización de herramientas tecnológicas, en especial los deepfakes, dentro del delito de falsedad personal.</p>
<p><span id="more-575154"></span></p>
<p>La decisión reconoce que la manipulación digital tiene un alcance mayor que las formas tradicionales de suplantación. A partir de julio de 2026, quienes usen inteligencia artificial para atribuirse identidades o crear contenidos falsos podrán recibir multas más altas y penas de prisión que se extienden hasta seis años, dependiendo de la gravedad del caso.</p>
<p>El deepfake se ha convertido en el ejemplo más preocupante de esta amenaza. Mediante algoritmos avanzados, se pueden producir audios y videos que replican de manera convincente la voz o la apariencia de una persona, aunque nunca haya dicho o hecho lo que se muestra. Estas prácticas han sido usadas en fraudes, extorsiones y campañas de desinformación en distintos países.</p>
<p>En el texto de la nueva ley se especifica que, cuando la falsedad personal se realice con el uso de inteligencia artificial, la sanción aumentará hasta en una tercera parte. Esto significa que la justicia ahora considera que el daño provocado por estas tecnologías merece un castigo proporcional a su capacidad de impacto.</p>
<p>El tema no es exclusivo de Colombia. En el Reino Unido, por ejemplo, se aprobó recientemente una reforma que penaliza la creación y distribución de deepfakes sexuales sin consentimiento, con hasta dos años de prisión para los responsables. La experiencia internacional muestra que la regulación es una respuesta necesaria frente a un problema que no deja de crecer.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/colombia/colegios-deben-ofrecer-clases-virtuales-por-ley-el-derecho-a-estudiar-sin-ir-al-aula/" target="_blank" rel="noopener">Colegios deben ofrecer clases virtuales por ley: el derecho a estudiar sin ir al aula</a></h3>
<p>Simbad Ceballos, CEO de OlimpIA, asegura que esta norma llega en un momento decisivo. Para él, la suplantación digital no puede seguir tratándose como un simple engaño tecnológico. Al contrario, exige medidas jurídicas claras y sanciones que reflejen la magnitud del riesgo. También advierte que los deepfakes no son hechos aislados sino un fenómeno global que exige preparación y capacidad de respuesta.</p>
<p>Más allá de las sanciones, la Ley 2502 abre la puerta a una política pública sobre el uso de la inteligencia artificial en fraudes y suplantaciones. Esta deberá ser diseñada por entidades como la Fiscalía, la Policía Nacional y el Ministerio de Justicia, en coordinación con el Ministerio TIC. Se espera que incluya estrategias de educación, cooperación internacional y desarrollo de herramientas de detección.</p>
<p>La protección de la dignidad y la integridad personal es uno de los pilares de esta regulación. Manipular la voz o la imagen de alguien puede convertirse en un acto de acoso, extorsión o humillación. También está en juego la validez de las pruebas digitales en procesos judiciales y el impacto que estas falsificaciones pueden tener en la opinión pública o en la estabilidad política de un país.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/colombia/tatequieto-judicial-a-hugo-ospina-tribunal-frena-intento-de-bloquear-apps-como-uber-didi-y-cabify/" target="_blank" rel="noopener">Tatequieto judicial a Hugo Ospina: Tribunal frena intento de bloquear apps como Uber, DiDi y Cabify</a></h3>
<p>El análisis deja ver que la ley busca un balance. No pretende frenar la innovación tecnológica, sino establecer límites que eviten que la inteligencia artificial sea usada de manera abusiva. Al mismo tiempo, la norma envía un mensaje a los ciudadanos sobre la importancia de mantenerse informados y denunciar cuando su identidad digital sea vulnerada.</p>
<p>La identidad en internet hoy pesa tanto como la identidad física. Una imagen alterada o un audio manipulado pueden arruinar la reputación de una persona, desviar procesos democráticos o poner en riesgo la confianza en la información. Con esta reforma, Colombia se suma al grupo de países que empiezan a trazar una ruta de defensa frente a un fenómeno que apenas está comenzando.</p>
<p>Imagen: Archivo ENTER.CO</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deepfakes, el nuevo rostro invisible del fraude que acecha a las empresas en Colombia ¿Cómo protegernos?</title>
		<link>https://www.enter.co/empresas/seguridad/deepfakes-el-nuevo-rostro-invisible-del-fraude-que-acecha-a-las-empresas-en-colombia-como-protegernos/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Fri, 27 Jun 2025 00:41:48 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Fraude]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=573716</guid>

					<description><![CDATA[Por años, la mayor preocupación de las empresas en Colombia fueron los ciberataques tradicionales: correos de phishing, robo de contraseñas o malware. Pero ahora, una amenaza mucho más sofisticada y difícil de detectar se abre paso, los deepfakes, videos o audios falsos generados por inteligencia artificial que suplantan identidades y burlan los controles de seguridad. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Por años, la mayor preocupación de las empresas en Colombia fueron los ciberataques tradicionales: correos de phishing, robo de contraseñas o malware. Pero ahora, una amenaza mucho más sofisticada y difícil de detectar se abre paso, los deepfakes, videos o audios falsos generados por inteligencia artificial que suplantan identidades y burlan los controles de seguridad.</p>
<p><span id="more-573716"></span></p>
<p>El fenómeno no es menor. Según un estudio reciente de Microsoft, el 78% de los usuarios de internet en Colombia ha enfrentado algún tipo de riesgo en línea. Esa cifra no solo supera el promedio global, sino que también revela un escenario preocupante: el 82% de los colombianos ya está inquieto por el mal uso de la inteligencia artificial generativa, la misma tecnología que hace posible los deepfakes.</p>
<p>En las empresas, las consecuencias van más allá de la simple desinformación. Leonel Navarro Segura, director global de prácticas de ciberseguridad en Softtek, advierte que ya existen casos documentados de ejecutivos de alto nivel cuya imagen y voz han sido falsificadas con deepfakes. El resultado: estafas millonarias, accesos no autorizados a sistemas críticos y daños irreparables a la reputación.</p>
<p>“El problema con los deepfakes es que no atacan una falla técnica, atacan la confianza”, afirma Navarro. “Una llamada que parece venir del CEO, un video creíble, un audio que imita perfectamente una voz… son suficientes para vulnerar incluso a las organizaciones con los mejores sistemas de seguridad”, explica.</p>
<p>Esta amenaza se suma a las técnicas de ingeniería social ya conocidas. El phishing, por ejemplo, ahora puede potenciarse con videos falsos que confunden aún más a empleados y usuarios, generando una tormenta perfecta para los ciberdelincuentes.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/colombia/colombia-lanza-su-estrategia-de-seguridad-digital-mucho-en-el-papel-retos-en-la-realidad/" target="_blank" rel="noopener">Colombia lanza su Estrategia de Seguridad Digital: mucho en el papel, retos en la realidad</a></h3>
<p>La respuesta, dice Navarro, no puede ser solo técnica. Reforzar la cultura de ciberseguridad dentro de las compañías es fundamental. Eso implica entrenamientos frecuentes, campañas de concientización y, sobre todo, enseñar a los empleados a desconfiar, incluso de lo que ven y escuchan.</p>
<p>“Hoy en día, cualquier persona puede ser víctima de un deepfake, pero cuando se trata de un ejecutivo o un líder corporativo, las consecuencias pueden ser devastadoras”, asegura el especialista.</p>
<p>Entre las recomendaciones, destaca la implementación de autenticación multifactor y verificación biométrica en tiempo real. Además, sugiere incorporar herramientas basadas en inteligencia artificial que puedan detectar deepfakes y analizar anomalías en videos y audios en cuestión de segundos.</p>
<p>La protección de la identidad digital también se ha vuelto un asunto prioritario. Navarro recomienda usar certificados en los correos electrónicos, marcas de agua en fotos y videos públicos y sistemas avanzados de análisis de comportamiento para detectar actividades sospechosas.</p>
<p>Sin embargo, los deepfakes no solo están afectando a las grandes empresas. Navarro alerta que incluso las entrevistas de trabajo se están viendo comprometidas, con candidatos falsos que utilizan videos manipulados para superar procesos de selección.</p>
<p>En este escenario, el concepto de Zero Trust, donde nada ni nadie se da por confiable sin una verificación continua, toma fuerza. Verificar identidades con biometría, implementar detección de vida y diversificar los canales de comunicación interna son solo algunas de las medidas que Softtek sugiere.</p>
<p>Pero la pregunta más inquietante sigue sobre la mesa: ¿Puede la inteligencia artificial ser la solución al problema que ella misma ha creado? Para Navarro, la respuesta es sí.</p>
<p>“La IA puede y debe ser nuestra aliada. Con ella podemos analizar patrones de comportamiento, detectar anomalías y blindar los procesos críticos en tiempo real”, concluye.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Google toma nuevas medidas para luchar contra la desinformación: Así lo hace</title>
		<link>https://www.enter.co/chips-bits/apps-software/google-toma-medidas-para-luchar-contra-la-desinformacion-asi-lo-hace/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 06 Aug 2024 19:30:16 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Desinformación]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[internet]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=560140</guid>

					<description><![CDATA[Con el avance tecnológico, surgen nuevas oportunidades para ayudar a las personas, pero también nuevas formas de delito que debemos combatir. La tecnología de imágenes generativas ha mejorado significativamente en los últimos años, lo que ha llevado a un aumento preocupante de imágenes y vídeos generados que retratan a personas en situaciones sexualmente explícitas y [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Con el avance tecnológico, surgen nuevas oportunidades para ayudar a las personas, pero también nuevas formas de delito que debemos combatir. La <strong><a href="https://www.enter.co/colombia/que-obstaculo-tiene-la-ia-generativa-en-colombia-para-generar-empleos/" target="_blank" rel="noopener">tecnología de imágenes generativas</a></strong> ha mejorado significativamente en los últimos años, lo que ha llevado a un aumento preocupante de imágenes y vídeos generados que retratan a personas en situaciones sexualmente explícitas y se distribuyen en Internet sin su consentimiento. ¿Cómo Google está combatiendo la desinformación?</p>
<p><span id="more-560140"></span>Estos contenidos, conocidos como &#8220;deepfakes&#8221;, pueden resultar muy angustiosos para las personas afectadas. Por eso, Google ha invertido en políticas y sistemas para ayudar a las personas a tener más control sobre estos contenidos. Hoy, se comparten actualizaciones importantes para proteger aún más a las personas.</p>
<h2>¿Cómo eliminar contenido?</h2>
<p>Durante muchos años, <strong><a href="https://support.google.com/websearch/answer/9116649" target="_blank" rel="noopener">las personas usuarias han podido solicitar la eliminación de imágenes falsas no consentidas del Buscador en virtud de las políticas de Google</a></strong>. Ahora, la compañía ha desarrollado sistemas para facilitar el proceso y ayudar a las personas a abordar este problema a gran escala.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/colombia/que-obstaculo-tiene-la-ia-generativa-en-colombia-para-generar-empleos/" target="_blank" rel="noopener">¿Qué obstáculo tiene la IA Generativa en Colombia para generar empleos?</a></h3>
<p>Cuando alguien solicita con éxito la eliminación de contenido falso explícito no consentido en el que aparece en el Buscador, los sistemas de Google también intentarán filtrar todos los resultados explícitos en búsquedas similares sobre esa persona.</p>
<h2>¿Cómo clasifica la información?</h2>
<p>Con tantos contenidos creados en línea cada día, la mejor protección contra el contenido dañino es construir sistemas que clasifiquen la información de alta calidad en los primeros puestos del Buscador. Con esto en mente, se han lanzado actualizaciones de clasificación para limitar aún más la visibilidad del contenido falso explícito en el Buscador.</p>
<p>Estas actualizaciones reducirán el contenido explícito falso en muchas búsquedas y mostrarán contenido no explícito de alta calidad, como artículos de noticias relevantes, cuando esté disponible.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/ai/google-ibm-intel-microsoft-nvidia-crean-coalicion-para-una-ia-segura-cosai-en-que-consiste/" target="_blank" rel="noopener">Google, IBM, Intel, Microsoft, NVIDIA crean coalición para una IA segura, CoSAI ¿En qué consiste?</a></h3>
<p>Es necesario distinguir el contenido explícito real y consentido del contenido explícito falso. Aunque diferenciar entre estos contenidos es un desafío técnico para los motores de búsqueda, se están introduciendo mejoras continuas para sacar a la luz los contenidos legítimos y reducir la posición de los contenidos explícitos falsos.</p>
<p>Ahora, si un sitio tiene muchas páginas que han sido eliminadas del Buscador en virtud de las políticas de Google, eso es una señal clara de que no es un sitio de alta calidad, y se debería tener en cuenta a la hora de clasificar otras páginas de ese sitio. Por lo tanto, se está descendiendo la categoría de los sitios que han recibido un alto volumen de eliminaciones por imágenes explícitas falsas.</p>
<p>Imagen: <em>Archivo ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>IA no podrá plagiar tu voz en YouTube, se eliminará contenido que te simule ¿Cómo reportarlo?</title>
		<link>https://www.enter.co/chips-bits/apps-software/ia-no-podra-plagiar-tu-voz-en-youtube-se-eliminara-contenido-que-te-simule-como-reportarlo/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Tue, 02 Jul 2024 22:28:28 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[YouTube]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=558352</guid>

					<description><![CDATA[YouTube eliminará el contenido con IA que simule tu rostro o voz. Esto, por considerarse una violación a la privacidad de los usuarios afectados. ¿Cómo reportar que te han plagiado? ¿Qué excepciones tendrá la medida? Las excepciones que tendrá esta medida se relacionan con el contenido considerado como parodia, sátira o algo de valor e [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>YouTube eliminará el contenido con IA que simule tu rostro o voz. Esto, por considerarse una violación a la privacidad de los usuarios afectados. <a href="https://blog.youtube/" target="_blank" rel="noopener">¿Cómo reportar que te han plagiado?</a> ¿Qué excepciones tendrá la medida?<br />
Las excepciones que tendrá esta medida se relacionan con el contenido considerado como parodia, sátira o algo de valor e interés público.</p>
<p><span id="more-558352"></span><br />
Youtube ha sido enfático en que no se permitirán imágenes de alguna figura pública si se les muestra participado en “comportamientos sensibles”, como actividades delictivas, violencia o respaldando un producto o candidato político.</p>
<p>La red social sigue enfrentando las estafas que utilizan la Inteligencia Artificial generativa. Así, contrarresta de este tipo de contenido, permitiendo a las personas solicitar la eliminación de videos sintéticos, en que simulen una voz o rostro de cualquier ciudadano.</p>
<p>El video no sólo se bajará de la plataforma por ser engañoso, como en el caso de una deepfake, sino que se eliminará por tratarse de una violación a la privacidad.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/ee-uu-da-libertad-legal-a-redes-sociales-para-bloquear-o-permitir-publicaciones-hasta-donde-llegara-tal-autonomia/" target="_blank" rel="noopener">EE.UU. da libertad legal a redes sociales para bloquear o permitir publicaciones, ¿hasta dónde llegará tal autonomía?</a></h3>
<p>Youtube apuesta por la protección de la identidad de los afectados, explicando que enviar la solicitud de eliminación no implica que el contenido se va a dar de baja de la red social inmediatamente, sino que la decisión dependerá de ciertos parámetros.</p>
<p>La mano dura llega en un importante año de elecciones presidenciales en varios países del mundo, como Estados Unidos, que en noviembre llevará a cabo su proceso electoral.</p>
<p>YouTube aseveró que el responsable del contenido fraudulento tendrá un lapso de 48 horas para responder el reclamo. Si el contenido es eliminado antes en ese tiempo, la queja se bloqueará. Si no, YouTube iniciará un proceso de revisión entre ambas partes.</p>
<p>La red social argumenta que el proceso de eliminación del video también implica borrar el nombre y más información personal del afectado. Esto, en caso de estar presente en la descripción del clip o etiquetas.</p>
<p>A favor de la IA, Youtube sigue una serie de integraciones para que que los creadores utilicen esta tecnología para generar más videos, con la implicación de etiquetas para demostrar que determinado video contiene información generada por IA.</p>
<h3>Te puede interesar:<a href="https://www.enter.co/cultura-digital/redes-sociales/por-que-se-busca-prohibir-las-redes-sociales-para-menores-de-18-anos/" target="_blank" rel="noopener"> ¿Por qué se busca prohibir las redes sociales para menores de 18 años?</a></h3>
<p>La Encuesta Global de Seguridad Online 2024 de Microsoft, demuestra que la principal preocupación de los usuarios (71%) respecto a los problemas potenciales causados por la IA, son las estafas.</p>
<p>En segundo lugar están las deepfakes (69%), seguidos del abuso sexual online (69%), las alucinaciones relacionadas al contenido que generan (66%), la privacidad de los datos (62%) y la amplificación de prejuicios (60%).</p>
<p>Imagen: <em>Archivo ENTER.CO</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Honor te ayudará a detectar los Deepfakes y disminuir la miopía con ayuda de la IA</title>
		<link>https://www.enter.co/smartphones/honor-te-ayudara-a-detectar-los-deepfakes-y-disminuir-la-miopia-con-ayuda-de-la-ia/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Thu, 27 Jun 2024 16:30:18 +0000</pubDate>
				<category><![CDATA[Smartphones]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Honor]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Miopía]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=556690</guid>

					<description><![CDATA[Los fabricantes de teléfonos móviles, así como la mayoría de empresas de diversos sectores, han empezado a integrar la inteligencia artificial (IA) a sus servicios y dispositivos. Hemos visto celulares que pueden borrar objetos y personas de las fotos, algunos otros que crean imágenes a partir del patrón de tu ropa, pero Honor está haciendo [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Los fabricantes de teléfonos móviles, así como la mayoría de empresas de diversos sectores, han empezado a integrar la inteligencia artificial (IA) a sus servicios y dispositivos. Hemos visto celulares que <a href="https://www.enter.co/smartphones/asi-de-facil-puedes-borrar-objetos-y-personas-de-las-fotos-con-inteligencia-artificial-en-dispositivos-oppo/" target="_blank" rel="noopener">pueden borrar objetos y personas de las fotos</a>, algunos otros que<a href="https://www.enter.co/smartphones/motorola-razr-50-y-razr-50-ultra-los-nuevos-celulares-que-integran-gemini-y-mucha-ia-llegan-a-colombia/" target="_blank" rel="noopener"> crean imágenes a partir del patrón de tu ropa</a>, pero Honor está haciendo algo totalmente diferente. La compañía anunció que están usando esta tecnología para alertar sobre deepfakes y ayudar a disminuir la miopía de los usuarios.</span><span id="more-556690"></span></p>
<p><span style="font-weight: 400;">Así como la inteligencia artificial ha llegado para impulsar los servicios ya existentes y facilitar las tareas diarias de los usuarios, también está siendo usada por los delincuentes cibernéticos. De acuerdo con los </span><a href="https://www.enter.co/empresas/seguridad/el-deepfake-crece-a-un-ritmo-de-900-anualmente-asi-puedes-prevenir-esta-ciberamenaza/" target="_blank" rel="noopener"><span style="font-weight: 400;">datos del Foro Económico Mundial</span></a><span style="font-weight: 400;">, el Deepfake crece a un ritmo anual del 900%, lo que ha preocupado también a las empresas de tecnología.</span></p>
<p><span style="font-weight: 400;">Ahora, Honor anunció sus planes para combatir esta práctica delincuencial con la que han estafado a millones de personas alrededor del mundo. Los mejores teléfonos de la compañía recibirán una nueva función de inteligencia artificial que detecta los Deepfakes y alerta a los usuarios sobre el contenido fraudulento. Para ello, la herramienta analizará la información del video cuadro por cuadro: el contacto visual, la claridad de la imagen, la iluminación del video y la reproducción, entre otras cosas, detalles que son imperceptibles para el ojo humano. </span></p>
<p><span style="font-weight: 400;">Si el dispositivo detecta algo sospechoso en el video o alguna inconsistencia en la persona que aparece allí, le informará al usuario. Los teléfonos Honor activarán una ventana emergente: “Alerta de estafa de<a href="https://www.enter.co/smartphones/honor-magic-6-pro-el-celular-mas-inteligente-de-honor-llega-a-colombia-precio-y-disponibilidad/" target="_blank" rel="noopener"> Honor</a>. Parece que la otra persona podría estar usando IA para cambiar su cara”.</span></p>
<h3>Te puede interesar:  <a href="https://www.enter.co/smartphones/motorola-razr-50-y-razr-50-ultra-los-nuevos-celulares-que-integran-gemini-y-mucha-ia-llegan-a-colombia/" target="_blank" rel="noopener">Motorola razr 50 y razr 50 ultra, los nuevos celulares que integran Gemini y mucha IA llegan a Colombia</a></h3>
<p><span style="font-weight: 400;">Por el momento, esta funcionalidad estará disponible exclusivamente en<a href="https://www.enter.co/chips-bits/apps-software/whatsapp-sorprende-con-nuevas-funciones-para-videollamadas-estas-son-las-novedades/" target="_blank" rel="noopener"> las videollamadas</a>, servicio más utilizado por los estafadores de Deepfakes. Seguramente, la compañía integrará esta herramienta de detección en otras plataformas como las redes sociales, donde también abundan este tipo de contenidos fake. </span></p>
<h2><b>Honor quiere cuidar tus ojos</b></h2>
<p><span style="font-weight: 400;">La compañía también anunció el lanzamiento de AI Defocus Eye Protection, una opción que cambiará por completo las pantallas de <a href="https://www.enter.co/smartphones/el-honor-magic6-lite-esta-en-colombia-este-es-su-precio-y-donde-comprarlo/" target="_blank" rel="noopener">los teléfonos Honor</a>. Con esta novedad, los paneles se convertirán en gafas de desenfoque que se encargan de rastrear la vista de los usuarios y desenfocar áreas periféricas de la pantalla. Esto ayudará a disminuir y detener la miopía. La compañía explicó que esta tecnología puede </span><span style="font-weight: 400;">“disminuir la miopía transitoria en 13 grados en promedio después de leer durante 25 minutos”.</span></p>
<p><span style="font-weight: 400;">Por ahora no está claro cuando llegarán estas herramientas a los teléfonos Honor, sin embargo, se espera que lleguen directamente a los celulares gama alta de la compañía.</span></p>
<p><img fetchpriority="high" decoding="async" class="alignnone wp-image-556692 size-full" src="https://www.enter.co/wp-content/uploads/2024/06/1603478news1jpg.png" alt="" width="875" height="425" srcset="https://www.enter.co/wp-content/uploads/2024/06/1603478news1jpg.png 875w, https://www.enter.co/wp-content/uploads/2024/06/1603478news1jpg-300x146.png 300w, https://www.enter.co/wp-content/uploads/2024/06/1603478news1jpg-768x373.png 768w" sizes="(max-width: 875px) 100vw, 875px" /></p>
<p><em>Imágenes:<a href="https://www.honor.com/co/" target="_blank" rel="noopener"> Honor</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿No sabes si esa  nota de voz que te enviaron es falsa? VerificAudio, la nueva IA que lo descubre</title>
		<link>https://www.enter.co/especiales/dev/inteligencia-artificial/no-sabes-si-esa-nota-de-voz-que-te-enviaron-es-falsa-verificaudio-la-nueva-ia-que-lo-descubre/</link>
		
		<dc:creator><![CDATA[Digna Irene Urrea]]></dc:creator>
		<pubDate>Mon, 18 Mar 2024 16:14:42 +0000</pubDate>
				<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[audios faslos]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[noticias falsas]]></category>
		<category><![CDATA[VerificAudio]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=552245</guid>

					<description><![CDATA[Una nueva herramienta desarrollada por  Google News Initiative y Minsai para Prisa Media, permite  detectar si información en audio es verdadera o falsa. La idea del grupo económico de entretenimiento y generación de contenido, es que con VerificAudio, puedan ayudar a los periodistas a identificar esas noticias y notas engañosas.  La nueva herramienta combina dos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.holbertoncoderise.com/?utm_source=Enter&amp;utm_medium=Seccion&amp;utm_campaign=Campa%C3%B1a_C22_ADM" target="_blank" rel="noopener"><img decoding="async" class="aligncenter size-full wp-image-527715" src="https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1.jpg" alt="" width="970" height="250" srcset="https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1.jpg 970w, https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1-300x77.jpg 300w, https://www.enter.co/wp-content/uploads/2022/08/BANNER-HOME1-1-768x198.jpg 768w" sizes="(max-width: 970px) 100vw, 970px" /></a></p>
<p><a href="https://verificaudio.ai/" target="_blank" rel="noopener"><b>Una nueva herramienta desarrollada por  </b></a><span style="font-weight: 400;">Google News Initiative y Minsai para Prisa Media, permite  detectar si información en audio es verdadera o falsa. La idea del grupo económico de entretenimiento y generación de contenido, es que con </span><b>VerificAudio</b><span style="font-weight: 400;">, puedan ayudar a los periodistas a identificar esas noticias y notas engañosas. </span></p>
<p><span id="more-552245"></span></p>
<p><span style="font-weight: 400;">La nueva herramienta combina dos modelos de inteligencia artificial avanzados para detectar y analizar la fiabilidad de archivos sonoros con contenido informativo,  permitiendo a los periodistas la doble verificación a través de dos pasos: la identificación y la comparación. </span></p>
<p><span style="font-weight: 400;">Es decir, cada vez que un periodista quiera pasar por la herramienta un archivo sonoro para identificar si es falso o no, esta reconocerá audios potencialmente manipulados o sintéticos gracias a su modelo identificador desarrollado con machine learning.</span></p>
<h3>Te puede interesar:<a href="https://www.enter.co/especiales/dev/ai/la-ia-no-solo-acabaria-con-algunos-trabajos-tambien-podria-acabar-con-la-humanidad/" target="_blank" rel="noopener"> La IA no solo acabaría con algunos trabajos, también podría acabar con la humanidad</a></h3>
<p><span style="font-weight: 400;">Además si la persona cuenta  con un audio original de la persona involucrada en el archivo, puede utilizar el sistema comparador para detectar si la voz es clonada o real;  lo que, unido al proceso tradicional de verificación periodística de contenidos, mejorará la detección de noticias o informaciones falsas en formato audio. </span></p>
<p><span style="font-weight: 400;">Por ahora, la herramienta está disponible en las redacciones de radio de PRISA Media en Colombia, Chile y España. Sin embargo, El proyecto de VerificAudio,  tiene una </span><a href="https://verificaudio.ai/"><span style="font-weight: 400;">web al servicio de los usuarios</span></a><span style="font-weight: 400;"> y oyentes</span><span style="font-weight: 400;"> para que conozcan la herramienta y puedan enviar audios a las redacciones. </span></p>
<p><span style="font-weight: 400;">La compañía asegura que la herramienta  es especialmente relevante en el contexto actual, ya que se espera que la desinformación auditiva tenga un impacto significativo en los eventos políticos en todo el mundo este año. Con elecciones cruciales programadas en 73 países, lo que representa que   casi la mitad de la población mundial está expuesta a la manipulación de audio con fines políticos o de desinformación.</span></p>
<h3>Te puede interesar:<a href="https://www.enter.co/especiales/dev/ai/la-union-europea-ya-tiene-ley-de-inteligencia-artificial-que-prohibe-que-regula/" target="_blank" rel="noopener"> La Unión Europea ya tiene ‘Ley de Inteligencia Artificial’: ¿Qué prohíbe? ¿Qué regula?</a></h3>
<p><span style="font-weight: 400;">José Gutiérrez, director general de Soluciones, Digital y Tecnología de PRISA Media, explica: “Este proyecto que nace en Caracol Colombia y que se está extendiendo progresivamente a todas nuestras redacciones, parte del compromiso de PRISA en la lucha contra la desinformación y aboga por un periodismo de calidad”. </span></p>
<p><span style="font-weight: 400;">Además asegura que “la tecnología se ha convertido en un arma para luchar contra la desinformación y las deepfakes y es también una nueva herramienta imprescindible para los periodistas. Creemos que con el desarrollo de la inteligencia artificial se crean muchas oportunidades, pero también muchos peligros que hay que ir afrontando a medida que se detectan”.  </span></p>
<p><span style="font-weight: 400;">Se espera que Prisa implemente VerificAudio en el</span><span style="font-weight: 400;"> resto de redacciones  y, consecuentemente, al servicio de sus oyentes.  </span></p>
<p><span style="font-weight: 400;"> Imagen:<em> <a class="photographer cWU9wH5uj9cM5CMFEMVC" href="https://www.istockphoto.com/es/portfolio/Kanurisme?mediatype=photography" data-testid="photographer"><span class="LnOLJ4WPBg1pjxPKMDBE">Kanur Ismail</span></a></em></span></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>¿Zelenski se rindió en video? El deepfake que Meta tuvo que eliminar de sus redes</title>
		<link>https://www.enter.co/empresas/seguridad/zelenski-se-rindio-en-video-el-deepfake-que-meta-tuvo-que-eliminar-de-sus-redes/</link>
		
		<dc:creator><![CDATA[Andrea Mercado]]></dc:creator>
		<pubDate>Thu, 17 Mar 2022 18:46:23 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfake Ucrania]]></category>
		<category><![CDATA[Deepfake Volodímir Zelenski]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Ucrania]]></category>
		<category><![CDATA[Volodímir Zelenski]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=521898</guid>

					<description><![CDATA[Fotos descontextualizadas; imágenes que hacen parte de otros conflictos, de otros países, en otros años. La guerra que se vive en Ucrania desde el pasado 24 de febrero y que hasta la fecha ha dejado al menos 15.000 muertos, no es igual a las demás. Internet está en el medio y al alcance de todos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Fotos descontextualizadas; imágenes que hacen parte de otros conflictos, de otros países, en otros años. La guerra que se vive en Ucrania desde el pasado 24 de febrero y que hasta la fecha ha dejado al menos 15.000 muertos, no es igual a las demás. Internet está en el medio y al alcance de todos para cualquier fin; y mientras avanzan los acercamientos diplomáticos entre Vladimir Putin y Volodímir Zelenski para buscar una salida al conflicto, los ataques físicos por parte de Rusia no cesan y los virtuales tampoco. Esta vez un video falso, hecho con inteligencia artificial, muestra al presidente ucraniano haciendo un supuesto llamado de rendición a sus tropas. La publicación calificada de &#8216;deepfake&#8217; fue retirada de varias redes sociales.</p>
<p><span id="more-521898"></span></p>
<p>Si bien el deepfake que comenzó a circular por la red el pasado miércoles 16 de marzo no es de excelente calidad, para el director del programa de la organización de derechos humanos WITNESS, Sam Gregory, sí representa un riesgo de desinformación y confusión, ya que en otros escenarios menos delicados, los deepfakes han servido para engañar e iniciar discusiones distractoras sobre la autenticidad o no de los mismos.</p>
<p>Gregory, quien dio su apreciación para el <a href="https://www.dailydot.com/debug/hackers-zelensky-deepfake-surrender-ukraine-war/" target="_blank" rel="noopener">Daily Dot</a>, sostiene que este video podía ser el primer deepfake de &#8220;alto nivel&#8221; creado por hackers rusos en el conflicto de Ucrania.</p>
<div class="iframe-container"><iframe title="YouTube video player" src="https://www.youtube.com/embed/yGzaodhEWpI" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></div>
<p>&nbsp;</p>
<h3>Te puede interesar: <a href="https://www.enter.co/empresas/seguridad/deepfakes/" target="_blank" rel="noopener">Deepfake, la pesadilla de no saber qué es real</a></h3>
<p>Ante el riesgo que significaba el video falso, que pudo haberse hecho viral como lo han hecho en el pasado otros deepfakes de parodias en donde se muestran a presidentes cantando o bailando, compañías como Twitter y Meta aseguraron que ya eliminaron el material de sus plataformas.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">1/ Earlier today, our teams identified and removed a deepfake video claiming to show President Zelensky issuing a statement he never did. It appeared on a reportedly compromised website and then started showing across the internet.</p>
<p>— Nathaniel Gleicher (@ngleicher) <a href="https://twitter.com/ngleicher/status/1504186935291506693?ref_src=twsrc%5Etfw">March 16, 2022</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>En el caso de Meta, Nathaniel Gleicher, el jefe de política de seguridad de la compañía, explicó que el contenido violaba las reglas de sus plataformas contra los &#8220;medios manipulados&#8221;, ya que en el video en mención se usa la imagen de una figura pública a la que se le atribuye un mensaje que en realidad nunca dijo.</p>
<p>El deepfake, en donde se ve al presidente de Ucrania con su representativa camiseta verde militar en un escenario que emula una rueda de prensa presidencial, apareció por primera vez el miércoles en el medio de comunicación ucraniano, Segodnya. Como respuesta a la estrategia (que no es nueva para Zelenski, pues su gobierno ya ha denunciado con frecuencia las prácticas virtuales de desinformación ejecutadas desde Rusia) el mandatario decidió publicar un video a través de Telegram en donde desmintió la supuesta rendición. Además aseguró que quienes debían deponer las armas eran las tropas rusas, a quienes invitó a &#8220;irse a casa&#8221;, pues Ucrania &#8220;seguirá defendiendo su tierra, sus hijos y sus familias&#8221;.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en"><a href="https://twitter.com/hashtag/Ukraine?src=hash&amp;ref_src=twsrc%5Etfw">#Ukraine</a> Hackers published a deep fake of <a href="https://twitter.com/ZelenskyyUa?ref_src=twsrc%5Etfw">@ZelenskyyUa</a> urging citizens to lay down their arms. He responded immediately:<br />
&#8220;If I can offer someone to lay down their arms, it&#8217;s the Russian military.Go home.Because we&#8217;re home. We are defending our land, our children &amp; our families.&#8221; <a href="https://t.co/TiICf3Z5Te">pic.twitter.com/TiICf3Z5Te</a></p>
<p>— Hanna Liubakova (@HannaLiubakova) <a href="https://twitter.com/HannaLiubakova/status/1504056101033099272?ref_src=twsrc%5Etfw">March 16, 2022</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p><em>Imágenes: YouTube</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deepfakes: la pesadilla de no saber qué es real</title>
		<link>https://www.enter.co/empresas/seguridad/deepfakes/</link>
		
		<dc:creator><![CDATA[Javier Méndez]]></dc:creator>
		<pubDate>Tue, 01 Mar 2022 16:54:49 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=521307</guid>

					<description><![CDATA[Los deepfakes, videos y audios falsos que se crean con inteligencia artificial (IA) para suplantar rostros y voces, llevan un tiempo haciéndonos reír. Uno va a un sitio como GoodTrust, sube una foto de alguien y puede ver como ese rostro cobra vida y se convierte en un video de la persona cantando La Traviata [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Los deepfakes, videos y audios falsos que se crean con inteligencia artificial (IA) para suplantar rostros y voces, llevan un tiempo haciéndonos reír. Uno va a <a href="http://mygoodtrust.com/singing-portraits" target="_blank" rel="noopener noreferrer">un sitio como GoodTrust</a>, sube una foto de alguien y puede ver como ese rostro cobra vida y se convierte en un video de la persona cantando La Traviata o el Happy Birthday. Pero los deepfakes, que pueden ser mucho más elaborados y creíbles que los de este sitio, no les producen tanta gracia a los expertos en seguridad, a los analistas políticos y a algunos gobiernos.<span id="more-521307"></span></p>
<p>Los deepfakes se han usado para cometer robos en compañías (mediante voces clonadas) y para crear videos pornográficos de mujeres a las que se quiere hacer daño. Pero el mayor temor es que estos contenidos –creados mediante software de IA cada vez más poderoso– se usen para poner en boca de políticos o figuras públicas cosas que no han dicho, y así manipular campañas o generar violencia. El FBI alertó el año pasado sobre la amenaza que los deepfakes representan para la seguridad de los países y las empresas.</p>
<p>Lo que más preocupa de esa tecnología es la velocidad a la que está avanzando. De los videos primitivos de hace dos o tres años se está pasando a unos en donde es muy difícil reconocer los montajes. Un buen ejemplo son <a href="http://bit.ly/3gEVc0X" target="_blank" rel="noopener noreferrer">unos videos de Tom Cruise</a> que el año pasado se volvieron virales en TikTok. En ellos se ve al actor contando chistes, jugando golf y haciendo trucos de magia en varios videos que difícilmente se reconocerían a simple vista como falsos.</p>
<p>Para educar al público sobre los engaños que pueden ocurrir, el Instituto Tecnológico de Massachusetts (MIT) creó un video en el que ex presidente estadounidense Richard Nixon da un discurso para televisión en el cual lamenta la muerte en la Luna de los astronautas Neil Armstrong y Edwin Aldrin, en julio de 1969. Ese discurso sí se escribió –en caso de que fracasara la misión Apolo 11–, pero nunca se grabó, y ahora se hizo ‘real’ en este deepfake. Ahora bien, si hoy es difícil desarmar teorías de conspiración absurdas que solo se distribuyen en texto o fotos por redes sociales (hay gente que cree que nunca llegamos a la Luna, que todo es un montaje), ¿qué pasará cuando estas incluyan videos y audios que parecen reales como este?</p>
<p>Por eso, los más pesimistas creen que los deepfakes se van a usar incluso para reescribir la historia. En una era en la que las personas no cuestionan lo que leen o ven, en la que toman las ‘noticias’ de redes sociales y no de los medios serios, en la que tragan entero y a veces comparten por redes contenidos de los que no han visto más que el titular o una foto, ese es un escenario de pesadilla para un mundo ya desinformado y lleno de noticias falsas.</p>
<p>Un análisis de la revista Fast Company lo plantea así: “Pronto, los medios sintéticos generados por IA pueden alcanzar el pasado y sembrar dudas sobre la autenticidad de eventos históricos, lo que podría destruir la credibilidad de los registros que quedan en nuestra era digital actual. En una época de muy poca confianza institucional, y sin un contexto histórico firme en el que los futuros historiadores y el público puedan confiar para autenticar los eventos de los medios digitales del pasado, podemos estar ante el amanecer de una nueva era para la civilización: la poshistoria. Necesitamos actuar ahora para garantizar la continuidad de la historia sin sofocar el potencial creativo de estas nuevas herramientas de IA”.</p>
<p>Fast Company imagina varios ejemplos, como una entrevista de los años 70 en donde Neil Armstrong reconoce que nunca llegaron a la Luna, pues tuvieron que abortar la misión por el exceso de radiación; o una nueva versión del video de George Floyd en el cual el policía quita la rodilla de su cuello y Floyd se levanta ileso.</p>
<p>La edición 269 de la revista ENTER le explica, en detalle, cuál es el lado oscuro de estos medios sintéticos, cómo se crean, qué tecnologías de inteligencia artificial (IA) los hacen cada vez más realistas, cómo se han empleado ya para cometer robos en empresas y destruir reputaciones de mujeres, y cómo se teme que podrían utilizarse para manipular elecciones y generar caos y violencia.</p>
<p><img loading="lazy" decoding="async" class="size-full wp-image-521311 alignnone" src="https://www.enter.co/wp-content/uploads/2022/03/Portada-ENTER-269-febrero-2022.jpg" alt="" width="600" height="866" srcset="https://www.enter.co/wp-content/uploads/2022/03/Portada-ENTER-269-febrero-2022.jpg 600w, https://www.enter.co/wp-content/uploads/2022/03/Portada-ENTER-269-febrero-2022-208x300.jpg 208w" sizes="auto, (max-width: 600px) 100vw, 600px" /></p>
<p>En otros artículos de esta edición encontrará una descripción de los mejores servicios de Internet para conseguir imágenes gratuitas; le explicamos por qué las redes 5G pueden poner en peligro los vuelos; le ofrecemos una lista de buenas prácticas contra ataques de ransomware; y analizamos los primeros 5 años de la consola Nintendo Switch en el mercado, entre otros temas.</p>
<p><em>Imagen: iStock</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Lucasfilm contrata a un YouTube por deepfake del Mandalorian</title>
		<link>https://www.enter.co/chips-bits/apps-software/lucas-contrata-a-un-youtube-por-deepfake-del-mandalorian/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Tue, 27 Jul 2021 21:30:29 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[deepfake actores]]></category>
		<category><![CDATA[deepfake cine]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[LucasFilm]]></category>
		<category><![CDATA[The Mandalorian]]></category>
		<category><![CDATA[The Mandalorian 2]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=511929</guid>

					<description><![CDATA[El uso de tecnología deepfake ha sido uno de los puntos más polémicos de aplicación tecnológica en Hollywood. Pero Lucasfilm ha sido de las compañías que de manera más abierta han abiertos han estado en su posible aplicación para series y películas. Dicho esto, muchos de sus shows y películas prefieren aplicar CG en vez [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El uso de tecnología deepfake ha sido uno de los puntos más polémicos de aplicación tecnológica en Hollywood. Pero Lucasfilm ha sido de las compañías que de manera más abierta han abiertos han estado en su posible aplicación para series y películas. Dicho esto, muchos de sus shows y películas prefieren aplicar CG en vez de Deepfakes para &#8216;rejuvenecer&#8217; actores. Uno de los casos más recientes es el de ‘The Mandalorian’. El show de Disney+ <a href="https://www.enter.co/cultura-digital/videojuegos/evaluacion-the-mandalorian-temporada-2/" target="_blank" rel="noopener noreferrer">en su segunda temporada</a> utilizó un deepfake para traer de regreso a un Luke Skywalker joven en su episodio final. La cualidad de esta técnica, sin embargo, fue bastante criticada por los fans que aseguraban que los resultados del estudio dejaban mucho que desear y en última instancia dañaban esta ilusión de viajar en el tiempo.</p>
<p><span id="more-511929"></span></p>
<p><iframe loading="lazy" title="YouTube video player" src="https://www.youtube.com/embed/wrHXA2cSpNU" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>Diferentes youtubers han buscado ‘arreglar’ los deepfakes del estudio. Pero uno hizo tan bien su trabajo que el mismo estudio decidió contratarlo. Su nombre de usuario es <a href="https://www.youtube.com/channel/UCZXbWcv7fSZFTAZV4beckyw" target="_blank" rel="noopener noreferrer">Shamook</a> y su canal es bien conocido entre los amantes de la tecnología deepfake por ser uno de los exponentes del nivel de perfeccionismo que es posible alcanzar al utilizarla para poner actores en algunas de las escenas y películas más importantes del cine.</p>
<h3><strong>Te puede interesar: <a href="https://www.enter.co/chips-bits/apps-software/esta-herramienta-puede-reconocer-el-deepfake/" target="_blank" rel="noopener noreferrer">Esta herramienta puede reconocer el deepfake</a></strong></h3>
<p>¿Por qué esto es importante? Para empezar, el caso de Shamook es tan solo el más reciente de una generación de creadores que han encontrado relaciones con compañías importantes a través de plataformas como YouTube. Shamok ahora tiene el cargo de Artista de captura facial senior. De hecho, Lucasfilm confirmó que siempre están atentos a la aparición de nuevo talento, en caso de que sea tu sueño trabajar en una película de &#8216;Star Wars&#8217;.</p>
<p>El otro punto importante, es porque indica la insistencia de Lucasfilm en utilizar deepfake en sus producciones. El uso de esta tecnología no ha llegado sin problemas a los estudios. Algunos actores han expresado su preocupación al hecho de que un estudio (con los derechos apropiados) pueda utilizar sus expresiones faciales para traerlos de regreso a una franquicia cuando lo deseen. ¿Se puede calificar de actuación algo, cuando es un algoritmo el que está interpretando las expresiones faciales? Para una compañía como Lucasfilm se trata de una técnica que parece necesaria, considerando que muchas de sus historias a menudo requieren cameos de actores como Hamill, que participaron en las películas caso 50 años atrás.</p>
<p><em>Imágenes: YouTube</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Esta herramienta puede reconocer el deepfake</title>
		<link>https://www.enter.co/chips-bits/apps-software/esta-herramienta-puede-reconocer-el-deepfake/</link>
		
		<dc:creator><![CDATA[Diana Arias]]></dc:creator>
		<pubDate>Wed, 02 Sep 2020 13:59:00 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[fake news]]></category>
		<category><![CDATA[Herramientas microsoft]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[noticias falsas]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=496738</guid>

					<description><![CDATA[Las grandes empresas de tecnología están comprometidas a eliminar las noticias falsas y desinformación que hoy ronda en Internet. Como parte de su estrategia, Microsoft anunció que desarrolló una herramienta que permite detectar videos alterados y deepfake y otra que puede verificar si el contenido que ven las personas es auténtico. La primera herramienta analiza [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Las grandes empresas de tecnología están comprometidas a eliminar las noticias falsas y desinformación que hoy ronda en Internet. Como parte de su estrategia, Microsoft anunció que <a href="https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/" target="_blank" rel="noopener noreferrer">desarrolló una herramienta</a> que permite detectar videos alterados y deepfake y otra que puede verificar si el contenido que ven las personas es auténtico.<span id="more-496738"></span> La primera herramienta analiza videos y fotografías para determinar qué tan probable es que hayan sido modificados. Esto lo hace con una función que analiza detalles que pueden no ser perceptibles al ojo humano; por ejemplo escalas de grises o cambios en la textura de la imagen. En el caso de los videos, Microsoft explica que analiza cuadro por cuadro en tiempo real y en caso de encontrar características de que la imagen fue manipulada mostrará una alerta llamada &#8216;Puntaje de confianza&#8217; y una cifra en porcentaje con la probabilidad de que el contenido sea falso.</p>
<h2>Para leer otras noticias sobre deepfake, <a href="https://www.enter.co/noticias/deepfakes/" target="_blank" rel="noopener noreferrer">visita este enlace</a>.</h2>
<p>A continuación, te dejamos el ejemplo compartido por la compañía:</p>
<p><img decoding="async" src="https://1gew6o3qn6vx9kp3s42ge0y1-wpengine.netdna-ssl.com/wp-content/uploads/prod/sites/5/2020/09/Disinf-GIF.gif" /></p>
<p>La segunda herramienta le permite a los creadores de contenido agregar certificados o hashes, una función criptográfica, que se copiará de manera automática cada vez que es compartido. Por un lado, se se integra en Microsoft Azure para ponerle certificado a una imagen, por ejemplo. Por otro, las personas podrán, con la ayuda de una extensión del navegador de Internet, tener la seguridad que es contenido proveniente del original y que no ha sido cambiado.</p>
<p>Microsoft espera que con estas herramientas se puede ayudar a combatir la desinformación y noticias falsas, especialmente en temporada de elecciones. En Estados Unidos actualmente se encuentran en campañas electorales y según reportes, Twitter y Facebook no han logrado controlar la cantidad de noticias falsas en sus plataformas.</p>
<p>Imagen: Microsoft y <a class="hover_opacity" href="https://pixabay.com/users/memyselfaneye-331664/">memyselfaneye</a> (Vía Pixabay).</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>TikTok está desarrollando su propia función de deepfake</title>
		<link>https://www.enter.co/chips-bits/apps-software/tiktok-funcion-de-deepfake/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Fri, 03 Jan 2020 21:25:07 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[redes sociales]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[Videos falsos]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=489626</guid>

					<description><![CDATA[En 2019, uno de los temas más sonados fue el de los deepfakes. Esa tecnología, que permite remplazar los rostros en videos, a niveles en los que es complicado distinguir la falsificación, tiene potencial de afectar de manera definitiva la próxima década. Sus peligros deberían ser evidentes, al poder falsificar contenido y propagar noticias falsas. [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>En 2019, uno de los temas más sonados fue el de los deepfakes. Esa tecnología, que permite remplazar los rostros en videos, a niveles en los que es complicado distinguir la falsificación, tiene potencial de afectar de manera definitiva la próxima década. Sus peligros deberían ser evidentes, al poder falsificar contenido y propagar noticias falsas. Pero, por ahora, su mayor uso ha sido el de entretenimiento, con aplicaciones intentando adoptarla de <a href="https://www.enter.co/chips-bits/apps-software/cameos-snapchat-deepfake/" target="_blank" rel="noopener">otra manera, como Snapchat.</a></p>
<p><span id="more-489626"></span></p>
<p>Un reporte del portal Techcrunch afirma que TikTok (la red social enfocada en videos de 3 a 60 segundos) estaría desarrollando una función para que sus usuarios puedan crear deepfakes. Al parecer habría sido desarrollada por ByteDance, su compañía hermana, y tendría el nombre de Face Swap (cambio de rostros en español). El reporte afirma que la función se encontró en el código de la aplicación.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-large wp-image-489628" src="https://www.enter.co/wp-content/uploads/2020/01/TikTok-Douyin-Face-Swap-Feature-Deepfakes-1024x655.png" alt="TikTok" width="1024" height="655" srcset="https://www.enter.co/wp-content/uploads/2020/01/TikTok-Douyin-Face-Swap-Feature-Deepfakes-1024x655.png 1024w, https://www.enter.co/wp-content/uploads/2020/01/TikTok-Douyin-Face-Swap-Feature-Deepfakes-300x192.png 300w, https://www.enter.co/wp-content/uploads/2020/01/TikTok-Douyin-Face-Swap-Feature-Deepfakes-768x492.png 768w, https://www.enter.co/wp-content/uploads/2020/01/TikTok-Douyin-Face-Swap-Feature-Deepfakes-76x50.png 76w, https://www.enter.co/wp-content/uploads/2020/01/TikTok-Douyin-Face-Swap-Feature-Deepfakes.png 1536w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></p>
<p>La forma en la que la función opera es muy sencilla. La app pide a la persona el tomar un escaneo biométrico de su rostro desde ángulos diferentes. Luego seleccionan una serie de videos predeterminados para cambiar su rostro por el de la persona en el video. En este sentido, es bastante simular a la función que Snapchat presentó hace unos meses. La diferencia vital aquí está en que, los deepfake de Snapchat no parecen tan burdos, sino que consiguen presentar falsificaciones de alto nivel.</p>
<h3><strong>Te puede interesar:&nbsp;<a href="https://www.enter.co/chips-bits/apps-software/cameos-snapchat-deepfake/" target="_blank" rel="noopener">Cameos: la nueva apuesta de Snapchat por los deepfake</a></strong></h3>
<p>El desarrollo de este tipo de funciones no es una noticia en sí. Muchas otras aplicaciones ya existen que realizan este tipo de falsificaciones de video. La razón está en que una aplicación como TikTok, con más de mil millones de descargas ofrezca una opción mucho más realista que las actualmente se encuentran en apps de esta escala. Luego está la pregunta de qué está haciendo la compañía con la información biométrica que queda registrada.</p>
<p><em>Imágenes: Techcrunch</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Cameos: la nueva apuesta de Snapchat por los deepfake</title>
		<link>https://www.enter.co/chips-bits/apps-software/cameos-snapchat-deepfake/</link>
		
		<dc:creator><![CDATA[Jeffrey Ramos González]]></dc:creator>
		<pubDate>Mon, 09 Dec 2019 17:24:24 +0000</pubDate>
				<category><![CDATA[Apps & Software]]></category>
		<category><![CDATA[Actualización en Snapchat]]></category>
		<category><![CDATA[Actualización Snapchat]]></category>
		<category><![CDATA[Actualizaciones de Snapchat]]></category>
		<category><![CDATA[chat de Snapchat]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[Filtros Snapchat]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=488663</guid>

					<description><![CDATA[Snapchat presentó su nueva función titulada cameos. De manera sencilla, se trata de una función que permite tomar una foto de tu rostro y luego insertarla en un Gif. No se trata&#160; precisamente de un filtro, sino que está más cercana a un híbrido entre estos y los deepfakes. Si no tienes conocimiento del último [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="alignnone size-large wp-image-488668" src="https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-1024x661.jpg" alt="Snapchat" width="1024" height="661" srcset="https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-1024x661.jpg 1024w, https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-300x194.jpg 300w, https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-768x495.jpg 768w, https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-1536x991.jpg 1536w, https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-76x50.jpg 76w, https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju-83x55.jpg 83w, https://www.enter.co/wp-content/uploads/2019/12/ELRO9M6XkAAvWju.jpg 2048w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></p>
<p>Snapchat presentó su nueva función titulada cameos. De manera sencilla, se trata de una función que permite tomar una foto de tu rostro y luego insertarla en un Gif. No se trata&nbsp; precisamente de un filtro, sino que está más cercana a un híbrido entre estos y los deepfakes.</p>
<p><span id="more-488663"></span></p>
<p>Si no tienes conocimiento del último término, es una de las tecnologías más interesantes y problemáticas para las redes sociales. Los deepfakes consisten en poder insertar el rostro de una persona en otro video. No es un simple montaje, sino que en sus versiones más avanzadas replican gestos y de manera convincente falsifican contenido multimedia logrando un realismo alto. Hace un par de años tomaron popularidad cuando se utilizó esta tecnología para insertar rostros de celebridades en videos pornográficos. Hoy, el mayor temor que despiertan es la posibilidad de falsear videos de políticos y distribuirlos a través de redes sociales, incrementando todavía más las tendencias de noticias falsas.</p>
<h3>Te puede interesar:&nbsp;<a href="https://www.enter.co/chips-bits/apps-software/snapchat-reinventarse/" target="_blank" rel="noopener">Snapchat está buscando reinventarse para volver a ser popular</a></h3>
<p>La demo, que solo se compartió a usuarios en Francia, es mucho más inofensiva. Como mencionamos antes, lo que permite es insertar el rostro en una lista de plantillas tipo gif y luego compartirlas con otros usuarios. Algunos de los experimentos más extraños tienen como resultados imágenes divertidas que, sin duda, llamarán la atención de aquellos con ganas de convertir su cara en el centro del contenido que compartimos.&nbsp;Dicho esto (y antes de olvidar decir lo obvio) ya existen una decena de aplicaciones con una función similar. La diferencia aquí es que Snapchat puede aprovechar su implementación burda de los deepfake para incrementar más su popularidad.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="fr">Vous avez Cameo sur snap ou je suis la seule? Je pleure de rire <a href="https://t.co/G7E3ZKAilz">pic.twitter.com/G7E3ZKAilz</a></p>
<p>— Aca (•‿•) (@toddflanderrs) <a href="https://twitter.com/toddflanderrs/status/1203305620188913665?ref_src=twsrc%5Etfw">December 7, 2019</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>De acuerdo a una descripción más profunda de Cameos, por el portal Engadget, si alguno de tus amigos también tiene la función puedes insertar su rostro en los gif que crees, aunque por el momento solo es posible incluir dos caras en una misma imagen.</p>
<p>La nueva función de Snapchat tiene como objetivo utilizar sus herramientas más interesantes para separarse de Instagram (que puede ver en los Cameos su nueva fuente de ‘inspiración’, si la función resulta popular entre los usuarios de la app). La función de Cameos ya se encuentra disponible en mercados internacionales y se anunció que llegará a los Estados Unidos el próximo 18 de diciembre a los dispositivos iOS y Android. Todavía no hay información de cuándo aterrizará en los teléfonos de sus usuarios en Colombia.</p>
<p><em>Imágenes: <a href="https://techcrunch.com/2019/12/08/snapchat-cameo-edits-your-face-into-videos/" target="_blank" rel="noopener">Techcrunch</a> y @<a href="https://twitter.com/ItsJeffHiggins" target="_blank" rel="noopener">ItsJeffHiggins</a></em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
