<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>abuso infantil: Noticias, Fotos, Evaluaciones, Precios y Rumores de abuso infantil • ENTER.CO</title>
	<atom:link href="https://www.enter.co/noticias/abuso-infantil/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.enter.co/noticias/abuso-infantil/</link>
	<description>Tecnología y Cultura Digital</description>
	<lastBuildDate>Tue, 29 Oct 2024 16:21:52 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.enter.co/wp-content/uploads/2023/08/Favicon-ENTER.CO_.jpg</url>
	<title>abuso infantil: Noticias, Fotos, Evaluaciones, Precios y Rumores de abuso infantil • ENTER.CO</title>
	<link>https://www.enter.co/noticias/abuso-infantil/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Condenan a prisión por primera vez a hombre que usó IA para generar contenido de abuso sexual infantil</title>
		<link>https://www.enter.co/especiales/dev/condenan-a-prision-por-primera-vez-a-hombre-que-uso-ia-para-generar-contenido-de-abuso-sexual-infantil/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Tue, 29 Oct 2024 23:00:54 +0000</pubDate>
				<category><![CDATA[AI/Dev]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Abuso sexual]]></category>
		<category><![CDATA[contenido con IA]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=563559</guid>

					<description><![CDATA[La inteligencia artificial trae varios beneficios como reducir el tiempo de trabajo o trabajar como si de un asistente virtual se tratara, pero también trajo varios riesgos como la generación de contenido ilegal. De hecho, un nuevo caso acaba de salir a la luz pública, donde un hombre del Reino Unido ha sido condenado a [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.uexternado.edu.co/landingpage/analisis-innovacion-y-mercadeo/" target="_blank" rel="noopener"><img fetchpriority="high" decoding="async" class="alignnone wp-image-563186 size-full" src="https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2.jpg" alt="BANNER IA" width="1024" height="200" srcset="https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2.jpg 1024w, https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2-300x59.jpg 300w, https://www.enter.co/wp-content/uploads/2024/10/AP2217_ESPE_Innovacion_Analitica-_Mercadeo-1-2-768x150.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><br />
La inteligencia artificial trae varios beneficios como reducir el tiempo de trabajo o trabajar como si de un asistente virtual se tratara, pero también trajo varios riesgos como la generación de contenido ilegal. De hecho, un nuevo caso acaba de salir a la luz pública, donde un hombre del Reino Unido ha sido condenado a 18 años de prisión por generar material de abuso sexual infantil (CSAM) utilizando tecnología de IA.<span id="more-563559"></span></p>
<p>El sujeto, quien empleó algoritmos de inteligencia artificial para crear imágenes explícitas de menores, fue sentenciado tras ser identificado en una investigación que expuso la gravedad y alcance de sus crímenes. Las autoridades lograron descubrir cómo el hombre había manipulado herramientas de IA para producir imágenes de menores en situaciones de abuso, sin necesidad de una fuente fotográfica real.</p>
<p>Según la investigación, el acusado no solo generó este tipo de contenido, sino que también lo distribuyó en redes clandestinas, revelando un peligroso uso de la tecnología con fines delictivos. La condena es una de las primeras de este tipo en el mundo, en la que se utiliza IA para crear y distribuir imágenes de abuso infantil sin que existan víctimas físicas específicas.</p>
<h3>Te puede interesar: <a href="https://www.enter.co/especiales/dev/madre-demanda-a-empresa-de-ia-de-la-que-se-enamoro-su-hijo-el-menor-de-edad-se-quito-la-vida/" target="_blank" rel="noopener">Madre demanda a empresa IA: asegura que su hijo se suicidó después de enamorarse de ella</a></h3>
<h2>
Un desafío legal y ético frente al uso de la IA</h2>
<p>La Fiscalía destacó que el uso de IA en estos delitos plantea una grave amenaza, pues permite la creación de contenido explícito sin necesidad de involucrar a víctimas reales, dificultando así la identificación de personas afectadas. La sentencia busca enviar un mensaje contundente sobre las consecuencias legales de emplear tecnología avanzada en actos criminales.</p>
<p>De acuerdo con expertos en ciberseguridad, este caso evidencia un vacío legal en torno al control de la IA para crear contenido ilegal, especialmente cuando se trata de abuso infantil generado digitalmente.El juez encargado del caso señaló que el condenado mostró una clara intención de explotar la IA para generar y compartir material perturbador, incrementando el acceso a contenido prohibido a través de plataformas online.</p>
<p><em>Imagen: RDNE Stock project</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Polémica en la Unión Europea por propuesta que busca vigilar conversaciones de usuarios</title>
		<link>https://www.enter.co/empresas/seguridad/polemica-en-la-union-europea-por-propuesta-que-busca-vigilar-conversaciones-de-usuarios/</link>
		
		<dc:creator><![CDATA[Alejandra Betancourt]]></dc:creator>
		<pubDate>Fri, 03 May 2024 21:00:33 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Cifrado de extremo a extremo]]></category>
		<category><![CDATA[pornografia infantil]]></category>
		<category><![CDATA[Unión Europea]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=554232</guid>

					<description><![CDATA[La propuesta de la Unión Europea de obligar a las plataformas de mensajería a analizar las comunicaciones privadas en busca de material de abuso infantil ha desencadenado una ola de críticas por parte de expertos en seguridad y protección de la privacidad. Más de 270 académicos e investigadores han advertido sobre el riesgo de millones [&#8230;]]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">La propuesta de la Unión Europea de obligar a las plataformas de mensajería a analizar las comunicaciones privadas en busca de material de abuso infantil ha desencadenado una ola de críticas por parte de expertos en seguridad y protección de la privacidad. Más de 270 académicos e investigadores han advertido sobre el riesgo de millones de falsos positivos diarios, lo que podría ser catastrófico para la privacidad en línea.</span><span id="more-554232"></span></p>
<p><span style="font-weight: 400;">Aunque el objetivo de proteger a los niños es loable, los críticos argumentan que los requisitos técnicos de la propuesta son poco realistas y podrían conducir a una vigilancia generalizada que socave el cifrado y los derechos digitales. Uno de los puntos de mayor preocupación es la propuesta de identificar a ciertos usuarios como &#8220;personas de interés&#8221; basándose en evaluaciones automatizadas, lo que podría resultar en una vigilancia más selectiva. Sin embargo, incluso con un detector hipotético con una tasa de falsas alarmas del 0,1%, se podrían generar más de un millón de falsas alarmas diarias en plataformas como WhatsApp, dada su escala masiva de usuarios.</span></p>
<p><span style="font-weight: 400;">Expertos también advierten sobre la posible clasificación de servicios como &#8220;alto riesgo&#8221; para análisis prioritario, señalando deficiencias técnicas y la adopción generalizada de funciones básicas de mensajería. Alertan que estas medidas podrían socavar la seguridad de las comunicaciones en línea en lugar de combatir eficazmente el abuso infantil.</span></p>
<h3>Te puede interesar: <a href="https://www.enter.co/chips-bits/ley-de-la-union-europea-penalizara-abuso-sexual-infantil-y-contenido-generado-con-ia/" target="_blank" rel="noopener">Unión Europea penalizará abuso sexual infantil y contenido generado con IA</a></h3>
<p><span style="font-weight: 400;">El Supervisor Europeo de Protección de Datos y grupos de derechos digitales han criticado la propuesta como una invasión desproporcionada de la privacidad que podría estandarizar la vigilancia indiscriminada de las comunicaciones en línea. Mientras tanto, los grupos encargados de hacer cumplir la ley han pedido acceso garantizado a datos cifrados de correo electrónico.</span></p>
<p><span style="font-weight: 400;">Los responsables políticos de la UE se enfrentan a presiones competitivas mientras buscan equilibrar la lucha contra la explotación infantil en línea con la defensa de los derechos y la seguridad digitales. Sin embargo, los expertos en seguridad son claros: el análisis del lado del cliente codificado en la legislación no es realista ni deseable. Mantener un cifrado robusto de extremo a extremo sigue siendo crucial para la seguridad digital mientras se permite a las autoridades informar sobre la presencia de material de abuso infantil.</span></p>
<p><em>imagen: Anete Lusina</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Tecnología CSAM de Apple podría convertirse en una herramienta de espionaje</title>
		<link>https://www.enter.co/empresas/seguridad/tecnologia-csam-de-apple-podria-convertirse-en-una-herramienta-de-espionaje/</link>
		
		<dc:creator><![CDATA[Diana Arias]]></dc:creator>
		<pubDate>Fri, 20 Aug 2021 18:00:01 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Abuso sexual]]></category>
		<category><![CDATA[abuso sexual infantil]]></category>
		<category><![CDATA[Anuncios de Apple]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[espionaje]]></category>
		<category><![CDATA[Espionaje digital]]></category>
		<category><![CDATA[Lucha contra abuso infantil]]></category>
		<category><![CDATA[Privacidad de los usuarios]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=513174</guid>

					<description><![CDATA[Apple anunció hace unas semanas que su sistema escanearía las imágenes que subimos a iCloud y compartimos por iMessage con un sistema creado para detectar material de abuso infantil (CSAM, por sus siglas en inglés). Por supuesto, la molestia colectiva de los usuarios despertó todo tipo de interés. Las organizaciones también mostraron preocupación: ¿Cómo sabemos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Apple anunció hace unas semanas que su sistema escanearía las imágenes que subimos a iCloud y compartimos por iMessage con un sistema creado <a href="https://www.enter.co/empresas/seguridad/los-iphone-escanearan-imagenes-en-busqueda-de-abuso-infantil/" target="_blank" rel="noopener noreferrer">para detectar material de abuso infantil</a> (CSAM, por sus siglas en inglés). Por supuesto, la molestia colectiva de los usuarios despertó todo tipo de interés. Las organizaciones también mostraron preocupación: ¿Cómo sabemos que solo están viendo imágenes que cruzan con una base de datos federal? ¿Quién tendrá acceso a nuestras imágenes? ¿iCloud ya no es seguro? <span id="more-513174"></span></p>
<p>La empresa, por su parte, ha explicado que esto solo se hará con usuarios en Estados Unidos y hace parte de una normatividad que es impuesta por el Gobierno. Otras plataformas como Google, Twitter y Facebook también hacen cruce de imágenes que compartimos con sus servicios en busca de este tipo de material, incluso si es por mensaje privado. Pero no deja de llamar la atención que mientras hace unos pocos años Apple se enfrentaba al FBI para no desbloquear o enviar información cifrada de un usuario sospechoso de un crimen, hoy sea la misma empresa quien busque entregarlos.</p>
<p>Por supuesto, hay soluciones. Si no queremos que nuestras imágenes sean escaneadas por el sistema de inteligencia artificial, simplemente no usamos los servicios de Apple. Más allá de esto, hay otras preocupaciones. Dos académicos de la universidad de Princeton aseguran que pasaron años trabajando en un sistema similar al que propone Apple y que su conclusión es que este tipo de tecnologías son peligrosas (<a href="https://www.usenix.org/conference/usenixsecurity21/presentation/kulshrestha" target="_blank" rel="noopener noreferrer">puedes leer sus argumentos aquí</a>); los dos autores volvieron a repetir sus preocupaciones en una editorial en <a href="https://www.washingtonpost.com/opinions/2021/08/19/apple-csam-abuse-encryption-security-privacy-dangerous/" target="_blank" rel="noopener noreferrer">The Washington Post</a>.</p>
<p><img decoding="async" class="aligncenter size-large wp-image-513183" src="https://www.enter.co/wp-content/uploads/2021/08/56395-1024x576.jpg" alt="Apple, privacidad de los usuarios, espía" width="1024" height="576" srcset="https://www.enter.co/wp-content/uploads/2021/08/56395-1024x576.jpg 1024w, https://www.enter.co/wp-content/uploads/2021/08/56395-300x169.jpg 300w, https://www.enter.co/wp-content/uploads/2021/08/56395-768x432.jpg 768w, https://www.enter.co/wp-content/uploads/2021/08/56395-1536x864.jpg 1536w, https://www.enter.co/wp-content/uploads/2021/08/56395-2048x1152.jpg 2048w, https://www.enter.co/wp-content/uploads/2021/08/56395-1104x621.jpg 1104w, https://www.enter.co/wp-content/uploads/2021/08/56395-366x205.jpg 366w, https://www.enter.co/wp-content/uploads/2021/08/56395-534x300.jpg 534w, https://www.enter.co/wp-content/uploads/2021/08/56395-165x92.jpg 165w, https://www.enter.co/wp-content/uploads/2021/08/56395-249x140.jpg 249w, https://www.enter.co/wp-content/uploads/2021/08/56395-232x130.jpg 232w, https://www.enter.co/wp-content/uploads/2021/08/56395-344x193.jpg 344w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<h2>También te puede interesar: Apple<a href="https://www.enter.co/empresas/seguridad/los-iphone-escanearan-imagenes-en-busqueda-de-abuso-infantil/" target="_blank" rel="noopener noreferrer"> escanearán imágenes en búsqueda de abuso infantil</a>.</h2>
<p>El sistema creado por ellos tenía una tarea muy similar, escanear imágenes CSAM en sistemas encriptados de punto a punto, explica el <a href="https://www.engadget.com/princeton-university-researcher-apple-csam-oped-162004601.html?src=rss" target="_blank" rel="noopener noreferrer">portal Engadget</a>. Sin embargo, sin importar sus esfuerzos por cerrar la tecnología a solo un tipo de imágenes, los investigadores encontraron que es muy fácil convertirla en herramientas de espionaje y censura. &#8220;El sistema puede cambiar fácilmente a una nueva base de datos para comparar las imágenes y cambiar completamente el propósito; el usuario no tendría ni idea que está pasando&#8221;, explican en su editorial.</p>
<p>Los académicos también aseguran que el sistema de Apple es superior al creado por ellos; sin embargo, llama la atención que la empresa aún no ha contestado a preguntas que en su investigación encontraron y que no han logrado solucionar, y posiblemente tampoco la compañía.</p>
<p>Apple es una empresa que asegura que pone por delante la importancia de la privacidad de sus clientes. Pero con este tipo de herramientas pone en peligro su credibilidad y los usuarios que usan sus dispositivos gracias a esta promesa ahora tienen más opciones.</p>
<p><em>Imagen: <a href="https://www.freepik.com/free-vector/smartphone-woman-face-scan-recognition-biometric_5597115.htm#page=1&amp;query=scanner&amp;position=26" target="_blank" rel="noopener noreferrer">gstudioimagen</a> en Freepik y <a href="https://www.pexels.com/es-es/foto/iphone-5s-gris-espacial-1294886/" target="_blank" rel="noopener noreferrer">Mateusz</a> (Vía Pexels)</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Australia pide que se pueda detectar actividad criminal en sistemas encriptados</title>
		<link>https://www.enter.co/empresas/seguridad/australia-pide-que-se-pueda-detectar-actividad-criminal-en-sistemas-encriptados/</link>
		
		<dc:creator><![CDATA[Diana Arias]]></dc:creator>
		<pubDate>Mon, 09 Aug 2021 17:30:25 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Abuso Infantil en Internet]]></category>
		<category><![CDATA[Australia]]></category>
		<category><![CDATA[Bullying]]></category>
		<category><![CDATA[Ciberbullying]]></category>
		<category><![CDATA[cifrado punto a punto]]></category>
		<category><![CDATA[Encriptación de punto a punto]]></category>
		<category><![CDATA[Leyes a empresas de Internet]]></category>
		<category><![CDATA[Lucha contra abuso infantil]]></category>
		<category><![CDATA[Privacidad de los usuarios]]></category>
		<category><![CDATA[seguridad]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=512495</guid>

					<description><![CDATA[Australia presentó un nuevo borrador legislativo de la mano del Comisionado de &#8216;eSafety&#8217; en el que asegura que si las empresas de tecnología quieren seguir operando deberán crear un sistema que identifique la actividad ilegal en sus plataformas, aun cuando esta información está encriptada. Además, será responsabilidad de las empresas denunciar a las entidades cuando [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Australia presentó un nuevo borrador legislativo de la mano del Comisionado de &#8216;eSafety&#8217; en el que asegura que si las empresas de tecnología quieren seguir operando deberán crear un sistema que identifique la actividad ilegal en sus plataformas, aun cuando esta información está encriptada. <span id="more-512495"></span></p>
<p>Además, será responsabilidad de las empresas denunciar a las entidades cuando se detecte actividad ilegal y de no hacerlo podrían pagar una multa de hasta $555.000 dólares australianos. El Acto de seguridad online 2020 busca disminuir el ciberacoso y contenidos que promueven la violencia infantil, de género y racial.</p>
<h3>Te recomendamos leer: <a href="https://www.enter.co/empresas/negocios/google-paga-a-los-medios-australianos-por-aparecer-en-las-busquedas/" target="_blank" rel="noopener noreferrer">Google paga a los medios de </a>Australia<a href="https://www.enter.co/empresas/negocios/google-paga-a-los-medios-australianos-por-aparecer-en-las-busquedas/" target="_blank" rel="noopener noreferrer"> por aparecer en las búsquedas</a>.</h3>
<p>El acto, además, explica en detalle cuáles son los contenidos que entrarán en la norma. Por supuesto, lo que más preocupa es exigir que los contenidos cifrados o encriptados también sean analizados. Esto significa que se está creando una puerta trasera o que el contenido no está protegido como afirman las empresas. WhatsApp, por ejemplo, no podría seguir basando sus campañas en este tipo de promesas.</p>
<h2>También te puede interesar: <a href="https://www.enter.co/empresas/seguridad/los-iphone-escanearan-imagenes-en-busqueda-de-abuso-infantil/" target="_blank" rel="noopener noreferrer">Los iPhone escanearán imágenes en búsqueda de abuso infantil</a>.</h2>
<p>Esto levanta las mismas preocupaciones que la <a href="https://www.enter.co/empresas/seguridad/los-iphone-escanearan-imagenes-en-busqueda-de-abuso-infantil/" target="_blank" rel="noopener noreferrer">propuesta hecha por Apple</a> la semana pasada en la que un sistema de inteligencia artificial escanearía las imágenes de iCloud y iMessage en búsqueda de abuso sexual infantil en que organizaciones de protección de la privacidad aseguraron que se estaba era implementado un sistema de vigilancia. La empresa aseguró que las imágenes serían escaneadas exclusivamente por máquinas que las cruzaría con una base de datos. Solo aquellas identificadas como peligrosas serían vistas por un equipo humano que tomaría la decisión final.</p>
<p>Por supuesto, buscar prevenir el bullying cibernético, la violencia y abuso sexual infantil es importante; sin embargo, llama la atención como desde lo cibernético la nueva propuesta es romper los esquemas de seguridad que las empresas han desarrollado por años. Si estas deciden aceptar estarían abriendo un precedente para que otros países hagan lo mismo y esto sería un peligroso avance a la vigilancia abierta de los ciudadanos digitales.</p>
<p><em>Imagen: <a href="https://www.freepik.com/free-vector/retinal-biometric-scan-vector-cyber-security-technology_16268213.htm#page=1&amp;query=scanner&amp;position=3" target="_blank" rel="noopener noreferrer">Rawpixel</a> en Freepik.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Los iPhone escanearán imágenes en búsqueda de abuso infantil</title>
		<link>https://www.enter.co/empresas/seguridad/los-iphone-escanearan-imagenes-en-busqueda-de-abuso-infantil/</link>
		
		<dc:creator><![CDATA[Diana Arias]]></dc:creator>
		<pubDate>Fri, 06 Aug 2021 19:00:42 +0000</pubDate>
				<category><![CDATA[Seguridad]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[abuso sexual infantil]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[iCloud]]></category>
		<category><![CDATA[iPhone]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=512378</guid>

					<description><![CDATA[Apple aseguró que en un esfuerzo por prevenir el abuso sexual infantil y la proliferación de este material escaneará los dispositivos de los usuarios en Estados Unidos, bloqueará cuentas si encuentra material de este tipo y alertará a las autoridades. Esto, aunque puede parecer positivo en el esfuerzo de disminuir fotografías y videos compartidos con [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Apple aseguró que en un esfuerzo por prevenir el abuso sexual infantil y la proliferación de este material escaneará los dispositivos de los usuarios en Estados Unidos, bloqueará cuentas si encuentra material de este tipo y alertará a las autoridades. Esto, aunque puede parecer positivo en el esfuerzo de disminuir fotografías y videos compartidos con material sensible y reconocer posibles victimarios, también atenta contra la privacidad de los usuarios, por lo que muchos han hablado en contra de la estrategia. <span id="more-512378"></span></p>
<p>Inicialmente, Apple explicó que el escaneo solo se haría con los contenidos que se suban a iCloud, el sistema en la nube, y iMessage a través de un sistema de Machine Learning y que se cruzaría con una base de datos de abuso sexual infantil. Adicionalmente, Siri y las búsquedas hechas en el celular alertarían y harían intervenciones cuando se hacen búsquedas identificadas con estos temas.</p>
<p>&#8220;Nuestro sistema, NeuralHash, está creado para que no haya intervención humana en el proceso. Solo se escanean fotografías para determinar que no tenga que ver con abuso infantil. Apple no tendría acceso a los mensajes&#8221;, explicó un vocero de la empresa. En teoría, si el usuario no usa iCloud o envía mensajes con fotos, la funcionalidad no tendría nada que escanear. Finalmente, la foto sería interpretada por la máquina y en caso de identificar material como abuso infantil, sería revisada por un humano.</p>
<p>Por supuesto, organizaciones e instituciones educativas señalaron que detrás de un programa disfrazado de buenas intenciones; Apple estaría poniendo en marcha un sistema de vigilancia a gran escala que podría tener implicaciones graves. &#8220;El problema es que no puedes decir que tienes un fuerte sistema de seguridad si esté permite que se haga vigilancia de sus contenidos&#8221;, explicó Matthew Green, profesor de criptografía y experto en seguridad de la Universidad Johns Hopkins, al portal <a href="https://thehackernews.com/2021/08/apple-to-scan-every-device-for-child.html" target="_blank" rel="noopener noreferrer">The Hacker News</a>.</p>
<h2>Para leer otras estrategias de empresas para combatir el abuso infantil, <a href="https://www.enter.co/noticias/abuso-infantil/" target="_blank" rel="noopener noreferrer">visita este enlace.</a></h2>
<p>Otras empresas escanean imágenes en búsqueda de material que pueda ser identificado como abuso infantil. Por ejemplo, las imágenes que adjuntamos en nuestros correos. Sin embargo, la propuesta de Apple supera ciertos límites de la privacidad de los usuarios; además, es una propuesta para acceder a material de los usuarios con la excusa de tener razones éticas y ese es un ladrillo que no es fácil de tragar.</p>
<p>Por ahora, Apple aseguró que usaría esta estrategia en Estados Unidos. Sin embargo, no es un tema pequeño que podamos ignorar en otros países donde Apple sigue siendo uno de los principales actores del mercado.</p>
<p><em>Imagen: <a href="https://www.freepik.com/free-photo/woman-using-phone-car_15599918.htm#page=1&amp;query=Using%20phone&amp;position=12">Rawpixel</a> en Freepik. </em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Grandes empresas de Internet podrían ser multadas en Reino Unido</title>
		<link>https://www.enter.co/empresas/empresas-multa-contenido-toxico/</link>
		
		<dc:creator><![CDATA[Diana Arias]]></dc:creator>
		<pubDate>Mon, 12 Aug 2019 22:00:02 +0000</pubDate>
				<category><![CDATA[Empresas]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Contenido tóxico]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[internet]]></category>
		<category><![CDATA[Multas a empresas de Internet]]></category>
		<category><![CDATA[redes sociales]]></category>
		<category><![CDATA[YouTube]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=483667</guid>

					<description><![CDATA[Una nueva regulación del gobierno británico le da el poder a Ofcom, el regulador de comunicaciones inglés, de  multar a las empresas de Internet que fallen en eliminar contenidos tóxicos en línea.  &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; De acuerdo con [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Una nueva regulación del gobierno británico le da el poder a Ofcom, el regulador de comunicaciones inglés, de  multar a las empresas de Internet que fallen en eliminar contenidos tóxicos en línea. <span id="more-483667"></span></p>
<p><img decoding="async" class="alignleft size-full wp-image-483684" src="https://www.enter.co/wp-content/uploads/2019/08/iStock-981322264.jpg" alt="Contenido tóxico, abuso infantil" width="1024" height="768" srcset="https://www.enter.co/wp-content/uploads/2019/08/iStock-981322264.jpg 1024w, https://www.enter.co/wp-content/uploads/2019/08/iStock-981322264-300x225.jpg 300w, https://www.enter.co/wp-content/uploads/2019/08/iStock-981322264-768x576.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>De acuerdo con el nuevo reglamento, Ofcom podría exigirle a empresas como YouTube, Instagram y Facebook, entre otras, pagar hasta 5 por ciento de sus ingresos e inclusive suspenderlas si fallan en remover contenido dañino en sus sitios web y aplicaciones, explicó <a href="https://www.cnet.com/news/instagram-youtube-and-facebook-could-be-fined-millions-over-harmful-content/?ftag=COS-05-10aaa0b" target="_blank" rel="noopener">el portal Cnet</a>.</p>
<p>Esta es una nueva regulación, impuesta con la idea de proteger a los menores de edad de contenido tóxico en la red como violencia, abuso infantil y publicaciones con contenido suicida. Por ahora, el regulador tendrá el poder de decidir qué empresas están fallando en esto a partir de septiembre de 2020, lo hará en posición interina, mientras el Gobierno inglés decide quién será el regulador de esas empresas, explicó <a href="https://www.independent.co.uk/life-style/ofcom-social-media-harmful-content-children-facebook-instagram-youtube-a9054526.html" target="_blank" rel="noopener">el diario Independent</a>.</p>
<h3>También te puede interesar: <a href="https://www.enter.co/cultura-digital/opinion-y-analisis/podcast-enter-co-abuso-infantil/">Podcast ENTER.CO: abuso infantil, ¿le quedó grande a Internet?</a></h3>
<p>&#8220;Trabajaremos con el gobierno y creemos que es necesario ir más allá al momento de legislar y establecer una protección más amplia de los usuarios, por eso hay que incluir a estas empresas&#8221;, le dijo un vocero de Ofcom a Independent.</p>
<p>La nueva regulación no solo tiene como objetivo las redes sociales y sitios más populares de Internet. Sitios de carga y descarga de archivos, foros, servicios de mensajería y buscadores también podrían ser multados. La propuesta del Departamento para la cultura, media y deportes digitales asegura que son  las empresas de Internet las responsables de cuidar y proteger a sus usuarios. Al permitir la circulación de este contenido y, específicamente, permitir que niños y adolescentes puedan acceder a él están fallando en su compromiso con la sociedad.</p>
<h3>También te puede interesar: <a href="https://www.enter.co/cultura-digital/redes-sociales/twitter-porque-es-tan-toxico/" target="_blank" rel="noopener">Twitter quiere saber por qué es escenario de conversaciones y </a>contenido tóxico.</h3>
<p>Además, los videos en vivo y de streaming también tendrán que ser controlados por está empresa. El portal Cnet destaca que un menor de edad puede ser engañado, grabado y después chantajeado a hacer cosas peores sin que sus padres tengan idea de lo que está sucediendo.</p>
<p>En Colombia, hace unos meses, representantes legales de <a href="https://www.enter.co/cultura-digital/colombia-digital/facebook-google-audiencia-publica/" target="_blank" rel="noopener">Google y Facebook fueron llamados a explicar los límites y responsabilidades</a> de estas empresas en relación con lo que publican sus usuarios ante la Corte Suprema. En este caso, ambas empresas aseguraron que no pueden ser jueces de lo que las personas comparten por Internet, pero que hay políticas internas que regulan qué se puede y qué no se puede compartir en sus redes sociales y filtros que revisan que estas se cumplan.</p>
<p><em>Imagen: <a class="photographer" href="https://www.istockphoto.com/portfolio/TheVisualsYouNeed?mediatype=photography">Marcos Calvo</a> (Vía iStock).</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>CEO de empresas de Internet tendrían que responder por terrorismo</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/empresas-responder-por-terrorismo/</link>
		
		<dc:creator><![CDATA[Diana Arias]]></dc:creator>
		<pubDate>Tue, 16 Apr 2019 12:00:33 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[daños autoinfligidos]]></category>
		<category><![CDATA[discursos de odio]]></category>
		<category><![CDATA[Empresas de Internet]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Leyes para las empresas de tecnología]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[Suicidio]]></category>
		<category><![CDATA[terrorismo]]></category>
		<category><![CDATA[Twitter]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=459977</guid>

					<description><![CDATA[Las redes sociales y en general las múltiples plataformas que existen en la gran Web se han convertido en los altoparlantes para la violencia y discursos de odio, incluso cuando estas aseguran que no fueron creadas con estos propósitos. Uno de los ejemplos más claros que tenemos son los atentados a dos mezquitas en Nueva [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Las redes sociales y en general las múltiples plataformas que existen en la gran Web se han convertido en los altoparlantes para la violencia y discursos de odio, incluso cuando estas aseguran que no fueron creadas con estos propósitos. Uno de los ejemplos más claros que tenemos son los atentados a dos mezquitas en Nueva Zelanda hace poco más de un mes y el papel que jugaron <a href="https://www.enter.co/cultura-digital/redes-sociales/la-masacre-de-nueva-zelanda-y-como-jugaron-con-las-redes-sociales/" target="_blank" rel="noopener">las redes sociales para la divulgación de las ideologías de los atacantes</a>.<span id="more-459977"></span></p>
<p><img loading="lazy" decoding="async" class="aligncenter size-large wp-image-459994" src="https://www.enter.co/wp-content/uploads/2019/04/iStock-952414660-1024x768.jpg" alt="Terrorismo" width="1024" height="768" /></p>
<p>Ahora, miembros del congreso de Londres les han solicitado a varias de las empresas tecnológicas –Facebook, Google, Twitter y Microsoft– que revelen cuánto dinero invierten en estrategias para combatir el terrorismo a nivel global, según informó <a href="https://www.thedailybeast.com/democrats-in-congress-tell-social-media-companies-to-reveal-size-of-their-counter-terror-budgets" target="_blank" rel="noopener">el portal The Daily Beast.</a></p>
<p>Además, sugieren que los CEO de dichas compañías deberían ser considerados responsables por contenido violento y sensible que se distribuya en sus plataformas, explica <a href="https://www.theguardian.com/technology/2019/apr/04/social-media-bosses-could-be-liable-for-harmful-content-leaked-uk-plan-reveals" target="_blank" rel="noopener">el portal The Guardian</a>. Por esto, se estaría planeando presentar una nueva ley en Londres esta semana. La idea es que exista un ente regulador que les imponga multas a las empresas cada vez que haya filtraciones de contenidos como terrorismo, abuso infantil, suicidio y daños autoinfligidos.</p>
<p>Así mismo, de acuerdo con la gravedad del contenido, los ejecutivos de las empresas podrían considerarse responsables y, por ende, enfrentarse a cargos penales. En Londres, este tema ha tomado importancia porque una adolescente se suicidó hace unos meses y sus padres aseguran que en parte lo hizo por imágenes de daños autoinfligidos que vio mientras navegaba en Internet.</p>
<p>Una iniciativa similar, que impondría multas a las empresas y llevaría a la cárcel a ejecutivos de las plataformas que no retiren el material violento que se publica en ellas, ya <a href="https://www.enter.co/cultura-digital/redes-sociales/carcel-por-contenidos-violentospara-ejecutivos-de-redes-sociales-por-contenidos-violentos/" target="_blank" rel="noopener">fue aprobada en primera instancia por el parlamento australiano</a>.</p>
<h2>Esta ley le daría toda la responsabilidad a las plataformas y sus ejecutivos</h2>
<p>La ley que se presentaría ante el congreso de Londres asegura que las redes sociales y plataformas son responsables de lo que se comparte en estas, por eso sugeriría cuatro puntos centrales:</p>
<ol>
<li>La existencia de un regulador controlado por el Gobierno para guiarlo en temas específicos como terrorismo y abuso infantil.</li>
<li>Reportes de transparencia anuales por parte de las empresas tecnológicas, como las redes sociales, en los que especifiquen cuál es el contenido dañino que se comparte en sus sitios. Además, debería incluir qué están haciendo para controlarlo y evitar su propagación.</li>
<li>Cooperación con policía y otras organismos en los casos ilegales de incitación a la violencia y venta de armas ilegales, entre otros.</li>
</ol>
<p><em>Imagen: <a href="https://www.istockphoto.com/photo/people-group-having-addicted-fun-together-using-smartphones-detail-of-hands-sharing-gm952414660-260008285" target="_blank" rel="noopener">ViewApart</a> (Vía iStock).</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>YouTube ha cerrado 400 canales relacionados con abuso infantil</title>
		<link>https://www.enter.co/cultura-digital/redes-sociales/abuso-infantil-en-youtube/</link>
		
		<dc:creator><![CDATA[Jaime Dueñas]]></dc:creator>
		<pubDate>Thu, 21 Feb 2019 16:15:52 +0000</pubDate>
				<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[Abuso de menores]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Amazon]]></category>
		<category><![CDATA[Cierre de canales]]></category>
		<category><![CDATA[Parafernalia nazi]]></category>
		<category><![CDATA[pornografia infantil]]></category>
		<category><![CDATA[YouTube]]></category>
		<guid isPermaLink="false">https://www.enter.co/?p=447684</guid>

					<description><![CDATA[El abuso infantil le ha venido causando grandes dolores de cabeza a YouTube. Algunos de los videos que recomienda la plataforma llevan a contenidos en los que se explota a menores o en los que estos son víctimas de comentarios completamente salidos de tono. De hecho, empresas como Epic Games, Nestlé y Disney han retirado [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>El abuso infantil le ha venido causando grandes dolores de cabeza a YouTube. Algunos de los videos que recomienda la plataforma llevan a contenidos en los que se explota a menores o en los que estos son víctimas de comentarios completamente salidos de tono.</p>
<p><span id="more-447684"></span></p>
<p>De hecho, empresas como Epic Games, Nestlé y Disney han retirado sus anuncios como consecuencia de la controversia que se ha armado alrededor de esta situación, <a href="https://www.theverge.com/2019/2/21/18234494/youtube-child-exploitation-channel-termination-comments-philip-defranco-creators" target="_blank" rel="noopener">afirma el portal The Verge</a>.</p>
<p>Como respuesta, YouTube anunció que hasta la fecha ha eliminado más de 400 canales y borrado decenas de millones de comentarios relacionados con abuso infantil.</p>
<p class="LC20lb"><a href="http://www.enter.co/chips-bits/apps-software/google-identificar-abuso-infantil/" target="_blank" rel="noopener"><strong>Así ayudará Google a identificar contenidos con abuso infantil</strong></a></p>
<h2>Abuso infantil, una historia de nunca acabar</h2>
<p>La controversia no es nueva. <a href="https://techcrunch.com/2017/11/27/youtube-faces-brand-freeze-over-ads-and-obscene-comments-on-videos-of-kids/" target="_blank" rel="noopener">El portal TechCrunch recuerda</a> que hace más de un año estalló un escándalo relacionado con la explotación infantil en la plataforma, que entonces se mencionaba como un nuevo episodio alrededor de este tema.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-447704" src="https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374.jpg" alt="Abuso infantil" width="1024" height="683" srcset="https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374.jpg 1024w, https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374-300x200.jpg 300w, https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374-768x512.jpg 768w, https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374-76x50.jpg 76w, https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374-123x82.jpg 123w, https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374-83x55.jpg 83w, https://www.enter.co/wp-content/uploads/2019/02/iStock-624700374-125x83.jpg 125w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></p>
<p>Hace un par de días, por su parte, <a href="https://www.buzzfeednews.com/article/charliewarzel/youtubes-search-autofill-is-surfacing-disturbing-child-sex#.mgQz0EVAyG" target="_blank" rel="noopener">el portal BuzzFeed publicó un artículo</a> en el que denunciaba que el sistema de búsquedas de YouTube completaba de forma automática él término &#8220;how to have&#8221; (cómo tener, en español) con frases relacionadas con pedofilia.</p>
<p>Entonces, un portavoz de la plataforma de video respondió lo siguiente: &#8220;&#8230; nuestros equipos fueron alertados de este horrible resultado del sistema de auto completar y estamos trabajando para eliminarlo rápidamente. Estamos investigando este asunto para determinar qué había detrás de la aparición de este autocompletado&#8221;.</p>
<p class="LC20lb"><a href="https://www.enter.co/chips-bits/seguridad/tinder-abuso-infantil/" target="_blank" rel="noopener"><strong>Tinder y otras aplicaciones de citas, en problemas por abuso infantil</strong></a></p>
<h2>Hacen lo posible, pero parece que no es suficiente</h2>
<p>Mientras tanto, las opiniones se dividen entre quienes condenan a YouTube por no tomar medidas más fuertes para detener esta situación y quienes dicen que la plataforma combate de manera constante todas las situaciones relacionadas con abuso de menores.</p>
<p>Aunque no se relaciona con pornografía infantil, Amazon –el sitio de comercio electrónico más grande del mundo– ha venido enfrentando situaciones similares, debido a la <a href="https://www.enter.co/cultura-digital/el-popurri/nuevo-capitulo-de-lucha-amazon-nazis/" target="_blank" rel="noopener">aparición en sus catálogos de ventas de artículos de parafernalia nazi.</a></p>
<p>Aunque la empresa afirma que hace todo lo posible para eliminar estos productos y otros relacionados con odio por motivos raciales, étnicos y religiosos, entre otros, las denuncias de los usuarios que los siguen encontrando no cesan.</p>
<p>Si al navegar por la red encuentras contenidos relacionados con abuso infantil y no sabes qué hacer, te recomendamos <a href="http://www.teprotejo.org/index.php/es/" target="_blank" rel="noopener">visitar el sitio de Te Protejo</a>, una iniciativa para la protección de la infancia y la adolescencia en Colombia.</p>
<p><em>Imágenes: <a href="https://www.istockphoto.com/photo/stop-child-abuse-gm685142220-125761885" target="_blank" rel="noopener">FotoCulsinete</a> y <a href="https://www.istockphoto.com/photo/child-abuse4-gm624700374-109841559" target="_blank" rel="noopener">Frella</a> (iStock).</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Aprende cómo evitar el ciberacoso y el abuso en línea con esta serie</title>
		<link>https://www.enter.co/empresas/colombia-digital/aprende-como-evitar-el-ciberacoso-y-el-abuso-en-linea-con-esta-serie/</link>
		
		<dc:creator><![CDATA[Susana Angulo]]></dc:creator>
		<pubDate>Tue, 31 May 2016 20:23:25 +0000</pubDate>
				<category><![CDATA[Transformación Digital]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[blog la serie]]></category>
		<category><![CDATA[Ciberacoso]]></category>
		<category><![CDATA[gromming]]></category>
		<category><![CDATA[jóvenes en internet]]></category>
		<category><![CDATA[MinTIC]]></category>
		<category><![CDATA[sexting]]></category>
		<guid isPermaLink="false">http://www.enter.co/?p=248517</guid>

					<description><![CDATA[Hoy martes el Ministerio de Tecnologías de la Información y las Comunicaciones presentó una webserie para niños y jóvenes que busca enseñar los riesgos a los que se enfrentan cuando navegan en internet. El programa, llamado ‘Blog, la serie’, se estrenó hoy mismo con su primer capítulo: ‘#Ooops’, que narra cómo un grupo de estudiantes [&#8230;]]]></description>
										<content:encoded><![CDATA[<figure id="attachment_248521" aria-describedby="caption-attachment-248521" style="width: 1024px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-248521" src="https://www.enter.co/wp-content/uploads/2016/05/minticserie.jpg" alt="Todos los jueves se estrenará un capítulo. " width="1024" height="768" srcset="https://www.enter.co/wp-content/uploads/2016/05/minticserie.jpg 1024w, https://www.enter.co/wp-content/uploads/2016/05/minticserie-300x225.jpg 300w, https://www.enter.co/wp-content/uploads/2016/05/minticserie-768x576.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption id="caption-attachment-248521" class="wp-caption-text">Todos los jueves se estrenará un capítulo.</figcaption></figure>
<p><span style="font-weight: 400;">Hoy martes el Ministerio de Tecnologías de la Información y las Comunicaciones presentó una webserie para niños y jóvenes que busca enseñar los riesgos a los que se enfrentan cuando navegan en internet. El programa, llamado ‘Blog, la serie’, se estrenó hoy mismo con su primer capítulo: ‘<a href="https://www.youtube.com/watch?v=-oGo-eEZobQ" target="_blank">#Ooops</a>’, que narra cómo un grupo de estudiantes le hacen <a href="http://www.enter.co/cultura-digital/redes-sociales/twitter-conforma-alianza-para-responder-mejor-al-ciberacoso/" target="_blank">ciberacoso</a> a un compañero. </span><span id="more-248517"></span></p>
<p><span style="font-weight: 400;">‘Blog, la serie’ es un producto transmedia, es decir que mezcla contenido audiovisual e interacción en línea por parte del público. De acuerdo con el ministro David Luna, la plataforma de la serie permitirá que los jóvenes compartan sus experiencias y resuelvan sus dudas respecto a los riesgos en internet. </span></p>
<p><span style="font-weight: 400;">Cada webisodio narrará la historia de cinco estudiantes de colegio que deben afrontar algunos riesgos en internet como el ‘grooming’ (<a href="http://www.enter.co/chips-bits/seguridad/entre-hackers-y-detectives-asi-se-combate-el-abuso-infantil-en-la-red/" target="_blank">abuso sexual de menores por internet</a>), ‘sexting’ y el ciberacoso. La idea es guiar a los jóvenes para que sepan cómo actuar frente a estas situaciones, para que sepan cómo prevenirlas y reportar casos cercanos. </span></p>
<p><span style="font-weight: 400;">Durante el evento del estreno, los protagonistas de la serie web presentaron a sus personajes e invitaron a los jóvenes a seguir la historia a través de los distintos medios para verla. Está <a href="http://www.enticconfio.gov.co/blog-la-serie/" target="_blank">el sitio web</a>, las <a href="https://www.facebook.com/enticconfio.mintic/" target="_blank">redes sociales</a> y el <a href="https://www.youtube.com/user/EnTICconfio" target="_blank">canal de YouTube</a>. Cada jueves se estrenará un nuevo capítulo. </span></p>
<p><span style="font-weight: 400;">Puedes verlo a continuación: </span></p>
<p><iframe loading="lazy" title="#BlogLaSerie - Capítulo 1: #Ooops" width="1104" height="621" src="https://www.youtube.com/embed/-oGo-eEZobQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><em>Imagen: MinTic. </em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Dos formas de ver una campaña contra el maltrato infantil</title>
		<link>https://www.enter.co/otros/dos-formas-de-ver-una-campana-contra-el-maltrato-infantil/</link>
					<comments>https://www.enter.co/otros/dos-formas-de-ver-una-campana-contra-el-maltrato-infantil/#comments</comments>
		
		<dc:creator><![CDATA[Felipe Ramírez García]]></dc:creator>
		<pubDate>Wed, 08 May 2013 19:51:22 +0000</pubDate>
				<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[adolescentes]]></category>
		<category><![CDATA[agresor]]></category>
		<category><![CDATA[ANAR]]></category>
		<category><![CDATA[camapaña]]></category>
		<category><![CDATA[discreto]]></category>
		<category><![CDATA[fundación]]></category>
		<category><![CDATA[impresión]]></category>
		<category><![CDATA[infantil]]></category>
		<category><![CDATA[lenticular]]></category>
		<category><![CDATA[maltro infantil]]></category>
		<category><![CDATA[mensaje]]></category>
		<category><![CDATA[niños]]></category>
		<category><![CDATA[pornografia infantil]]></category>
		<category><![CDATA[publicidad]]></category>
		<category><![CDATA[secreto]]></category>
		<guid isPermaLink="false">http://www.enter.co/?post_type=secretosdetecnologia&#038;p=119056</guid>

					<description><![CDATA[ANAR, una fundación que busca proteger los derechos de los niños y adolescentes ha creado una campaña que tiene un mensaje secreto para los niños.]]></description>
										<content:encoded><![CDATA[<p><iframe loading="lazy" title="Anar Foundation &quot;Only for Children&quot;" width="1104" height="621" src="https://www.youtube.com/embed/6zoCDyQSH0o?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p><a href="http://www.anar.org/contraelmaltratoinfantil/" target="_blank">ANAR</a>, una fundación que cuida los derechos e intereses de niños y adolescentes en riesgo, lanzó una publicidad bastante peculiar e innovadora. <b>Esta campaña pretende crear actitudes de reflexión sobre el abuso y maltrato infantil, un flagelo que inunda a muchos países.</b> De esta manera, un mismo anuncio entrega dos mensajes diferentes para dos tipos de persona.<span id="more-119056"></span></p>
<p>El cartel funciona de forma discreta:<b> entrega información de manera discriminada a las personas en la vía pública, pues se ve diferente para niños como para adultos.</b></p>
<p>El adulto al dirigir la mirada al mensaje, solo puede leer <i>“A veces el maltrato infantil solo es visible para el niño que lo sufre”. </i><b>Sin embargo, gracias a la impresión lenticular –que se ve diferente dependiendo del ángulo de visión-, el verdadero mensaje lo ven los infantes menores de 10 años. </b> Según ANAR, estos menores miden, en promedio, menos de 1,35 metros.</p>
<p>Al estar bajo esa altura el mensaje y la imagen del anuncio cambian completamente: <b>el niño que aparece en el anuncio cambia a la altura de un menor</b>, comienzan a aparecer heridas y contusiones en el rostro del niño de la publicidad, acompañado de un mensaje que solo es visible para ellos: <b><i>“Si alguien te hace daño, llámanos y te ayudaremos&#8221;</i>, acompañado de un contacto telefónico.</b></p>
<p>Lo que busca la fundación con este tipo de publicidad es <b>que haya menos infantes agredidos o abusados por su propia familia.</b> El mensaje tiende a ser rudo y fuerte, lo que le crea un impacto al menor. Quizá cuando el niño vea el anuncio se vea identificado, y en el caso más triste este acompañado de quien lo maltrata.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enter.co/otros/dos-formas-de-ver-una-campana-contra-el-maltrato-infantil/feed/</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
	</channel>
</rss>
