Los iPhone escanearán imágenes en búsqueda de abuso infantil

Abuso infantil

Apple aseguró que en un esfuerzo por prevenir el abuso sexual infantil y la proliferación de este material escaneará los dispositivos de los usuarios en Estados Unidos, bloqueará cuentas si encuentra material de este tipo y alertará a las autoridades. Esto, aunque puede parecer positivo en el esfuerzo de disminuir fotografías y videos compartidos con material sensible y reconocer posibles victimarios, también atenta contra la privacidad de los usuarios, por lo que muchos han hablado en contra de la estrategia.

Inicialmente, Apple explicó que el escaneo solo se haría con los contenidos que se suban a iCloud, el sistema en la nube, y iMessage a través de un sistema de Machine Learning y que se cruzaría con una base de datos de abuso sexual infantil. Adicionalmente, Siri y las búsquedas hechas en el celular alertarían y harían intervenciones cuando se hacen búsquedas identificadas con estos temas.

«Nuestro sistema, NeuralHash, está creado para que no haya intervención humana en el proceso. Solo se escanean fotografías para determinar que no tenga que ver con abuso infantil. Apple no tendría acceso a los mensajes», explicó un vocero de la empresa. En teoría, si el usuario no usa iCloud o envía mensajes con fotos, la funcionalidad no tendría nada que escanear. Finalmente, la foto sería interpretada por la máquina y en caso de identificar material como abuso infantil, sería revisada por un humano.

Por supuesto, organizaciones e instituciones educativas señalaron que detrás de un programa disfrazado de buenas intenciones; Apple estaría poniendo en marcha un sistema de vigilancia a gran escala que podría tener implicaciones graves. «El problema es que no puedes decir que tienes un fuerte sistema de seguridad si esté permite que se haga vigilancia de sus contenidos», explicó Matthew Green, profesor de criptografía y experto en seguridad de la Universidad Johns Hopkins, al portal The Hacker News.

Para leer otras estrategias de empresas para combatir el abuso infantil, visita este enlace.

Otras empresas escanean imágenes en búsqueda de material que pueda ser identificado como abuso infantil. Por ejemplo, las imágenes que adjuntamos en nuestros correos. Sin embargo, la propuesta de Apple supera ciertos límites de la privacidad de los usuarios; además, es una propuesta para acceder a material de los usuarios con la excusa de tener razones éticas y ese es un ladrillo que no es fácil de tragar.

Por ahora, Apple aseguró que usaría esta estrategia en Estados Unidos. Sin embargo, no es un tema pequeño que podamos ignorar en otros países donde Apple sigue siendo uno de los principales actores del mercado.

Imagen: Rawpixel en Freepik. 

Diana Arias

Diana Arias

Soy comunicadora social de la Pontificia Universidad Javeriana, con énfasis en Producción multimedia y Periodismo, y Lingüista de la Universidad Nacional. Actualmente, estoy haciendo la especialización en economía de la Javeriana.

Ver todos los posts

Agregar comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Archivos