Tecnología CSAM de Apple podría convertirse en una herramienta de espionaje

Apple

Apple anunció hace unas semanas que su sistema escanearía las imágenes que subimos a iCloud y compartimos por iMessage con un sistema creado para detectar material de abuso infantil (CSAM, por sus siglas en inglés). Por supuesto, la molestia colectiva de los usuarios despertó todo tipo de interés. Las organizaciones también mostraron preocupación: ¿Cómo sabemos que solo están viendo imágenes que cruzan con una base de datos federal? ¿Quién tendrá acceso a nuestras imágenes? ¿iCloud ya no es seguro?

La empresa, por su parte, ha explicado que esto solo se hará con usuarios en Estados Unidos y hace parte de una normatividad que es impuesta por el Gobierno. Otras plataformas como Google, Twitter y Facebook también hacen cruce de imágenes que compartimos con sus servicios en busca de este tipo de material, incluso si es por mensaje privado. Pero no deja de llamar la atención que mientras hace unos pocos años Apple se enfrentaba al FBI para no desbloquear o enviar información cifrada de un usuario sospechoso de un crimen, hoy sea la misma empresa quien busque entregarlos.

Por supuesto, hay soluciones. Si no queremos que nuestras imágenes sean escaneadas por el sistema de inteligencia artificial, simplemente no usamos los servicios de Apple. Más allá de esto, hay otras preocupaciones. Dos académicos de la universidad de Princeton aseguran que pasaron años trabajando en un sistema similar al que propone Apple y que su conclusión es que este tipo de tecnologías son peligrosas (puedes leer sus argumentos aquí); los dos autores volvieron a repetir sus preocupaciones en una editorial en The Washington Post.

Apple, privacidad de los usuarios, espía

También te puede interesar: Apple escanearán imágenes en búsqueda de abuso infantil.

El sistema creado por ellos tenía una tarea muy similar, escanear imágenes CSAM en sistemas encriptados de punto a punto, explica el portal Engadget. Sin embargo, sin importar sus esfuerzos por cerrar la tecnología a solo un tipo de imágenes, los investigadores encontraron que es muy fácil convertirla en herramientas de espionaje y censura. «El sistema puede cambiar fácilmente a una nueva base de datos para comparar las imágenes y cambiar completamente el propósito; el usuario no tendría ni idea que está pasando», explican en su editorial.

Los académicos también aseguran que el sistema de Apple es superior al creado por ellos; sin embargo, llama la atención que la empresa aún no ha contestado a preguntas que en su investigación encontraron y que no han logrado solucionar, y posiblemente tampoco la compañía.

Apple es una empresa que asegura que pone por delante la importancia de la privacidad de sus clientes. Pero con este tipo de herramientas pone en peligro su credibilidad y los usuarios que usan sus dispositivos gracias a esta promesa ahora tienen más opciones.

Imagen: gstudioimagen en Freepik y Mateusz (Vía Pexels)

Diana Arias

Diana Arias

Soy comunicadora social de la Pontificia Universidad Javeriana, con énfasis en Producción multimedia y Periodismo, y Lingüista de la Universidad Nacional. Actualmente, estoy haciendo la especialización en economía de la Javeriana.

View all posts

Archivos