Fotos de estudiantes desnudas habrían sido ‘creadas’ con IA por compañeros, ¿hay leyes para este delito?

NIÑOS COLEGIOS

Los desnudos habrían sido creados por sus mismos compañeros de clase, usando generadores de imágenes con inteligencia artificial (IA) que falsean fotografías reales de rostros. Una investigación policial en la escuela secundaria revelaría más detalles.


Según un artículo del Wall Street Journal, algunos padres de familia notaron desde octubre un comportamiento extraño en sus hijos, estudiantes del Westfield High School en Nueva Jersey, Estados Unidos.

Días después, directivas del colegio descubrieron que varios estudiantes habían usado generadores de imágenes de inteligencia artificial para crear y compartir fotografías falsas de desnudos de sus compañeras de clase.

Por su parte, la policía ha estado investigando el incidente sin tener acceso como tal a las imágenes. Según un correo electrónico que revisó el periódico, la directora de Westfield High School, Mary Asfendis, la institución «creyó» que las imágenes habían sido eliminadas y ya no estaban en circulación entre los estudiantes.

Te puede interesar: ¿Desnudos sin autorización? ClotHoff, la IA que podría violar tu intimidad desnudándote

No se ha establecido el número de menores afectados por el fraude. Un vocero de las Escuelas Públicas de Westfield defendió la confidencialidad de los estudiantes sin entregar más detalles de las medidas disciplinarias.

En tanto a la regulación para prevenir este tipo de ataques o acoso, actualmente no existe una ley federal es Estados Unidos que restrinja la creación de imágenes sexuales falsas de personas reales.

Expertos en seguridad infantil informaron al medio de comunicación que aparentemente no hay medidas para evitar que miles de imágenes sexuales infantiles, generadas con IA, se compartan en internet.

Entre tanto, el presidente Joe Biden emitió una orden ejecutiva instando al Congreso a aprobar protecciones para una amplia gama de daños, incluyendo impedir que «la IA generativa produzca material de abuso sexual infantil o imágenes íntimas no consensuadas de individuos reales».

Te puede interesar: Biden emite orden ejecutiva sobre IA para proteger a trabajadores, consumidores y la privacidad de ciudadanos

Biden exigió al secretario de Comercio, al secretario de Seguridad Nacional y a los jefes de otras agencias apropiadas, que emitan recomendaciones sobre «pruebas y salvaguardias contra» la producción de «material de abuso sexual infantil» e «imágenes íntimas no consensuadas de individuos reales (incluidas las representaciones digitales del cuerpo o partes del cuerpo de un individuo identificable), para IA generativa».

Esta futura ley federal parece estar muy cruda; cabe notar que Estados como Virginia, California, Minnesota y Nueva York, ya han aprobado leyes para prohibir la distribución de pornografía falsificada.

Según Jon Bramnick, senador estatal de Nueva Jersey, afirmó que están investigando si existen leyes estatales o proyectos de ley pendientes que criminalizarían la creación y el intercambio de IA falsificadas con desnudos. Si no se encuentra ninguna ley de ese tipo, argumentó que se redactará una nueva ley.

Es probable que en este caso se apliquen otras leyes de Nueva Jersey, como las que prohíben el acoso o la distribución de materiales de abuso sexual infantil. En abril, Nueva York condenó a un hombre de 22 años, Patrick Carey, a seis meses de cárcel y 10 años de libertad condicional «por compartir imágenes sexualmente explícitas ‘deepfaked’ de más de una docena de mujeres menores de edad».

Te puede interesar: La ONU estableció un ‘Consejo consultivo de IA’. Estas serán sus funciones

Las imágenes se publicaron en un sitio web pornográfico con información personal de muchas de las mujeres, alentando a los usuarios del sitio web a acosarlas y amenazarlas con violencia sexual.

Se descubrió que Carey había violado varias leyes que prohíben el acoso, el acecho, la puesta en peligro de niños y la «promoción del desempeño sexual infantil», pero en ese momento, la fiscal de distrito del condado, Anne T. Donnelly, reconoció que todavía faltaban leyes para proteger verdaderamente Víctimas del porno deepfake.

Sobre el caso de la escuela secundaria, Bramnick ha pedido al fiscal del condado de Union que averigüe qué ocurrió en Westfield, y que la policía estatal siga investigando. La alcaldesa de Westfield, Shelley Brindle, ha invitado a más víctimas a denunciar.

Imagen: Nikada

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos