Nueva ley de IA es aprobada definitivamente por la UE, la primera en el mundo ¿Qué prohíbe?

unión europea ia

La Unión Europea aprobó este martes la nueva ley de inteligencia artificial (IA), que se aplicará de forma progresiva hasta el año 2026, cuando entre completamente en vigor. La normativa es la primera en el mundo, la cual establece un marco robusto para su uso ético y seguro.

La ley es extensa y abarca todos los sectores y las industrias que no solo buscan proteger a los ciudadanos y usuarios, sino su usabilidad correcta. Por eso en ENTER.CO realizamos un resumen de las principales provisiones y regulaciones del documento.

¿Qué prohíbe?

Manipulación y engaño: Está prohibido comercializar, poner en servicio o usar sistemas de IA que utilicen técnicas subliminales o engañosas para manipular el comportamiento de las personas de manera significativa, causando potenciales daños importantes.

Explotación de vulnerabilidades: No se permite el uso de IA que explote vulnerabilidades de individuos debido a su edad, discapacidad o situación socioeconómica, distorsionando su comportamiento y causando daño.

Te puede interesar: Polémica en la Unión Europea por propuesta que busca vigilar conversaciones de usuarios

Puntuación social: Queda prohibido el uso de IA para clasificar a personas o grupos según su comportamiento social o características personales, resultando en trato injusto o perjudicial en contextos no relacionados con los datos originales.

Evaluación de riesgo penal: Se prohíbe usar IA para predecir la probabilidad de que alguien cometa un delito basándose únicamente en perfiles personales, salvo para apoyar evaluaciones humanas basadas en hechos objetivos.

Reconocimiento facial: Está prohibido crear o usar bases de datos de reconocimiento facial obtenidas de internet o CCTV sin consentimiento.

Inferencia de emociones: No se permite usar IA para inferir emociones en lugares de trabajo o instituciones educativas, excepto por razones médicas o de seguridad.

Categorización biométrica: Está prohibido usar IA para categorizar a personas según datos biométricos para inferir raza, opiniones políticas, creencias religiosas, orientación sexual, etc.

Te puede interesar: TikTok también podría ser bloqueado en la Unión Europea ¿Por qué?

Identificación biométrica en tiempo real: El uso de identificación biométrica a distancia en tiempo real en lugares públicos con fines policiales está prohibido, salvo en situaciones específicas como la búsqueda de víctimas de delitos graves o la prevención de ataques terroristas, y requiere autorización judicial o administrativa previa.

 Uso de identificación biométrica ¿Quiénes la pueden usar?

El uso de sistemas de identificación biométrica por parte de las fuerzas del orden está restringido, con excepciones claramente definidas. La identificación biométrica «en tiempo real» solo puede utilizarse bajo estrictas salvaguardias, incluyendo limitaciones temporales y geográficas, y está sujeta a autorización previa.

Estos sistemas pueden emplearse en situaciones como la búsqueda de personas desaparecidas o la prevención de ataques terroristas. Para usos posteriores («RBI post-remoto»), se consideran de alto riesgo y requieren autorización judicial vinculada a delitos penales.

Ley vela para poner en riesgo sistemas como salud o seguridad

Los sistemas de IA considerados de alto riesgo deben cumplir con varias obligaciones debido a su potencial de causar daños significativos a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.

Estos sistemas incluyen aplicaciones en infraestructuras críticas, educación, empleo, servicios públicos y privados esenciales, ciertos sistemas de aplicación de la ley, gestión de fronteras, justicia y procesos democráticos. Las obligaciones incluyen evaluar y mitigar riesgos, mantener registros de uso, ser transparentes y precisos, y garantizar la supervisión humana. Además, los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones tomadas por sistemas de IA de alto riesgo.

Requisitos de transparencia

Los sistemas de IA de propósito general (GPAI) deben cumplir con requisitos de transparencia, incluyendo el cumplimiento de la ley de derechos de autor de la UE y la publicación de resúmenes detallados del contenido utilizado para su capacitación. Los modelos GPAI que podrían plantear riesgos sistémicos enfrentan requisitos adicionales como la realización de evaluaciones de modelos, la mitigación de riesgos sistémicos y la presentación de informes sobre incidentes. Además, las imágenes, el contenido de audio o de vídeo manipulados («deepfakes») deben etiquetarse claramente como tales.

Medidas de apoyo a la innovación y a las PYMEs

Para fomentar la innovación y apoyar a las pequeñas y medianas empresas (PYMEs) y startups, la ley prevé el establecimiento de entornos de pruebas regulatorios y pruebas en el mundo real a nivel nacional. Estos entornos serán accesibles para desarrollar y capacitar una IA innovadora antes de su comercialización.

Imagen: Rafmaster

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos