Le ‘caerá’ la ley a la inteligencia artificial ¿Qué planea la UE?

La Unión Europea  (UE) ya trabaja en una ley para regular la creación y uso de productos con IA. Se llama Ley de Inteligencia Artificial (AIA), y busca promover un uso responsable y ético de esta nueva tecnología, tanto para desarrolladores como para usuarios finales.

Esta nueva ley aún está en «proceso de acuerdo». Se espera que se apruebe y entre en vigencia en 2024. No obstante, el impacto que tendrá es decisivo.

Las grandes firmas de tecnología, incluso varias en el país como EPAM, tienen claro que la medida se enfocará en identificar, mitigar y eliminar riesgos derivados de la nueva inteligencia. Para ello, se han planteado cuatro niveles de riesgos que permitirán determinar el momento en que los sistemas o productos de cada empresa infrinjan la ley: inaceptable, alto, bajo y mínimo riesgo.

Los cuatro niveles de riesgo de la inteligencia artificial

Riesgo inaceptable: es la categoría de mayor riesgo. Aquí entran las prácticas prohibidas por la Unión Europea en todo sentido y que representan amenazas inmediatas para la sociedad, como sistemas biométricos en tiempo real e información personal protegida, algoritmos de puntuación social y sistemas manipuladores. También cualquier aplicación de IA que interfiera en la toma de decisiones, manipule el comportamiento físico o psicológico, ponga en peligro la privacidad, la protección de datos, la salud pública o el medio ambiente, o pueda utilizarse con fines ilícitos.

Riesgo alto: es el riesgo más común presente en las IA que funcionan actualmente y pueden ser potencialmente dañinas para grupos de individuos. Hablamos aquí de la identificación biométrica, los sistemas de categorización y los sistemas de infraestructuras críticas (como los servicios públicos relacionados con la seguridad, los sistemas relacionados con el empleo, los componentes de seguridad de los productos, las aplicaciones sanitarias y los sistemas de moderación de contenidos). Un sistema de IA que agrupe, utilice y prevea grandes cantidades de datos, específicamente datos personales, podría ser analizado como un sistema de alto riesgo.

Riesgo bajo: Aquí entran las IA que no representan gran amenaza para las personas, pero sí requieren mecanismos de transparencia y rendición de cuentas para garantizar que se mantienen en este nivel de riesgo. Nos referimos aquí a las IA utilizadas en servicios de atención al cliente o chatbots. En estos casos se deben proporcionar información y documentación claras sobre las capacidades y limitaciones del sistema de IA, y asegurarse de que funcione de manera continuamente justa y transparente.

Te puede interesar: Abogado usó ChatGPT para ganar demanda contra Avianca, pero la aerolínea lo descubrió

Riesgo mínimo: las IA de este grupo no entrarían a la regulación de la AIA, pero sí se les exige que se acoplen a la nueva normativa. Nos referimos aquí a las IA utilizadas en videojuegos y reconocimiento de imágenes, muy utilizadas por empresas de los medios de comunicación y entretenimiento para sus modelos de negocio y ofertas.

Un llamado a la innovación responsable
Con estas regulaciones no se pretende poner freno al avance tecnológico. No obstante, el futuro debe ser responsable con la sociedad, pues está comprobado que un avance tecnológico desmedido e inconsciente trae consecuencias que afectan, de una u otra manera, el bienestar de los individuos. Las empresas tecnológicas tienen una gran responsabilidad en sus manos.

Imagen: Pixabay

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos