ENTREVISTA: Ley de Inteligencia Artificial de UE: ¿Colombia seguirá el modelo europeo?

UNIÓN EUROPE IA

Holberton Banner 2

ENTER.CO habló con Erick Rincón Cárdenas, profesor asociado de la Universidad del Rosario, abogado y  doctor en Derecho de la Universidad Europea de Madrid, sobre la nueva Ley de Inteligencia Artificial aprobada por la Unión Europea (UE). Abordamos varios temas como, cuál es el impacto real de la nueva regulación, no solo en las empresas desarrolladoras y gigantes tecnológicos, sino en los usuarios finales y sobre la posible adopción  de esta Ley en países como Colombia ¿Qué tanto regula y  protege?

Hace algunas semanas la Unión Europea aprobó definitivamente la nueva ley de inteligencia artificial (IA), que se aplicará de forma progresiva hasta el año 2026, cuando entre completamente en vigor.

La normativa es la primera en el mundo, la cual establece un marco robusto para su uso ético y seguro. La ley es extensa y abarca todos los sectores y las industrias que no solo buscan proteger a los ciudadanos y usuarios, sino su usabilidad correcta.

ENTER.CO: con la aprobación de esta ley, la Unión Europea se posiciona como pionera en la regulación de la IA. ¿Cómo se sitúa este marco regulatorio en el contexto global?

RINCÓN: La regulación de la inteligencia artificial ha sido una preocupación central para los países desarrollados debido a los potenciales efectos negativos de la IA generativa. Tecnologías como ChatGPT pueden generar efectos jurídicos indeseables y afectar derechos de ciudadanos y consumidores. La IA tiene la capacidad de emular el pensamiento humano mediante algoritmos avanzados, y esto puede generar fricciones significativas, desde el tratamiento de datos personales hasta el desplazamiento laboral.

Europa ha sido el primer bloque económico a nivel mundial en tomar cartas en el asunto con una regulación sobre el desarrollo de la inteligencia artificial.

Han desarrollado cuatro aspectos importantes: 1. Clasificar la inteligencia artificial en función del riesgo; 2. La mayoría de las obligaciones recaen en los proveedores de sistemas de inteligencia artificial de alto riesgo; 3. Los usuarios de esta inteligencia artificial pueden ser personas naturales o jurídicas; 4. Existe la inteligencia artificial de propósito general. 

La norma clasifica los sistemas de inteligencia artificial en cuatro categorías de riesgo: bajo, limitado, alto e inaceptable. Las aplicaciones de riesgo bajo no presentan dificultades operacionales, mientras que las de riesgo limitado requieren ciertas obligaciones de transparencia para fomentar la confianza. 

Los sistemas de alto riesgo incluyen aquellos utilizados en infraestructuras críticas, educación, seguridad de productos, empleo, servicios públicos y privados esenciales, gestión de migración y administración de justicia. Los riesgos inaceptables incluyen manipulación biométrica y emulación del registro facial.

ENTER.CO: ¿Qué impacto tiene esta ley en los gigantes tecnológicos, como Google, Amazon o Microsoft, que operan en la UE?

RINCÓN: La ley define claramente las reglas del juego para que los desarrolladores e implementadores de inteligencia artificial conozcan sus requisitos y obligaciones. Esto garantiza a los operadores un margen de acción claro y, sobre todo, protege los derechos de los ciudadanos, tratando de que las responsabilidades recaigan en las empresas desarrolladoras. La ley forma parte de un paquete más amplio de medidas políticas en la Unión Europea para apoyar el desarrollo de una inteligencia artificial confiable, incluyendo un paquete de innovación y un plan coordinado sobre el tema.

ENTER.CO: ¿Cómo protege la ley europea a los usuarios y consumidores?

RINCÓN: La normativa europea prohíbe prácticas de IA que son consideradas inaceptables, como evaluar a las personas según su estatus socioeconómico o realizar identificaciones biométricas en tiempo real en espacios públicos. Estas prohibiciones protegen la privacidad y la dignidad de los individuos, estableciendo un estándar de derechos humanos en el contexto digital.

Además, la ley asegura que los desarrolladores e implementadores de IA conozcan claramente sus responsabilidades y límites, protegiendo así a los usuarios finales y creando un entorno más seguro para todos.

ENTER.CO ¿Cuál es el alcance de esta ley fuera de la Unión Europea?

RINCÓN: Aunque la normativa solo aplica a los países miembros de la UE, su influencia es indiscutible a nivel global. Establece un precedente que podría inspirar a otras regiones a desarrollar sus propias leyes sobre IA. Es un modelo que promueve la protección de derechos y la gestión responsable de la tecnología, lo cual es crucial en el contexto actual.

ENTER.CO: Hablemos de Colombia. ¿Cómo está el país en términos de regulación de la IA?

RINCÓN: En Colombia, hemos visto un interés creciente en regular la IA, con varios proyectos de ley presentados en el Congreso. Hoy en día hay siete iniciativas, como la 59 de 2023, pendiente de discusión en segundo debate, y la 91 de 2023, pendiente de primer debate. 

Estos proyectos no han avanzado significativamente. Colombia no es un gran productor de tecnologías de IA, por lo que nuestra regulación debe enfocarse en proteger los derechos de los usuarios y promover un uso responsable de la tecnología.

Sería interesante que los ponentes trabajaran en la unificación de estas iniciativas y promovieran su trámite legislativo para evitar que queden archivadas. Se necesita una ley que en Colombia desarrolle estas temáticas y tome lo mejor de lo que está ocurriendo en Europa y otros lugares. Es esencial que estas regulaciones se adapten a nuestras realidades y necesidades específicas.

ENTER.CO: ¿Cuáles son los desafíos futuros en términos jurídicos para la regulación de la IA?

RINCÓN: La ley europea es un punto de partida crucial, pero no aborda todos los aspectos de la IA. Por ejemplo, no regula específicamente los sistemas autónomos relacionados con robots, vehículos o drones, áreas que también presentan riesgos significativos.

El desarrollo de una normativa integral y dinámica es un proceso continuo. Los avances tecnológicos requerirán adaptaciones constantes para asegurar que los beneficios de la IA se maximicen mientras se minimizan sus riesgos. Es un desafío equilibrar la innovación tecnológica con la protección de los derechos humanos, pero es esencial para crear un entorno donde la tecnología pueda prosperar en beneficio de todos.

ENTER.CO ¿Hay alguna reflexión sobre este tema?

RINCÓN:La regulación de la IA está apenas comenzando. Es fundamental que cada región desarrolle sus propias normativas adaptadas a sus contextos específicos. En Colombia, necesitamos una ley que no solo tome lo mejor de las regulaciones internacionales, sino que también se ajuste a nuestras condiciones y necesidades. La clave está en proteger los derechos de los ciudadanos y fomentar un uso responsable y ético de la tecnología.

 

Ver esta publicación en Instagram

 

Una publicación compartida de ENTERCO (@enter.co)

Imagen: Rafmaster

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos