Opinión | Cuando la máquina decide, ¿quién responde?

Escrito por: Tatiana Dulima Zabala, docente de derecho del Politécnico Grancolombiano

Cuando me preguntan por qué decidí sumergirme en el debate sobre la regulación de la inteligencia artificial y la responsabilidad civil, suelo responder con una paradoja: mientras más autónomos se vuelven los sistemas, más abandonado queda el debate sobre quién responde cuando algo sale mal.

Y no hablo solo de fallas técnicas; hablo de decisiones algorítmicas que alteran vidas, sesgan oportunidades o incluso vulneran derechos fundamentales. En una investigación que realicé en el Politécnico Grancolombiano, revisé casi 500 estudios teóricos sobre ética e IA. Seleccioné 52 que abordaban de manera rigurosa la responsabilidad civil en este campo.

¿Qué encontré? Un consenso creciente sobre la urgencia de regular, pero una falta de acuerdo aún mayor sobre cómo hacerlo. Hay una ansiedad compartida: los desarrollos tecnológicos avanzan con tal velocidad que las estructuras legales apenas si logran entenderlos, mucho menos regularlos.

Esto no es solo un problema jurídico; es una cuestión profundamente ética. El ideal de que la moral debe preceder a la técnica parece hoy un lujo impracticable. Sin embargo, esperar a que la tecnología “madure” para pensar su regulación es, en el mejor de los casos, ingenuo; y, en el peor, peligroso.

Uno de los hallazgos más reveladores de mi investigación fue la necesidad de mecanismos de responsabilidad claros, incluso si aún no tenemos plena certeza sobre el grado de autonomía de un sistema.

Aquí surge una propuesta polémica, pero cada vez más debatida: otorgar personalidad jurídica a ciertas aplicaciones de IA, no para humanizarlas, sino para garantizar un marco legal que permita la compensación por daños y evite la impunidad algorítmica.

Ahora bien, ¿a quién debería exigírsele rendición de cuentas? ¿Al desarrollador, al usuario, al algoritmo? La investigación apunta a una solución intermedia: instaurar auditorías internas y externas, con reportes accesibles para los usuarios. No se trata solo de vigilar, sino de construir confianza.

Lo que realmente me inquieta no es solo la falta de regulación, sino la falta de ética en su ausencia. Las aplicaciones de IA ya deciden a quién contratar, qué tratamiento ofrecer, a quién patrullar o qué contenido mostrar. Y, aunque no tengan intención, sí tienen impacto.

En este punto quiero ser clara: no estoy diciendo que haya un único camino, pero sí creo que podemos avanzar hacia una IA confiable si exigimos marcos normativos coherentes, especialmente en contextos como el latinoamericano, donde los derechos fundamentales están más expuestos a la desigualdad estructural.

La IA no es neutral: reproduce los sesgos de quienes la crean y valida los criterios de quienes la implementan. Por eso no basta con exigir ética en el código; hay que exigir ética en el poder. Y el poder, en esta era, muchas veces habla en lenguaje de datos.

Quizá el mayor desafío no sea técnico ni legal, sino político. ¿Tenemos la voluntad de poner límites a una tecnología que promete eficiencia, pero que puede erosionar silenciosamente nuestra autonomía, intimidad y dignidad?

Desde mi rol, lo que puedo decir, después de revisar años de literatura y contrastar decenas de propuestas, es que la regulación de la inteligencia artificial no puede ser una ocurrencia tardía ni una indulgencia voluntaria; debe ser una construcción colectiva, interdisciplinaria y, sobre todo, profundamente humana.

Porque, al final, el algoritmo no absuelve. Y, si no hay responsabilidad clara, la injusticia quedará en la sombra de un código que nadie se atreve a cuestionar.

Imagen: Generada con IA /ChatGPT

Colaboradores ENTER.CO

Colaboradores ENTER.CO

Muchos periodistas y blogueros de Colombia, Latinoamérica y España colaboran esporádicamente con ENTER.CO, aportando su conocimiento y puntos de vista frente al acontecer tecnológico y de Internet.

View all posts

Archivos