Opinión | IA en los juzgados: ¿aliada o amenaza?

Por: Lina María Valencia, docente de derecho del Politécnico Grancolombiano

Vivimos un momento crucial en la historia de la justicia. La inteligencia artificial no solo ha irrumpido en los juzgados, sino que se ha convertido en el eje de una transformación tecnológica que promete agilizar procesos, reducir cargas operativas y optimizar el sistema judicial.


Sin embargo, detrás del discurso de la eficiencia tecnológica, se esconde un riesgo mayor: deshumanizar las decisiones judiciales. ¿Estamos dispuestos a que un algoritmo, sin empatía ni contexto, tenga injerencia en los derechos fundamentales de las personas?

Hoy, herramientas como PretorIA en Colombia, Prometea en Argentina o Sócrates en Brasil son parte del ecosistema judicial digital. Estas soluciones tecnológicas asisten en tareas como gestión documental, redacción automatizada y búsqueda inteligente de jurisprudencia.

Te puede interesar: ¿Cómo la Inteligencia Artificial está impactando el sistema judicial en Colombia?

En principio, parecen inofensivas, pero si no trazamos límites éticos y normativos claros, pronto podríamos vernos ante un sistema que delega en la IA decisiones que requieren juicio humano; y eso no es innovación, es una amenaza.

La Corte Constitucional de Colombia, en la sentencia T-323 de 2024, fue categórica: ninguna inteligencia artificial puede reemplazar al juez natural. El Consejo Superior de la Judicatura, en el Acuerdo 12243, reconoció el valor de estas tecnologías, pero también advirtió sus riesgos.

El mensaje es claro: la IA puede ser una aliada tecnológica, pero nunca debe ser protagonista en la toma de decisiones judiciales. Porque juzgar no es solo aplicar la norma; es interpretar, ponderar y comprender los matices de cada caso. Es decidir con base en la ley, pero también en la dignidad humana.

La IA, por más sofisticada que sea, no puede entender el dolor de una víctima ni la injusticia detrás de una formalidad procesal. Esa sensibilidad no se programa, esa se cultiva con experiencia, ética y humanidad.

En Colombia, el uso de IA en la Rama Judicial empieza a regularse con avances importantes, pero persisten riesgos evidentes: desde la protección de datos personales hasta el peligro de que un algoritmo, sin supervisión, influya en sentencias.

La Corte Suprema de Justicia ha delineado deberes para los funcionarios: no usar IA para valorar pruebas, evitar introducir datos sensibles y mantener siempre el control humano. Y, sin embargo, muchos aún ven estas herramientas como soluciones mágicas que reemplazan el criterio.

La justicia necesita transformarse, pero no a cualquier costo. Automatizar tareas repetitivas, sí; sustituir la conciencia jurídica, no. Necesitamos formación ética para quienes operan estas tecnologías y un compromiso real con el respeto a los derechos fundamentales.

Los organismos internacionales ya lo han dicho. UNESCO, OCDE y la Comisión Europea coinciden en que la inteligencia artificial debe desarrollarse bajo principios de transparencia, rendición de cuentas, equidad y control humano. Se trata de asegurarnos de que esos sistemas respeten lo que nos hace humanos.

La preocupación es que la promesa de eficiencia nos lleve a aceptar sin crítica que la tecnología lo resuelva todo. Que dejemos de cuestionar el impacto de un algoritmo en un fallo judicial. Y que renunciemos, poco a poco, a la esencia misma del derecho: proteger la dignidad humana en cada decisión.

El reto no es técnico, es ético. ¿Queremos una justicia que escuche o que calcule? ¿Una justicia que mire a los ojos o que lea patrones de datos? La IA puede ser útil, pero no infalible; puede ayudar, pero no decidir. Mientras esa línea se respete, podremos hablar de un sistema moderno.

Imagen: Generada con IA / ChatGPT

Colaboradores ENTER.CO

Colaboradores ENTER.CO

Muchos periodistas y blogueros de Colombia, Latinoamérica y España colaboran esporádicamente con ENTER.CO, aportando su conocimiento y puntos de vista frente al acontecer tecnológico y de Internet.

View all posts

Archivos