La Corte Suprema anula un fallo por uso indebido de inteligencia artificial en citas judiciales: Esta es la historia

Abogado-Robot

Por primera vez, la Corte Suprema de Justicia dejó sin efecto una decisión judicial que se basó en citas falsas generadas con ayuda de inteligencia artificial. El fallo, emitido por la Sala de Casación Civil, Agraria y Rural, protege los derechos de Irma del Socorro Chadid Urueta, quien había interpuesto una tutela contra la Sala Civil Familia Laboral del Tribunal Superior de Sincelejo.

Todo comenzó cuando Chadid demandó a Dina Paola Encina en un proceso ejecutivo. El caso parecía resuelto, pero en 2025 el Tribunal de Sincelejo decidió terminarlo por “desistimiento tácito”, argumentando que la demandante no había movido el proceso durante dos años. Sin embargo, la Corte Suprema determinó que el Tribunal basó su decisión en jurisprudencias citadas de manera incorrecta —e incluso inexistentes—, presuntamente elaboradas o alteradas por un sistema de inteligencia artificial.

Según el alto tribunal, el Tribunal de Sincelejo mencionó dos sentencias (STC13560-2023 y STC4734-2025) que, al ser verificadas, no contenían las frases ni los fundamentos jurídicos atribuidos. Es decir, se trató de “alucinaciones” jurídicas: textos creados o distorsionados por herramientas tecnológicas que fueron incorporados en la providencia sin verificación.

La Corte fue enfática en que esta práctica vulnera el derecho fundamental al debido proceso y pone en riesgo la confianza en la justicia. “El juez que incorpora datos o argumentos contrarios a la realidad, producto de herramientas tecnológicas, incumple su responsabilidad en la motivación de la decisión”, advierte el fallo, citando además una sentencia previa de la Corte Constitucional (T-323 de 2024), que ya alertaba sobre el uso irresponsable de la IA en la administración de justicia.

Te puede interesar: Despidos en tecnología revelan una nueva brecha: la falta de preparación para convivir con la inteligencia artificial

El caso deja ver cómo la inteligencia artificial, usada sin control, puede alterar el sentido de una decisión judicial. En este proceso, la Corte comprobó que las citas supuestamente extraídas de su propia jurisprudencia eran falsas. El error no fue menor: a partir de esas frases inventadas, el Tribunal de Sincelejo terminó un proceso y afectó directamente a una de las partes.

Por esa razón, la Corte Suprema revocó el auto del 25 de agosto de 2025 y ordenó al Tribunal de Sincelejo volver a decidir la apelación, esta vez con una revisión exhaustiva y sin basarse en información generada de forma automática o sin sustento verificable.

El fallo también ordena al Consejo Superior de la Judicatura y a la Escuela Judicial Rodrigo Lara Bonilla difundir la decisión entre los jueces del país, como una advertencia sobre los límites del uso de la IA en las labores judiciales. La Corte recordó que las herramientas tecnológicas pueden apoyar la redacción de fallos o la búsqueda de jurisprudencia, pero no reemplazan el deber humano de verificar, razonar y motivar cada decisión con base en hechos reales y derecho vigente.

El mensaje es claro: la justicia no puede apoyarse en información generada por sistemas automáticos sin supervisión. Cada cita, argumento o precedente usado en una providencia debe ser comprobado por el funcionario judicial y su equipo.

Te puede interesar: El 58 % del empleo está en riesgo por la IA: ¿qué hay detrás de los algoritmos que reconfiguran el trabajo en Colombia y América Latina?

Este pronunciamiento marca un precedente histórico en Colombia. No solo protege el caso particular de Chadid Urueta, sino que envía una señal contundente al sistema judicial sobre la responsabilidad que implica incorporar inteligencia artificial en la toma de decisiones.

Más allá de un error técnico, la Corte advierte que estos fallos “automatizados” erosionan la credibilidad institucional. En palabras del propio pronunciamiento, la justicia debe ser “una realidad viviente para todos” y no una decisión basada en datos falsos o sin fundamento.

Con este caso, el máximo tribunal colombiano sienta una pauta ética: la inteligencia artificial puede ser una herramienta valiosa, pero su uso irresponsable puede vulnerar derechos fundamentales y alterar el curso de la justicia. En adelante, los jueces deberán actuar con mayor diligencia y verificar cada fuente, recordando que detrás de cada fallo hay personas, no algoritmos.

Imagen: Archivo ENTER.CO

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos