Por: Lina María Ortegón Suárez, coordinadora de la Maestría en Derecho Procesal de la Universidad Politécnico Grancolombiano.
Sin embargo, no nos corresponde enlistarlos, pronunciarnos de forma entusiasta sobre ellos ni encasillarlos como un retroceso para la humanidad. Lo cierto es que, en los últimos meses, los modelos de inteligencia artificial generativa han logrado avances significativos en su desarrollo, optimización y capacidad de respuesta en distintos contextos profesionales, impactando directamente la IA en el derecho.
Microsoft creó su propia herramienta, Copilot, con una visión más organizativa e integrada en entornos laborales. También se evidencia la evolución en Google con Google IA Studio, que incorpora criterios más transparentes para el usuario, permitiendo abordar temas como código de programación, prompt, API, temperature —para mitigar alucinaciones— y tokens, entre otros conceptos técnicos.
Surge entonces, a lo largo de esta narrativa tecnológica, un interrogante fundamental que articula el ejercicio del derecho procesal con los procesos de enseñanza-aprendizaje: ¿los abogados y futuros juristas están realmente preparados para un uso adecuado de los modelos de inteligencia artificial generativa en sus diferentes plataformas y aplicaciones prácticas?
Un fallo que prende las alarmas en el uso de IA en el derecho
Para responder a esta pregunta, resulta pertinente analizar los hechos relacionados con el auto AC739-2026 de la Sala de Casación Civil, Agraria y Rural de la Corte Suprema de Justicia. Esta decisión resolvía un recurso de revisión contra un fallo emitido por el Tribunal Superior de Villavicencio, generando importantes reflexiones jurídicas.
En este caso, el apoderado presentó la demanda del recurso extraordinario de revisión citando un artículo incorrecto del Código General del Proceso (CGP) e invocando causales inexistentes. Posteriormente, en la subsanación, corrigió el artículo aplicable (Ley 1564 de 2012, art. 355), pero modificó el sentido taxativo de las causales invocadas, generando inconsistencias sustanciales.
Además, sustentó su argumentación con diez referencias jurisprudenciales apócrifas entre la demanda inicial y su corrección. Esta situación evidencia un uso inadecuado de herramientas tecnológicas, posiblemente derivado de una confianza excesiva en modelos de inteligencia artificial generativa sin la debida verificación jurídica.
La Corte concluyó que el apoderado incurrió en temeridad procesal (Ley 1564 de 2012, art. 79), considerando la conducta desplegada. A pesar de advertirse inconsistencias normativas y de que el mismo apoderado aceptó el uso de modelos de IA generativa, persistió en su postura sin realizar un control riguroso de la información presentada.
Como consecuencia, se le impuso una sanción consistente en una multa de 15 salarios mínimos legales mensuales vigentes (SMLMV) y la compulsa de copias a la Comisión Seccional de Disciplina Judicial de Bogotá. Este caso plantea una pregunta crucial: ¿estamos realmente preparados para integrar la inteligencia artificial en el ejercicio jurídico?
Los modelos de IA generativa y las herramientas digitales requieren una comprensión multidisciplinaria que permita su uso adecuado, ético y seguro, especialmente frente a las partes representadas y al sistema judicial. No se trata solo de eficiencia, sino de responsabilidad profesional y rigor técnico en cada actuación procesal.
Imagen: Generada con IA / ChatGPT