La sanción impuesta por la Corte Suprema de Justicia contra el abogado Jorge Hernán Zapata Vargas abre un debate inevitable sobre el uso de inteligencia artificial en la práctica jurídica. La Sala de Casación Civil, Agraria y Rural concluyó que el profesional incurrió en temeridad procesal al presentar citas legales y referencias jurisprudenciales inexistentes generadas por un sistema automatizado.
El caso surgió durante la sustentación de un recurso extraordinario de revisión. En su demanda inicial, el abogado transcribió normas con contenidos que no correspondían a su texto real y citó sentencias que nunca fueron proferidas. Las referencias tenían numeración precisa y redacción convincente, pero carecían de sustento en los repositorios oficiales.
Tras detectar las inconsistencias, la Sala inadmitió el escrito y advirtió posibles consecuencias disciplinarias. Lejos de corregir de manera rigurosa, el apoderado presentó una subsanación que repitió el patrón: nuevas citas apócrifas y tergiversaciones normativas. La Relatoría de la Corporación confirmó que las providencias mencionadas no existían.
El propio jurista reconoció que utilizó una herramienta de inteligencia artificial para agilizar la elaboración del documento. El tribunal no cuestionó el uso de tecnología como tal. Lo que reprochó fue la omisión del deber de verificación. Para los magistrados, citar una norma o una sentencia implica garantizar su autenticidad.
La decisión se sustentó en la figura de la temeridad procesal, que sanciona a quien litiga sin la diligencia mínima exigible. Puede configurarse por dolo o por culpa grave. En este caso, la Sala consideró que hubo negligencia inexcusable, agravada por la reiteración de errores después de una advertencia formal.
Inteligencia artificial y responsabilidad profesional
La multa de quince salarios mínimos y el envío de copias a la autoridad disciplinaria no solo tienen efectos individuales. El fallo envía un mensaje a la comunidad jurídica: la automatización no sustituye la responsabilidad del abogado.
Los sistemas de IA generativa pueden producir textos coherentes, estructurados y con apariencia técnica sólida. Sin embargo, también pueden “alucinar”, es decir, crear datos inexistentes con absoluta naturalidad lingüística. En el ámbito judicial, donde cada referencia puede incidir en la decisión final, esa falla adquiere otra dimensión.
El caso evidencia que el riesgo no está en la herramienta, sino en el uso acrítico de sus resultados. Delegar la fundamentación jurídica sin contrastar fuentes oficiales expone al litigante a sanciones y compromete la credibilidad del proceso.
Te puede interesar: “El abogado que no abrace la tecnología se va a quedar atrás”: LemonTech analiza el futuro del sector legal en Colombia
El precedente obliga a repensar la incorporación de inteligencia artificial en despachos y firmas. La eficiencia que promete debe ir acompañada de protocolos estrictos de revisión. Consultar bases de datos oficiales, verificar numerales y leer las sentencias completas siguen siendo tareas indelegables.
La decisión no cierra la puerta a la innovación tecnológica en la jurisprudencia colombiana. Más bien fija un límite: la IA puede asistir, pero no reemplazar el juicio profesional. El abogado continúa siendo el responsable directo de lo que firma y presenta ante el tribunal.
A futuro, el debate no girará en torno a si se debe usar inteligencia artificial, sino a cómo integrarla sin afectar la calidad del debate jurídico. Este caso deja una advertencia concreta: la confianza en la justicia depende, también, del rigor con el que se utilicen las nuevas herramientas digitales.
Imagen: Archivo ENTER.CO