Luego de que la Sala Civil, Agraria y Rural de la Corte Suprema de Justicia sancionara esta semana a un abogado por temeridad procesal al citar textos legales y referencias jurisprudenciales apócrifas generadas por la Inteligencia Artificial, se reactivó el debate sobre el uso de esta herramienta tecnológica en el ejercicio del derecho, particularmente en Colombia, donde según los expertos consultados por EL HERALDO, se extraña una regulación urgente alrededor de este asunto para aprovechar las ventajas y disminuir los riesgos que comporta la popular IA.
El máximo tribunal de la justicia ordinaria multó a un abogado al comprobar que tanto la demanda de sustentación de un recurso extraordinario de revisión como en la subsanación “comparten una anomalía grave y sistemática: incorporan transcripciones inexactas de textos legales y referencias jurisprudenciales apócrifas”, generadas por un programa de Inteligencia Artificial, utilizado para agilizar la contestación y trámites de los procesos.
Alucinaciones de la IA
“Las irregularidades descritas comparten un mismo patrón: enunciados objetivamente falsos, revestidos de corrección sintáctica, verosimilitud formal y tono categórico. Esa combinación de inexactitud y apariencia de rigor es consistente con el fenómeno conocido como alucinaciones de los sistemas de Inteligencia Artificial generativa, origen que, dicho sea de paso, el propio autor de los memoriales reconoció explícitamente”, precisó la Sala Civil, Agraria y Rural al señalar que el abogado omitió el deber de verificación de la autenticidad y exactitud de las normas invocadas.
Indicó en este sentido la Corte Suprema que la temeridad, en el contexto del proceso, designa la conducta de quien litiga sin la seriedad y lealtad mínimas exigibles, ya sea por dolo, cuando actúa a sabiendas de la carencia de fundamento de su pretensión o defensa, introduce conscientemente premisas falsas o instrumentaliza el proceso para fines ilegítimos; o por culpa grave, cuando procede con negligencia inexcusable frente a los presupuestos fácticos o jurídicos de su actuación, omitiendo verificaciones elementales que habrían revelado la inviabilidad o falsedad de lo alegado.
Precisó al respecto el alto tribunal que el abogado, tras ser confrontado con la falsedad de sus fuentes, radicó una subsanación que incorporó cuatro nuevas citas apócrifas y tergiversó el texto de la ley.
“Ello revela que, aun después de la advertencia expresa de la corporación, el apoderado mantuvo el mismo proceder: delegar la fundamentación jurídica a un sistema automatizado sin verificar la autenticidad de lo generado. No se trata, por tanto, de un descuido aislado, sino de un patrón de conducta que evidencia desatención deliberada al deber de verificación”, sentenció la Sala.
Ante este agravante, la Corte impuso al apoderado una multa de 15 salarios mínimos legales mensuales vigentes y compulsó copias a la Comisión Seccional de Disciplina Judicial de Bogotá.
El caso en concreto
Se trata del jurista Jorge Zapata, quien presentó un recurso judicial con sentencias citadas que no figuraban en los sistemas oficiales, tras lo cual el propio abogado reconoció que las imprecisiones fueron consecuencia “posiblemente de un programa de Inteligencia Artificial que se trabaja con el fin de agilizar las contestación y trámites (sic)”, según la sentencia, que hace referencia a un recurso extraordinario de revisión contra un fallo del Tribunal Superior de Villavicencio.
El fallo alertó además sobre el riesgo de incorporar al proceso judicial lo que denominó “pseudo-derecho”, es decir, contenidos inexistentes que tienen apariencia de jurisprudencia real, y subrayó que los modelos de lenguaje generativo pueden producir información falsa aunque verosímil.
En consecuencia, el alto tribunal ordenó remitir el caso a la Comisión Seccional de Disciplina Judicial de Bogotá para que determine si el abogado incurrió en una falta disciplinaria y adopte las sanciones correspondientes.
La decisión constituye una de las primeras sentencias en Colombia sobre la responsabilidad de abogados por el uso indebido de Inteligencia Artificial en actuaciones judiciales y fija un precedente sobre la obligación de verificar la información generada por estas herramientas.
Decisiones desde 2024
Al respecto, el magistrado del Tribunal Superior del Atlántico, Carlos Pérez Alarcón, le dijo a EL HERALDO que esta es una decisión que se suma “a otras que ya se han venido emitiendo desde el 2024 quizá y donde se reitera el deber que tienen todos los abogados, desde diferentes ámbitos, de contrastar la información que logran obtener a partir del uso de Inteligencia Artificial. Y lo más importante es que reconocen la importancia de la tecnología para guiar o asistir en la labor jurídica, pero de ninguna manera para reemplazar el ejercicio intelectual que solamente los seres humanos pueden realizar”.
En términos generales, añade el togado, este es un llamado a verificar las fuentes usadas por la IA: “Hay una parte muy importante de la decisión de 2026 y es que reconoce que el abogado tiene auxiliares y que estos pueden ser humanos o pueden ser Inteligencia Artificial, pero en ambos casos ese abogado tiene que supervisar la tarea, revisar las leyes, las sentencias que se postulan por cuenta del auxiliar o de la herramienta, y su nombre es que el finalmente va a quedar plasmado en el documento. Finalmente estos sistemas lo que hacen es redactar de forma coherente pero no necesariamente de forma válida”.
A su vez, el jurista Raúl Romero advirtió en EL HERALDO que se trata de una situación bastante grave para el ejercicio del derecho y para la judicatura, “toda vez que ahí se vulnera la confianza entre abogado y cliente, y nosotros como abogados tenemos una gran responsabilidad y es actuar con honestidad y lealtad frente a nuestro cliente, y en especial también frente a los tribunales, los jueces y la Corte Suprema de Justicia, por lo que en este caso falsificar decisiones atenta directamente contra al núcleo de la función jurídica”.
Y concluye el legista que si bien la IA en el ejercicio del derecho es una herramienta muy valiosa, “no podemos perder de vista que esta no va a reemplazar la experiencia y el juicio valorativo humano, que nosotros como profesionales del derecho debemos hacer. (...) Obvio que la IA nos sirve para automatizar tareas de rutina y al mismo tiempo nos analiza grandes cantidades de datos pero jamás va a reemplazar el criterio humano”.


