Judiciales

Multaron a una abogada por usar Inteligencia Artificial con mala fe en una demanda judicial

Un juez sancionó a una letrada por presentar citas jurisprudenciales inexistentes generadas con Inteligencia Artificial sin control humano.

Una abogada fue sancionada económicamente por utilizar de manera temeraria y de mala fe herramientas de Inteligencia Artificial (IA) para redactar una demanda judicial, luego de que se comprobara la inclusión de citas jurisprudenciales inexistentes y no verificables.

La decisión fue adoptada por el Dr. Santiago José Peral, titular del Juzgado en lo Civil y Comercial Común de la Xª Nominación del Centro Judicial Capital, quien impuso a la profesional una multa equivalente al valor de una consulta escrita y la exhortó a adecuar su conducta a los deberes de veracidad, probidad, lealtad, buena fe y diligencia profesional.

Citas falsas y sospechas de uso indebido de IA

El caso se dio en el marco de un juicio por daños y perjuicios iniciado contra una plataforma online de viajes. Durante la primera audiencia, la defensa de la empresa demandada advirtió que no había logrado verificar la existencia de seis precedentes jurisprudenciales citados en el escrito de demanda, pese a una búsqueda exhaustiva en bases de datos oficiales y fuentes jurídicas especializadas.

Según se planteó en la audiencia, la irregularidad podría corresponder a lo que en el ámbito tecnológico se conoce como "alucinaciones" de la Inteligencia Artificial, es decir, la generación de información errónea o directamente falsa.

La abogada de la parte actora negó la acusación y afirmó que las citas provenían de sitios oficiales, motivo por el cual el magistrado le otorgó un plazo de cinco días para acreditar la jurisprudencia mencionada.

Persistencia en el error y agravamiento de la conducta

Lejos de subsanar la situación, la letrada presentó un nuevo escrito en el que no logró acreditar los fallos cuestionados y, además, incorporó nuevas citas cuya existencia tampoco pudo ser verificada.

Tras analizar el conjunto de presentaciones, el juez Peral fue contundente:

"Puede razonablemente inferirse que las citas jurisprudenciales inexistentes o no verificables pudieron haber sido generadas mediante herramientas de inteligencia artificial, sin el debido control humano posterior".

El magistrado consideró probado que la profesional incurrió en una conducta temeraria y de mala fe procesal, al insistir en la veracidad de información falsa incluso luego de ser intimada judicialmente.

Advertencia sobre el uso de IA en el ámbito judicial

En su resolución, el juez recordó que durante 2025 la Corte Suprema de Justicia de Tucumán aprobó los principios rectores para el desarrollo y aplicación de la Inteligencia Artificial en el Poder Judicial, los cuales establecen que estas herramientas deben ser utilizadas como auxiliares, pero nunca en reemplazo del juicio humano.

Además, citó doctrina del Máximo Tribunal provincial al señalar que el ejercicio de la abogacía es una función social y pública, que exige no solo idoneidad técnica sino también conducta ética y responsabilidad profesional.

"No puede entenderse cumplida esta exigencia cuando el profesional delegó íntegramente la elaboración de un escrito judicial a un sistema de inteligencia artificial, omitiendo todo control sobre su contenido", remarcó.

Comunicación al Colegio de Abogados

Por la gravedad de los hechos, el magistrado no solo aplicó una sanción económica, sino que también dispuso poner el caso en conocimiento del Tribunal de Ética y Disciplina del Colegio de Abogados de Tucumán, para que evalúe la eventual adopción de medidas adicionales.

El fallo marca un precedente relevante sobre el uso de Inteligencia Artificial en la práctica profesional, y refuerza la idea de que su utilización sin controles adecuados puede derivar en responsabilidades disciplinarias y judiciales.

Esta nota habla de: