Bienvenidos a LXForce
La inteligencia artificial generativa, con ChatGPT a la cabeza, ha irrumpido en el mundo profesional con la fuerza de un huracán. Promete revolucionar la forma en que trabajamos, investigamos y redactamos. El ámbito jurídico no es la excepción. Sin embargo, como toda herramienta poderosa, su uso inadecuado puede tener consecuencias nefastas. Un reciente y elocuente fallo de la Cámara de Apelación en lo Civil y Comercial de Morón, bautizado por la prensa como el caso “Chanta-GPT”, nos sirve una advertencia contundente sobre los peligros de confiar ciegamente en el “copy-paste” algorítmico.
La Sala I, en la causa “Acevedo c/ Cáceres”, se encontró con un recurso de apelación que era, en esencia, un cascarón vacío. El escrito, que pretendía cuestionar una sentencia de primera instancia, se apoyaba casi exclusivamente en jurisprudencia que resultó ser… inexistente. Fallos fantasma, sin fechas, sin referencias, imposibles de verificar en cualquier base de datos oficial. La sospecha de los magistrados fue inmediata y apuntó directamente a una “alucinación” de alguna herramienta de inteligencia artificial.
Este caso es mucho más que una anécdota. Es una ventana a los nuevos dilemas éticos y procesales que enfrentan los abogados en la era digital. ¿Cuál es el estándar de diligencia profesional al usar estas tecnologías? ¿Cómo debe reaccionar el sistema judicial ante estos “errores algorítmicos”? ¿Corresponde sancionar al profesional o adoptar un enfoque pedagógico? Este artículo se sumerge en el análisis de este fallo pionero, que opta por la colaboración y la docencia antes que por el castigo.
Para entender la decisión de la Cámara, primero debemos recordar qué es una “expresión de agravios”. El artículo 260 del Código Procesal Civil y Comercial bonaerense es claro: no basta con mostrar descontento con un fallo. El apelante debe realizar una crítica concreta y razonada de la sentencia, señalando punto por punto los errores de hecho o de derecho que, a su entender, cometió el juez de primera instancia. Si no se cumple este requisito, el recurso se declara “desierto”, es decir, se tiene por no presentado.
En el caso “Acevedo”, el escrito del abogado de la parte actora era un ejemplo perfecto de lo que no se debe hacer. En lugar de atacar los fundamentos del fallo de grado, construyó toda su argumentación sobre la base de supuestos precedentes jurisprudenciales. El problema, como detectó con agudeza el juez Gabriel Hernán Quadri, era que esos precedentes parecían haber salido de la nada.
El apelante citaba un supuesto fallo “Barrios” que no era el famoso y clásico precedente de la Corte, sino otro, sin fecha ni datos, que además sostenía criterios contrarios a la doctrina consolidada de la Suprema Corte provincial en materia de intereses y daños. Lo mismo ocurría con otras citas, todas parciales, vagas e inverificables en las bases de datos oficiales como JUBA o la MEV.
La conclusión de los jueces fue lapidaria: el escrito no contenía una crítica real, sino un montaje de citas apócrifas. Al no haber un cuestionamiento serio y fundado de la sentencia original, el recurso carecía de la sustancia mínima para ser considerado. La consecuencia procesal fue inevitable: se declaró desierto.
Aquí es donde el fallo se pone realmente interesante. Los jueces no se limitan a la cuestión procesal, sino que se atreven a diagnosticar la posible causa del desaguisado. Conectan directamente la situación con el notorio caso estadounidense “Mata v. Avianca”, donde un abogado fue severamente sancionado por presentar un escrito plagado de citas de casos inventados por ChatGPT.
El tribunal de Morón reconoce que se ha instalado en los tribunales “la cuestión de la evocación de precedentes inexistentes, a partir del (inadecuado) uso de sistemas de inteligencia artificial generativa por parte de los profesionales”. Aunque aclaran que no pueden afirmarlo con certeza, la similitud de los hechos les hace pensar que existe una “fuerte probabilidad” de que el abogado haya sido víctima de una “alucinación” de la IA.
Este término, “alucinación”, es clave. Describe la tendencia de los modelos de lenguaje como ChatGPT a inventar información con total seguridad cuando no conocen la respuesta correcta. La IA no “sabe” que está mintiendo; simplemente genera el texto que estadísticamente es más probable que siga a la pregunta, y si eso implica inventar un fallo llamado “Barrios”, lo hace con una prosa convincente.
El fallo de la Cámara de Morón es uno de los primeros en Argentina en reconocer este fenómeno y sus implicancias en la práctica judicial, marcando un hito en la intersección entre derecho y tecnología.
Una vez detectado el problema, la pregunta del millón para el juez Quadri fue: ¿qué hacer? La tendencia en otros países, como en el caso “Mata v. Avianca”, ha sido la de imponer sanciones económicas y disciplinarias al profesional. Sin embargo, el tribunal de Morón elige un camino diferente, que el propio juez califica como “empático y colaborativo”.
El magistrado argumenta que no comparte la idea de sancionar al abogado. En su lugar, propone un enfoque pedagógico. Su razonamiento es pragmático y visionario: “Esas herramientas existen, y se utilizan, con lo cual (…) todos los involucrados (…) debemos contribuir (…) a que su aprovechamiento se haga de manera ética y responsable”.
En lugar de un reto, la Cámara extiende una mano. Reconoce que la IA puede “potenciar mucho nuestro trabajo”, pero subraya la necesidad de un uso crítico y verificado. Por ello, en su parte resolutiva, además de declarar desierto el recurso, toma una medida ejemplar: ordena comunicar lo sucedido al Colegio de Abogados departamental.
El objetivo no es iniciar un proceso disciplinario, sino recomendar al Colegio que difunda entre sus matriculados la importancia de verificar la existencia de normas, fallos y doctrina cuando se utilicen sistemas de inteligencia artificial. Es una invitación a la autorregulación, a la capacitación y a la toma de conciencia colectiva.
El caso “Chanta-GPT” es una lección invaluable para la abogacía argentina. Nos enseña que la inteligencia artificial es un asistente poderoso, pero no un oráculo infalible. La responsabilidad final e indelegable de la veracidad y la calidad de un escrito judicial sigue y seguirá recayendo en el profesional que lo firma.
El fallo de la Cámara de Morón nos marca el camino a seguir:
1. Verificación Obligatoria: Cualquier información generada por una IA, especialmente citas legales, debe ser rigurosamente verificada en fuentes primarias y confiables.
2. Responsabilidad Profesional: El abogado no puede escudarse en un “error de la máquina”. La debida diligencia ahora incluye la curación y validación del contenido algorítmico.
3. Enfoque Pedagógico: La justicia y los colegios profesionales deben colaborar para educar y guiar a los abogados en el uso ético y eficaz de estas nuevas tecnologías, fomentando buenas prácticas en lugar de una cultura del miedo y la sanción.
La inteligencia artificial no reemplazará a los abogados, pero los abogados que sepan usar la inteligencia artificial de forma crítica y responsable reemplazarán a los que no lo hagan. El futuro no es del que prohíbe la herramienta, sino del que aprende a dominarla, entendiendo sus fortalezas y, sobre todo, sus peligrosas “alucinaciones”.
1. ¿Qué es una “alucinación” de la inteligencia artificial?
Es un término utilizado para describir el fenómeno por el cual un modelo de IA generativa (como ChatGPT) produce información falsa, inventada o que no se basa en los datos de entrenamiento, pero la presenta como un hecho verídico y con total confianza.
2. ¿Por qué el tribunal declaró “desierto” el recurso?
Porque el escrito de apelación no cumplía con el requisito legal de realizar una “crítica concreta y razonada” del fallo que se pretendía impugnar. En su lugar, se basaba en citas de jurisprudencia que resultaron ser falsas o inverificables, lo que equivale a no haber presentado ningún fundamento válido.
3. ¿El abogado recibió alguna multa o sanción?
No. A diferencia de casos similares en otras jurisdicciones, el tribunal de Morón optó por un enfoque pedagógico. En lugar de sancionar al profesional, decidió notificar al Colegio de Abogados para que promueva la capacitación y el uso responsable de la IA entre sus miembros.
4. ¿Significa esto que no se puede usar ChatGPT para escribir demandas o recursos?
No. Significa que debe usarse con extrema precaución y como una herramienta de asistencia, no como una fuente de verdad absoluta. Se puede usar para generar borradores, explorar ideas o mejorar la redacción, pero toda la información fáctica y jurídica (leyes, fechas, y especialmente jurisprudencia) debe ser verificada de forma independiente por el profesional.
5. ¿Cómo puedo verificar si un fallo que me cita una IA es real?
Debes utilizar las bases de datos de jurisprudencia oficiales y confiables. En Argentina, esto incluye el sistema JUBA (para la Provincia de Buenos Aires), la base de fallos de la Corte Suprema de la Nación, y los sistemas de consulta de los superiores tribunales de cada provincia. Un fallo real siempre tendrá, como mínimo, una carátula, una fecha y un tribunal emisor identificables.
6. ¿Cuál es la diferencia entre el enfoque de este fallo y el del caso “Mata v. Avianca” en EE. UU.?
En “Mata v. Avianca”, los abogados fueron duramente sancionados con multas por presentar escritos con jurisprudencia falsa generada por IA. En el caso argentino, la Cámara de Morón eligió no sancionar, sino comunicar al Colegio de Abogados para que eduque a sus matriculados, priorizando un enfoque colaborativo y preventivo sobre uno punitivo.