La inteligencia artificial y las alucinaciones

Un abogado argentino fue sancionado por citar jurisprudencia inexistente que le proporcionó ChatGPT. Este caso evidencia los riesgos de confiar ciegamente en la inteligencia artificial generativa en el ejercicio profesional del derecho.

En el artículo "La inteligencia artificial y las alucinaciones" publicado en IJ Editores por los escribanos Mariano Miró y Daniela M. Celentano se comenta el fallo.

¿Qué son las "alucinaciones" de la IA?

Las "alucinaciones" en inteligencia artificial generativa (GAI) son respuestas que parecen correctas y coherentes, pero que contienen información completamente falsa o inventada. Muchas veces, esto sucede porque el LLM (modelo de lenguaje) no tiene acceso a un repositorio de datos confiable.

En el contexto legal, esto puede significar:

  • Fallos judiciales que nunca existieron
  • Leyes inventadas o artículos inexistentes
  • Citas de doctrina que jamás fueron escritas

El Caso Giacomino en Rosario

En el fallo de la Sala II de la Cámara de Apelaciones en lo Civil y Comercial de Rosario (autos Giacomino, César A. y otros c/ Monserrat, Facundo D. y otros s/ Daños y Perjuicios), un letrado citó jurisprudencia que jamás existió.

La fuente de estos fallos inventados: una inteligencia artificial generativa.

El Nuevo Fallo en Córdoba: Se Repite la Historia

Recientemente, nuestro artículo fue citado en un fallo de la Cámara de Apelaciones en lo Civil y Comercial 5 de Córdoba (EXPEDIENTE SAC: 12829614, autos "BARRERA, VICTORIA ELIDA C/ CUEVAS, BLANCA RITA YOHANA").

Nuevamente, un abogado citó jurisprudencia que no pudo ser verificada.

"La recurrente al fundar el recurso presentado invocó precedentes jurisprudenciales, cuya existencia no ha podido ser verificada... que se trató de un error por el mal uso de los recursos y herramientas que ofrece la 'Inteligencia Artificial'..."

— Cámara de Apelaciones Civil y Comercial 5 de Córdoba

La "Reserva de Humanidad": Concepto Clave

El fallo cordobés introduce un concepto fundamental: la reserva de humanidad.

"La labor del letrado no puede –ni debe- ser sustituida por un algoritmo o herramienta; por el contrario, exige un control humano exhaustivo y una validación crítica de los resultados antes de utilizarlos o incorporarlos a una actuación profesional."

Este principio establece que:

  • La IA debe ser un soporte, no un reemplazo del juicio profesional
  • El abogado es el responsable final del contenido de sus presentaciones
  • Los deberes de diligencia, probidad y lealtad no admiten dispensa por mal uso tecnológico

¿Cómo Mitigar las "Alucinaciones"?

En nuestro artículo completo, planteamos diversas alternativas tendientes a mitigar estos riesgos.

La Sanción: ¿Suficiente?

En el caso cordobés, la sanción al letrado fue una mera recomendación.

¿La sacó barata? Probablemente. Pero sienta jurisprudencia.

Preguntas Frecuentes

¿Puedo confiar en ChatGPT para buscar jurisprudencia?

No. ChatGPT y otras IAs generativas pueden inventar fallos que nunca existieron. Siempre debés verificar en bases oficiales.

¿Qué pasa si un abogado cita jurisprudencia falsa?

Puede ser sancionado por violar los deberes de diligencia y probidad profesional.

¿Qué es la "reserva de humanidad"?

Es el principio que establece que la labor de las personas no puede ser sustituida por algoritmos. La persona es el centro. La IA es una herramienta, pero el profesional es el responsable final.

📖 Artículo Completo

Leé el análisis técnico y jurídico completo publicado en IJ Editores

Leer Artículo Completo →

¿Necesitás asesoramiento sobre tecnología y derecho?

Consultame sobre smart contracts, blockchain, tokenización y servicios notariales digitales.

Contactar

¿Tenés una consulta?

Ponete en contacto para que pueda ayudarte.