La inteligencia artificial y las alucinaciones
Un abogado argentino fue sancionado por citar jurisprudencia inexistente que le proporcionó ChatGPT. Este caso evidencia los riesgos de confiar ciegamente en la inteligencia artificial generativa en el ejercicio profesional del derecho.
En el artículo "La inteligencia artificial y las alucinaciones" publicado en IJ Editores por los escribanos Mariano Miró y Daniela M. Celentano se comenta el fallo.
En este artículo:
¿Qué son las "alucinaciones" de la IA?
Las "alucinaciones" en inteligencia artificial generativa (GAI) son respuestas que parecen correctas y coherentes, pero que contienen información completamente falsa o inventada. Muchas veces, esto sucede porque el LLM (modelo de lenguaje) no tiene acceso a un repositorio de datos confiable.
En el contexto legal, esto puede significar:
- Fallos judiciales que nunca existieron
- Leyes inventadas o artículos inexistentes
- Citas de doctrina que jamás fueron escritas
El Caso Giacomino en Rosario
En el fallo de la Sala II de la Cámara de Apelaciones en lo Civil y Comercial de Rosario (autos Giacomino, César A. y otros c/ Monserrat, Facundo D. y otros s/ Daños y Perjuicios), un letrado citó jurisprudencia que jamás existió.
La fuente de estos fallos inventados: una inteligencia artificial generativa.
El Nuevo Fallo en Córdoba: Se Repite la Historia
Recientemente, nuestro artículo fue citado en un fallo de la Cámara de Apelaciones en lo Civil y Comercial 5 de Córdoba (EXPEDIENTE SAC: 12829614, autos "BARRERA, VICTORIA ELIDA C/ CUEVAS, BLANCA RITA YOHANA").
Nuevamente, un abogado citó jurisprudencia que no pudo ser verificada.
"La recurrente al fundar el recurso presentado invocó precedentes jurisprudenciales, cuya existencia no ha podido ser verificada... que se trató de un error por el mal uso de los recursos y herramientas que ofrece la 'Inteligencia Artificial'..."
La "Reserva de Humanidad": Concepto Clave
El fallo cordobés introduce un concepto fundamental: la reserva de humanidad.
"La labor del letrado no puede –ni debe- ser sustituida por un algoritmo o herramienta; por el contrario, exige un control humano exhaustivo y una validación crítica de los resultados antes de utilizarlos o incorporarlos a una actuación profesional."
Este principio establece que:
- La IA debe ser un soporte, no un reemplazo del juicio profesional
- El abogado es el responsable final del contenido de sus presentaciones
- Los deberes de diligencia, probidad y lealtad no admiten dispensa por mal uso tecnológico
¿Cómo Mitigar las "Alucinaciones"?
En nuestro artículo completo, planteamos diversas alternativas tendientes a mitigar estos riesgos.
La Sanción: ¿Suficiente?
En el caso cordobés, la sanción al letrado fue una mera recomendación.
¿La sacó barata? Probablemente. Pero sienta jurisprudencia.
Preguntas Frecuentes
¿Puedo confiar en ChatGPT para buscar jurisprudencia?
No. ChatGPT y otras IAs generativas pueden inventar fallos que nunca existieron. Siempre debés verificar en bases oficiales.
¿Qué pasa si un abogado cita jurisprudencia falsa?
Puede ser sancionado por violar los deberes de diligencia y probidad profesional.
¿Qué es la "reserva de humanidad"?
Es el principio que establece que la labor de las personas no puede ser sustituida por algoritmos. La persona es el centro. La IA es una herramienta, pero el profesional es el responsable final.
📖 Artículo Completo
Leé el análisis técnico y jurídico completo publicado en IJ Editores
Leer Artículo Completo →¿Necesitás asesoramiento sobre tecnología y derecho?
Consultame sobre smart contracts, blockchain, tokenización y servicios notariales digitales.
Contactar