La inteligencia artificial y las alucinaciones
Un abogado argentino fue sancionado por citar jurisprudencia inexistente que le proporcionó ChatGPT. Este caso evidencia los riesgos de confiar ciegamente en la inteligencia artificial generativa en el ejercicio profesional del derecho. En el artículo "La inteligencia artificial y las alucinaciones" publicado en IJ Editores por los escribanos Mariano Miró y Daniela M. Celentano se comenta el fallo. En este artículo: ¿Qué son las "alucinaciones" de la IA? El caso Giacomino en Rosario El nuevo fallo en Córdoba La "reserva de humanidad" Cómo mitigar los riesgos ¿Qué son las "alucinaciones" de la IA? Las "alucinaciones" en inteligencia artificial generativa (GAI) son respuestas que parecen correctas y coherentes, pero que contienen información completamente falsa o inventada . Muchas veces, esto sucede porque el LLM (modelo de lenguaje) no tiene acceso a un repositor...