Internacional
>
Agencia de noticias
Jueves 17 abril de 2025 | 13:02
Polémica en Italia: abogado defensor citó sentencias sugeridas por ChatGPT y resultaron ser falsas
Por
Jean Valencia
Con información de
Agencia EFE
EFE/ Edición BBCL
visitas
VER RESUMEN
Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.
Una polémica sacude a la Justicia italiana en Florencia, donde un tribunal alertó sobre el mal uso de la Inteligencia Artificial luego de que un abogado citara una jurisprudencia inexistente tras consultar a ChatGPT. El caso se dio en un litigio por uso indebido de dibujos con derechos de autor en camisetas. Tras constatar la situación, se valoró imputar al abogado por mala fe, pero se desestimó al atribuirlo a un error en la consulta de la IA.
Una polémica se encuentra sacudiendo a la Justicia italiana. En particular, un tribunal de la ciudad de Florencia (norte de Italia) alertó sobre el mal uso de la Inteligencia Artificial (IA) luego que un abogado aludiera, durante un juicio, a una jurisdicción inexistente tras consultar a ChatGPT.
El caso emergió en un contencioso por una cuestión de marcas en el que una empresa estaba acusada de usar en las camisetas que fabricaba dibujos y viñetas con derechos de autor, según recoge este jueves el portal especializado en temas jurídicos Diritto.it.
En una de las audiencias, el abogado defensor había citado ante el juez algunas sentencias del Tribunal Supremo que realmente no existían. Presuntamente habían sido sugeridas por la aplicación ChatGPT que el letrado había consultado previamente.
Después de que los jueces constataran estos hechos, el defensor sostuvo que la documentación había sido preparada por un colaborador de su bufete.
El Tribunal abordó la posibilidad de imputarle por el delito de “responsabilidad agravada”, que sanciona a quienes “han actuado en un juicio con mala fe”.
Sin embargo, finalmente aquello fue desestimado al considerar que todo fue fruto de un uso equivocado de la IA.
En una ordenanza del pasado 14 de marzo, los jueces florentinos han alertado de las denominadas “alucinaciones” de la IA, fenómeno en el que un ‘chat’ ofrece resultados sin sentido, inexactos o directamente falsos.
Síguenos en Google News:
Suscríbete en nuestro canal de Whatsapp:
Suscríbete en nuestro canal de Youtube: