Deloitte, una de las cuatro empresas consultoras más importantes del mundo, se vio obligada a devolver parte del dinero de un contrato gubernamental en Australia, tras admitir que un informe que le entregó a dicho cliente contenía una serie de errores graves e información falsa: fue parcialmente elaborado con la asistencia de la Inteligencia Artificial (IA).
El Departamento de Empleo y Relaciones Laborales le encargó a la firma una revisión y análisis de uno de sus programas de bienestar.
Por ello, firmó un contrato con Deloitte, que le cobró US$290.000 por el trabajo. No obstante, ante el escándalo de esta situación, tendrá que devolver parte de ese monto.
Este caso se suma a una creciente preocupación internacional. En junio, el regulador británico de contabilidad ya había advertido que las firmas del denominado Big Four (Deloitte, EY, KPMG y PwC) no estaban evaluando adecuadamente el impacto de la automatización y la inteligencia artificial en la calidad de sus auditorías, sugiriendo una “peligrosa dependencia tecnológica sin los debidos controles”.
Citas falsas y el fantasma de las “alucinaciones”
El informe que realizó Deloitte para el Ejecutivo australiano tuvo que ser corregido con urgencia.
¿La razón? La prensa local, según detallaron medios como ABC News y La República, destapó que el documento incluía citas falsas y hacía referencia a estudios inexistentes de prestigiosas universidades, como la de Sídney y Lund en Suecia.
Pese a que la consultora aseguró que las conclusiones y recomendaciones del informe no se alteraron, el escándalo encendió las alarmas sobre el uso no regulado de herramientas de IA en este tipo de trabajos.
En la versión actualizada, Deloitte agregó una nota aclaratoria donde reconoció el uso de un modelo de lenguaje generativo -específicamente Azure OpenAI GPT 4o- para la elaboración de una parte del texto.
Aunque la empresa no culpó directamente a la IA por los errores, sí admitió que tuvo que corregir referencias, citas y un resumen de procedimientos legales que estaban plagados de fallas.
Este incidente es “un ejemplo claro del riesgo de las llamadas ‘alucinaciones’, los errores o datos inventados que a menudo generan los modelos de IA”, indicó la prensa australiana.
“Las actualizaciones no alteran el contenido sustantivo, las conclusiones ni las recomendaciones del informe”, intentó asegurar la firma en la versión revisada.
Por último, Deloitte Australia zanjó el tema señalando que el asunto había sido resuelto “directamente con el cliente”.