El documento, entregado a Australia por la consultora, fue corregido tras descubrir referencias falsas
Un encargo del gobierno australiano ha forzado a Deloitte a devolver parte del dinero pagado después de que un informe entregado contuviera errores atribuibles al uso de IA generativa. Más allá del fallo puntual, el episodio pone en tensión el uso de estas herramientas en encargos institucionales donde la veracidad no es opcional.
Un informe técnico con citas ficticias
El Departamento de Empleo y Relaciones Laborales (DEWR) de Australia contrató a Deloitte para revisar fallos en un sistema automatizado de sanciones vinculado al bienestar social. El informe, entregado en julio de 2025 y valorado en 440.000 dólares australianos, fue presentado como una revisión independiente. Poco después, varios expertos detectaron referencias imprecisas, citas judiciales inexistentes y bibliografía inventada.
Uno de los errores más notables incluía una referencia a un supuesto caso judicial conocido como «Amato proceeding», que nunca había sido documentado. Otros fallos afectaban a notas al pie, citas doctrinales y referencias legales esenciales para el contenido del informe.
IA generativa en el proceso sin supervisión suficiente
Deloitte reconoció que parte del contenido se generó con una herramienta de IA basada en Azure OpenAI, concretamente una versión empresarial de GPT-4. La firma explicó que la intención era acelerar tareas de redacción, pero admitió que el control de calidad posterior no detectó los errores insertados por la IA. En consecuencia, publicó una versión corregida del documento y reembolsó parcialmente el importe cobrado. Según Deloitte, las conclusiones generales del informe se mantienen intactas pese a las correcciones.
Datos técnicos decisiones políticas
El informe abordaba un sistema automatizado de sanciones en el sistema de bienestar australiano. Se trataba de revisar si el proceso cumplía con marcos legales y garantías básicas. Para ello, la consultora incluyó jurisprudencia, referencias académicas y argumentos técnicos que ahora se han revelado en parte incorrectos. Este tipo de trabajos suelen ser utilizados para tomar decisiones de política pública o para respaldar reformas legislativas. La presunción de veracidad y exactitud no es negociable en estos contextos.
Una tensión más allá del error
El caso ha reabierto el debate sobre el uso de IA en tareas técnicas y especializadas. Las llamadas «alucinaciones» de los modelos generativos —cuando inventan datos verosímiles pero falsos— son conocidas, pero su presencia en documentos institucionales compromete algo más que la reputación, pone en duda la fiabilidad del proceso mismo.
El episodio también se cruza con una preocupación regulatoria creciente. En Reino Unido, por ejemplo, los supervisores han advertido que las grandes consultoras no siempre documentan cómo la IA afecta la calidad de sus auditorías. La automatización puede agilizar tareas, pero también puede erosionar el control humano si no se implementa con criterios claros.
La tecnología no se disculpa pero alguien debe responder
A diferencia de otras herramientas, la IA generativa no se limita a calcular, redacta, interpreta y sugiere. Cuando lo hace en nombre de una consultora global y en un encargo gubernamental, los estándares de revisión deberían ser todavía más exigentes. Deloitte ha respondido con correcciones y reembolsos, pero el caso deja una imagen clara, en la era de la IA, la responsabilidad sigue siendo humana.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.