As ferramentas de Inteligência Artificial prometem revolucionar a produtividade, mas, quando mal utilizadas, podem transformar-se numa fonte de embaraços e desinformação. A mais recente prova disso vem de uma das maiores consultoras do mundo, a Deloitte, que foi apanhada a usar IA para gerar um relatório para o governo australiano, com o resultado a ser um compêndio de informações falsas.
O caso, divulgado pelo site The Register, envolve um relatório encomendado no ano passado pelo Departamento de Emprego e Relações de Trabalho (DEWR) da Austrália. O trabalho incidia sobre o “Targeted Compliance Framework”, um sistema de TI governamental que monitoriza e penaliza beneficiários de apoios sociais que não cumprem determinados requisitos, como comparecer a entrevistas de emprego.
Uma “alucinação” que custou caro
Apesar de o relatório ter sido publicado em julho, vários observadores atentos não demoraram a encontrar erros graves e bizarros. O documento continha citações falsas, notas de rodapé imaginárias e referências a fontes que simplesmente não existiam, um fenómeno comummente conhecido como “alucinações” em modelos de IA.
Inicialmente, a Deloitte iniciou uma investigação interna sobre os erros. Segundo fontes anónimas, a primeira justificação da empresa apontava para “erro humano”. No entanto, a verdade acabou por vir ao de cima. Na versão mais recente do relatório, publicada há poucos dias, a empresa admite ter recorrido à ferramenta Azure OpenAI GPT-4o para preencher certas “lacunas de rastreabilidade e documentação”.
Confrontada com a situação, a Deloitte concordou em reembolsar parcialmente o governo australiano. O contrato original tinha um valor de 440.000 dólares australianos, o que equivale a cerca de 268.000 euros.
Um precedente preocupante para a indústria
Este episódio levanta sérias questões sobre a crescente dependência de ferramentas de Inteligência Artificial em trabalhos de consultoria de elevado valor. Embora a Deloitte seja um dos “Big Four”, as quatro maiores empresas de contabilidade do mundo, nem isso a impediu de entregar um trabalho com informações fabricadas.
O caso serve de alerta para executivos e governos que baseiam decisões estratégicas e financeiras em relatórios produzidos por consultoras. Se até uma das maiores empresas do setor, num contrato de centenas de milhares de euros, não garante a veracidade da informação, que confiança se pode depositar nestas novas práticas? A fronteira entre a eficiência da IA e a negligência profissional parece estar a tornar-se perigosamente ténue.