As ferramentas de Inteligência Artificial prometem revolucionar a produtividade, mas, quando mal utilizadas, podem transformar-se numa fonte de embaraços e desinformação. A mais recente prova disso vem de uma das maiores consultoras do mundo, a Deloitte, que foi apanhada a usar IA para gerar um relatório para o governo australiano, com o resultado a ser um compêndio de informações falsas.

 

O caso, divulgado pelo site The Register, envolve um relatório encomendado no ano passado pelo Departamento de Emprego e Relações de Trabalho (DEWR) da Austrália. O trabalho incidia sobre o “Targeted Compliance Framework”, um sistema de TI governamental que monitoriza e penaliza beneficiários de apoios sociais que não cumprem determinados requisitos, como comparecer a entrevistas de emprego.

 

Uma “alucinação” que custou caro

 

Apesar de o relatório ter sido publicado em julho, vários observadores atentos não demoraram a encontrar erros graves e bizarros. O documento continha citações falsas, notas de rodapé imaginárias e referências a fontes que simplesmente não existiam, um fenómeno comummente conhecido como “alucinações” em modelos de IA.

 

Inicialmente, a Deloitte iniciou uma investigação interna sobre os erros. Segundo fontes anónimas, a primeira justificação da empresa apontava para “erro humano”. No entanto, a verdade acabou por vir ao de cima. Na versão mais recente do relatório, publicada há poucos dias, a empresa admite ter recorrido à ferramenta Azure OpenAI GPT-4o para preencher certas “lacunas de rastreabilidade e documentação”.

 

Confrontada com a situação, a Deloitte concordou em reembolsar parcialmente o governo australiano. O contrato original tinha um valor de 440.000 dólares australianos, o que equivale a cerca de 268.000 euros.

 

Um precedente preocupante para a indústria

 

Este episódio levanta sérias questões sobre a crescente dependência de ferramentas de Inteligência Artificial em trabalhos de consultoria de elevado valor. Embora a Deloitte seja um dos “Big Four”, as quatro maiores empresas de contabilidade do mundo, nem isso a impediu de entregar um trabalho com informações fabricadas.

O caso serve de alerta para executivos e governos que baseiam decisões estratégicas e financeiras em relatórios produzidos por consultoras. Se até uma das maiores empresas do setor, num contrato de centenas de milhares de euros, não garante a veracidade da informação, que confiança se pode depositar nestas novas práticas? A fronteira entre a eficiência da IA e a negligência profissional parece estar a tornar-se perigosamente ténue.

By Daniel Wege

Consultor HAZOP Especializado em IA | 20+ Anos Transformando Riscos em Resultados | Experiência Global: PETROBRAS, SAIPEM e WALMART

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *