Quando o algoritmo errar, quem pede desculpa?Quando o algoritmo errar, quem pede desculpa?
(Créditos: Reprodução)

Certa vez uma seguradora negou cobertura a um paciente. Automaticamente. Sem análise humana. O algoritmo decidiu que o risco era alto demais. O paciente recorreu. A empresa disse que “o sistema indicou”. O sistema, claro, não atende telefone. Esse tipo de episódio que virou processo judicial nos EUA resume um dos maiores desafios de governança da nossa época, quando uma IA toma a decisão, quem assina embaixo?

O “G” do ESG sempre foi o primo sério da festa (ou deveria sê-lo). Enquanto o “E” ganhou holofotes com regeneração florestal, hídrica e créditos de carbono, e o “S” sensibilizou com diversidade e impacto social, a Governança ficou associada a compliance, estatutos e reuniões de conselho. Importante, mas pouco sexy.

Agora os números mudaram o cenário. Entre 2022 e 2024, o percentual de empresas industriais brasileiras usando IA saltou de 16,9% para 41,9%, segundo o IBGE. Em 2025, 66% das equipes de RH já usaram IA generativa, e 77% das organizações tinham alguma iniciativa de automação tecnológica, de acordo com o The Hackett Group.

O problema é simples de enunciar e difícil de resolver, pois as empresas estão delegando poder para sistemas que não conseguem explicar suas próprias decisões. Um modelo de machine learning pode reprovar um currículo, negar um empréstimo ou sinalizar fraude com base em padrões que nem os próprios engenheiros sabem descrever com precisão.

Leia mais: A conta não fecha. E não é sobre meio ambiente, é sobre lógica econômica

E aí vem a pergunta que nenhuma política de ESG ainda responde direito: isso é governança ou é terceirização de responsabilidade? Vale dizer que não estou dizendo que IA é vilã. Longe disso. Estou dizendo que autonomia sem responsabilidade não é inovação é risco.

Governança, na essência, é sobre garantir que quem tem poder para decidir também responde pelas consequências. Durante séculos aplicamos esse princípio a pessoas e instituições. Agora precisamos aplicar a sistemas. Segundo a McKinsey, as três principais barreiras à escalabilidade da IA nas empresas são exatamente a falta de governança estruturada, ausência de cultura orientada a dados e dificuldade de integrar tecnologia com processos existentes.

A União Europeia entendeu isso e implementou o AI Act. Algumas empresas já caminham nessa direção com comitês de ética em IA, auditorias algorítmicas, políticas de explicabilidade. Não é perfeito, mas é começo. No Brasil, a conversa ainda engatinha.

A provocação que fica é, na próxima vez que sua empresa apresentar o relatório ESG cheio de metas e indicadores, vale perguntar quantas das decisões que afetam clientes, colaboradores e parceiros já são tomadas por algoritmos? E tem alguém, “de carne e osso”, responsável por elas?

Governança não terceiriza responsabilidade. Nem para pessoas, nem para algoritmos, inclusive pelo que a máquina decide.

Gostou? Discorda? Me conta nos comentários.

By Daniel Wege

Consultor HAZOP Especializado em IA | 20+ Anos Transformando Riscos em Resultados | Experiência Global: PETROBRAS, SAIPEM e WALMART

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *