A Deloitte anunciou um grande contrato com a Anthropic para implementar o Claude em mais de 500 mil funcionários. No entanto, a empresa teve que devolver parte de um contrato governamental devido a erros em um relatório gerado por inteligência artificial, incluindo referências inexistentes.
Esse contraste revela um problema sério na corrida das empresas pela inteligência artificial: a crença de que treinar funcionários para usar IA é o mesmo que ter uma estratégia sólida de IA.
Recentemente, em discussões sobre recursos humanos e inovação, percebo um padrão: todos falam sobre adoção, formação e receios, mas quase ninguém aborda a questão da governança.
As empresas estão capacitando suas equipes a usar ferramentas de IA sem antes definir para que, com que nível de autonomia e quem será responsável em caso de falhas.
Sem essas definições, o chamado “letramento em IA” se torna um mero placebo organizacional, criando uma falsa sensação de preparo e transferindo a responsabilidade pelos erros.
Antes de pensar em treinamento, é crucial discutir quem toma as decisões e até onde vai o uso da IA. As perguntas estratégicas são diferentes:
Qual é o nível de autonomia aceitável para o uso de IA no ambiente de trabalho?
Quem supervisiona os modelos e agentes criados internamente?
Como assegurar que os dados estejam curados, seguros e atualizados?
Quais barreiras existem para evitar que um erro operacional se transforme em um desastre para a reputação da empresa?
Essas decisões envolvem poder, não apenas usabilidade. Se o RH não participa desse processo, a IA pode se tornar um risco sistêmico, como evidenciado pelo caso da Deloitte.
Muitos acreditam que o RH deveria liderar a estratégia de IA. Concordo em parte, pois a realidade é que poucos departamentos de RH têm a autoridade ou a capacidade técnica para definir políticas de dados, arquitetura de sistemas ou conformidade algorítmica.
Isso não significa que o RH deva se afastar, mas sim que deve redefinir seu papel: ser o elo que traduz as implicações humanas e culturais das decisões tecnológicas, e não apenas um departamento que oferece treinamentos.
A liderança em IA nas empresas não será de quem tem mais conhecimento técnico, mas de quem compreende melhor a autonomia, a confiança e a responsabilidade. Nesse cenário, existem três estágios de maturidade em IA corporativa:
Adoção espontânea: cada um usa o que quer, como quer. (Alta velocidade, alto risco.)
Letramento e diretrizes: políticas básicas, foco em segurança e uso ético. (Necessário, mas insuficiente.)
Estratégia integrada: IA alinhada aos objetivos de negócios e métricas de risco, com governança clara sobre dados e decisões. (É aqui que reside o diferencial competitivo.)
A maioria das empresas ainda está presa no estágio 2, formando usuários sem repensar o sistema de responsabilidade. Portanto, treinar sem uma estratégia é apenas automatizar o passado.
Quando o RH se limita a promover o “letramento”, o resultado é previsível: cada um usa como quiser. E um relatório mal verificado pode arruinar a credibilidade de uma marca inteira.
O futuro do trabalho não será moldado por quem usa IA, mas por quem governa seu uso com coerência entre cultura, risco e propósito.
A pergunta que o RH deve fazer agora é: Qual é a nossa estratégia para integrar a IA ao negócio, e não apenas às pessoas? O RH que ensina IA sem redefinir como o poder e a responsabilidade são distribuídos não está preparando o futuro. Está apenas automatizando o passado.
*Por Giovanna Gregori Pinto, graduada em psicologia pela PUC-Campinas, com MBA em gerenciamento de projetos pela FGV. A profissional é fundadora da People Leap e referência em estruturar áreas de RH em startups de tecnologia em crescimento.