A Deloitte anunciou um grande contrato com a Anthropic para implementar o Claude em mais de 500 mil funcionários. No entanto, a empresa teve que devolver parte de um contrato governamental devido a erros em um relatório gerado por inteligência artificial, incluindo referências inexistentes.

Esse contraste revela um problema sério na corrida das empresas pela inteligência artificial: a crença de que treinar funcionários para usar IA é o mesmo que ter uma estratégia sólida de IA.

Recentemente, em discussões sobre recursos humanos e inovação, percebo um padrão: todos falam sobre adoção, formação e receios, mas quase ninguém aborda a questão da governança.

As empresas estão capacitando suas equipes a usar ferramentas de IA sem antes definir para que, com que nível de autonomia e quem será responsável em caso de falhas.

Sem essas definições, o chamado “letramento em IA” se torna um mero placebo organizacional, criando uma falsa sensação de preparo e transferindo a responsabilidade pelos erros.

Antes de pensar em treinamento, é crucial discutir quem toma as decisões e até onde vai o uso da IA. As perguntas estratégicas são diferentes:

Qual é o nível de autonomia aceitável para o uso de IA no ambiente de trabalho?

Quem supervisiona os modelos e agentes criados internamente?

Como assegurar que os dados estejam curados, seguros e atualizados?

Quais barreiras existem para evitar que um erro operacional se transforme em um desastre para a reputação da empresa?

Essas decisões envolvem poder, não apenas usabilidade. Se o RH não participa desse processo, a IA pode se tornar um risco sistêmico, como evidenciado pelo caso da Deloitte.

Muitos acreditam que o RH deveria liderar a estratégia de IA. Concordo em parte, pois a realidade é que poucos departamentos de RH têm a autoridade ou a capacidade técnica para definir políticas de dados, arquitetura de sistemas ou conformidade algorítmica.

Isso não significa que o RH deva se afastar, mas sim que deve redefinir seu papel: ser o elo que traduz as implicações humanas e culturais das decisões tecnológicas, e não apenas um departamento que oferece treinamentos.

A liderança em IA nas empresas não será de quem tem mais conhecimento técnico, mas de quem compreende melhor a autonomia, a confiança e a responsabilidade. Nesse cenário, existem três estágios de maturidade em IA corporativa:

Adoção espontânea: cada um usa o que quer, como quer. (Alta velocidade, alto risco.)

Letramento e diretrizes: políticas básicas, foco em segurança e uso ético. (Necessário, mas insuficiente.)

Estratégia integrada: IA alinhada aos objetivos de negócios e métricas de risco, com governança clara sobre dados e decisões. (É aqui que reside o diferencial competitivo.)

A maioria das empresas ainda está presa no estágio 2, formando usuários sem repensar o sistema de responsabilidade. Portanto, treinar sem uma estratégia é apenas automatizar o passado.

Quando o RH se limita a promover o “letramento”, o resultado é previsível: cada um usa como quiser. E um relatório mal verificado pode arruinar a credibilidade de uma marca inteira.

O futuro do trabalho não será moldado por quem usa IA, mas por quem governa seu uso com coerência entre cultura, risco e propósito.

A pergunta que o RH deve fazer agora é: Qual é a nossa estratégia para integrar a IA ao negócio, e não apenas às pessoas? O RH que ensina IA sem redefinir como o poder e a responsabilidade são distribuídos não está preparando o futuro. Está apenas automatizando o passado.

*Por Giovanna Gregori Pinto, graduada em psicologia pela PUC-Campinas, com MBA em gerenciamento de projetos pela FGV. A profissional é fundadora da People Leap e referência em estruturar áreas de RH em startups de tecnologia em crescimento.

Fonte: https://www.baguete.com.br/noticias/o-risco-invisivel-da-ia-corporativa

By Daniel Wege

Consultor HAZOP Especializado em IA | 20+ Anos Transformando Riscos em Resultados | Experiência Global: PETROBRAS, SAIPEM e WALMART

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *