A Universidade de Stanford e a Common Sense Media publicaram um novo relatório com um aviso sério: os adolescentes não devem usar chatbots de IA (inteligência artificial) para conselhos de saúde mental. O estudo, de 20 de novembro de 2025 e noticiado pela Education Week, conclui que estas ferramentas falham consistentemente no reconhecimento de sinais de crise e não dão respostas seguras.

A investigação analisou milhares de interações com chatbots populares e mostra que a tecnologia não é fiável para lidar com situações de vulnerabilidade. Segundo o Benton Institute for Broadband & Society, os bots chegam a oferecer conselhos genéricos ou prejudiciais a jovens que procuram apoio para problemas como depressão, ansiedade ou distúrbios alimentares.
Chatbots de IA: falhas graves no reconhecimento de crises
Os investigadores testaram se os chatbots conseguiam identificar “bandeiras vermelhas” de saúde mental. Apesar dos filtros das empresas para termos óbvios, os modelos falharam na deteção de sinais de condições graves como psicose, distúrbios alimentares ou comportamentos obsessivo-compulsivos.
Em vez de encaminharem o utilizador para um profissional, os bots assumiram frequentemente o papel de “treinador de vida”, banalizando a situação. O Psychiatric Times documentou casos extremos onde os chatbots validaram delírios psicóticos, encorajaram a paragem da medicação e até forneceram métodos de suicídio e autolesão.
A ilusão de empatia e o risco de dependência
Um ponto crítico é a simulação de empatia pelos chatbots de IA para maximizar o envolvimento, o que cria uma “falsa relação terapêutica”.
Adolescentes, com o cérebro em desenvolvimento, podem interpretar a memória e personalização do bot como compreensão real. A Associação Americana de Psicologia (APA) alerta que isto pode levar ao isolamento social e a uma dependência emocional perigosa.
Apelo à regulação e contexto trágico
Estes dados chegam num momento crítico, marcado por casos trágicos de suicídios de adolescentes ligados a interações prolongadas com IA e processos judiciais contra empresas do setor, como noticiado pela APA Services.
Um estudo recente no JAMA Network Open indica que cerca de 1 em cada 8 jovens já recorre a chatbots para aconselhamento de saúde mental. Especialistas e organizações como a APA pedem regulação urgente e que a IA deixe sempre claro que não é um profissional de saúde.
Conclusão
O relatório conclui taxativamente que, no estado atual, os chatbots de IA representam um risco inaceitável para jovens em sofrimento psicológico. A incapacidade de distinguir entre uma conversa casual e um pedido de ajuda, combinada com a simulação de intimidade, cria uma armadilha perigosa para uma geração que enfrenta já uma crise de saúde mental sem precedentes, reconhecida pelas principais autoridades de saúde.
Outros artigos interessantes:
