Por WILIAM HUNTER, REPÓRTER DE CIÊNCIA E TECNOLOGIA
Publicado: 09:38 EDT, 28 de outubro de 2025 | Atualizado: 11:00 EDT, 28 de outubro de 2025
Mais de meio milhão de usuários do ChatGPT apresentam sinais de mania, psicose ou pensamentos suicidas todas as semanas, de acordo com a OpenAI.
Em uma publicação recente em seu blog, a gigante da IA alertou que 0,07% de seus usuários semanais apresentaram sinais de emergências graves de saúde mental.
Embora esse número possa parecer pequeno, com mais de 800 milhões de usuários semanais, de acordo com o CEO Sam Altman, isso soma 560.000 usuários.
Enquanto isso, 1,2 milhão de usuários – 0,15% – enviam mensagens que contêm “indicadores explícitos de potencial planejamento ou intenção suicida” a cada semana.
Da mesma forma, a OpenAI alerta que mais de um milhão de usuários semanais apresentam sinais de “apego exclusivo ao modelo”.
A empresa alerta que esse apego emocional frequentemente ocorre “às custas de relacionamentos no mundo real, do bem-estar ou de obrigações”.
Diante do crescente escrutínio, a empresa afirma ter criado um painel com mais de 170 especialistas em saúde mental para ajudar a IA a responder de forma mais adequada aos sinais de problemas de saúde mental.
No entanto, o Dr. Hamilton Morrin, psiquiatra do King’s College London, disse ao Daily Mail: “É encorajador ver empresas como a OpenAI trabalhando com médicos e pesquisadores para tentar melhorar a segurança de seus modelos, mas o problema provavelmente está longe de ser resolvido.”
Mais de meio milhão de usuários do ChatGPT apresentam sinais de mania, psicose ou pensamentos suicidas todas as semanas, de acordo com a OpenAI. Mais 1,2 milhão de usuários enviam mensagens que contêm “indicadores explícitos de potencial planejamento ou intenção suicida” a cada semana (imagem de estoque).
Isso ocorre em um momento em que a OpenAI enfrenta um processo movido pela família de Adam Raine (foto), um adolescente que cometeu suicídio após meses de conversas com o chatbot.






