Foto Crédito: ilgmyzin/Unsplash.
O novo modelo de inteligência artificial da OpenAI, o ChatGPT‑5, promete ser mais avançado e “seguro” do que as versões anteriores. No entanto, uma pesquisa do Centro para o Combate ao Ódio Digital (Center for Countering Digital Hate – CCDH), publicada em outubro, indica que, na prática, o sistema pode representar riscos ainda maiores para a saúde mental dos usuários. O estudo, intitulado The Illusion of AI Safety (“A Ilusão de uma IA segura” em tradução livre), revelou que a nova versão tende a manter interações com conteúdos nocivos e, em diversas situações, oferecer informações potencialmente perigosas sobre temas sensíveis. O relatório completo pode ser consultado no site oficial do CCDH.
A equipe do CCDH realizou um experimento aplicando 120 testes idênticos às versões GPT‑5 e GPT‑4o. As situações simulavam diálogos sobre automutilação, suicídio, distúrbios alimentares e uso de drogas. Ao contrário do que a OpenAI prometia, a nova versão se mostrou mais vulnerável a gerar respostas inapropriadas e a prolongar discussões sobre temas de risco. O GPT‑5 apresentou respostas com conteúdo prejudicial em 53% dos casos, enquanto o modelo anterior registrou 43%. Mais preocupante ainda, segundo os pesquisadores, foi o fato de que o GPT‑5 encorajou a continuação das conversas em praticamente todos os testes — 99% das vezes — contra apenas 9% do GPT‑4o. O fenômeno foi descrito como resultado de um treinamento voltado ao engajamento, o que pode aumentar a exposição de grupos vulneráveis a gatilhos emocionais e comportamentos perigosos.
O diretor executivo do CCDH, Imran Ahmed, afirmou que a empresa responsável pelo ChatGPT “prometeu maior segurança, mas entregou uma atualização que gera mais danos potenciais”. Segundo Ahmed, o lançamento do GPT‑5 demonstra que, sem regulamentação, as companhias de tecnologia continuarão priorizando métricas de envolvimento no lugar da integridade emocional dos usuários. O relatório recomenda que governos adotem normas específicas para regular o uso de chatbots avançados e que a OpenAI aplique de fato suas próprias regras internas de segurança.
A OpenAI, em resposta, reconheceu as preocupações sobre os impactos psicológicos e afirmou estar desenvolvendo novas estratégias para mitigar danos associados ao uso prolongado do ChatGPT. Entre as medidas anunciadas estão alertas automáticos em conversas longas, controle parental aprimorado e ferramentas para detectar sinais de sofrimento emocional. A empresa também promete ampliar o suporte a linhas de ajuda profissional e redirecionar interações potencialmente perigosas para versões mais seguras do modelo.
Essas revelações surgem em um momento de crescente debate público e institucional sobre os limites éticos da inteligência artificial. Com o GPT‑5, o uso de linguagem persuasiva e emocional, somado à capacidade de adaptação contextual, levanta novas preocupações sobre a influência psicológica desses sistemas em jovens e adultos. O CCDH conclui que, sem transparência e supervisão adequada, a promessa de uma inteligência artificial “segura e empática” permanece apenas uma ilusão — uma advertência que reacende a discussão global sobre responsabilidade e regulação tecnológica.

