Um relatório divulgado pela OpenAI nesta semana acendeu o alerta sobre a relação entre inteligência artificial e saúde mental. Segundo a empresa, mais de 1,2 milhão de usuários do ChatGPT já tiveram conversas envolvendo o tema do suicídio. O número corresponde a 0,15% do total de 800 milhões de usuários semanais do chatbot.
O levantamento, publicado no blog oficial da companhia, também identificou que cerca de 0,07% dos usuários apresentaram sinais de crises mentais graves, como episódios de psicose ou mania. Para tentar lidar melhor com essas situações, a OpenAI anunciou que aprimorou o GPT-5, modelo padrão do ChatGPT, para identificar sofrimento emocional e orientar usuários a buscar ajuda profissional.
As mudanças foram desenvolvidas com o apoio de mais de 170 especialistas em saúde mental e incluem a integração automática de contatos de emergência e lembretes para pausas em sessões longas. Nos testes, o GPT-5 reduziu em 65% as respostas inadequadas em conversas sobre temas sensíveis.
- Após suicídio de adolescente, ChatGPT terá recurso para pais monitorarem uso dos filhos
- OpenAI é processada por homicídio após suicídio de adolescente nos EUA
- Dia Mundial da Saúde Mental: canabidiol propõe novas abordagens e pode revolucionar cuidados com a mente
Em diálogos sobre automutilação ou suicídio, o modelo atingiu 91% de conformidade com o comportamento esperado, uma melhora significativa em relação à versão anterior.
O relatório surge após o caso de Adam Raine, adolescente americano de 16 anos que tirou a própria vida depois de trocar mensagens com o ChatGPT sobre métodos de suicídio. A família processa a OpenAI por negligência e acusa a empresa de ter afrouxado suas políticas de segurança emocional antes da tragédia.
A OpenAI afirma que falhas como a de Adam são “extremamente raras”, mas reconhece que ainda há desafios para que a IA consiga responder de forma empática e responsável a pessoas em sofrimento psicológico.
Bookmark