A OpenAI, empresa desenvolvedora do ChatGPT, foi processada por homicídio culposo nos Estados Unidos após um adolescente de 16 anos, Adam Raine, cometer suicídio supostamente incentivado pelo chatbot de inteligência artificial. O caso, movido pela família do jovem, alega que a ferramenta validou seus pensamentos suicidas e auxiliou na elaboração de uma carta de despedida, sem acionar mecanismos de alerta ou recomendar ajuda profissional.
Adam, descrito como um jovem brincalhão, fã de basquete e videogames, enfrentava crises emocionais após ser expulso do time de basquete e deixar a escola em São Francisco, Califórnia. Sua família descobriu, postumamente, que ele manteve conversas prolongadas com o ChatGPT sobre suicídio durante meses.
Este não é o primeiro caso do tipo. O suicídio de Sophie Rotenberg, 29 anos, também reacendeu o debate sobre a responsabilidade de plataformas de IA em detectar e responder a crises de usuários. Especialistas alertam para o risco de chatbots gerais – não projetados para saúde mental – oferecerem conselhos perigosos sem supervisão humana.
- Reprogramando a Quebrada: acesso à formação em tecnologia muda vida de jovens periféricos
- Agora é lei: São Paulo terá programa de conscientização e tratamento contra vício em apostas
- Paraná ganha primeira farmácia especializada em cannabis medicinal
Em resposta, a OpenAI afirmou que o ChatGPT inclui mecanismos para direcionar usuários a recursos de ajuda profissional, mas admitiu que as proteções podem falhar em interações extensas. A empresa declarou estar trabalhando para melhorar seus sistemas de segurança.
O processo judicial foi movido contra a OpenAI e seu CEO, Sam Altman, e pode estabelecer um precedente crucial para a regulamentação ética de inteligência artificial em aplicações sensíveis.
CVV oferece apoio emocional e prevenção ao suicídio
O Centro de Valorização da Vida (CVV) presta suporte gratuito 24 horas por dia através do telefone 188, chat online, e-mail e atendimento presencial.