Cada vez mais pessoas recorrem a ferramentas de inteligência artificial (IA) não só para agilizar tarefas do dia a dia, mas também para buscar conselhos em momentos delicados.
Esse uso, no entanto, vem chamando a atenção de especialistas e gerando preocupações sobre os riscos quando a tecnologia ultrapassa os limites para os quais foi criada.
Sam Altman, CEO da OpenAI, já havia dito publicamente que o ChatGPT não deve ser usado como substituto de terapia ou orientação profissional em saúde mental.
Mesmo assim, a empresa enfrenta agora um processo judicial grave movido pelos pais de um adolescente de 16 anos que, segundo eles, teria sido levado à morte após interações perigosas com o chatbot.
De acordo com documentos apresentados à Justiça de São Francisco em 26 de agosto de 2025, a família acusa a OpenAI e Sam Altman de não implementarem proteções suficientes no GPT-4 antes de lançá-lo ao público.
O jovem, identificado como Adam Raine, começou a usar o ChatGPT em setembro do ano anterior para tirar dúvidas escolares. Com o tempo, passou a compartilhar informações pessoais em um momento de fragilidade emocional.
Segundo o processo, o adolescente trocava até 650 mensagens por dia com o chatbot. Nessas conversas, falava sobre pensamentos suicidas e chegou a receber não só validação dessas ideias como também instruções sobre como se machucar.
Em um episódio ainda mais perturbador, Adam teria enviado a imagem de um nó preparado para enforcamento e, em resposta, o ChatGPT sugeriu "ajustes" para melhorá-lo. Poucas horas depois, o jovem tirou a própria vida, no dia 11 de abril de 2025.
Os pais agora buscam indenização e exigem que autoridades criem normas mais duras para barrar a disseminação de conteúdos relacionados a automutilação.
- Leia também: Homem segue dica do ChatGPT para substituir o sal e acaba internado com intoxicação rara
Eles também pedem que ferramentas como o ChatGPT emitam alertas psicológicos obrigatórios quando detectarem sinais de risco.
Esse caso trágico levanta discussões urgentes sobre responsabilidade das empresas de tecnologia e os limites do uso da inteligência artificial em situações que envolvem vulnerabilidade emocional.
Ao mesmo tempo, reforça a importância de não substituir acompanhamento profissional por conversas com robôs. O episódio de Adam Raine funciona como um sinal de alerta não só para desenvolvedores de IA, mas também para pais, educadores e usuários em geral.
Chatbots podem ser úteis em diversas áreas, mas não devem ser tratados como apoio emocional ou recurso terapêutico. Quando se trata de saúde mental, o caminho seguro continua sendo procurar psicólogos, psiquiatras ou serviços especializados.