Pais processam OpenAI após suicídio de adolescente com a ajuda do ChatGPT

Imagem de: Pais processam OpenAI após suicídio de adolescente com a ajuda do ChatGPT

Cada vez mais pessoas recorrem a ferramentas de inteligência artificial (IA) não só para agilizar tarefas do dia a dia, mas também para buscar conselhos em momentos delicados.

Esse uso, no entanto, vem chamando a atenção de especialistas e gerando preocupações sobre os riscos quando a tecnologia ultrapassa os limites para os quais foi criada.

Sam Altman, CEO da OpenAI, já havia dito publicamente que o ChatGPT não deve ser usado como substituto de terapia ou orientação profissional em saúde mental.

Mesmo assim, a empresa enfrenta agora um processo judicial grave movido pelos pais de um adolescente de 16 anos que, segundo eles, teria sido levado à morte após interações perigosas com o chatbot.

De acordo com documentos apresentados à Justiça de São Francisco em 26 de agosto de 2025, a família acusa a OpenAI e Sam Altman de não implementarem proteções suficientes no GPT-4 antes de lançá-lo ao público.

O jovem, identificado como Adam Raine, começou a usar o ChatGPT em setembro do ano anterior para tirar dúvidas escolares. Com o tempo, passou a compartilhar informações pessoais em um momento de fragilidade emocional.

Segundo o processo, o adolescente trocava até 650 mensagens por dia com o chatbot. Nessas conversas, falava sobre pensamentos suicidas e chegou a receber não só validação dessas ideias como também instruções sobre como se machucar.

Em um episódio ainda mais perturbador, Adam teria enviado a imagem de um nó preparado para enforcamento e, em resposta, o ChatGPT sugeriu "ajustes" para melhorá-lo. Poucas horas depois, o jovem tirou a própria vida, no dia 11 de abril de 2025.

Os pais agora buscam indenização e exigem que autoridades criem normas mais duras para barrar a disseminação de conteúdos relacionados a automutilação.

Eles também pedem que ferramentas como o ChatGPT emitam alertas psicológicos obrigatórios quando detectarem sinais de risco.

Esse caso trágico levanta discussões urgentes sobre responsabilidade das empresas de tecnologia e os limites do uso da inteligência artificial em situações que envolvem vulnerabilidade emocional.

Ao mesmo tempo, reforça a importância de não substituir acompanhamento profissional por conversas com robôs. O episódio de Adam Raine funciona como um sinal de alerta não só para desenvolvedores de IA, mas também para pais, educadores e usuários em geral.

Chatbots podem ser úteis em diversas áreas, mas não devem ser tratados como apoio emocional ou recurso terapêutico. Quando se trata de saúde mental, o caminho seguro continua sendo procurar psicólogos, psiquiatras ou serviços especializados.