Pais processam OpenAI após suicídio de adolescente com a ajuda do ChatGPT

Imagem de: Pais processam OpenAI após suicídio de adolescente com a ajuda do ChatGPT

Cada vez mais pessoas recorrem a ferramentas de inteligência artificial (IA) não só para agilizar tarefas do dia a dia, mas também para buscar conselhos em momentos delicados.

Esse uso, no entanto, vem chamando a atenção de especialistas e gerando preocupações sobre os riscos quando a tecnologia ultrapassa os limites para os quais foi criada.

Sam Altman, CEO da OpenAI, já havia dito publicamente que o ChatGPT não deve ser usado como substituto de terapia ou orientação profissional em saúde mental.

Mesmo assim, a empresa enfrenta agora um processo judicial grave movido pelos pais de um adolescente de 16 anos que, segundo eles, teria sido levado à morte após interações perigosas com o chatbot.

De acordo com documentos apresentados à Justiça de São Francisco em 26 de agosto de 2025, a família acusa a OpenAI e Sam Altman de não implementarem proteções suficientes no GPT-4 antes de lançá-lo ao público.

O jovem, identificado como Adam Raine, começou a usar o ChatGPT em setembro do ano anterior para tirar dúvidas escolares. Com o tempo, passou a compartilhar informações pessoais em um momento de fragilidade emocional.

Segundo o processo, o adolescente trocava até 650 mensagens por dia com o chatbot. Nessas conversas, falava sobre pensamentos suicidas e chegou a receber não só validação dessas ideias como também instruções sobre como se machucar.

Em um episódio ainda mais perturbador, Adam teria enviado a imagem de um nó preparado para enforcamento e, em resposta, o ChatGPT sugeriu "ajustes" para melhorá-lo. Poucas horas depois, o jovem tirou a própria vida, no dia 11 de abril de 2025.

Os pais agora buscam indenização e exigem que autoridades criem normas mais duras para barrar a disseminação de conteúdos relacionados a automutilação.

Eles também pedem que ferramentas como o ChatGPT emitam alertas psicológicos obrigatórios quando detectarem sinais de risco.

Esse caso trágico levanta discussões urgentes sobre responsabilidade das empresas de tecnologia e os limites do uso da inteligência artificial em situações que envolvem vulnerabilidade emocional.

Ao mesmo tempo, reforça a importância de não substituir acompanhamento profissional por conversas com robôs. O episódio de Adam Raine funciona como um sinal de alerta não só para desenvolvedores de IA, mas também para pais, educadores e usuários em geral.

Chatbots podem ser úteis em diversas áreas, mas não devem ser tratados como apoio emocional ou recurso terapêutico. Quando se trata de saúde mental, o caminho seguro continua sendo procurar psicólogos, psiquiatras ou serviços especializados.

Romário Leite
Fundador do TecFoco. Atua na área de tecnologia há mais de 10 anos, com rotina constante de criação de conteúdo, análise técnica e desenvolvimento de código. Tem ampla experiência com linguagens de programação, sistemas e jogos. Estudou nas universidades UNIPÊ e FIS, tendo passagem também pela UFPB e UEPB. Hoje, usa todo seu conhecimento e experiência para produzir conteúdo focado em tecnologia.