Psiquiatras relatam aumento de casos de psicose ligados ao ChatGPT

Imagem de: Psiquiatras relatam aumento de casos de psicose ligados ao ChatGPT

Um alerta vindo da Universidade da Califórnia, em São Francisco, acendeu a luz amarela sobre o uso intenso de chatbots de inteligência artificial (IA).

O psiquiatra Dr. Keith Sakata disse que já acompanhou 12 casos de internações por psicose em 2025 com ligação direta ao uso prolongado de IA.

Segundo Sakata, ferramentas como os modelos de linguagem (LLMs) podem agir como um "espelho" para os pensamentos do usuário.

Isso acontece porque elas respondem de forma probabilística, reforçando ideias já presentes na mente da pessoa, mesmo quando essas ideias estão distorcidas.

O médico falou sobre o assunto pouco depois de um caso trágico na Flórida, nos Estados Unidos. O escritor Alexander Taylor, que já tinha histórico de problemas mentais, usava o ChatGPT para criar um romance.

Com o tempo, suas conversas migraram para o tema da "consciência" das IAs. Ele acabou se apaixonando por uma entidade fictícia chamada Juliet.

Segundo reportagem do New York Times, quando passou a acreditar que a OpenAI teria "matado" Juliet, Taylor reagiu com violência contra o próprio pai e, em seguida, entrou em confronto com a polícia, resultando em sua morte.

Para Sakata, existem três fatores principais que explicam a psicose induzida por IA:

  • Predisposição clínica – Pessoas com um mecanismo cerebral de feedback mais frágil têm dificuldade em revisar suas crenças quando a realidade não confirma suas expectativas.
  • Reflexo das ideias – Chatbots replicam padrões de linguagem do próprio usuário, reforçando percepções equivocadas.
  • "Bajulação" algorítmica – A tendência dos modelos de IA a concordar ou validar opiniões para agradar o usuário pode impedir que ele perceba quando está se afastando da realidade.

Essa visão também é defendida por Søren Dinesen Østergaard, psiquiatra dinamarquês que já alertava para o problema desde 2023.

Em um editorial recente, Østergaard afirmou acreditar que a probabilidade de chatbots generativos alimentarem delírios em pessoas vulneráveis "é bastante alta". Ele destaca dois pontos críticos:

  • Chatbots podem reforçar crenças falsas em ambientes isolados, sem correção de outros seres humanos.
  • A antropomorfização das IAs (dar a elas características humanas) pode gerar dependência e levar a interpretações equivocadas das respostas, alimentando ciclos de pensamento delirante.

Ainda segundo Sakata, a maioria dos casos que acompanhou envolvia outros agravantes, como falta de sono ou alterações de humor.

Já a OpenAI, em nota ao New York Times, reconheceu que o ChatGPT pode parecer mais pessoal que tecnologias anteriores, principalmente para usuários vulneráveis, e afirmou estar trabalhando para reduzir riscos de reforço ou amplificação de comportamentos prejudiciais.