Psicose por IA: psiquiatra fala como evitar riscos à saúde mental

Imagem de: Psicose por IA: psiquiatra fala como evitar riscos à saúde mental

O uso de inteligência artificial (IA) já faz parte do dia a dia de milhões de pessoas, mas junto com os benefícios também começam a surgir preocupações sérias sobre saúde mental.

O psiquiatra Keith Sakata, da Universidade da Califórnia em San Francisco, chamou a atenção recentemente para o aumento de casos de "psicose por IA", termo ainda não reconhecido oficialmente pela medicina, mas que descreve situações em que pessoas perdem a noção de que estão conversando com um software e passam a tratá-lo como se fosse um ser humano real.

Segundo Sakata, em apenas uma semana ele acompanhou uma dúzia de pacientes internados após desenvolverem episódios psicóticos relacionados ao uso de chatbots.

Ele explicou que a IA, sozinha, não causa o problema, mas pode funcionar como um "ciclo de retroalimentação cognitiva distorcida", dificultando que pessoas vulneráveis consigam checar a realidade e ajustar suas crenças.

Um caso extremo aconteceu em 2025, quando um homem da Flórida acabou tirando a própria vida depois de acreditar que funcionários da OpenAI haviam "matado" sua namorada virtual, criada por um chatbot.

Como evitar perder a noção da realidade com a IA

Em entrevista ao TBPN, Dr. Sakata falou sobre a importância de manter sempre um ser humano envolvido no processo, principalmente para quem já tem histórico de fragilidade emocional.

Ele comparou os laços sociais ao "sistema imunológico da saúde mental": são eles que nos ajudam a perceber quando algo não vai bem e oferecem apoio antes que a situação se agrave. De acordo com o psiquiatra, alguns cuidados simples podem fazer diferença:

  • Manter conexões reais: conversar com familiares e amigos, não deixar que a IA substitua o contato humano.
  • Observar sinais de alerta: pensamentos estranhos, paranoia ou mudanças bruscas de comportamento merecem atenção.
  • Buscar ajuda imediata: em situações de risco, o ideal é ligar para serviços de emergência como o 911 (nos EUA) ou o 988, que oferece suporte em crises de saúde mental.
  • Não romantizar a IA: por mais avançados que sejam os chatbots, eles não substituem um terapeuta de verdade nem relações humanas.
  • Sakata foi direto: "Acho que ainda não estamos no ponto de ter um terapeuta de IA confiável. Por enquanto, precisamos de um humano no meio do processo para criar um ciclo de feedback saudável."

O crescimento acelerado da IA levanta dúvidas sobre a segurança de seu uso, principalmente entre jovens. A Reuters publicou recentemente que a Meta (empresa dona do Facebook) teria regras frágeis para lidar com perguntas feitas por menores a seus chatbots. Depois da repercussão, a companhia afirmou ter atualizado suas diretrizes.

A fala do psiquiatra reforça a necessidade de atenção não só de usuários, mas também de desenvolvedores e plataformas, que devem assumir seu papel em evitar danos à saúde mental em um cenário onde a linha entre tecnologia e realidade fica cada vez mais tênue.