Homem segue dica do ChatGPT para substituir o sal e acaba internado com intoxicação rara

Imagem de: Homem segue dica do ChatGPT para substituir o sal e acaba internado com intoxicação rara

Com a popularização das ferramentas de inteligência artificial, muita gente passou a usá-las não apenas para agilizar tarefas do dia a dia, mas também para assuntos pessoais delicados.

Já ouvimos casos de pessoas que pediram conselhos amorosos a chatbots e até tentaram usar IA como substituto de terapia — algo que especialistas como Sam Altman, CEO da OpenAI, já falaram que pode ser perigoso.

Agora, um episódio recente nos Estados Unidos reacende o debate sobre os riscos de buscar orientações de saúde em assistentes virtuais.

Um homem de 60 anos, morador de Nova York, desenvolveu uma condição grave e rara depois de seguir à risca uma recomendação de dieta fornecida pelo ChatGPT.

O caso foi registrado na revista médica Annals of Internal Medicine e repercutido pela NBC News. O paciente procurou o chatbot em busca de alternativas para reduzir o consumo de sal comum (cloreto de sódio).

Como resposta, recebeu a sugestão de usar brometo de sódio. Sem saber dos riscos, ele comprou a substância pela internet e passou a consumi-la diariamente por três meses, acreditando que fosse uma opção mais saudável.

O resultado foi devastador, ele desenvolveu bromismo, também chamado de intoxicação por brometo. Entre os sintomas estavam paranoia, insônia, psicose e alucinações.

Em certo momento, o homem chegou a acreditar que estava sendo envenenado por vizinhos. Ao ser internado, médicos identificaram a causa do problema.

A condição é extremamente rara hoje em dia, justamente porque sais de brometo não são de uso comum. Após suspender o consumo e receber o tratamento adequado, o paciente começou a se recuperar.

O caso serve de lição sobre os perigos de confiar em orientações de saúde dadas por IA. Pesquisadores verificaram que, de fato, o ChatGPT estava sugerindo brometo como substituto do sal, sem emitir qualquer alerta sobre toxicidade.

Isso mostra que chatbots não são médicos e não possuem a responsabilidade clínica de um profissional de saúde. Eles podem ser úteis para organizar informações ou tirar dúvidas gerais, mas não substituem orientação profissional.

O episódio também levanta a discussão sobre a necessidade de que modelos de IA tenham filtros mais rígidos quando o tema envolve saúde e alimentação.

Vivemos em uma era de avanços tecnológicos rápidos, mas a curiosidade nunca deve se sobrepor à cautela, especialmente quando se trata do corpo humano.

Romário Leite
Fundador do TecFoco. Atua na área de tecnologia há mais de 10 anos, com rotina constante de criação de conteúdo, análise técnica e desenvolvimento de código. Tem ampla experiência com linguagens de programação, sistemas e jogos. Estudou nas universidades UNIPÊ e FIS, tendo passagem também pela UFPB e UEPB. Hoje, usa todo seu conhecimento e experiência para produzir conteúdo focado em tecnologia.