Homem segue dica do ChatGPT para substituir o sal e acaba internado com intoxicação rara

Imagem de: Homem segue dica do ChatGPT para substituir o sal e acaba internado com intoxicação rara

Com a popularização das ferramentas de inteligência artificial, muita gente passou a usá-las não apenas para agilizar tarefas do dia a dia, mas também para assuntos pessoais delicados.

Já ouvimos casos de pessoas que pediram conselhos amorosos a chatbots e até tentaram usar IA como substituto de terapia — algo que especialistas como Sam Altman, CEO da OpenAI, já falaram que pode ser perigoso.

Agora, um episódio recente nos Estados Unidos reacende o debate sobre os riscos de buscar orientações de saúde em assistentes virtuais.

Um homem de 60 anos, morador de Nova York, desenvolveu uma condição grave e rara depois de seguir à risca uma recomendação de dieta fornecida pelo ChatGPT.

O caso foi registrado na revista médica Annals of Internal Medicine e repercutido pela NBC News. O paciente procurou o chatbot em busca de alternativas para reduzir o consumo de sal comum (cloreto de sódio).

Como resposta, recebeu a sugestão de usar brometo de sódio. Sem saber dos riscos, ele comprou a substância pela internet e passou a consumi-la diariamente por três meses, acreditando que fosse uma opção mais saudável.

O resultado foi devastador, ele desenvolveu bromismo, também chamado de intoxicação por brometo. Entre os sintomas estavam paranoia, insônia, psicose e alucinações.

Em certo momento, o homem chegou a acreditar que estava sendo envenenado por vizinhos. Ao ser internado, médicos identificaram a causa do problema.

A condição é extremamente rara hoje em dia, justamente porque sais de brometo não são de uso comum. Após suspender o consumo e receber o tratamento adequado, o paciente começou a se recuperar.

O caso serve de lição sobre os perigos de confiar em orientações de saúde dadas por IA. Pesquisadores verificaram que, de fato, o ChatGPT estava sugerindo brometo como substituto do sal, sem emitir qualquer alerta sobre toxicidade.

Isso mostra que chatbots não são médicos e não possuem a responsabilidade clínica de um profissional de saúde. Eles podem ser úteis para organizar informações ou tirar dúvidas gerais, mas não substituem orientação profissional.

O episódio também levanta a discussão sobre a necessidade de que modelos de IA tenham filtros mais rígidos quando o tema envolve saúde e alimentação.

Vivemos em uma era de avanços tecnológicos rápidos, mas a curiosidade nunca deve se sobrepor à cautela, especialmente quando se trata do corpo humano.