Hoje em dia, é cada vez mais comum ver pessoas usando ferramentas de inteligência artificial (IA) para resolver problemas do dia a dia.
Muita gente já recorre ao ChatGPT para pedir conselhos, desabafar sobre sentimentos ou até falar de questões pessoais e emocionais — como se fosse um psicólogo ou um amigo de confiança.
Mas o que pouca gente sabe é que isso pode ser perigoso. Mesmo que pareça inofensivo, contar segredos ou problemas íntimos para um robô pode acabar se voltando contra você.
O próprio Sam Altman, CEO da OpenAI (empresa responsável pelo ChatGPT), disse que essas conversas não têm proteção legal nenhuma. Ou seja, aquilo que você compartilha pode ser usado contra você num processo judicial, por exemplo.
ChatGPT não tem o mesmo sigilo de um terapeuta ou médico
Ao conversar com o apresentador Theo Von no podcast This Past Weekend, Sam Altman disse que usar o ChatGPT como terapeuta é arriscado. Nas palavras dele:
"As pessoas falam sobre as coisas mais pessoais da vida para o ChatGPT. Jovens, principalmente, usam a IA como terapeuta ou conselheiro. Perguntam: ‘Estou com problemas no meu relacionamento, o que eu faço?’ Se fosse com um terapeuta, médico ou advogado, haveria sigilo. Mas com o ChatGPT, isso não existe ainda."
Isso quer dizer que, se um dia você tiver um problema com a justiça e for preciso apresentar suas conversas com o chatbot, a OpenAI pode ser obrigada a entregar tudo — e sem nenhuma garantia de sigilo.
É diferente de quando você fala com um psicólogo ou médico, onde existe a chamada confidencialidade profissional, protegida por lei.
Não é porque a IA entende emoções que ela pode substituir a terapia
Muita gente acha que o ChatGPT é seguro porque responde com empatia, compreende sentimentos e até "conversa" como se fosse humano. Mas isso não quer dizer que ele possa substituir um profissional de verdade.
Segundo Altman, ainda não existem regras para proteger essas interações com a IA. A tecnologia avançou rápido demais, e a legislação ainda não acompanhou.
- Leia também: Homem segue dica do ChatGPT para substituir o sal e acaba internado com intoxicação rara
Então, até que exista uma regulamentação, não é seguro confiar informações pessoais ou delicadas a um robô — por mais inteligente ou compreensivo que ele pareça.
Isso significa que usar a IA como ferramenta de apoio pode até ajudar em tarefas práticas, como organizar a rotina, estudar ou buscar informações.
Mas quando o assunto envolve emoções, traumas ou decisões importantes da vida, a melhor escolha ainda é o contato humano e profissional.