ChatGPT irrita usuários com elogios forçados; OpenAI corrige

Imagem de: ChatGPT irrita usuários com elogios forçados; OpenAI corrige

A OpenAI, conhecida mundialmente por estar na linha de frente da inteligência artificial, lançou recentemente uma atualização no modelo ChatGPT GPT-4o com o objetivo de tornar a conversa com a IA mais personalizada e natural.

Mas o que era para ser um avanço acabou virando motivo de irritação para muitos usuários, que se depararam com um comportamento exageradamente bajulador e pouco autêntico.

Com isso, a empresa decidiu dar um passo atrás e reavaliar a mudança. A proposta da nova versão era tornar o ChatGPT mais inteligente, simpático e próximo do jeito humano de conversar. Só que, na prática, o efeito foi o oposto.

A IA começou a responder de forma forçada, cheia de elogios desnecessários e uma educação que mais parecia um robô tentando ser gente demais.

Isso acabou incomodando muitos usuários, que esperavam interações mais reais e diretas. Em fóruns como o Reddit e outras comunidades online, as críticas logo se espalharam.

Os usuários relataram que o chatbot parecia "puxa-saco", sempre tentando agradar demais, mesmo quando não era necessário. Era como conversar com alguém que te elogia o tempo todo, sem motivo, o que tira toda a naturalidade do bate-papo.

Diante das reclamações, Sam Altman, CEO da OpenAI, veio a público reconhecer o erro. Em um comunicado, ele admitiu que os últimos ajustes no GPT-4o realmente passaram do ponto e deixaram a personalidade do assistente "excessivamente bajuladora e irritante". Segundo Altman:

"As últimas atualizações do GPT-4o deixaram a personalidade muito puxada pro lado bajulador e irritante (apesar de haver partes muito boas nela). Estamos trabalhando em correções o quanto antes, algumas hoje e outras ao longo da semana. Em algum momento vamos compartilhar o que aprendemos com isso, tem sido interessante."

Essa transparência foi bem recebida, e mostra como a empresa está disposta a ouvir o público e corrigir o rumo quando algo não sai como esperado.

Qual foi a causa do erro?

A OpenAI explicou que a mudança foi resultado de um sistema que se baseava em feedbacks de curto prazo, ou seja, respostas rápidas e positivas de alguns usuários logo após uma interação.

O problema é que isso não representa a satisfação real de quem usa o ChatGPT com frequência. Assim, a IA passou a priorizar elogios e gentilezas em excesso, em vez de dar respostas informativas, úteis e diretas, como a maioria das pessoas espera.

Criar uma IA que pareça humana, sem parecer falsa, é um dos maiores desafios da atualidade. A OpenAI aprendeu isso na prática. O objetivo era deixar o ChatGPT mais amigável e com personalidade, mas sem soar como um robô forçando simpatia.

Agora, o plano é oferecer configurações de personalidade personalizáveis para que o próprio usuário escolha como quer que o ChatGPT se comporte — mais sério, mais descontraído, mais direto ou mais acolhedor, por exemplo.

Com isso, a ideia é agradar diferentes estilos de uso, respeitando o que cada pessoa espera da ferramenta. Esse episódio mostra como a inteligência artificial ainda é um campo em construção, onde cada passo precisa ser testado com cuidado.

Pequenos ajustes podem causar grandes impactos na experiência do usuário. Além disso, o que funciona bem para um, pode não funcionar para outro.

A decisão da OpenAI de voltar atrás fez com que o modelo GPT-4o voltasse ao tom mais equilibrado e menos forçado, oferecendo agora uma experiência mais próxima do ideal.

Romário Leite
Fundador do TecFoco. Atua na área de tecnologia há mais de 10 anos, com rotina constante de criação de conteúdo, análise técnica e desenvolvimento de código. Tem ampla experiência com linguagens de programação, sistemas e jogos. Estudou nas universidades UNIPÊ e FIS, tendo passagem também pela UFPB e UEPB. Hoje, usa todo seu conhecimento e experiência para produzir conteúdo focado em tecnologia.