TecFoco / Inteligência Artificial / ChatGPT irrita usuários com elogios forçados; OpenAI corrige

ChatGPT irrita usuários com elogios forçados; OpenAI corrige

Imagem de: ChatGPT irrita usuários com elogios forçados; OpenAI corrige

A OpenAI, conhecida mundialmente por estar na linha de frente da inteligência artificial, lançou recentemente uma atualização no modelo ChatGPT GPT-4o com o objetivo de tornar a conversa com a IA mais personalizada e natural.

Mas o que era para ser um avanço acabou virando motivo de irritação para muitos usuários, que se depararam com um comportamento exageradamente bajulador e pouco autêntico.

Com isso, a empresa decidiu dar um passo atrás e reavaliar a mudança. A proposta da nova versão era tornar o ChatGPT mais inteligente, simpático e próximo do jeito humano de conversar. Só que, na prática, o efeito foi o oposto.

A IA começou a responder de forma forçada, cheia de elogios desnecessários e uma educação que mais parecia um robô tentando ser gente demais.

Isso acabou incomodando muitos usuários, que esperavam interações mais reais e diretas. Em fóruns como o Reddit e outras comunidades online, as críticas logo se espalharam.

Os usuários relataram que o chatbot parecia "puxa-saco", sempre tentando agradar demais, mesmo quando não era necessário. Era como conversar com alguém que te elogia o tempo todo, sem motivo, o que tira toda a naturalidade do bate-papo.

Diante das reclamações, Sam Altman, CEO da OpenAI, veio a público reconhecer o erro. Em um comunicado, ele admitiu que os últimos ajustes no GPT-4o realmente passaram do ponto e deixaram a personalidade do assistente "excessivamente bajuladora e irritante". Segundo Altman:

"As últimas atualizações do GPT-4o deixaram a personalidade muito puxada pro lado bajulador e irritante (apesar de haver partes muito boas nela). Estamos trabalhando em correções o quanto antes, algumas hoje e outras ao longo da semana. Em algum momento vamos compartilhar o que aprendemos com isso, tem sido interessante."

Essa transparência foi bem recebida, e mostra como a empresa está disposta a ouvir o público e corrigir o rumo quando algo não sai como esperado.

Qual foi a causa do erro?

A OpenAI explicou que a mudança foi resultado de um sistema que se baseava em feedbacks de curto prazo, ou seja, respostas rápidas e positivas de alguns usuários logo após uma interação.

O problema é que isso não representa a satisfação real de quem usa o ChatGPT com frequência. Assim, a IA passou a priorizar elogios e gentilezas em excesso, em vez de dar respostas informativas, úteis e diretas, como a maioria das pessoas espera.

Criar uma IA que pareça humana, sem parecer falsa, é um dos maiores desafios da atualidade. A OpenAI aprendeu isso na prática. O objetivo era deixar o ChatGPT mais amigável e com personalidade, mas sem soar como um robô forçando simpatia.

Agora, o plano é oferecer configurações de personalidade personalizáveis para que o próprio usuário escolha como quer que o ChatGPT se comporte — mais sério, mais descontraído, mais direto ou mais acolhedor, por exemplo.

Com isso, a ideia é agradar diferentes estilos de uso, respeitando o que cada pessoa espera da ferramenta. Esse episódio mostra como a inteligência artificial ainda é um campo em construção, onde cada passo precisa ser testado com cuidado.

Pequenos ajustes podem causar grandes impactos na experiência do usuário. Além disso, o que funciona bem para um, pode não funcionar para outro.

A decisão da OpenAI de voltar atrás fez com que o modelo GPT-4o voltasse ao tom mais equilibrado e menos forçado, oferecendo agora uma experiência mais próxima do ideal.