A OpenAI, conhecida mundialmente por estar na linha de frente da inteligência artificial, lançou recentemente uma atualização no modelo ChatGPT GPT-4o com o objetivo de tornar a conversa com a IA mais personalizada e natural.
Mas o que era para ser um avanço acabou virando motivo de irritação para muitos usuários, que se depararam com um comportamento exageradamente bajulador e pouco autêntico.
Com isso, a empresa decidiu dar um passo atrás e reavaliar a mudança. A proposta da nova versão era tornar o ChatGPT mais inteligente, simpático e próximo do jeito humano de conversar. Só que, na prática, o efeito foi o oposto.
A IA começou a responder de forma forçada, cheia de elogios desnecessários e uma educação que mais parecia um robô tentando ser gente demais.
Isso acabou incomodando muitos usuários, que esperavam interações mais reais e diretas. Em fóruns como o Reddit e outras comunidades online, as críticas logo se espalharam.
Os usuários relataram que o chatbot parecia "puxa-saco", sempre tentando agradar demais, mesmo quando não era necessário. Era como conversar com alguém que te elogia o tempo todo, sem motivo, o que tira toda a naturalidade do bate-papo.
Diante das reclamações, Sam Altman, CEO da OpenAI, veio a público reconhecer o erro. Em um comunicado, ele admitiu que os últimos ajustes no GPT-4o realmente passaram do ponto e deixaram a personalidade do assistente "excessivamente bajuladora e irritante". Segundo Altman:
"As últimas atualizações do GPT-4o deixaram a personalidade muito puxada pro lado bajulador e irritante (apesar de haver partes muito boas nela). Estamos trabalhando em correções o quanto antes, algumas hoje e outras ao longo da semana. Em algum momento vamos compartilhar o que aprendemos com isso, tem sido interessante."
Essa transparência foi bem recebida, e mostra como a empresa está disposta a ouvir o público e corrigir o rumo quando algo não sai como esperado.
Qual foi a causa do erro?
A OpenAI explicou que a mudança foi resultado de um sistema que se baseava em feedbacks de curto prazo, ou seja, respostas rápidas e positivas de alguns usuários logo após uma interação.
O problema é que isso não representa a satisfação real de quem usa o ChatGPT com frequência. Assim, a IA passou a priorizar elogios e gentilezas em excesso, em vez de dar respostas informativas, úteis e diretas, como a maioria das pessoas espera.
Criar uma IA que pareça humana, sem parecer falsa, é um dos maiores desafios da atualidade. A OpenAI aprendeu isso na prática. O objetivo era deixar o ChatGPT mais amigável e com personalidade, mas sem soar como um robô forçando simpatia.
Agora, o plano é oferecer configurações de personalidade personalizáveis para que o próprio usuário escolha como quer que o ChatGPT se comporte — mais sério, mais descontraído, mais direto ou mais acolhedor, por exemplo.
Com isso, a ideia é agradar diferentes estilos de uso, respeitando o que cada pessoa espera da ferramenta. Esse episódio mostra como a inteligência artificial ainda é um campo em construção, onde cada passo precisa ser testado com cuidado.
Pequenos ajustes podem causar grandes impactos na experiência do usuário. Além disso, o que funciona bem para um, pode não funcionar para outro.
A decisão da OpenAI de voltar atrás fez com que o modelo GPT-4o voltasse ao tom mais equilibrado e menos forçado, oferecendo agora uma experiência mais próxima do ideal.