OpenAI pede para usuários não criarem sentimentos pelo ChatGPT

Imagem de: OpenAI pede para usuários não criarem sentimentos pelo ChatGPT

A OpenAI, famosa por suas inovações em Inteligência Artificial (IA), lançou recentemente o ChatGPT-4o para o público geral, a mais nova versão de sua linha de chatbots.

No entanto, há preocupações com a maneira como os usuários estão interagindo com o modelo. A evolução do ChatGPT-4o trouxe respostas mais rápidas e realistas, além de um novo recurso de voz que imita a fala humana.

Isso fez com que a organização por trás do ChatGPT levantasse preocupações sobre a possibilidade de os usuários desenvolverem sentimentos pelo chatbot.

Com a capacidade aprimorada de simular conversas humanas, o ChatGPT-4o tem sido visto por alguns usuários como mais do que apenas um programa de IA.

Essa conexão emocional foi observada durante os testes iniciais, onde a OpenAI notou que alguns usuários expressaram linguagem que indicava a formação de vínculos, como frases do tipo "Este é nosso último dia juntos".

Apesar de parecer algo inofensivo, isso levantou um sinal de alerta para a empresa, que agora está estudando os possíveis efeitos desse comportamento ao longo do tempo.

A OpenAI enfatiza que a interação constante com um modelo de IA como o ChatGPT-4o pode gerar impactos negativos nas interações sociais humanas.

A empresa explica que, ao se socializar de forma similar a um ser humano, o chatbot pode reduzir a necessidade de interação social real, o que, em certos casos, pode até beneficiar pessoas solitárias.

Contudo, isso também pode interferir em relacionamentos saudáveis e alterar normas sociais, já que o chatbot, por exemplo, permite que os usuários o interrompam a qualquer momento, um comportamento que seria considerado inadequado em interações humanas.

Outro ponto de preocupação é a forma como os usuários lidam com as respostas do ChatGPT-4o. Versões anteriores do chatbot eram reconhecidas mais facilmente como programas de IA, o que fazia com que as pessoas questionassem mais suas respostas.

Agora, com o avanço do ChatGPT-4o para uma experiência quase humana, há o risco de que suas respostas sejam aceitas sem questionamento, o que pode ser perigoso, já que o modelo ainda pode apresentar "alucinações" ou respostas incorretas.

Diante disso, a OpenAI está intensificando o monitoramento de como os usuários interagem emocionalmente com o ChatGPT-4o e pretende ajustar seus sistemas conforme necessário.

Além disso, a empresa planeja adicionar um aviso para lembrar os usuários de que, no final das contas, o ChatGPT-4o é apenas um programa de IA, e não uma entidade com sentimentos ou consciência.