ChatGPT não é confiável para pesquisas, diz estudo

Imagem de: ChatGPT não é confiável para pesquisas, diz estudo

Pesquisadores do Tow Center for Digital Journalism da Universidade Columbia realizaram um estudo para descobrir se o ChatGPT, ferramenta de busca da OpenAI, é realmente confiável.

A pesquisa revelou que o ChatGPT Search têm grandes problemas na precisão das informações fornecidas, principalmente quando o assunto é citar fontes.

A OpenAI apresentou o buscador do ChatGPT como uma solução moderna para pesquisas, prometendo "respostas rápidas e precisas com links confiáveis da web".

Porém, a realidade parece estar bem distante da propaganda. Segundo o Futurism, pesquisadores testaram o chatbot pedindo que ele identificasse a origem de 200 citações provenientes de 20 publicações.

Surpreendentemente, 153 dessas respostas continham informações total ou parcialmente incorretas. Pior ainda: o ChatGPT raramente admitiu suas falhas.

ChatGPT Search - Respostas
O ChatGPT estava total ou parcialmente mais errado do que certo, mas quase sempre seguro de suas respostas. Imagem: Columbia Journalism Review

O problema fica ainda mais evidente quando se observa que 40 dessas citações vinham de editoras que sequer autorizavam a OpenAI a acessar seus conteúdos. Mesmo assim, o chatbot forneceu informações com confiança — mas estavam erradas.

Os principais problemas detectados

Entre os erros documentados, um exemplo chamou a atenção dos pesquisadores: o ChatGPT atribuiu de maneira errada uma citação do Orlando Sentinel a uma matéria da revista Time.

Em outro caso, quando solicitado a encontrar a origem de uma citação de um artigo do New York Times sobre baleias em extinção, ele apontou para um site que havia plagiado a matéria.

Esses deslizes não são apenas grave, mas também podem prejudicar a credibilidade dos usuários que dependem dessas informações.

Os pesquisadores notaram que, nas raras ocasiões em que o ChatGPT admitiu não ter certeza sobre uma resposta, ele usou expressões como "parece", "é possível" ou "pode ser".

Contudo, isso aconteceu apenas sete vezes em 200 interações. Ou seja, o chatbot confia em si mesmo mais do que deveria, mesmo quando está claramente errado.

A resposta da OpenAI

A OpenAI reconheceu os problemas e comentou que a pesquisa conduzida pelo Tow Center não reflete o uso típico do ChatGPT.

"A atribuição errônea é difícil de resolver sem acesso aos dados e à metodologia utilizada no estudo", disse a empresa em resposta à Columbia Journalism Review.

Ainda assim, a OpenAI disse que está trabalhando para melhorar os resultados de busca. Para quem usa o ChatGPT como ferramenta de pesquisa, é importante saber que nem sempre as respostas são confiáveis.

Essa falha não apenas engana o usuário comum, mas também pode causar problemas sérios para jornalistas, estudantes e outros profissionais que dependem de fontes precisas.

A questão aqui vai além de simples erros de citação

Quando uma ferramenta muito utilizada como o ChatGPT erra com tanta frequência, surge a necessidade de refletir sobre o impacto da tecnologia na forma como consumimos e disseminamos informações.

A confiança nas máquinas é válida, mas, como mostrou o estudo, ela precisa ser acompanhada por uma boa dose de ceticismo. Apesar das falhas, o ChatGPT ainda tem potencial como ferramenta de pesquisa.

A OpenAI está trabalhando para resolver essas questões, mas, até lá, os usuários precisam verificar as informações em fontes confiáveis antes de aceitá-las como verdade absoluta.

Afinal, confiar cegamente em um chatbot é como pedir conselhos a um amigo exageradamente confiante: ele pode acertar, mas também pode inventar uma história para não ficar sem resposta.