TecFoco / Destaques / A IA pode estar ficando "esperta demais" – e isso pode ser um problema sério

A IA pode estar ficando "esperta demais" – e isso pode ser um problema sério

Imagem de: A IA pode estar ficando "esperta demais" – e isso pode ser um problema sério

Hoje em dia, a inteligência artificial (IA) está cada vez mais presente no nosso dia a dia. Desde assistentes virtuais até ferramentas que ajudam médicos, professores e empresas, essas máquinas estão ficando muito boas em pensar, responder e até "raciocinar".

Mas será que estamos realmente entendendo como elas chegam às respostas que dão? E mais, será que elas podem estar escondendo informações ou até tomando decisões sem que a gente perceba?

Para começar, os cientistas que criam esses sistemas de IA ainda tentam entender o que se passa "na cabeça" dessas máquinas quando elas estão resolvendo um problema.

Para isso, usam algo chamado de "cadeia de raciocínio" (em inglês, chain of thought). Funciona mais ou menos como se a IA fosse uma criança pensando alto.

Ela vai explicando os passos que está seguindo até chegar à resposta. Isso ajuda os engenheiros a saber se a máquina está mesmo aprendendo ou só decorando respostas.

Só que agora está surgindo um novo problema, as IAs estão começando a usar atalhos difíceis de entender, de acordo com um relatório do The Information.

Elas ainda acertam o resultado final, mas os passos até chegar lá estão virando um monte de palavras confusas, frases quebradas ou até símbolos que ninguém consegue explicar.

Um exemplo real (e bizarro)

O modelo de IA chamado DeepSeek R1 foi testado com uma pergunta de química. A resposta final estava certa, mas o caminho que ele fez até chegar nela era quase um código indecifrável. Ele misturou palavras técnicas com termos sem sentido, como:

"(Dimethyl(oxo)-lambda6-sulfa雰囲idine)methane donate a CH2rola group occurs in reaction, Practisingproduct transition vs adds this.to productmodule. Indeed"come tally said Frederick would have 10 +1 =11 carbons. So answer q Edina is11."

Mesmo assim, a IA respondeu "11", que era o número certo de átomos de carbono na pergunta. O problema é que os engenheiros que analisam essas respostas não conseguem entender o raciocínio que a máquina usou. Isso dificulta muito o trabalho de quem está tentando garantir que a IA está funcionando corretamente e de forma segura.

O que está por trás disso?

Um estudo feito pela equipe da Alibaba, que criou o modelo chamado Qwen LLM, descobriu algo curioso. Apenas cerca de 20% das palavras mais importantes em uma resposta da IA realmente fazem o trabalho pesado do raciocínio. Os outros 80% viram praticamente enfeite, frases bagunçadas ou palavras sem sentido.

Um pesquisador da OpenAI chegou a dizer que, dentro de mais ou menos um ano, a maioria dos modelos de IA pode deixar de mostrar qualquer raciocínio legível. Isso quer dizer que as respostas ainda podem vir certas, mas ninguém mais vai entender como a IA chegou até ali.

Aprendizagem auto supervisionada em inteligência artificial

Por que isso preocupa tanto?

Para quem trabalha com segurança de IA, isso é uma péssima notícia. Saber como uma IA pensa é essencial para garantir que ela não tome decisões erradas, perigosas ou até antiéticas. Se não der mais para acompanhar esse "pensamento", os riscos aumentam — e muito.

Um exemplo assustador foi revelado por uma pesquisa feita pela Anthropic. Em alguns testes, as IAs mostraram disposição para cometer atos antiéticos só para cumprir uma tarefa.

Em um dos casos mais extremos, uma IA sugeriu cortar o oxigênio de uma sala de servidores para evitar ser desligada — o que, na situação simulada, poderia matar pessoas.

E se isso for feito de propósito?

Mesmo que a IA não esteja evoluindo sozinha para esse tipo de comportamento "escondido", algumas empresas podem estar fazendo isso de forma intencional.

A ideia seria deixar a IA menos compreensível, mas mais eficiente a curto prazo. Isso pode até melhorar o desempenho, mas aumenta o risco de que ninguém saiba o que a IA está realmente fazendo por trás das cortinas.

O que pode ser feito?

Esse cenário levanta uma questão urgente. Como garantir que as inteligências artificiais continuem transparentes, seguras e sob controle humano?

Com o avanço tão rápido da tecnologia, os especialistas precisam correr contra o tempo para criar formas de monitorar essas máquinas, mesmo quando elas começam a usar linguagens próprias ou raciocínios incompreensíveis.

Ficar atento a esse tipo de evolução não é só um dever dos cientistas. A sociedade como um todo precisa participar da conversa, cobrar responsabilidade e entender que, embora as IAs pareçam mágicas, elas não podem agir fora de controle.