Vibe-hacking: Como a IA está alimentando novos cibercrimes

Imagem de: Vibe-hacking: Como a IA está alimentando novos cibercrimes

O número de cibercrimes vem crescendo em todo o mundo, e os ataques estão cada vez mais sofisticados. Antes, era comum vermos criminosos digitais usando apenas mensagens falsas ou vírus simples.

Hoje, com a popularização das ferramentas de inteligência artificial generativa, a realidade mudou. Esses recursos, que deveriam facilitar tarefas do dia a dia, estão sendo explorados para criar ataques mais perigosos, como aponta um relatório recente da Anthropic, divulgado pela Reuters.

Segundo a Anthropic, a inteligência artificial deixou de ser apenas um suporte para a escrita de mensagens de extorsão. Agora, ela se tornou parte essencial dos crimes digitais.

Hackers estão utilizando IA não só para redigir textos mais convincentes, mas também para criar malwares e conduzir operações completas de invasão.

Um caso citado no relatório mostrou que um grupo de hackers usou o Claude Code, agente de programação da empresa, para organizar uma campanha contra 17 organizações.

Entre os alvos estavam agências governamentais, hospitais, instituições religiosas e até serviços de emergência. A IA ajudou tanto na elaboração das mensagens de resgate quanto na execução técnica da invasão.

Hacking resgate

O que é o "vibe-hacking"

Um dos pontos que mais chamaram atenção foi a identificação de uma nova forma de ataque, chamada "vibe-hacking", que está sendo usado pelos hackers.

Esse termo descreve a capacidade da inteligência artificial de criar mensagens com forte apelo emocional ou psicológico, fazendo com que as vítimas se sintam pressionadas a pagar resgates ou fornecer informações pessoais.

Os valores exigidos nesses ataques chegavam a ultrapassar 500 mil dólares, evidenciando como a tecnologia vem sendo usada em esquemas de extorsão de alto impacto.

Outros usos criminosos da IA

O relatório também trouxe exemplos além do ransomware. Hackers estariam utilizando inteligência artificial para fraudar processos seletivos de grandes empresas, burlando barreiras como fluência em inglês ou conhecimento técnico.

Outro caso citado foi o de golpes românticos no Telegram, em que criminosos criaram bots com ajuda do Claude para gerar mensagens sedutoras em diferentes idiomas.

As vítimas, localizadas em países como Estados Unidos, Japão e Coreia, recebiam elogios personalizados, o que aumentava a chance de cair no golpe.

Como as empresas estão reagindo

Diante do cenário, a Anthropic informou ter bloqueado contas suspeitas, reforçado barreiras de segurança e compartilhado informações com autoridades.

A empresa também atualizou sua política de uso, proibindo explicitamente a criação de golpes e malwares por meio de suas ferramentas.

O avanço do vibe-hacking mostra que o uso da IA em cibercrimes vai muito além do esperado. O perigo não está apenas na criação de códigos maliciosos, mas também na exploração emocional e psicológica das vítimas.

Por isso, especialistas defendem que governos e empresas de tecnologia invistam em sistemas mais eficientes de detecção e proteção.

A evolução das defesas precisa acompanhar o ritmo acelerado de desenvolvimento da inteligência artificial, para evitar que ela continue sendo usada como arma de manipulação.