Hackers estão usando o ChatGPT em ciberataques, diz OpenAI

Imagem de: Hackers estão usando o ChatGPT em ciberataques, diz OpenAI

A OpenAI revelou que, desde o início de 2024, interrompeu mais de 20 operações maliciosas que utilizavam o ChatGPT para finalidades prejudiciais, incluindo campanhas cibernéticas e desinformação. As atividades foram atribuídas a redes ligadas a estados como Irã e China.

Um relatório divulgado recentemente pela empresa aponta que o chatbot de IA tem sido usado para tarefas intermediárias, como depuração de malware e produção de conteúdo manipulativo, mas os hacker não tiveram grandes avanços na criação de ameaças cibernéticas.

Os pesquisadores Ben Nimmo e Michael Flossman, autores do relatório, explicaram que os cibercriminosos costumam utilizar a IA após adquirir ferramentas básicas, como contas de e-mail e acesso à internet, mas antes de implantar suas operações finais, como disseminação de malware ou postagens em mídias sociais.

Apesar do aumento no uso do ChatGPT em ataques cibernéticos, os especialistas observaram que a tecnologia ainda não levou à criação de malwares novos ou ao aprimoramento substancial de campanhas de desinformação.

Grupos envolvidos

O relatório da OpenAI identificou três grupos principais que exploraram o ChatGPT para facilitar ataques cibernéticos:

  • SweetSpectre: Um grupo ligado à China, utilizou o ChatGPT para várias finalidades, como reconhecimento, pesquisa de vulnerabilidades e suporte na evasão de detecção de anomalias. Além disso, foi detectado o envio de e-mails de spear phishing para contas corporativas e pessoais, mas a tentativa foi frustrada antes de chegar às caixas de entrada dos alvos.
  • CyberAv3ngers: Associado ao Corpo da Guarda Revolucionária Islâmica do Irã (IRGC), este grupo é conhecido por ataques a sistemas de controle industrial. Usaram a IA para pesquisar vulnerabilidades e depurar códigos, visando infraestruturas em países como Estados Unidos e Israel.
  • STORM-0817: Localizado no Irã, o STORM-0817 é o primeiro grupo a ter o uso de IA identificado publicamente em suas operações. Tentaram usar o ChatGPT para criar malwares destinados a dispositivos Android, traduzir perfis do LinkedIn para o persa e desenvolver ferramentas de raspagem de dados, como um scraper do Instagram. O malware desenvolvido tinha funcionalidades para roubar informações pessoais e arquivos de dispositivos comprometidos.

O ChatGPT também foi utilizado para suporte no desenvolvimento de infraestrutura de controle do malware, revelando que o servidor de comando e controle configurado usava tecnologias como WAMP (Windows, Apache, MySQL e PHP/Perl/Python) e o domínio "stickhero[.]pro".

Conversando com o ChatGPT em Português
Conversando com o ChatGPT em Português

Respostas da OpenAI

Apesar da tentativa dos grupos em explorar a tecnologia de IA, a OpenAI disse que a utilização do ChatGPT não ajudou os hackers a realizar o que desejavam.

A empresa disse que as vantagens obtidas eram incrementais e poderiam ter sido alcançadas com ferramentas comuns já disponíveis. Para diminuir riscos futuros, a OpenAI implementou mais medidas para detectar e interromper essas atividades.

A empresa também disse que continuará investindo em equipes de inteligência e segurança para antecipar usos maliciosos de seus modelos de IA.

Além disso, planeja manter a colaboração com a indústria e a comunidade de pesquisa para melhorar ainda mais a proteção cibernética.