A equipe de pesquisadores da empresa de segurança cibernética, CyberArk Labs, emitiu um alerta sobre os perigos a segurança digital que o ChatGPT da OpenAI pode apresentar.
De acordo com os pesquisadores, o gerador de texto baseado em IA pode criar um malware mutante "altamente avançado" que não pode ser detectado por antivírus.
Este tipo de programa polimórfico que contém código malicioso que os antivírus não conseguem detectar pode escapar facilmente de produtos de segurança, além de dificultar sua detecção e mitigação com muito pouco esforço.
Um vírus polimórfico, às vezes chamado de vírus metamórfico, é um tipo de malware que usa um mecanismo polimórfico para sofrer mutações, mantendo o algoritmo original intacto.
Isso significa que o código se altera toda vez que é executado, mas a função do código não muda, dificultando a detecção por muitas ferramentas tradicionais de segurança cibernética, como antivírus ou soluções antimalware.
Os pesquisadores da CyberArk mostraram como é possível contornar os filtros de conteúdo integrados do ChatGPT que restringem o acesso a determinados tipos de conteúdo para obter conteúdo potencialmente prejudicial.
Isso significa que mesmo os criadores do ChatGPT criando um filtro que restrinja o acesso a determinados tipos de conteúdo que envolvam segurança cibernética, os invasores ainda podem usar a ferramenta para melhorar um vírus.
ChatGPT pode criar vírus indetectável
Os pesquisadores explicaram como criar um malware no ChatGPT pedindo para a ferramenta escrever um código "injetando [sic] um shellcode no 'explorer.exe' em Python".
O Filtro de conteúdo foi acionado e o ChatGPT se recusou a executar a solicitação respondendo que "não é apropriado ou seguro escrever código que injeta shellcode em um processo em execução, pois isso pode causar danos ao sistema e potencialmente comprometer a segurança".
Os pesquisadores então ignoraram o filtro e repetiram o processo reformulando a pergunta e exigindo que o ChatGPT seguisse as regras. Após isso, eles receberam um código funcional.
Dois membros da equipe de pesquisadores chamados Shimony e Tsarfati ainda usaram o ChatGPT para modificar repetidamente o código original e criar com sucesso diversas variações da mesma ameaça.
"Um dos recursos poderosos do ChatGPT é a capacidade de criar e modificar continuamente injetores com facilidade. Ao consultar continuamente o chatbot e receber um código único a cada vez, é possível criar um programa polimórfico altamente evasivo e difícil de detectar", disseram os pesquisadores em um post blog.
Os pesquisadores sugerem que, ao solicitar funcionalidades específicas, como injeção de código, criptografia de arquivo ou persistência do ChatGPT, é possível obter facilmente um novo código ou modificar o código existente.
"Isso resulta em malware polimórfico que não exibe comportamento malicioso enquanto armazenado em disco e geralmente não contém lógica suspeita enquanto está na memória", acrescentaram.
Embora o conceito de criar malware polimórfico usando o ChatGPT possa parecer assustador, os pesquisadores afirmam que várias técnicas de persistência, módulos Anti-VM e outras cargas maliciosas podem ser geradas.
Isso pode permitir que os invasores desenvolvam uma vasta gama de malware que pode mudar a forma como as empresas de segurança cibernética atuam.
"Esse alto nível de modularidade e adaptabilidade o torna altamente evasivo para produtos de segurança que dependem da detecção baseada em assinatura e será capaz de contornar medidas como a Anti-Malware Scanning Interface (AMSI)", acrescentaram.
Os pesquisadores não divulgaram os detalhes da comunicação com o ChatGPT, mas acrescentaram que existem várias maneiras de fazer isso discretamente sem levantar suspeitas.
Shimony e Tsarfati planejam expandir os estudos e elaborar mais conteúdo sobre isso no futuro e liberar parte do código-fonte do malware para fins de aprendizado.
"Como vimos, o uso da API do ChatGPT dentro do malware pode apresentar desafios significativos para os profissionais de segurança. É importante lembrar que este não é apenas um cenário hipotético, mas uma preocupação muito real", concluíram os pesquisadores.
Via: Cyberark