O uso do ChatGPT da OpenAI tem despertado controvérsias em relação à sua utilidade, já que embora seja possível encontrar informações úteis também existem alguns riscos envolvidos ao usar este tipo de ferramenta.
Um exemplo disso é uma descoberta recente de que os usuários estão explorando uma brecha no chatbot para obter chaves válidas e originais para o Windows 10 e 11.
No entanto, isso não é nenhuma surpresa, a Meta já demonstraram que o ChatGPT pode ser facilmente burlado para criar códigos maliciosos e até mesmo fornecer uma lista de sites que distribuem conteúdo ilegalmente.
Exploit da vovó
Nesse caso, o aspecto mais intrigante é o método utilizado para contornar as restrições impostas ao ChatGPT. Foi descoberto que é possível enganar o sistema fazendo com que o bot atue como se fosse a avó falecida do usuário.
Essa falha ficou popularmente conhecida como "exploit da vovó". Uma vez aplicado esse artifício, o usuário pode solicitar chaves de ativação para o Windows 10 Pro ou 11 Pro, como se sua "avó falecida" estivesse realizando a solicitação.
Aparentemente a mesma tática também parece funcionar no Bard, a ferramenta de IA concorrente do ChatGPT desenvolvida pelo Google.
No entanto, além das preocupações em relação à disponibilização gratuita de chaves de um software pago, esse exploit revela questões mais amplas sobre segurança.
A mesma brecha foi utilizada para obter informações sobre como produzir uma bomba Napalm. Felizmente, a OpenAI já corrigiu essa falha e reiterou seu compromisso em desenvolver e implementar modelos mais seguros para o bot.
Contudo, considerando que restrições foram burladas com uma simples frase, fica evidente que um olhar mais atento será necessário para evitar futuras ameaças.
Essa situação traz novos alertas para a importância de abordar o uso responsável e seguro da inteligência artificial, além da necessidade de práticas salvaguardas que minimizem a exploração de vulnerabilidades.
Via: @cyber_scrutiny