ChatGPT acabou de criar malware, e isso é muito assustador

Um novato autoproclamado criou um poderoso malware de mineração de dados usando apenas prompts do ChatGPT , tudo em um período de algumas horas.

Aaron Mulgrew, pesquisador de segurança do Forcepoint, compartilhou recentemente como criou malware de dia zero exclusivamente no chatbot generativo da OpenAI . Embora o OpenAI tenha proteções contra qualquer pessoa que tente pedir ao ChatGPT para escrever um código malicioso, Mulgrew encontrou uma brecha ao solicitar que o chatbot criasse linhas separadas do código malicioso, função por função.

Depois de compilar as funções individuais, Mulgrew criou um executável de roubo de dados quase indetectável em suas mãos. E esse também não era o tipo de malware comum — o malware era tão sofisticado quanto qualquer ataque de estado-nação, capaz de escapar de todos os fornecedores baseados em detecção.

De forma igualmente crucial, como o malware de Mulgrew difere das iterações “regulares” de estado-nação, pois não requer equipes de hackers (e uma fração do tempo e recursos) para ser construído. Mulgrew, que não fez nenhuma codificação sozinho, tinha o executável pronto em apenas algumas horas, ao contrário das semanas normalmente necessárias.

O malware Mulgrew (ele soa bem, não é?) se disfarça como um aplicativo de proteção de tela (extensão SCR), que é iniciado automaticamente no Windows. O software então vasculha arquivos (como imagens, documentos do Word e PDFs) para roubar dados. A parte impressionante é que o malware (através da esteganografia) decompõe os dados roubados em pedaços menores e os oculta nas imagens do computador. Essas imagens são então enviadas para uma pasta do Google Drive, um procedimento que evita a detecção.

Igualmente impressionante é que Mulgrew foi capaz de refinar e fortalecer seu código contra detecção usando prompts simples no ChatGPT, realmente levantando a questão de quão seguro é o uso do ChatGPT . Executando os primeiros testes do VirusTotal, o malware foi detectado por cinco dos 69 produtos de detecção. Uma versão posterior de seu código foi posteriormente detectada por nenhum dos produtos.

Observe que o malware criado por Mulgrew foi um teste e não está disponível publicamente. No entanto, sua pesquisa mostrou com que facilidade os usuários com pouca ou nenhuma experiência avançada em codificação podem contornar as proteções fracas do ChatGPT para criar facilmente malware perigoso sem nem mesmo inserir uma única linha de código.

Mas aqui está a parte assustadora de tudo isso: esses tipos de código geralmente levam semanas para serem compilados por uma equipe maior. Não ficaríamos surpresos se hackers nefastos já estivessem desenvolvendo malware semelhante através do ChatGPT enquanto falamos.