Hackers estão usando IA para criar malware vicioso, diz FBI

O FBI alertou que os hackers estão correndo soltos com ferramentas de inteligência artificial (IA) generativas, como o ChatGPT , criando rapidamente códigos maliciosos e lançando crimes cibernéticos que exigiriam muito mais esforço no passado.

O FBI detalhou suas preocupações em uma ligação com jornalistas e explicou que os chatbots de IA alimentaram todos os tipos de atividades ilícitas, desde golpistas e fraudadores aperfeiçoando suas técnicas até terroristas consultando as ferramentas sobre como lançar ataques químicos mais prejudiciais.

Um hacker digitando em um laptop Apple MacBook enquanto segura um telefone. Ambos os dispositivos mostram o código em suas telas.

De acordo com um alto funcionário do FBI (via Tom's Hardware ), "Esperamos que, com o tempo, à medida que a adoção e a democratização dos modelos de IA continuem, essas tendências aumentem". Maus atores estão usando IA para complementar suas atividades criminosas regulares, continuaram, incluindo o uso de geradores de voz de IA para se passar por pessoas confiáveis, a fim de fraudar entes queridos ou idosos.

Não é a primeira vez que vimos hackers pegando ferramentas como o ChatGPT e as distorcendo para criar um malware perigoso. Em fevereiro de 2023, pesquisadores da empresa de segurança Checkpointdescobriram que atores mal-intencionados conseguiram alterar a API de um chatbot, permitindo que ele gerasse código de malware e colocasse a criação de vírus ao alcance de quase qualquer possível hacker.

O ChatGPT é uma ameaça à segurança?

Um MacBook Pro em uma mesa com o site do ChatGPT sendo exibido em sua tela.

O FBI adota uma postura muito diferente de alguns dos especialistas cibernéticos com quem conversamos em maio de 2023. Eles nos disseram que a ameaça dos chatbots de IA foi amplamente exagerada, com a maioria dos hackers encontrando melhores explorações de código em vazamentos de dados mais tradicionais e código aberto pesquisar.

Por exemplo, Martin Zugec, Diretor de Soluções Técnicas da Bitdefender, explicou que “a maioria dos criadores de malware novatos provavelmente não possui as habilidades necessárias” para contornar as proteções antimalware dos chatbots. Além disso, explicou Zugec, “a qualidade do código de malware produzido por chatbots tende a ser baixa”.

Isso oferece um contraponto às alegações do FBI, e teremos que ver qual lado se mostra correto. Mas com o OpenAI, fabricante do ChatGPT, descontinuando sua própria ferramenta projetada para detectar plágio gerado por chatbot , as notícias não têm sido animadoras ultimamente. Se o FBI estiver certo, pode haver tempos difíceis pela frente na batalha contra hackers e suas tentativas de malware alimentado por chatbot.