O Google afirma que a IA está sendo usada indevidamente em escala industrial para ataques cibernéticos e acaba de frustrar um deles.

Durante anos, especialistas em segurança alertaram que a IA acabaria por dar aos hackers uma nova e perigosa vantagem. Esse momento chegou.

O Grupo de Inteligência de Ameaças do Google publicou um relatório confirmando que um grupo criminoso de hackers usou um modelo de IA para descobrir uma vulnerabilidade zero-day e quase realizou um ataque cibernético em massa. O Google afirma ter detectado e impedido o ataque antes que os hackers pudessem implementá-lo em larga escala.

O que exatamente aconteceu e qual foi a gravidade do ocorrido?

A vulnerabilidade explorada tinha como alvo uma ferramenta popular de administração de sistemas baseada na web e de código aberto, do tipo que as empresas usam para gerenciar remotamente servidores, contas de funcionários e configurações de segurança.

Se tivesse passado despercebido, teria permitido que hackers contornassem a autenticação de dois fatores, que geralmente é a última linha de defesa na proteção de contas.

Os atacantes planejavam implantá-lo em um ataque de exploração em massa, visando várias organizações simultaneamente. O Google alertou o desenvolvedor da ferramenta a tempo para que uma correção fosse lançada antes que qualquer dano fosse causado.

A empresa se recusou a divulgar o nome do grupo de hackers, o software específico visado ou qual modelo de IA foi usado, mas confirmou que não se tratava do Gemini, do próprio Google.

Segundo o Google, grupos ligados à China e à Coreia do Norte também demonstraram interesse significativo em usar ferramentas de IA como o OpenClaw para a descoberta de vulnerabilidades.

A inteligência artificial está se tornando o maior ponto fraco da cibersegurança?

O ataque do Google é alarmante, mas está longe de ser um caso isolado. Pesquisadores da Georgia Tech descobriram recentemente o VillainNet, uma porta dos fundos oculta que se infiltra na inteligência artificial de carros autônomos e funciona em 99% dos casos quando acionada.

Entretanto, uma equipe de pesquisa coreana demonstrou que modelos de IA podem ser submetidos a engenharia reversa remotamente usando uma pequena antena através de paredes , sem necessidade de acesso ao sistema. Recentemente, um grupo de usuários do Discord contornou os controles de acesso para alcançar o modelo Mythos restrito da Anthropic por meio de um ambiente de terceiros.

Na área da defesa, uma disciplina crescente chamada teste de intrusão em IA está surgindo para avaliar o comportamento de modelos de linguagem quando expostos a entradas adversárias, mas o campo ainda está em seus estágios iniciais.