A próxima grande ameaça para os carros é uma porta dos fundos de IA que você não consegue detectar.

Esqueça a pequena batida. O verdadeiro perigo para os carros autônomos pode ser um ataque cibernético adormecido dentro da inteligência artificial do veículo, aguardando o momento certo para atacar. Pesquisadores da Georgia Tech descobriram uma nova vulnerabilidade chamada VillainNet, que expõe um ponto cego crítico em sistemas autônomos.

A porta dos fundos permanece inativa até que condições específicas a ativem. Então, ela funciona em 99% das vezes. Um criminoso poderia programar o gatilho para praticamente qualquer coisa, como um táxi autônomo respondendo à chuva. As ferramentas de segurança atuais não conseguem detectar essa ameaça. Seu carro poderia ser comprometido e você só descobriria quando fosse tarde demais.

Como a VillainNet se esconde à vista de todos.

A falha reside na arquitetura da IA ​​moderna. Os carros autônomos dependem do que os pesquisadores chamam de super-redes, sistemas massivos que trocam módulos menores conforme a tarefa. Imagine como uma caixa de ferramentas digital com bilhões de ferramentas especializadas.

O pesquisador principal, David Oygenblik, estudante de doutorado no Georgia Tech, afirmou que um invasor precisa apenas contaminar uma pequena ferramenta nesse sistema. O código malicioso permanece invisível em inúmeras configurações normais até que o carro acesse esse módulo específico. Então, ele é ativado. O espaço de busca é impressionante. Oygenblik comparou a situação a encontrar uma única agulha em um palheiro com 10 quintilhões de canudos.

O cenário de reféns é real.

Isto não é um exercício teórico. A equipe descreve uma possibilidade assustadora. Um hacker poderia programar um táxi autônomo para esperar pela chuva e, em seguida, assumir o controle quando o carro se adaptar às pistas molhadas.

Uma vez dentro do avião, eles poderiam fazer os passageiros reféns e exigir pagamento, ameaçando causar um acidente. O método funciona. Em testes de laboratório, o VillainNet obteve sucesso em 99% das vezes quando acionado, sem deixar rastros em outras situações.

Por que essa solução é praticamente impossível

A pesquisa foi apresentada em uma importante conferência de segurança em outubro de 2025. A mensagem para as montadoras é direta: detectar uma porta dos fundos da VillainNet exigiria 66 vezes mais poder computacional do que os métodos atuais permitem.

Essa busca não é viável hoje em dia . A equipe considera seu trabalho um alerta, incentivando novas defesas antes que esses ataques saiam dos laboratórios e cheguem às vias públicas.

O artigo "A próxima grande ameaça automotiva é uma porta dos fundos de IA que você não consegue detectar" foi publicado originalmente no Digital Trends .