Ataques de hackers do Pentágono para melhorar os sistemas de inteligência artificial
É junho de 2017 quando a República Popular da China lança o seu plano de desenvolvimento de uma nova geração de inteligência artificial com o objetivo de se tornar o principal centro de inovação neste setor até 2030. Apenas três meses depois, a Rússia também sai à luz com as declarações de seu presidente Vladimir Putin: "Quem desenvolver a melhor inteligência artificial se tornará o senhor do mundo".
É apenas o início de um verdadeiro desafio tecnológico, mesmo definido por alguns como o "desafio do século", e do qual os Estados Unidos naturalmente não podem recuar. Nasceu assim em 2018 o Joint Artificial Intelligence Center (JAIC), centro de excelência da Defesa dos EUA, para dar um forte impulso à IA no campo militar, transformando-a num poderoso recurso de apoio às Forças Armadas dos EUA . Uma comissão de especialistas, portanto, que tem como objetivo principal a defesa da vantagem tecnológica sobre a China e a Rússia, em um dos campos mais quentes dos últimos anos.
O interesse que o Pentágono mostra por essa tecnologia vem de concebê-la como uma arma potencialmente capaz de enganar e dominar qualquer oponente. O risco, porém, é que sem a atenção certa ele pode até se transformar em uma espada de dois gumes , oferecendo vantagens sensacionais aos inimigos.
Aprendizado de máquina, inteligência artificial e possíveis ameaças
Na base dos algoritmos de inteligência artificial está o aprendizado de máquina, entendido como a capacidade de aprender a realizar tarefas específicas e melhorar o desempenho com base nos dados disponíveis e na experiência acumulada. Basicamente, o programador não terá mais que lidar com as regras que a máquina terá que seguir, pois estas serão objeto de pesquisa, a partir dos dados, da própria máquina. Porém, nem sempre esse processo de aprendizagem consegue garantir o cumprimento da meta estabelecida. O que muitas vezes acontece, por falta de cuidado na escolha dos dados de treinamento, é que os modelos gerados assumem comportamentos imprevisíveis e indesejáveis.
"Embora as técnicas de aprendizado de máquina sejam até um bilhão de vezes superiores ao software tradicional para aplicativos diferentes, elas correm o risco de falhar de maneiras absolutamente diferentes das tradicionais"
Gregory Allen, diretor de estratégia e comunicações da JAIC
Suponha que um algoritmo seja treinado para reconhecer veículos inimigos usando imagens de satélite. Ao determinar as características específicas do veículo em questão, o algoritmo pode aprender uma associação entre o próprio veículo e algumas características do ambiente circundante, como cores ou os objetos mais comuns. Nesse ponto, um inimigo poderia explorar esse poder associativo a seu favor, mudando adequadamente o cenário ao redor de seus veículos. Além disso, no caso hipotético em que o conjunto de dados de treinamento caia nas mãos do inimigo, este poderia modificá-lo a seu gosto, acrescentando quaisquer elementos perturbadores nas fotos.
Os ataques a algoritmos de aprendizado de máquina já são um grande problema, especialmente em sistemas de detecção de fraudes. Um exemplo disso é o que ele viu como vítima em 2016, Tay, um chatbot da Microsoft capaz de responder a perguntas com base nas conversas que teve anteriormente. Aproveitando esse recurso, muitos ensinaram mensagens abusivas e racistas ao chatbot, obrigando os cineastas a suspendê-lo após apenas 24 horas para introduzir mudanças.
A necessidade de uma nova equipe dentro do JAIC para prevenir ataques externos
É evidente que algoritmos chamados a tomar decisões críticas durante as várias missões militares ou a oferecer serviços de assistência às Forças Armadas, como compras, requerem sistemas de proteção bem testados. Por este motivo, o “Grupo de Teste e Avaliação” foi formado recentemente no Jaic, uma equipe dedicada a sondar as vulnerabilidades de sistemas internos.
O objetivo, claro, é simular uma tentativa real de hacking externo para antecipar os movimentos do oponente, em busca dos pontos fracos de modelos já treinados. Embora o funcionamento dos vários modelos de inteligência artificial seja claro, muitas vezes não é possível dar uma explicação clara de porque se comportam de determinada maneira, o que torna nada fácil prever o resultado final. Consequentemente, a abordagem adotada é de tentativa e erro : alterações são aplicadas aos parâmetros de entrada do algoritmo para entender como estes afetam o desempenho do modelo.
Assim, embora seja altamente provável que o Pentágono, assim como os departamentos de defesa de outras grandes potências, estejam desenvolvendo suas capacidades ofensivas para ameaçar os sistemas adversários, ao mesmo tempo é impensável não fortalecer seus mecanismos de defesa.
"A opção ofensiva pode ser explorada, mas você tem que ter certeza que não pode ser usada contra nós", disse Allen. Para aproveitar ao máximo esta nova e poderosa tecnologia, portanto, não se pode limitar-se apenas à fase ofensiva. Afinal, sabemos: o melhor ataque é sempre a defesa.
Curadoria de Giovanni Maida
O artigo Hackers do Pentágono para Melhorar Sistemas de Inteligência Artificial vem de Tech CuE | Engenharia de Close-up .