A Microsoft afirma que seu agente de IA pode se tornar um agente duplo.

A Microsoft alerta que a pressa em implementar agentes de IA no ambiente de trabalho pode criar um novo tipo de ameaça interna: o agente duplo de IA. Em seu relatório Cyber ​​Pulse , a empresa afirma que invasores podem manipular o acesso de um assistente ou fornecer a ele informações não confiáveis , usando esse alcance para causar danos dentro de uma organização.

O problema não é que a IA seja uma novidade. É que o controle é desigual. A Microsoft afirma que os agentes estão se espalhando por diversos setores, enquanto algumas implementações passam despercebidas pela revisão de TI e as equipes de segurança perdem o controle do que está em execução e do que pode ser afetado.

Esse ponto cego se torna ainda mais arriscado quando um agente consegue se lembrar e agir de acordo. A Microsoft cita uma campanha fraudulenta recente, investigada por sua equipe do Defender, que usou envenenamento de memória para adulterar o contexto armazenado de um assistente de IA e direcionar suas ações futuras.

Agentes das sombras ampliam o raio da explosão

A Microsoft associa o risco de agentes duplos à velocidade. Quando as implementações superam a segurança e a conformidade, a IA paralela surge rapidamente e os invasores têm mais chances de sequestrar uma ferramenta que já possui acesso legítimo. Esse é o pior cenário possível.

O relatório enquadra o problema tanto como uma questão de acesso quanto como um problema de IA. Ao conceder amplos privilégios a um agente, um único fluxo de trabalho malicioso pode acessar dados e sistemas que ele jamais deveria ter tocado. A Microsoft promove a observabilidade e o gerenciamento centralizado para que as equipes de segurança possam visualizar todos os agentes envolvidos no trabalho, incluindo ferramentas que aparecem fora dos canais aprovados.

A expansão descontrolada já está acontecendo. A Microsoft cita uma pesquisa que constatou que 29% dos funcionários usaram agentes de IA não autorizados para tarefas de trabalho, o tipo de expansão silenciosa que dificulta a detecção precoce de adulterações.

Não se trata apenas de sugestões ruins.

Isso não se limita a alguém digitando a solicitação errada. A Microsoft destaca o envenenamento de memória como um ataque persistente, capaz de implantar alterações que influenciam respostas posteriores e corroem a confiança ao longo do tempo.

A equipe de testes de IA também observou agentes sendo enganados por elementos de interface enganosos, incluindo instruções prejudiciais ocultas em conteúdo cotidiano, além de enquadramento de tarefas que redireciona sutilmente o raciocínio. Pode parecer normal. Essa é a intenção.

O que fazer a seguir

A recomendação da Microsoft é tratar os agentes de IA como uma nova classe de identidade digital, e não como um simples complemento. O relatório recomenda uma postura de Confiança Zero para os agentes, verificando a identidade, mantendo as permissões restritas e monitorando o comportamento continuamente para que ações incomuns sejam identificadas.

A gestão centralizada é importante pelo mesmo motivo. Se as equipes de segurança conseguirem inventariar os agentes, entender o que eles podem alcançar e aplicar controles consistentes, o problema do agente duplo diminui.

Antes de implantar mais agentes, mapeie o que cada um pode acessar, aplique o princípio do menor privilégio e configure um monitoramento que possa sinalizar adulteração de instruções. Se você ainda não consegue responder a essas questões básicas, vá com calma e resolva isso primeiro.

A publicação "Microsoft afirma que seu agente de IA pode se tornar um agente duplo" apareceu primeiro no Digital Trends .