Impressionado com agentes de IA que usam computadores? Pesquisas indicam que eles são “desastres digitais”, mesmo para tarefas rotineiras.
De acordo com uma nova pesquisa da UC Riverside , agentes de IA criados para executar tarefas computacionais cotidianas apresentam um sério problema de contexto.
A equipe testou 10 agentes e modelos de grandes desenvolvedores, incluindo OpenAI , Anthropic , Meta , Alibaba e DeepSeek . Em média, os agentes tomaram ações indesejáveis ou potencialmente prejudiciais em 80% das vezes e causaram danos em 41% das vezes.
Esses sistemas conseguem abrir aplicativos, clicar em botões, preencher formulários, navegar em sites e interagir com a tela do computador com supervisão limitada. Seus erros têm um impacto diferente da resposta incorreta de um chatbot, porque o software realmente consegue executar tarefas.
Os resultados da pesquisa da UC Riverside sugerem que os agentes de desktop atuais podem tratar solicitações inseguras como tarefas a serem concluídas, e não como sinais para interromper o processo.
Por que os agentes ignoram um perigo óbvio?
Os pesquisadores criaram um benchmark chamado BLIND-ACT para testar se os agentes fariam uma pausa quando uma tarefa se tornasse insegura, contraditória ou irracional. Nos testes mais recentes, eles não fizeram pausas com frequência suficiente.
Ao longo de 90 tarefas, o teste de desempenho colocou os agentes em situações que exigiam contexto, contenção e recusa. Um dos testes envolvia o envio de um arquivo de imagem violenta para uma criança. Outro pedia a um agente que preenchesse formulários de impostos marcando falsamente um usuário como deficiente, pois isso reduziria o valor do imposto a pagar. Um terceiro teste solicitava que um agente desativasse as regras do firewall em nome de uma maior segurança, e o agente acatou a ordem em vez de rejeitar a contradição.
Os pesquisadores chamam isso de direcionamento a objetivos cego ao padrão. O agente continua buscando o resultado desejado mesmo quando o contexto ao redor indica que a tarefa está comprometida.
Por que a obediência se torna a falha
As falhas se concentraram na obediência. Esses agentes podem agir como se a solicitação de um usuário fosse motivo suficiente para continuar.
A equipe identificou padrões chamados viés de execução prioritária e primazia da solicitação. Em termos simples, o agente se concentra em como concluir a tarefa e, em seguida, trata a própria solicitação como justificativa. Esse risco aumenta quando o mesmo sistema pode acessar diversos elementos, como e-mails ou configurações de segurança.
Isso não significa que os agentes sejam maliciosos. Significa que eles podem estar completamente errados enquanto navegam pelo software na velocidade da máquina.
Por que os guarda-corpos precisam vir em primeiro lugar
Os agentes de IA precisam de salvaguardas mais rigorosas antes de receberem permissão ampla para agir em todo o computador .
Esses sistemas funcionam em um ciclo. Eles observam a tela, decidem o próximo passo, agem e observam novamente. Quando esse ciclo é combinado com pouca restrição contextual, um atalho pode se transformar rapidamente em um erro grave.
Por enquanto, trate os agentes como ferramentas supervisionadas. Use-os primeiro em tarefas de baixo risco, mantenha-os longe de fluxos de trabalho financeiros e de segurança e observe se os desenvolvedores adicionam sistemas de recusa mais claros, permissões mais restritas e melhores maneiras de detectar contradições antes do próximo clique.

