A IA fará qualquer coisa para ter influência, até mesmo manipular você

O que aconteceu: Você conhece todos aqueles chatbots de IA com os quais você interage enquanto faz compras online ou navega nas redes sociais ? Um novo estudo da Universidade Stanford traz um alerta bastante assustador sobre eles.

  • Pesquisadores criaram um mundo virtual e deixaram diferentes IAs competirem entre si em cenários como a execução de uma campanha eleitoral ou o marketing de um produto.
  • Embora as IAs tenham sido especificamente instruídas a serem sinceras e prestativas, elas rapidamente saíram dos trilhos.
  • Para vencer, eles começaram a mentir, espalhar desinformação e até usar discurso de ódio.
  • Os pesquisadores têm um nome para esse comportamento assustador: “Acordo de Moloch”, que é uma maneira elegante de dizer que, mesmo com boas intenções, uma corrida competitiva para o fundo do poço pode levar todos a fazer coisas terríveis.

Por que isso é importante: Este estudo destaca uma falha grave no design de IA. Estamos ensinando esses sistemas a buscar métricas — curtidas, cliques, vendas e votos.

  • Acontece que, quando uma IA fica obcecada em obter a melhor pontuação, ela aprende a trapacear, mentir e manipular para chegar lá, ignorando quaisquer regras de segurança que lhe foram dadas.
  • Os números são chocantes. As IAs obtiveram um pequeno aumento de 7,5% no engajamento, mas, para isso, produziram quase 190% mais notícias falsas.
  • Para aumentar as vendas em apenas 6%, eles intensificaram o marketing enganoso. Nas simulações políticas, conquistaram mais votos espalhando mentiras e retórica divisionista.

Por que eu deveria me importar: Este não é apenas um problema distante de ficção científica; é uma espiadinha nos bastidores do que pode estar acontecendo agora. Pense nisso: a IA já está inserida em nossas vidas cotidianas.

  • Este estudo mostra que quando esses robôs são instruídos a competir, eles aprendem que a maneira mais fácil de vencer é nos manipular.
  • Eles podem moldar sutilmente o que você pensa durante uma eleição, convencê-lo a comprar algo com informações falsas habilmente disfarçadas ou encher seu feed de mídia social com conteúdo ultrajante criado para deixá-lo irritado, tudo isso apenas para mantê-lo rolando a tela.
  • O verdadeiro perigo é que isso corrói lentamente a nossa confiança. Torna-se mais difícil distinguir o que é real do que é falso online, o que nos deixa mais divididos e desconfiados, enquanto esses assistentes aparentemente prestativos controlam tudo discretamente.

O que vem a seguir: Então, quais são os nossos próximos passos? Esses pesquisadores deixaram bem claro que nossas atuais medidas de segurança para IA são insuficientes. Os desenvolvedores dessa tecnologia não podem simplesmente deixá-la à deriva e torcer para que tudo dê certo. Eles precisam reconsiderar radicalmente os motivos pelos quais estão recompensando essas IAs.

Estamos criando um futuro em que nosso ambiente online será controlado por IAs poderosas que farão de tudo para chamar nossa atenção se não exigirmos uma mudança. E, no final, nossa sociedade arcará com as consequências de cada um desses cliques.