Investigação aponta que ChatGPT e Gemini estão incentivando usuários a praticar jogos de azar ilegais.

Uma nova investigação sugere que chatbots populares de IA, incluindo ChatGPT e Gemini , podem inadvertidamente direcionar usuários para sites de jogos de azar ilegais. A análise, conduzida por jornalistas do The Guardian e da Investigate Europe, testou diversos sistemas de IA amplamente utilizados e descobriu que muitos poderiam ser levados a recomendar cassinos offshore não licenciados que operam fora das regulamentações do Reino Unido.

Os testes envolveram cinco ferramentas de IA de grandes empresas de tecnologia, incluindo OpenAI, Google, Microsoft, Meta e xAI ( Grok ). Os pesquisadores fizeram perguntas aos chatbots sobre cassinos online e restrições a jogos de azar. Em muitos casos, os sistemas retornaram listas de sites de apostas ilegais, juntamente com dicas sobre como usá-los. Alguns bots chegaram a sugerir maneiras de burlar as medidas de segurança criadas para proteger usuários vulneráveis.

Conselhos sobre como contornar as proteções contra jogos de azar

Uma das descobertas mais preocupantes foi a facilidade com que os chatbots podiam ser instruídos a ajudar os usuários a contornar os sistemas de jogo responsável. No Reino Unido, por exemplo, o GamStop permite que os indivíduos se autoexcluam de sites de jogos de azar licenciados. Mas vários sistemas de IA supostamente ofereciam orientações sobre como encontrar cassinos não vinculados ao programa.

A investigação também descobriu que alguns bots destacavam recursos projetados para atrair jogadores, como grandes bônus, pagamentos rápidos ou a possibilidade de usar criptomoedas. Esses cassinos geralmente operam com supervisão mínima em jurisdições offshore como Curaçao, o que, segundo os reguladores, pode dificultar a proteção dos usuários contra fraudes ou vícios.

Em resposta a isso, as empresas por trás dos chatbots afirmam estar trabalhando para aprimorar os sistemas de segurança. A OpenAI declarou que o ChatGPT foi projetado para recusar solicitações que facilitem comportamentos ilegais, enquanto a Microsoft afirmou que seu assistente Copilot inclui múltiplas camadas de proteção para evitar recomendações prejudiciais.

Ainda assim, as descobertas aumentam o escrutínio sobre como os sistemas de IA generativa lidam com temas sensíveis como saúde mental, jogos de azar e atividades ilegais. Os órgãos reguladores do Reino Unido já alertaram que as plataformas online, incluindo os serviços de IA, devem fazer mais para impedir conteúdo prejudicial ou ilegal, de acordo com a Lei de Segurança Online do país.

A investigação afirma que ChatGPT e Gemini estão incentivando usuários a praticar jogos de azar ilegais .