Um software de IA controverso está agora ajudando a encontrar policiais corruptos e negligentes.

A Palantir Technologies, uma das empresas de tecnologia mais secretas e controversas do planeta, conquistou um novo e badalado (e quase distópico) papel em Londres. De acordo com uma reportagem do The Guardian , um projeto piloto de uma semana com o software da empresa ajudou a identificar possíveis irregularidades na Polícia Metropolitana de Londres. As descobertas incluíram problemas como manipulação de escalas de trabalho, violações das regras de trabalho híbrido e sérias alegações envolvendo fraude, agressão sexual, estupro, má conduta em cargo público e uso indevido de sistemas policiais. Três policiais foram presos, enquanto outros dois receberam advertências por má conduta grave.

Qual a extensão da má conduta rotineira dentro da força policial?

Algumas das conclusões mais surpreendentes do projeto-piloto são o quão comuns algumas partes dele soam. Noventa e oito policiais estão sendo investigados por supostamente manipularem o sistema de escala de trabalho para obterem vantagens pessoais ou financeiras, e cerca de 500 outros receberam notificações de advertência. Outros 42 líderes seniores estão sendo investigados por graves descumprimentos das normas de frequência no trabalho. Doze policiais enfrentam investigações por má conduta grave por não declararem sua filiação à Maçonaria.

A Palantir está corrigindo problemas de má conduta ou levantando novas preocupações?

A Palantir segue uma trajetória previsível com seus clientes, mantendo-se altamente eficaz, financeiramente recompensadora e profundamente controversa. Os críticos argumentam que as parcerias da empresa com o Serviço de Imigração e Alfândega dos EUA (ICE) e diversas agências militares comprovam que suas ferramentas de processamento de dados podem facilmente evoluir para redes de vigilância .

O uso da Palantir pela Polícia Metropolitana também ocorre em um momento em que as empresas de IA estão enfrentando um escrutínio regulatório mais rigoroso em relação ao tratamento de dados, à confiança e aos danos ao público. A OpenAI, por exemplo, foi investigada devido a preocupações com o ChatGPT , mostrando como as ferramentas de IA podem rapidamente deixar de ser apenas softwares úteis e se tornarem um problema de responsabilidade mais amplo quando a supervisão é pouco clara.

Em fevereiro, o CEO da Palantir, Alex Karp, rebateu as críticas , afirmando que os sistemas da empresa incluem salvaguardas contra abusos por parte do governo, visto que sua receita com o governo dos EUA aumentou 66% em relação ao ano anterior, atingindo US$ 570 milhões no quarto trimestre de 2025.

Por que a Palantir continua ganhando contratos apesar da reação negativa?

A aplicação da lei não é a única área em que a Grã-Bretanha está recorrendo à Palantir Technologies. O país assinou recentemente um contrato de £ 330 milhões com a empresa para uma plataforma de dados do NHS (Serviço Nacional de Saúde), com o objetivo de construir uma Plataforma Federada de Dados que conecta dados de saúde em todo o sistema, ajudando hospitais e equipes de atendimento a gerenciar informações com mais eficiência. O acordo gerou críticas significativas, mesmo com as autoridades afirmando que a Palantir não pode vender dados do NHS nem usá-los para treinar modelos de IA (Inteligência Artificial). A Autoridade de Conduta Financeira (FCA) também está usando o software da Palantir para combater crimes financeiros . Para a Polícia Metropolitana, o apelo é claro, já que o software parece identificar policiais corruptos e infratores das regras muito mais rapidamente do que os sistemas antigos.