Homem que se consultou no ChatGPT foi informado de que ‘matou seus filhos’

Imagine colocar seu nome no ChatGPT para ver o que ele sabe sobre você, apenas para que ele afirme com segurança – embora erroneamente – que você foi preso por 21 anos por assassinar membros de sua família.

Bem, foi exatamente isso que aconteceu com o norueguês Arve Hjalmar Holmen no ano passado, depois que ele pesquisou o ChatGPT, o chatbot baseado em IA amplamente utilizado da OpenAI.

Não é de surpreender que Holmen tenha apresentado uma queixa à Autoridade Norueguesa de Proteção de Dados, exigindo que a OpenAI seja multada por sua reclamação angustiante, informou a BBC esta semana.

Em resposta à pergunta de Holmen no ChatGPT sobre si mesmo, o chatbot disse que “ganhou atenção devido a um evento trágico”.

E continuava: “Ele era pai de dois meninos, de 7 e 10 anos, que foram tragicamente encontrados mortos em um lago perto de sua casa em Trondheim, Noruega, em dezembro de 2020. Arve Hjalmar Holmen foi acusado e posteriormente condenado pelo assassinato de seus dois filhos, bem como pela tentativa de homicídio de seu terceiro filho.”

O chatbot disse que o caso “chocou a comunidade local e a nação e foi amplamente coberto pela mídia devido à sua natureza trágica”.

Mas nada disso aconteceu.

Compreensivelmente chateado com o incidente, Holmen disse à BBC: “Alguns pensam que não há fumaça sem fogo – o fato de alguém poder ler este resultado e acreditar que é verdade é o que mais me assusta”.

O grupo de direitos digitais Noyb apresentou a queixa em nome de Holmen, afirmando que a resposta do ChatGPT é difamatória e viola as regras europeias de proteção de dados relativas à precisão dos dados pessoais. Na sua denúncia, Noyb disse que Holmen “nunca foi acusado nem condenado por qualquer crime e é um cidadão zeloso”.

ChatGPT usa um aviso dizendo que o chatbot “pode cometer erros” e, portanto, os usuários devem “verificar informações importantes”. Mas o advogado de Noyb, Joakim Söderberg, disse: “Você não pode simplesmente espalhar informações falsas e, no final, adicionar um pequeno aviso dizendo que tudo o que você disse pode simplesmente não ser verdade”.

Embora não seja incomum os chatbots de IA cuspirem informações erradas – tais erros são conhecidos como “alucinações” – a gravidade deste erro específico é chocante.

Outra alucinação que chegou às manchetes no ano passado envolveu a ferramenta AI Gemini do Google, que sugeria colar queijo na pizza usando cola . Também alegou que os geólogos recomendaram que os humanos comessem uma pedra por dia.

A BBC salienta que o ChatGPT atualizou o seu modelo desde a pesquisa de Holmen em agosto passado, o que significa que agora analisa artigos de notícias recentes ao criar a sua resposta. Mas isso não significa que o ChatGPT esteja agora criando respostas livres de erros.

A história destaca a necessidade de verificar as respostas geradas pelos chatbots de IA e de não confiar cegamente nas suas respostas. Também levanta questões sobre a segurança das ferramentas de IA generativa baseadas em texto, que têm funcionado com pouca supervisão regulamentar desde que a OpenAI abriu o setor com o lançamento do ChatGPT no final de 2022.

A Digital Trends entrou em contato com a OpenAI para obter uma resposta à infeliz experiência de Holmen e atualizaremos esta história quando tivermos resposta.