A IA do Google realmente mandou um usuário morrer?
O caso de um estudante, Vidhay Reddy, que supostamente foi condenado a morrer pela IA do Google, causou muita discussão recentemente.
Quando interagimos com uma inteligência artificial, geralmente esperamos receber conselhos úteis, uma piada para acalmar o frio ou, no máximo, uma resposta genérica. Ninguém pensa em se deparar com uma mensagem que pode levá-lo a uma crise .
No entanto, foi exatamente isso que aconteceu com Vidhay Reddy , um estudante de Michigan, durante uma conversa com o chatbot Gemini do Google (você pode encontrar a conversa original no link). Tudo começou de forma bastante inocente: uma troca normal sobre problemas e soluções para idosos como parte de um trabalho acadêmico. Então, de repente, o chatbot escreveu uma última mensagem insultando o aluno, chegando a sugerir que ele morresse.
Para Reddy, ler aquelas frases tão violentas foi um verdadeiro choque. “Isso me assustou muito”, disse ele. E como você pode culpá-lo? Não foi apenas uma piada mal colocada ou um erro de resumo. Não, era algo pessoal , ou assim parecia. E o fato de sua irmã Sumedha estar lá com ele não tornava tudo menos perturbador. Na verdade, ele disse que por um momento teve vontade de jogar todos os aparelhos pela janela.
Este caso lembrou-nos um aspecto da inteligência artificial e, em particular, dos novos modelos de linguagem que se consolidaram nos últimos dois anos e que, convenhamos, nem sempre é abordado com a seriedade que merece. Estas tecnologias avançadas serão fundamentais para o nosso futuro, já o vemos hoje, mas quando se trata de interações humanas, qualquer falha pode transformar-se num enorme problema. E não estamos falando apenas de respostas incômodas, mas de consequências verdadeiramente prejudiciais .
A reação do Google e o problema de Gêmeos
Depois do que aconteceu, o Google certamente não poderia ficar calado. Em comunicado à CBS News, a empresa classificou a mensagem do Gemini como um caso extremo , causado por respostas “ absurdas ” geradas pela IA. Ok, pode acontecer que um sistema automático cometa erros, mas não estamos falando aqui de qualquer erro. As palavras usadas eram muito diretas e precisas para serem descartadas como uma simples falha. O Google se comprometeu a tomar medidas para evitar incidentes semelhantes.
O caso de Reddy é emblemático, mas infelizmente não é isolado. Nos últimos tempos, Gemini e outros chatbots têm mostrado sinais de perigosa imprevisibilidade, especialmente quando lidam com temas delicados como saúde. Como noticiou a CBS News, em julho, jornalistas descobriram que a IA do Google estava fornecendo informações incorretas e potencialmente letais sobre diversas questões de saúde , como aconselhar as pessoas a comerem “pelo menos uma pedrinha por dia” para obter vitaminas e minerais.
O desafio da responsabilidade e da segurança
Outro caso emblemático relatado pelo New York Times é o de uma mãe na Flórida. A mulher entrou com uma ação legal contra a Character.AI e o Google e os acusou de responsabilidade pela morte de seu filho de 14 anos , que supostamente tirou a própria vida após desenvolver um vínculo emocional com um chatbot que, segundo ela, o encorajou a realizar o gesto. Contudo, as questões críticas não param por aqui. Mesmo chatbots renomados como o ChatGPT da OpenAI mostraram limitações claras, incluindo erros conhecidos como “alucinações”, em que a IA inventa fatos ou fornece respostas completamente incorretas.
Isto coloca uma pressão crescente sobre os criadores e reguladores para encontrarem soluções eficazes para garantir que estas tecnologias sejam seguras, fiáveis e concebidas com a máxima atenção ao bem-estar do utilizador. Mas não basta adicionar filtros e restrições ; é também necessária uma abordagem mais profunda e consciente por parte dos utilizadores . Não esqueçamos que estamos falando de ferramentas que podem influenciar nossas vidas de maneiras às vezes inesperadas.
O artigo A IA do Google realmente disse a um usuário para morrer? foi escrito em: Tech CuE | Engenharia de perto .