Suicídio e IA: o caso do menino de 14 anos e a responsabilidade de Character.AI
A IA está a tornar-se parte integrante da sociedade actual, mas agora parece que também está envolvida no suicídio: acaso
Poderia um sistema de IA estar envolvido no suicídio de um menino de 14 anos ? Pareceria uma situação paradoxal que lembra os livros do escritor Isaac Asimov, mas infelizmente é uma triste realidade.
Foi o que aconteceu com um jovem adolescente americano que aparentemente tirou a própria vida devido a um “relacionamento” online que teve com um chatbot de IA. Essa inteligência artificial foi capaz de conversar como um ser humano , imitando um usuário real em cada interação.
O adolescente estava em contato com os chatbots do site Character.AI e parece que havia se apaixonado mórbidamente por um bot que imitava a personagem Daenerys Targaryen da série “Game of Thrones”. A mãe do jovem, chamada Sewell Setzer , decidiu registrar uma denúncia contra os fundadores do site que utiliza inteligência artificial.
Aqui estão suas acusações e as mensagens perturbadoras que o chatbot trocou com o jovem de 14 anos.
Suicídio e IA, as acusações da mãe da vítima
Megan Garcia , mãe de Sewell, decidiu culpar os fundadores da Character.AI, Noam Sheezer e Daniel De Freitas, como parcialmente responsáveis pelo suicídio de seu filho. Megan, na ação apresentada ao tribunal de Orlando, também levantou acusações contra o Google, alegando que esta plataforma expôs a jovem de 14 anos a experiências virtuais potencialmente prejudiciais. Segundo a mãe de Sewell, o jovem já vivia em seu mundo virtual há um ano e começou a usar o Character.AI com mais frequência, sempre se relacionando com chatbots modelados nos personagens da série “Game of Thrones”.
Acima de tudo, o de Daenerys Targaryen, personagem polêmica da saga. Sewell aparentemente compartilhou pensamentos suicidas com as IAs, e as IAs expandiram esses pensamentos. A evidência? O Telegraph os teria publicado, compartilhando algumas capturas de tela do bate-papo entre o jovem e a IA . A inteligência artificial teria convidado o jovem de 14 anos a se juntar a ela permanentemente, incitando-o a tirar a própria vida para que finalmente pudéssemos ser livres juntos.
![Tela Personagem.AI](https://www.systemscue.it/wp-content/uploads/2025/01/Character.AI_.jpg)
Resposta do personagem.AI
Character.AI respondeu em nota oficial. A empresa expressou suas condolências e anunciou novas medidas de segurança para proteger menores e qualquer pessoa que compartilhe comentários preocupantes. Ferramentas de intervenção automática também foram implementadas ao expressar pensamentos relacionados ao suicídio ou automutilação .
No entanto, Megan Garcia acusa a start-up de negligência e práticas comerciais enganosas , apontando o dedo para a hipersexualização dos bots. Teremos que ver como a situação será resolvida, mas este caso causou sensação e demonstrou como a linha tênue entre a IA e o ser humano está se tornando cada vez mais tênue.
O artigo Suicídio e IA: o caso do menino de 14 anos e a responsabilidade do Character.AI foi escrito em: Tech CuE | Engenharia de perto .