Um processo judicial contra a ChatGPT alega que a empresa aconselhou um atirador sobre como e onde atacar.
O procurador-geral da Flórida abriu uma investigação criminal contra a OpenAI, alegando que o ChatGPT ajudou a planejar o massacre na Universidade Estadual da Flórida, que matou duas pessoas no ano passado.
Segundo o The Washington Post , o Procurador-Geral James Uthmeier fez o anúncio em uma coletiva de imprensa na terça-feira, alegando que o chatbot forneceu conselhos táticos ao suspeito do tiroteio. "O chatbot aconselhou o atirador sobre o tipo de arma a ser usada, qual munição era adequada para cada arma e se uma arma seria útil ou não em curta distância", disse Uthmeier.
Ele também não se conteve quanto às implicações: "Se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de assassinato". Seu gabinete também enviou intimações à OpenAI, solicitando que a empresa explique suas políticas sobre como lida com conversas de usuários que envolvem ameaças de violência.
A OpenAI é responsável pelo que os usuários fazem com ela?
A OpenAI reagiu com firmeza. A porta-voz Kate Waters afirmou: "O massacre ocorrido no ano passado na Universidade Estadual da Flórida foi uma tragédia, mas o ChatGPT não é responsável por esse crime terrível."
A empresa afirma que o ChatGPT forneceu respostas factuais a perguntas que podiam ser encontradas em qualquer lugar na internet e que não incentivou nem promoveu atividades ilegais.
Será isto apenas o começo?
Esta investigação faz parte de uma crescente preocupação em torno dos chatbots de IA . A OpenAI já está sob escrutínio após um massacre no Canadá e vários processos judiciais movidos por famílias que alegam que o ChatGPT contribuiu para o suicídio de seus entes queridos.
Especialistas em IA apontam que os mecanismos de proteção dos chatbots são imperfeitos. Como disse Ramayya Krishnan, professor da Carnegie Mellon: "Os mecanismos de proteção não são 100% eficazes".
Cabe aos tribunais decidir se a OpenAI pode ser responsabilizada criminalmente, mas ninguém pode negar que esses chatbots de IA podem ter sérias implicações para a saúde mental de uma pessoa e, portanto, devem ser usados com extrema cautela.

