Advogado pede desculpas por citações judiciais falsas criadas pelo ChatGPT
Tem havido muita conversa nos últimos meses sobre como a nova onda de chatbots com inteligência artificial, entre eles o ChatGPT , pode derrubar vários setores, incluindo a profissão jurídica.
No entanto, a julgar pelo que aconteceu recentemente em um caso na cidade de Nova York, parece que pode demorar um pouco até que advogados altamente treinados sejam varridos pela tecnologia.
O bizarro episódio começou quando Roberto Mata processou uma companhia aérea colombiana após alegar que sofreu uma lesão em um voo para a cidade de Nova York.
A companhia aérea Avianca pediu ao juiz que encerrasse o caso, então a equipe jurídica de Mata elaborou um documento citando meia dúzia de casos semelhantes que ocorreram em um esforço para persuadir o juiz a deixar o caso de seu cliente prosseguir, informou o New York Times .
O problema foi que os advogados da companhia aérea e o juiz não conseguiram encontrar nenhuma prova dos casos mencionados no escrito. Por que? Porque o ChatGPT os inventou.
O criador do resumo, Steven A. Schwartz – um advogado altamente experiente da empresa Levidow, Levidow & Oberman – admitiu em uma declaração juramentada que havia usado o muito celebrado chatbot ChatGPT da OpenAI para procurar casos semelhantes, mas disse que havia "revelado em si não confiável”.
Schwartz disse ao juiz que não havia usado o ChatGPT antes e “portanto, desconhecia a possibilidade de que seu conteúdo pudesse ser falso”.
Ao criar o briefing, Schwartz chegou a pedir ao ChatGPT para confirmar se os casos realmente aconteceram. O sempre prestativo chatbot respondeu afirmativamente, dizendo que as informações sobre eles podem ser encontradas em “bancos de dados jurídicos respeitáveis”.
O advogado no centro da tempestade disse que “lamenta muito” ter usado o ChatGPT para criar o documento e insistiu que “nunca o faria no futuro sem a verificação absoluta de sua autenticidade”.
Olhando para o que ele descreveu como uma submissão legal cheia de “decisões judiciais falsas, com citações falsas e citações internas falsas”, e descrevendo a situação como sem precedentes, o juiz Castel ordenou uma audiência para o início do próximo mês para considerar possíveis penalidades.
Embora impressionantes na maneira como produzem texto fluido de alta qualidade, o ChatGPT e outros chatbots semelhantes também são conhecidos por inventar coisas e apresentá-las como se fossem reais – algo que Schwartz aprendeu à sua custa. O fenômeno é conhecido como “alucinante” e é um dos maiores desafios enfrentados pelos desenvolvedores humanos por trás dos chatbots, enquanto procuram resolver esse vinco tão problemático.
Em outro exemplo recente de alucinação de uma ferramenta de IA generativa, um prefeito australiano acusou o ChatGPT de criar mentiras sobre ele, incluindo que ele foi preso por suborno enquanto trabalhava para um banco há mais de uma década.
O prefeito, Brian Hood, era na verdade um denunciante no caso e nunca foi acusado de um crime, então ele ficou bastante chateado quando as pessoas começaram a informá-lo sobre a reescrita da história pelo chatbot.