ChatGPT fornece informações falsas em um documento legal
O uso do ChatGPT e da inteligência artificial no setor jurídico levantou questões sobre sua confiabilidade e a necessidade de supervisão humana. Um dos casos mais recentes destaca a história de um advogado que usou o ChatGPT para coletar informações para um processo legal, mas enfrentou consequências imprevistas.
O desafio de usar o ChatGPT no setor jurídico
O caso em questão envolve o advogado Steven Schwartz, do escritório de advocacia Levidow and Oberman. Schwartz decidiu usar o ChatGPT para fazer uma pesquisa aprofundada sobre casos semelhantes ao de seu cliente, Roberto Mata . O cliente havia processado a companhia aérea colombiana Avianca após uma lesão no joelho causada por um carrinho durante um voo regular. No entanto, o uso do ChatGPT resultou em informações errôneas e fabricadas, que foram apresentadas como prova no processo legal.
Usando o ChatGPT em um caso legal
O advogado Steven Schwartz decidiu usar o ChatGPT para convencer o juiz federal a não arquivar o caso de seu cliente, Roberto Mata. No entanto, o uso do ChatGPT levou a resultados enganosos e consequências imprevistas. Schwartz confiou ao ChatGPT a busca de casos semelhantes ao de seu cliente. Usando o chatbot, ele obteve um documento contendo uma lista de supostos casos, incluindo “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. Companhias aéreas Unidos."
Embora o advogado tenha perguntado ao ChatGPT se a informação era verdadeira,o chatbot confirmou erroneamente a sua autenticidade , afirmando que estavam presentes em bases de dados legais respeitáveis como Westlaw e LexisNexis . Posteriormente, o advogado de defesa procedeu a uma minuciosa verificação dos processos citados pelo ChatGPT. Descobriu-se que nenhum desses casos realmente existiu. Por exemplo, o caso “Varghese v. China Southern Airlines Co” acabou por ser inexistente, apesar de referenciar o caso real de “Zicherman v. Korean Air Lines Co.”.
As consequências para o advogado
O uso de informações imprecisas no processo legal prejudicou seriamente a credibilidade do advogado Schwartz. O seu depoimento, no qual diz ter perguntado ao ChatGPT se estava a mentir, não foi suficiente para mitigar as consequências jurídicas de falsas informações apresentadas em tribunal. O advogado pode enfrentar multas e o caso de Mata pode ser comprometido devido ao uso incorreto de inteligência artificial. Aliás, a responsabilidade pelo ocorrido é do advogado, que não utilizou corretamente as informações disponibilizadas pelo ChatGPT.
A apresentação de informações incorretas teve consequências para o advogado Schwartz. Ele foi indiciado por um juiz federal por apresentar provas falsas. Apesar de suas alegações de ignorância sobre a possibilidade de que a informação fosse falsa, ele foi considerado culpado.
A importância da supervisão humana no uso do ChatGPT
A história do advogado Schwartz destaca a importância de uma supervisão humana cuidadosa e responsável no uso do ChatGPT. Isso é especialmente verdadeiro no setor jurídico. A IA generativa certamente pode ser uma ferramenta útil para pesquisa e processamento de informações. Mas é vital que os advogados estejam cientes das limitações dessas tecnologias . Espera-se que os advogados usem as informações de forma ética e responsável. A supervisão humana rigorosa é essencial para evitar erros, informações falsas e consequências legais não intencionais.
A história do advogado Schwartz representa uma importante lição sobre o uso do ChatGPT no setor jurídico. É crucial que os advogados entendam as limitações da IA generativa e sejam responsáveis no uso dessas ferramentas. Mas isso geralmente se aplica a todos os setores que fazem uso do suporte da inteligência artificial. Não devemos esquecer que a inteligência artificial é apenas uma aliada preciosa, mas não pode substituir a inteligência humana. Esta história prova que a orientação e o controle humanos são essenciais para evitar consequências infelizes.
O artigo ChatGPT fornece informações falsas em um documento legal foi escrito em: Tech CuE | Engenharia de close-up .