Um escritório de advocacia da cidade de Nova York, nos EUA, usou citações falsas criadas pelo ChatGPT em um processo, o que rendeu à firma uma multa de US$ 5 mil (R$ 23,87 mil). De acordo com a Reuters, os advogados Steven Schwartz e Peter LoDuca usaram de “má fé, conduziram atos de evitação consciente e fizeram afirmações desinformativas à corte”.
Essencialmente, os advogados do escritório Levidow, Levidow & Oberman, envolvidos na situação usaram o ChatGPT, a ferramenta de inteligência artificial (IA) generativa da OpenAI, para redigirem a documentação inicial de um processo. Nessa documentação, eles posicionaram casos jurídicos passados que, em tese, sustentariam seus argumentos legais. O problema: os casos jurídicos citados não existem.
A situação remete a uma série de avisos que especialistas em inteligência artificial já publicaram em vários canais: embora uma ferramenta bastante útil para a obtenção de informações, o ChatGPT não deve ser usado como “atalho” em situações onde uma bibliografia mais extensa e um estudo mais aprofundado sejam necessários.
Além disso, diversos estudos mostraram que o ChatGPT, quando exposto a exames universitários ou provas de cunho advocatício, apresentou desempenho mediano, com alguns casos rendendo uma aprovação “na trave”. Ou seja, a ferramenta quase falhou.
O escritório Levidow, Levidow & Oberman emitiu um comunicado onde “respeitosamente” discordou da afirmação do juiz da condenação, P. Kevin Castel:
“Nós cometemos um erro de boa fé ao acreditarmos equivocadamente que uma ferramenta tecnológica poderia estar inventando casos específicos dentro de um padrão jurídico.”
Os dois advogados em questão não responderam aos pedidos de comentários vindos da Reuters, que reportou o caso em primeira mão. Os advogados dos advogados, por outro lado, afirmaram estarem “analisando a decisão” do juiz, mas não informaram se haverá intenção de recorrer.
Vale citar, no entanto, que Schwartz, um dos advogados, admitiu em maio que usou o ChatGPT em um processo movido por um de seus clientes contra a empresa aérea Avianca, acusando a companhia de “dano pessoal” – a natureza do “dano” não foi divulgada.
A Avianca alertou o juiz sobre o uso do ChatGPT na criação da documentação do processo ao perceber que os casos citados como base argumentativa não existiam. Questionados pela corte e pela própria Avianca, os advogados “continuamente mantiveram suas afirmações”.
Créditos: TecMasters