Eles estão conseguindo advogados em todo o país preso pela IA para escrever seus próprios resumos jurídicos – e as suas desculpas são ainda mais eficazes do que os casos falsos que alegavam.
Desde culpar hackers até alegar que alternar entre janelas é muito difícil, os advogados estão tentando desesperadamente impor sanções à onda de porcarias geradas por IA presas nos processos judiciais.
Mas ele está cansado de ouvir os juízes e um grupo de “vigilantes legais” garante que nenhum desses erros seja oculto.
Uma rede de advogados rastreia todos os casos de abuso de IA que podem encontrar, empilhando-os em um banco de dados público que chega a mais de 500 casos.
A base de dados mantida pelo advogado e investigador francês Damien Charlotin expõe as falsificações de citações de casos, citações falsas e advogados responsáveis. querendo envergonhar a profissão em um ato limpo.
O número de casos está aumentando, disse Charlotin ao Post na quarta-feira.
“Isso realmente acelerou desde o momento em que comecei a catalogar esses casos, talvez de alguns meses para dois ou três dias”, disse ele por e-mail.
“Acho que isso vai crescer com o tempo”, acrescentou Charlotin.
Ele disse que alguns exemplos estão simplesmente errados e que “a conscientização esperada será reduzida, mas não é dada”.
Em outros casos, a IA foi abusada por “advogados descuidados e inexperientes ou litigantes assediados”, escreveu o pesquisador.
“Eu mereço não atrapalhar”, acrescentou.
Amir Mostafavi, gerente da área de Los Angeles; foi recentemente agredido com um bysso de $ 10.000 após interpor recurso em que 21 das 23 citações de casos do ChatGPT foram feitas integralmente.
Uma desculpa? Ele disse que escreveu o apelo e pediu ao ChatGPT para “testá-lo e corrigi-lo”, sem perceber que estava adicionando citações falsas.
“Enquanto isso, teremos algumas baixas, teremos alguns danos, teremos alguns naufrágios.” Mostafavi disse ao CalMatters.
“Espero que este exemplo ajude outros a não cair no buraco. Eu pago o preço.”
A Ars Technica informou que Innocent Chinweze, um advogado baseado na cidade de Nova York, foi recentemente pego em um processo com os processos falsificados. ele disse usando o Microsoft Copilot para o escritório
Ele então alegou que seu computador havia sido hackeado e que o malware era o verdadeiro culpado.
O juiz, Kimon C. Thermos, classificou o pedido de desculpas como “inacreditável e sem sentido”.
Após a pausa para o almoço, Chinweze mudou novamente sua história de “traidor” – desta vez alegando que não sabia que a IA poderia fazer coisas.

Chinweze foi multado em US$ 1.000 e citado por conduta que afetou seriamente sua honestidade, integridade e aptidão para exercer a advocacia.
Outro advogado, o advogado do Alabama, James A. Johnson, culpou seu “erro” pela simples dificuldade de usar um laptop, de acordo com a Ars Technica.
Ele disse que estava no hospital com a família doente e sob “pressão de tempo e circunstâncias pessoais difíceis”.
Em vez de usar a ferramenta de pesquisa jurídica fornecida pela barra, ele optou por um plug-in do Microsoft Word chamado Ghostwriter Legal, que, segundo ele, “está muito longe dos programas de laptop com touchpad”.
O juiz Terry F. Moorer não ficou impressionado, observando que o Ghostwriter havia divulgado claramente o uso do ChatGPT.
O cliente de Johnson ficou ainda menos impressionado e demitiu-o imediatamente. O juiz aplicou ao advogado uma multa de US$ 5 mil, determinando que sua preguiça “apenas equivalia a má-fé”.
Tais casos estão “prejudicando a reputação do empregador”, disse Stephen Gillers, professor de ética na Faculdade de Direito da Universidade de Nova York; disse o New York Times.
Os advogados de todo o mundo deveriam ter vergonha do que os membros da sua profissão estão fazendo. Ele acrescentou.
No entanto, as desculpas para os erros da IA continuam aparecendo. Um advogado criticou seu cliente por ajudar a redigir um processo problemático. Outro afirmou que tinha “resultados de login com sua assinatura Westlaw”.
O advogado de George afirmou que ele foi “um acidente de digitadores”.
Obtendo penalidades mais altas. O advogado da Flórida, James Martin Paul, foi condenado a uma sanção de US$ 85 mil, que destruiu o crédito, por “conduta repetida, abusiva e de má-fé que não pode ser reconhecida como legítima e deve ser dissuadida”.
Quando ele argumentou que a multa era muito alta, o tribunal a rejeitou porque seus argumentos vazios “só beneficiariam os alucinógenos”.
O advogado de Illinois, William T. Panichi, foi sancionado pelo menos três vezes, descobriu a Ars Technica.
Após o primeiro julgamento, ele prometeu: “Não farei isso de novo”, há um mês, após duas ordens de sanções terem sido alcançadas.
Os juízes estão perdendo a paciência.
“Aqui, por mais direto que seja, qualquer advogado que não saiba que usar plataformas generativas de IA para conduzir pesquisas jurídicas está vivendo em chamas na nuvem”, escreveu o juiz de falências dos EUA, Michael B. Slade.
Outra juíza, Nancy Miller, era advogada da vítima, que alegou que leva apenas “7,6 segundos” para verificar a citação. Miller observou que o advogado não conseguiu aproveitar aqueles “preciosos segundos minutos” para verificar seu trabalho.
Como disse um juiz do Texas: “Em um dos tribunais mais movimentados do país, há poucas oportunidades de evitar que a IA emita citações erradas”.
A postagem buscou comentários de Mostafavi, Chinweze, Johnson, Paul e Panichi.



