A IA é útil para muitas coisas. mais produtivo Do que você realmente é. Recentemente, esta aflição espalhou-se por diversas profissões onde se poderia pensar que a ética de trabalho é um pouco melhor do que parece.
Caso em questão: advogados. Os advogados parecem adorar chatbots como o ChatGPT. Porque pode capacitá-lo no árduo trabalho de preenchimento de documentos legais. Infelizmente, como a maioria de nós sabe, os chatbots têm tendência a inventar coisas, levando a erros jurídicos que têm sérias implicações para todos os envolvidos.
tempos de Nova York Uma nova história saiu Esta tendência infeliz é que o número de casos de punição imposta a advogados que são apanhados a utilizar IA de forma desleixada está a aumentar. multado ou outros pequenos inconvenientes). Aparentemente, devido à posição da American Bar Association, é aceitável que os advogados usem IA no trabalho jurídico. Eles só precisam ter certeza de que o texto que o chatbot divulga é preciso e não está cheio de casos jurídicos fabricados. Isso parece acontecer repetidamente. Na verdade, o Times observa:
…A profissão jurídica tem se tornado cada vez mais um foco de erros de IA nos últimos meses, de acordo com documentos judiciais e entrevistas com advogados e acadêmicos. Parte disso vem de pessoas que usam chatbots em vez de contratar advogados. Jesse Schaefer, advogado da Carolina do Norte, disse que os chatbots, apesar de todas as armadilhas, podem ajudar as pessoas que se representam a “falar numa linguagem que os juízes possam compreender”. No entanto, cada vez mais casos são iniciados entre peritos jurídicos e os tribunais começam a planear sanções para pequenas multas e outras acções disciplinares.
Agora, alguns advogados estão tentando culpar outros advogados por seus erros e criando sistemas de rastreamento que possam coletar informações sobre casos que envolvem uso indevido de IA. O Times destaca o trabalho do advogado francês Damien Charlotin. banco de dados on-line Rastreie erros jurídicos relacionados à IA. Percorrer o site de Charlotin é definitivamente um pouco horrível, já que existem atualmente 11 páginas de casos envolvendo esse crânio paralisante (os pesquisadores dizem que identificaram 509 casos até agora).
“Há uma rede crescente de advogados que rastreiam abusos de IA cometidos pelos seus colegas e os publicam online”, observou o jornal. Este é um aparente esforço para envergonhar o comportamento e conscientizar as pessoas de que isso está acontecendo. No entanto, ainda não está claro se está a ter o impacto necessário. “Esses incidentes estão prejudicando a reputação dos advogados”, disse Stephen Gillers, professor de ética na Faculdade de Direito da Universidade de Nova York, ao jornal. “Os advogados de todos os lugares deveriam ter vergonha do que sua profissão faz.”



