O fracasso público de Kim Kardashian em passar nos principais exames jurídicos depois de confiar no ChatGPT para aconselhamento jurídico gerou debate sobre os perigos do uso de inteligência artificial generativa (IA) em contextos profissionais de alto nível. À medida que a adoção da IA cresce nos campos jurídico, médico e outros, a experiência da Reality Star destaca que as ilusões geradas pela IA podem minar a confiança do público, criar responsabilidades legais e enganar estudantes e profissionais de aprendizagem.
Semana de notícias Um representante da Kardashian foi contatado por e-mail para comentar o assunto na sexta-feira.
Kim Kardashian é reprovada no exame da Ordem
Kardashian – cofundador do SKIMS e aspirante a defensor – revelado em A Feira da Vaidade No início deste mês, ela usou o ChatGPT para responder questões jurídicas enquanto se preparava para os exames da faculdade de direito. Segundo Kardashian, o chatbot de IA muitas vezes fornecia respostas incorretas, o que contribuiu para sua reprovação em diversos exames jurídicos.
“Eu uso (ChatGPT) para aconselhamento jurídico, então quando quero saber a resposta para uma pergunta, tiro uma foto e coloco. Eles sempre erram. Isso me faz ser reprovado nos exames.” Tudo justo A atriz explica como as respostas confiantes, porém imprecisas, da ferramenta levaram diretamente aos seus contratempos.
A franqueza do homem de 45 anos chamou a atenção do público para uma tendência mais ampla: estudantes e profissionais jurídicos estão cada vez mais a utilizar ferramentas generativas de IA, como o ChatGPT, para pesquisar, redigir resumos e estudar para exames. Embora concebidas como máquinas de previsão e não como bases de dados reais, estas ferramentas muitas vezes parecem plausíveis, mas fornecem informações incorretas. A profissão jurídica documentou numerosos casos de advogados que apresentaram documentos judiciais contendo citações inexistentes geradas pela IA, resultando em ações disciplinares e sanções tanto nos Estados Unidos como internacionalmente.
Frustrada com suas ambições jurídicas, Kardashian anunciou planos de refazer o exame da Ordem dos Advogados da Califórnia e continuar seus estudos jurídicos, mas sua história levou especialistas a emitirem novos alertas sobre os limites da inteligência artificial em ambientes jurídicos.
Riscos do ChatGPT
“Kim Kardashian dizer que usa o ChatZip para aconselhamento jurídico é como dizer que você contratou uma bola 8 mágica como co-advogado. A IA fica confiante quando está completamente errada, e essa é uma combinação perigosa na lei”, diz Duncan Levine, ex-promotor e professor de direito na Universidade de Harvard. Semana de notícias.
“Ela não corre o risco de ser tecnicamente alfabetizada”, disse ele, mas seus milhões de seguidores “podem achar que a especialização jurídica está a apenas um passo de distância”.
“Passar na ordem requer julgamento, ética e experiência: três coisas que não faltam a nenhum algoritmo. ChatGPT pode escrever um bom argumento final, mas não o manterá fora da prisão”, disse Levine.
Matthew Sagg, professor de direito da Faculdade de Direito da Universidade Emory, enfatizou em comunicado. Semana de notícias “A IA produtiva pode ser uma ferramenta muito útil para advogados, mas apenas nas mãos de pessoas que realmente conhecem a lei.
“Tudo o que o ChatzPT lhe diz sobre a lei parece plausível, mas é perigoso se você não tiver alguma habilidade ou contexto para ver o que não é e o que é alucinação”, disse ele.
De acordo com a OpenAI, criadora do ChatGPT, as alucinações são “instâncias em que um modelo gera de forma confiável uma resposta que não é verdadeira”.
O advogado e especialista em IA Logan Brown diz Semana de notícias “ChatGPT (e outras ferramentas de IA) e muitas vezes pode estar errado.”
“Esses sistemas são realmente confiáveis mesmo quando estão desligados, e isso é perigoso se as pessoas confiarem neles para coisas sérias, como aconselhamento jurídico”, disse ela. “Usar o ChatGPT como autoridade em opções legais sem orientação confiável é realmente perigoso. É por isso que temos ordens de advogados.”
Harry Surden, professor de direito da Faculdade de Direito da Universidade do Colorado, disse: “Se alguém tiver dúvidas jurídicas, a melhor opção é perguntar a um advogado. No entanto, pesquisas mostram que quase 80% dos americanos têm problemas jurídicos, mas não têm acesso ou podem pagar um advogado. Embora não sejam necessariamente tão boas quanto um advogado, ferramentas modernas de IA como o ChatGPT geralmente fornecem respostas muito razoáveis para questões jurídicas básicas.”
Ele esclareceu: “Estritamente falando, não recomendo o uso de IA para questões jurídicas complexas e, nesses casos, as pessoas devem sempre procurar o conselho de um advogado. Mas para questões jurídicas básicas em que não há escolha de advogado, a IA é uma melhoria em relação à alternativa, que muitas vezes é adivinhada por amigos e familiares ou por maus conselhos jurídicos”.
Consequências do excesso de confiança
Mark Bartholomew, professor de direito e vice-reitor de pesquisa e desenvolvimento docente da Faculdade de Direito da Universidade de Buffalo Semana de notícias Kardashian “se sai bem”, mas “arrisca a confiança”.
“Tal como noutras áreas, a IA está a perturbar o ensino jurídico. Não há forma de isolar completamente o ensino jurídico da IA”, explicou. “A IA é delirante – pode criar casos e interpretar a lei de forma errada. Portanto, qualquer estudante de direito ou advogado responsável deve verificar novamente as respostas do chatbot às suas perguntas. Além disso, ser advogado é muito mais do que apenas procurar respostas. Os advogados têm de aprimorar suas habilidades lendo muitos casos, interpretando leis, construindo argumentos, etc. Não há substituto para fazer o trabalho sozinho.”
Anat Lior, professora assistente de direito da Escola de Direito Thomas R. Klein da Universidade Drexel, ecoou as advertências sobre a confiança: “Quando (Kardashian) discute essa parte da entrevista, ela imediatamente diz ‘eles estão sempre errados’ e sugere que o uso da ferramenta a levará ao fracasso. Qualquer pessoa que use o ChatGPT para situações de alto risco, como leitura para a ordem ou qualquer exame com consequências reais, tome cuidado. “
O “problema” emergente da IA
Frank Pasquale, professor de direito da Cornell Tech e da Cornell Law School, observou que documentos jurídicos errados gerados pela IA “já são um grande problema”.
“Muitos advogados foram sancionados por citar casos falsos, inclusive nos EUA e na Austrália. O problema só vai piorar à medida que a IA se espalhar”, disse ele.
Bartholomew concordou, observando: “Já estamos vendo muitos problemas com o uso de IA para criar documentos legais. O problema é que os advogados estão confiando nas respostas do chatbot sem validá-las e, em seguida, fornecendo resumos jurídicos elaborados de maneira desajeitada.
O que acontece a seguir?
Apesar dos riscos, os especialistas jurídicos concordam que a IA generativa estará no centro da prática profissional.
O consenso é que as ferramentas de IA servem apenas como ponto de partida – sujeitas a rigorosa verificação humana – e não como substituto de aconselhamento jurídico qualificado. Para estudantes, profissionais e o público em geral, a experiência Kardashian sublinha a necessidade crítica de abordar os resultados da IA com ceticismo e manter os padrões tradicionais de responsabilidade profissional quando vidas e meios de subsistência estão em jogo.



