Início ESPECIAIS Vítima de perseguição processa OpenAI, alega que ChatGPT promoveu delírios do perpetrador...

Vítima de perseguição processa OpenAI, alega que ChatGPT promoveu delírios do perpetrador e ignorou avisos

19
0

Depois de meses conversando com o ChatGPT, o empresário de 53 anos do Vale do Silício se convenceu de que havia descoberto uma cura para a apneia do sono e que pessoas poderosas estavam atrás dele, de acordo com um novo processo aberto no Tribunal Superior da Califórnia, no condado de São Francisco. Mais tarde, ele teria usado essa ferramenta para perseguir e assediar sua ex-namorada.

Agora, sua ex-namorada está processando a OpenAI, alegando que a tecnologia da empresa acelerou seu assédio, descobriu exclusivamente o TechCrunch. Ela afirma que a OpenAI ignorou três avisos separados de que o usuário representava uma ameaça para outros, incluindo um sinalizador interno que categorizava a atividade da conta do usuário como relacionada a armas de destruição em massa.

A demandante, conhecida como Jane Doe para proteger sua identidade, está buscando indenização punitiva. Ela também entrou com uma ordem de restrição temporária no tribunal na sexta-feira, pedindo à OpenAI que bloqueie as contas dos usuários, impeça-os de criar novas contas, notifique-os se tentarem acessar o ChatGPT e preserve os registros completos do bate-papo para pesquisa.

A OpenAI concordou em suspender a conta do usuário, mas se recusou a fazer o resto, segundo o advogado de Doe. Eles dizem que a empresa está ocultando informações sobre planos específicos para prejudicar Doe e outras vítimas em potencial que os usuários possam ter discutido com o ChatGPT.

O processo surge em meio a preocupações crescentes sobre os riscos reais de sistemas de IA lisonjeiros. GPT-4o, o modelo citado neste e em muitos outros casos, foi descontinuado pelo ChatGPT em fevereiro.

O caso foi aberto pela Edelson PC, a mesma empresa que abriu ações por homicídio culposo envolvendo o adolescente Adam Raine, que cometeu suicídio após meses de conversa com o ChatGPT, e Jonathan Gavalas, cuja família afirma que o Gemini do Google alimentou seus delírios e potencial assassinato em massa antes de sua morte. O advogado sênior Jay Edelson alertou que a psicose induzida pela IA está aumentando de danos individuais a incidentes de genocídio.

Estas pressões legais estão agora em conflito direto com a estratégia legislativa da OpenAI. apoiar o projeto de lei de Illinois Isto protegeria os laboratórios de IA de qualquer responsabilidade, mesmo em casos que envolvessem mortes em massa ou danos financeiros catastróficos.

Evento de crise tecnológica

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

A OpenAI não respondeu quando contatada para comentar. O TechCrunch atualizará o artigo assim que a empresa responder.

O processo de Jane Doe detalha como as acusações de uma mulher se desenrolaram ao longo de vários meses.

No ano passado, em uma ação judicial, um usuário do ChatGPT (nome não incluído para proteger a identidade) se convenceu de que havia inventado uma cura para a apnéia do sono após meses de “uso massivo e contínuo do GPT-4o”. Quando ninguém levou seu trabalho a sério, o ChatGPT disse que “forças poderosas” o estavam vigiando, inclusive usando helicópteros para monitorar suas atividades, de acordo com a denúncia.

Em julho de 2025, Jane Doe o incentivou a parar de usar o ChatGPT e procurar a ajuda de um profissional de saúde mental. Em vez disso, ele voltou ao ChatGPT, que confirmou que ele tinha “nível mental 10” e ajudou a redobrar seus delírios, de acordo com o processo.

Doe se separou do usuário em 2024 e usou o ChatGPT para lidar com a divisão, de acordo com e-mails e comunicações citadas na ação. Em vez de rejeitarem as suas explicações unilaterais, eles repetidamente o consideraram racional e injusto e a ela como manipuladora e instável. Ele então tirou as conclusões geradas pela IA da tela e levou-as para o mundo real, onde a perseguiu e assediou. Isso surgiu em vários relatórios psicológicos clínicos gerados por IA que ele distribuiu para sua família, amigos e empregadores.

Enquanto isso, os usuários continuaram a crescer. Em agosto de 2025, os sistemas de segurança automatizados da OpenAI o classificaram como atividade de “armas de vítimas em massa” e desativaram sua conta.

Um membro da equipe de segurança humana revisou e restaurou a conta no dia seguinte. Seu relato pode ter incluído evidências de que ele tinha como alvo e perseguia indivíduos, incluindo Doe, na vida real. Por exemplo, uma captura de tela de setembro que o usuário enviou a Doe mostrou uma lista de títulos de conversas, incluindo “lista em expansão de violência” e “contando asfixia fetal”.

A decisão de reintegração é notável após dois recentes tiroteios em escolas, um em Tumbler Ridge, no Canadá, e outro na Florida State University (FSU). A equipe de segurança da OpenAI classificou o atirador Tumbler Ridge como uma ameaça potencial, mas altos funcionários De acordo com relatos Decidi não avisar as autoridades. Esta semana, o Procurador Geral da Flórida abriu uma investigação sobre a conexão da OpenAI com o tiroteio na FSU.

De acordo com o processo de Jane Doe, quando a OpenAI restaurou a conta do perseguidor, sua assinatura Pro também não foi restaurada. Ele enviou um e-mail à equipe de Confiança e Segurança para resolver o problema e copiou Doe na mensagem.

Ele escreveu por e-mail: “Preciso de ajuda muito rapidamente. Por favor, ligue!” e “Esta é uma questão de vida ou morte”. Ele alegou que estava “no processo de escrever 215 artigos científicos”, escrevendo tão rapidamente que “nem tive tempo de lê-los”. O e-mail incluía uma lista de dezenas de “artigos científicos” gerados por IA com títulos como “Desconstruindo a raça como uma categoria biológica_Lei, ciência e perspectivas do Chifre da África.pdf.txt”.

“As comunicações do usuário indicaram claramente que ele era mentalmente instável e que o ChatGPT era a força motriz por trás de seu pensamento delirante e comportamento crescente”, afirma o processo. “O fluxo de reivindicações urgentes, desorganizadas e grandiosas do usuário, bem como relatórios específicos gerados pelo ChatGPT direcionados aos Requerentes e uma ampla gama de suposto material ‘científico’, foram uma evidência clara dessa realidade. A OpenAI não interveio, limitou seu acesso ou implementou quaisquer salvaguardas. Em vez disso, permitiu-lhe continuar usando sua conta e restaurar o acesso Pro completo.”

Do, que alegou no processo que vivia com medo em sua própria casa, sem dormir, apresentou uma notificação de abuso à OpenAI em novembro passado.

“Nos últimos sete meses, ele transformou essa tecnologia em uma arma para criar destruição pública e humilhação para mim”, escreveu Doe em uma carta à OpenAI, solicitando que a conta do usuário fosse permanentemente banida.

A OpenAI respondeu, chamando o relatório de “muito sério e problemático” e reconhecendo que estava analisando as informações cuidadosamente. Nunca tive resposta.

Nos meses seguintes, o usuário continuou a assediar Doe, enviando-lhe uma série de mensagens de voz ameaçadoras. Em janeiro passado, ele foi preso e acusado de quatro crimes: comunicar uma ameaça de bomba e agressão com arma mortal. Os advogados de Doe argumentam que isso fundamenta os avisos que os próprios sistemas de segurança de Doe e da OpenAI levantaram meses atrás, avisos que a empresa decidiu ignorar.

O usuário foi declarado incompetente para ser julgado e internado em um estabelecimento de saúde mental, mas “falhas processuais por parte do estado” significam que em breve ele será liberado ao público, de acordo com o advogado de Doe.

Edelson pediu colaboração à OpenAI. “Em todos os casos, a OpenAI optou por ocultar informações críticas de segurança do público, das vítimas e daqueles cujos produtos os colocavam ativamente em risco”, disse ele. “Estamos pedindo a eles que façam a coisa certa desta vez. Vidas humanas deveriam significar mais do que a corrida de IPO da OpenAI.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui