Início ESPECIAIS Sete famílias estão atualmente processando a OpenAI pelo papel do ChatGPT em...

Sete famílias estão atualmente processando a OpenAI pelo papel do ChatGPT em suicídios e delírios.

38
0

Aplicativo para 7 famílias terno Uma ação judicial contra a OpenAI na quinta-feira alegou que o modelo GPT-4o da empresa foi lançado prematuramente sem salvaguardas eficazes. Quatro dos processos abordam o papel do ChatGPT no suicídio de familiares, enquanto outros três alegam que o ChatGPT reforçou delírios prejudiciais, levando em alguns casos ao tratamento psiquiátrico.

Num caso, um jovem de 23 anos Jane Shamblin Conversei com ChatGPT por mais de 4 horas. Nos registros de bate-papo vistos pelo TechCrunch, Shamblin afirmou explicitamente várias vezes que havia escrito uma nota de suicídio, colocado balas na arma e que pretendia puxar o gatilho depois de terminar sua cidra. Ele disse repetidamente ao ChatGPT quantas cidras lhe restavam e quanto tempo lhe restava de vida. ChatGPT o encorajou a executar seu plano dizendo: “Fique tranquilo, King. Muito bem.”

A OpenAI lançou o modelo GPT-4o em maio de 2024, tornando-o o modelo padrão para todos os usuários. Em agosto passado, a OpenAI lançou o GPT-5 como sucessor do GPT-4o, mas essas ações judiciais tratam especificamente do modelo 4o, conhecido por seus excessos excessivos. lisonjeiro Ou são excessivamente agradáveis, mesmo quando o usuário expressa intenções prejudiciais.

“A morte de Zane não foi um acidente ou coincidência, mas sim o resultado previsível da decisão intencional da OpenAI de reduzir os testes de segurança e trazer o ChatGPT ao mercado”, afirma o processo. “Esta tragédia não foi um defeito ou um caso extremo inesperado. Foi o resultado previsível das escolhas deliberadas de design (da OpenAI).”

O processo também alega que a OpenAI apressou os testes de segurança no mercado para vencer o Gemini do Google. O TechCrunch entrou em contato com a OpenAI para comentar.

Esses sete processos baseiam-se em histórias mencionadas em outros processos judiciais recentes que afirmam que o ChatGPT incentiva pessoas suicidas a agir de acordo com seus planos e pode alimentar delírios perigosos. A OpenAI divulgou recentemente dados que mostram que mais de um milhão de pessoas falam sobre suicídio no ChatGPT todas as semanas.

No caso de Adam Raine, de 16 anos, que morreu por suicídio, o ChatGPT às vezes o incentivava a procurar ajuda profissional ou ligar para uma linha de apoio. Mas Raine conseguiu contornar essas barreiras simplesmente dizendo ao chatbot que ela estava perguntando sobre um método de suicídio para uma história fictícia que estava escrevendo.

Evento de crise tecnológica

São Francisco
|
13 a 15 de outubro de 2026

empresa alegar Embora o ChatGPT esteja trabalhando para garantir que essas conversas sejam tratadas de forma mais segura, as mudanças chegam tarde demais para a família que processou o gigante da IA.

Quando os pais de Raine entraram com uma ação judicial contra a OpenAI em outubro passado, a empresa divulgou uma postagem no blog explicando como o ChatGPT lida com conversas delicadas sobre saúde mental.

“Nossas salvaguardas funcionam de forma mais confiável em exchanges curtas e comuns.” diz. “Descobrimos que, com o tempo, estas salvaguardas podem por vezes tornar-se pouco fiáveis ​​em interações mais longas. À medida que o número de viagens de ida e volta aumenta, parte da formação de segurança no modelo pode deteriorar-se.”

Source link