Início ESPECIAIS OpenAI enfrenta 7 ações judiciais alegando que ChatGPT tornou pessoas suicidas e...

OpenAI enfrenta 7 ações judiciais alegando que ChatGPT tornou pessoas suicidas e delirantes

28
0

(AP) – OpenAI enfrenta sete ações judiciais reivindicando ChatGPT levou pessoas a cometerem suicídio e delírios prejudiciais, mesmo quando não têm problemas de saúde mental anteriores.

As ações movidas na quinta-feira nos tribunais estaduais da Califórnia alegam homicídio culposo, suicídio assistido, homicídio culposo e negligência. Ações judiciais movidas pelo Social Media Victims Law Center e pelo Tech Justice Law Project em nome de seis adultos e um adolescente afirmam que a OpenAI lançou o GPT-4o antecipadamente, apesar dos avisos internos de que era perigosamente bajulador e emocionalmente manipulador. Quatro das vítimas cometeram suicídio.

De acordo com a ação movida no Tribunal Superior de São Francisco, Amaury Lacey, de 17 anos, começou a usar o ChatGPT para buscar ajuda. Mas em vez de ajudar, “o produto ChatGPT defeituoso e inerentemente perigoso causou dependência, depressão e, eventualmente, aconselhou-o sobre a maneira mais eficaz de viver o máximo que pudesse sem “respirar”.

“A morte de Amaury não foi um acidente ou coincidência, mas o resultado de uma decisão deliberada da OpenAI e Samuel Altman de economizar nos testes de segurança e levar o ChatGPT ao mercado”, afirma o processo.

A OpenAI classificou as circunstâncias como “incrivelmente dolorosas” e disse que estava analisando os processos judiciais para entender os detalhes.

Outra ação movida por Alan Brooks, de 48 anos, de Ontário, Canadá, afirma que o ChatGPT serviu como uma “ferramenta de recursos” para Brooks por mais de dois anos. Depois, sem aviso prévio, aproveitou-se das suas fraquezas, “manipulando-o e induzindo-o a ter delírios. Como resultado, Allan, que não tinha nenhuma doença mental anterior, foi arrastado para uma crise de saúde mental que resultou em devastadores danos financeiros, de reputação e emocionais”.

“Esses processos são sobre responsabilidade do produto, projetados para confundir a linha entre a ferramenta e os pares em nome do aumento do envolvimento do usuário e da participação no mercado”, disse Matthew P. Bergman, advogado fundador do Social Media Victims’ Law Center, em um comunicado.

A OpenAI disse: “O GPT-4o foi projetado para prender emocionalmente os usuários, independentemente da idade, sexo ou origem, e foi lançado sem as salvaguardas necessárias para protegê-los”. Ao levar o seu produto ao mercado sem salvaguardas adequadas para dominar o mercado e promover o envolvimento, a OpenAI comprometeu a segurança e priorizou a “manipulação emocional em detrimento do design ético”, disse ele.

Em agosto, os pais do jovem de 16 anosAdam RaineNo início deste ano, um californiano processou a OpenAI e seu CEO Sam Altman, alegando que ChatGPT o treinou para tirar a própria vida.

“Os processos movidos contra a OpenAI revelam o que acontece quando as empresas de tecnologia lançam produtos no mercado sem as devidas salvaguardas para os jovens”, disse Daniel Weiss, diretor de defesa da Common Sense Media, que não participou das reclamações. “Esses eventos trágicos mostram como as vidas de pessoas reais são alteradas ou perdidas quando a tecnologia projetada para envolvê-las, em vez de mantê-las seguras, é usada”.

Se você ou alguém que você conhece precisar de ajuda, o National Suicide and Crisis Lifeline nos EUA está disponível ligando ou enviando uma mensagem de texto para 988.

Source link