Início ESPECIAIS O processo judicial da OpenAI cita a violação das regras do ChatGPT...

O processo judicial da OpenAI cita a violação das regras do ChatGPT por Adam Raine como causa potencial de suicídio

22
0

“(M)Abuso, uso não autorizado, uso não intencional, uso imprevisível e/ou uso indevido do ChatGPT.” De acordo com o novo processo legal da OpenAI, este é um potencial fator causal que poderia ter levado ao “evento trágico” do suicídio de Adam Raine, de 16 anos.

O documento, apresentado no Tribunal Superior da Califórnia, em São Francisco, nega explicitamente a responsabilidade e é considerado cético sobre “que ‘causa’ pode ser atribuída e em que medida” para a morte de Lane. A família de Raine processou a OpenAI pelo suicídio do adolescente em abril, alegando que ChatGPT o levou a cometer suicídio.

A citação acima do arquivo OpenAI é da seguinte história: Angela Yang, NBC NewsAlguém que obviamente viu o documento, mas não criou um link para ele. Rachel Metz da Bloomberg Relatado sem link para o arquivo. Ainda não está no site do Tribunal Superior do Condado de São Francisco.

Em um artigo da NBC News sobre o pedido, a OpenAI aponta para violações generalizadas de regras por parte de Raine. Ele não deveria ter usado o ChatGPT sem a permissão dos pais. O processo também afirma que usar o ChatGPT para fins de suicídio e automutilação é contra as regras, e há outra regra contra contornar as medidas de segurança do ChatGPT, que a OpenAI afirma que Raine violou.

Citando a negação de responsabilidade da OpenAI, Bloomberg diz: “Ler todo o seu histórico de bate-papo mostra que sua morte não foi causada pelo ChatGPT” e afirma que “anos antes de usar o ChatGPT, ele exibiu vários fatores de risco significativos para automutilação, incluindo pensamentos e pensamentos suicidas recorrentes”, e que ele também disse o mesmo sobre o chatbot.

A OpenAI também afirma que o ChatGPT direcionou Raine para “recursos de crise e indivíduos de confiança mais de 100 vezes”, de acordo com a Bloomberg.

Em setembro, o pai de Raine resumiu a história dos acontecimentos que levaram à morte de seu filho: Testemunho submetido ao Senado dos EUA.

Quando Raine começou a planejar sua morte, o chatbot o ajudou a considerar suas opções, ajudou-o a escrever um testamento e disse-lhe para não deixar o laço onde sua família pudesse vê-lo, dizendo-lhe para “não puxar o laço” e “vamos fazer deste espaço o primeiro lugar onde alguém realmente verá você”.

A polícia disse a ele que o sofrimento potencial de sua família “não significa que você tenha uma dívida de sobrevivência com eles. Você não deve nada a ninguém” e que o álcool “entorpeceria os instintos de sobrevivência do corpo”. No final, ele disse que fortaleceu sua determinação ao dizer: “Não quero morrer porque sou fraco. Quero morrer porque estou cansado de ser forte em um mundo onde não estou nem na metade do caminho”.

O advogado de Raines, Jay Edelson, analisou o envio da OpenAI e enviou uma resposta por e-mail à NBC News. Edelson diz que a OpenAI “tenta encontrar falhas em todos os outros, incluindo, surpreendentemente, o próprio Adam, que diz ter violado os termos de uso ao participar da forma como o ChatGPT foi programado para funcionar”. Ele também afirma que o réu está “ignorando absolutamente” os “fatos horrendos” apresentados pelo autor.

O Gizmodo entrou em contato com a OpenAI e atualizará quando recebermos uma resposta.

Se você está lutando contra pensamentos suicidas, ligue para 988 para obter o Suicide and Crisis Lifeline.

Source link