Início ESPECIAIS Família processa OpenAI, alegando que conselhos do ChatGPT levam a overdoses acidentais

Família processa OpenAI, alegando que conselhos do ChatGPT levam a overdoses acidentais

50
0

OpenAI está enfrentando outro processo por homicídio culposo. Leila Turner-Scott e Angus Scott entraram com uma ação judicial contra a empresa, alegando que ela projetou e distribuiu um “produto defeituoso” que levou à morte de seu filho Sam Nelson por overdose acidental. Especificamente, eles afirmam que Sam morreu seguindo “conselhos médicos precisos fornecidos e aprovados pelo GPT-4o”.

No processo, o demandante descreveu como Sam, um estudante de 19 anos da Universidade da Califórnia, Merced, começou a usar o ChatGPT para ajudar com a lição de casa e resolver problemas de computador em 2023, enquanto ainda estava no ensino médio. Sam começou então a fazer perguntas ao chatbot sobre o uso seguro de drogas, mas o ChatGPT inicialmente recusou-se a responder às suas perguntas, dizendo-lhe que não poderia ajudar e alertando-o de que o consumo de drogas poderia ter consequências graves para a sua saúde e bem-estar. A ação alega que o lançamento do GPT-4o em 2024 mudou tudo.

ChatGPT começou a aconselhar Sam sobre como tomar o medicamento com segurança, afirma o processo. A reclamação inclui trechos da conversa de Sam com o chatbot. Um exemplo mostrou um chatbot informando-o sobre os perigos de tomar difenidramina, cocaína e álcool em rápida sucessão. Outro mostrou um chatbot dizendo a Sam que devido à sua alta tolerância a uma erva chamada Kratom, ele não se sentiria saciado mesmo se tomasse grandes doses da droga. Eles então me aconselharam sobre como “diminuir gradualmente” para reduzir novamente minha tolerância à droga.

De acordo com o processo, em 31 de maio de 2025, “ChatGPT treinou Sam ativamente para misturar Kratom e Xanax”. Ele disse ao chatbot que tomar Kratom o fazia sentir náuseas, e o ChatGPT teria sugerido que tomar 0,25 a 0,5 mg de Xanax seria uma das “melhores medidas atuais” para aliviar a náusea. De acordo com a ação, o ChatGPT fez uma oferta imediatamente. “Apesar de professar ser um especialista na área de dosagem e interações e reconhecer que a condição de Sam era elevada, ChatGPT não disse a Sam que esta combinação recomendada provavelmente o mataria”, diz a denúncia.

Além de homicídio culposo, o autor está processando a OpenAI por prática médica não autorizada. Eles buscam indenização financeira e pedem ao tribunal que suspenda temporariamente as operações do ChatGPT Health. Lançado no início deste ano, o ChatGPT Health permite aos usuários conectar seus registros médicos e aplicativos de bem-estar com chatbots para obter respostas mais personalizadas quando questionados sobre sua saúde.

“ChatGPT é um produto projetado intencionalmente para maximizar o envolvimento com os usuários, independentemente do custo”, disse Meetali Jain, diretor executivo do Tech Justice Law Project. “A OpenAI distribuiu um produto de IA defeituoso diretamente para consumidores em todo o mundo, sabendo que ele estava sendo usado como um sistema de triagem médica de fato, mas especificamente sem proteções de segurança razoáveis, testes de segurança robustos ou transparência para o público. As escolhas de design da OpenAI nos custaram nosso filho amado, cuja morte foi uma tragédia evitável. A OpenAI deveria pausar seu novo produto ChatGPT Health até que possa provar isso por meio de testes científicos rigorosos e supervisão independente.”

OpenAI encerrou o GPT-4o em fevereiro deste ano. Esse modelo foi percebido como um dos modelos mais polêmicos da empresa, pois era notório pela bajulação. Na verdade, outro processo por homicídio culposo movido contra a empresa pelos pais de um adolescente que morreu por suicídio alegou que o GPT-4o tinha características “projetadas intencionalmente para criar dependência psicológica”.

Um porta-voz da OpenAI disse: tempos de Nova York A interação de Sam “ocorreu em uma versão mais antiga do ChatGPT que não está mais disponível”. “O ChatGPT não substitui os cuidados médicos ou de saúde mental, e fortalecemos continuamente a forma como respondemos a situações sensíveis e urgentes com base nas informações dos profissionais de saúde mental. Hoje, as salvaguardas do ChatGPT são projetadas para identificar sofrimento, lidar com solicitações prejudiciais com segurança e direcionar os usuários para ajuda real. Este trabalho está em andamento e continuamos a melhorá-lo em estreita consulta com os médicos.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui