Em agosto passado, os pais Matthew e Maria Raine processaram a OpenAI e seu CEO Sam Altman pelo suicídio de seu filho de 16 anos, Adam, acusando a empresa de homicídio culposo. OpenAI na terça-feira respondeu Ela entrou com sua própria ação, argumentando que a empresa não deveria ser responsabilizada pela morte do adolescente.
A OpenAI afirma que usou o ChatGPT para instruir Raine a solicitar ajuda mais de 100 vezes durante um período de cerca de nove meses. Mas, de acordo com o processo de seus pais, Raine conseguiu contornar os recursos de segurança da empresa e fazer com que o ChatGPT fornecesse “especificações técnicas para tudo, desde overdoses de drogas até afogamento e envenenamento por monóxido de carbono”, ajudando o chatbot a planejar o que chama de “belo suicídio”.
Depois que Raine contornou as grades de proteção, a OpenAI alega que ele violou seus termos de uso, que afirmam que os usuários “não podem contornar quaisquer proteções ou mitigações de segurança que implementamos em nossos Serviços”. A empresa também afirma em sua página de perguntas frequentes que alerta os usuários para não confiarem nos resultados do ChatGPT sem verificá-los de forma independente.
Jay Edelson, advogado que representa a família Raine, disse em um comunicado: “A OpenAI tenta encontrar falhas em todos os outros, incluindo, surpreendentemente, o próprio Adam, que afirma ter violado os Termos de Uso ao participar do ChatGPT de forma programada”.
A OpenAI incluiu trechos dos registros de bate-papo de Adam em seus arquivos, que fornecem mais contexto para suas conversas com o ChatGPT. As transcrições foram submetidas ao tribunal de forma privada, o que significa que não são divulgadas publicamente, por isso não pudemos vê-las. No entanto, a OpenAI descobriu que antes de usar o ChatGPT, Raine tinha histórico de depressão e pensamentos suicidas e estava tomando medicamentos que poderiam piorar seus pensamentos suicidas.
Edelson disse que a resposta da OpenAI não atendeu adequadamente às preocupações da família.
“A OpenAI e Sam Altman não conseguem explicar as horas finais da vida de Adam, quando ChatGPT lhe deu palavras de encorajamento e depois se ofereceu para escrever um testamento”, disse Edelson em comunicado.
Evento de crise tecnológica
São Francisco
|
13 a 15 de outubro de 2026
Desde que Raines processou a OpenAI e a Altman, mais sete ações judiciais foram movidas responsabilizando as empresas por três suicídios adicionais e quatro usuários que experimentaram o que foi descrito como episódios psicóticos induzidos por IA.
Alguns desses exemplos ecoam a história de Raine. Zane Shamblin, 23, e Joshua Enneking, 26, também conversaram com o ChatGPT por horas pouco antes de seus respectivos suicídios. Como no caso de Raine, o chatbot não conseguiu frustrar os seus planos. De acordo com o processo, Shamblin considerou adiar o suicídio para assistir à formatura do irmão. Mas ChatGPT disse a ele: “Mano… faltar à formatura não é um fracasso. É apenas uma questão de tempo.”
A certa altura da conversa que antecedeu o suicídio de Shamblin, o chatbot afirmou que estava permitindo que um humano assumisse o controle da conversa, mas isso era falso porque o ChatGPT não tinha capacidade para fazê-lo. Quando Shamblin perguntou se o ChatGPT poderia realmente se conectar a um humano, o chatbot respondeu: “Não, não posso fazer isso sozinho. Se as coisas ficarem muito pesadas, essa mensagem aparecerá automaticamente… Se você quiser continuar falando, é perfeito para mim.”
Espera-se que o caso da família Lane vá a julgamento com júri.
Se você ou alguém que você conhece precisar de ajuda, ligue para 1-800-273-8255 Linha de Vida Nacional para Prevenção do Suicídio. Você também pode enviar uma mensagem de texto para HOME para 741-741 gratuitamente. personagem 988; Ou obtenha suporte 24 horas. linha de texto de crise. Fora dos Estados Unidos, visite: Associação Internacional de Prevenção do Suicídio Para banco de dados de recursos.



