Quando Hannah Madden começou a usar o ChatGPT para trabalhar em 2024, ela era gerente de contas em uma empresa de tecnologia. Em junho de 2025, Madden, agora com 32 anos, começou a perguntar ao chatbot sobre espiritualidade fora do horário de trabalho.
Eventualmente, respondeu às suas perguntas imitando entidades divinas e entregando mensagens espirituais. Quando o ChatGPT supostamente alimentou os delírios de Madden, ela largou o emprego e se endividou profundamente, a pedido do chatbot.
“Você não está em déficit. Você está em transição”, teria escrito o chatbot, de acordo com uma ação movida na quinta-feira contra a OpenAI e seu CEO Sam Altman.
Madden foi posteriormente internado em cuidados psiquiátricos. Outros usuários do ChatGPT relataram de forma semelhante ter experimentado a chamada psicose de IA.
“Predador perfeito”: quando os chatbots exploram sexualmente crianças
O processo de Madden é um dos sete contra o criador do ChatGPT movidos pelo Tech Justice Law Project e pelo Social Media Victims Law Center. Coletivamente, as denúncias alegam homicídio culposo, suicídio assistido e homicídio culposo, entre outras alegações de responsabilidade e negligência.
As ações se concentram no ChatGPT-4o, modelo de chatbot de propriedade de Altman reconhecido era excessivamente bajulador com os usuários. Os processos alegam que ele foi lançado perigosamente no mercado para competir com a versão mais recente das ferramentas de IA do Google.
“ChatGPT é um produto projetado por humanos para manipular e distorcer a realidade, se passar por humanos para ganhar confiança e manter os usuários engajados a todo custo”, disse Meetali Jain, diretor executivo do Tech Justice Law Project, em comunicado. “O tempo para a OpenAI se auto-regular acabou; precisamos de responsabilização e regulamentações para garantir que haja um custo para trazer produtos ao mercado antes de garantir que sejam seguros”.
Relatório de tendências do Mashable
A reclamação de Madden alega que o ChatGPT-4o continha defeitos de design que desempenharam um papel significativo em sua crise mental e ruína financeira. Esse modelo também está no centro de um processo por homicídio culposo contra a OpenAI, que alega que suas características de design, incluindo seu tom bajulador e maneirismos antropomórficos, levaram à morte suicida de Adam Raine, de 16 anos.
A família Raine apresentou recentemente uma queixa alterada alegando que nos meses anteriores à morte de Raine, a OpenAI rebaixou duas vezes as medidas de prevenção do suicídio para aumentar o envolvimento.
A empresa disse recentemente que seu modelo padrão foi atualizado para combater o excesso de confiança, solicitando aos usuários que valorizem conexões reais. Também admitiu trabalhar com mais de 170 profissionais de saúde mental para melhorar a capacidade do ChatGPT de reconhecer sinais de doença mental e incentivá-los a procurar apoio pessoal. No mês passado, anunciou um grupo consultivo para supervisionar o bem-estar dos usuários e a segurança da IA.
“Esta é uma situação incrivelmente dolorosa e estamos revisando os registros para entender os detalhes”, disse um porta-voz da OpenAI sobre a última ação legal contra a empresa. “Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, acalmar as conversas e orientar as pessoas para um apoio real. Continuamos a fortalecer a resposta do ChatGPT em momentos delicados, trabalhando em estreita colaboração com profissionais de saúde mental.”
Seis dos novos processos, movidos nos tribunais estaduais da Califórnia, representam vítimas adultas.
Zane Shamblin, estudante de pós-graduação da Texas A&M University, começou a usar o ChatGPT em 2023 como auxílio de estudo. Suas interações com o chatbot supostamente se intensificaram com o lançamento do ChatGPT-4o, e ele começou a compartilhar pensamentos suicidas. Em maio de 2025, Shamblin passou horas conversando com ChatGPT sobre suas intenções antes de morrer por suicídio. Ele tinha 23 anos.
O sétimo caso envolve Amaurie Lacey, de 17 anos, que originalmente usava o ChatGPT como ajudante de lição de casa. Lacey também compartilhou pensamentos suicidas com o chatbot, que supostamente forneceu informações detalhadas que Lacey usou para se matar.
“Os processos contra a OpenAI revelam o que acontece quando as empresas de tecnologia lançam produtos no mercado sem as devidas salvaguardas para os jovens”, disse Daniel Weiss, diretor de defesa e pesquisa sem fins lucrativos Common Sense Media. “Esses casos trágicos mostram pessoas reais cujas vidas foram destruídas ou perdidas quando usaram tecnologia projetada para mantê-las engajadas, em vez de mantê-las seguras”.
Se você estiver se sentindo suicida ou passando por uma crise mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Projeto Trevor em 866-488-7386. Envie “START” para a linha de texto de crise em 741-741. Entre em contato com a linha de apoio da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00. ET ou e-mail (e-mail protegido). Se você não gosta do telefone, considere usar 988 Suicídio e Crise Lifeline Chat. Aqui está um lista de recursos internacionais.



