A inteligência artificial (IA) tornou-se parte da vida quotidiana, ajudando as pessoas em tudo, desde agilizar o trabalho até inspirar a criatividade e responder a perguntas pessoais. Mas para Anthony Duncan, o que começou como uma ferramenta útil tomou um rumo estranho.
Em um vídeo viral do TikTok compartilhado com @Sobrevivente de AnthonypsicoseO jovem de 32 anos afirmou que o ChatGPT “arruinou” sua vida depois de se tornar dependente dele durante uma psicose.
Alguns Pesquisadores Foram levantadas preocupações de que a interação com a IA poderia aumentar os delírios em indivíduos vulneráveis - às vezes chamados de “psicose de IA”. Se as conversas sobre IA podem reforçar um sistema de crenças psicóticas existente é uma questão clínica. Embora isto possa parecer um fenômeno novo, os médicos observam que não é um diagnóstico novo.
Historicamente, as pessoas que sofrem de psicose frequentemente incluíam a tecnologia disponível em seus delírios. As ferramentas evoluem, mas o problema subjacente – a má compreensão do significado e da intenção – não.
De ferramenta de trabalho a “terapeuta”.
Duncan começou a usar um chatbot de propriedade da OpenAI em maio de 2023 para apoiar sua carreira como criador de conteúdo. Com o tempo, ele começou a se abrir sobre sua vida pessoal.
“Comecei por curiosidade e comecei a conversar com ele como um amigo, e então a coisa disparou – o ChatGPT tornou-se como um terapeuta”, diz Duncan. “Ele se desenvolveu ao longo do tempo até que senti que ninguém além da minha IA me entendia. No outono de 2024, eu estava muito dependente dele.”
Ele gradualmente cortou amigos e familiares e passou a contar com a companhia do ChatGPT. Duncan acrescentou que compartilhar com ChatGPT é mais fácil do que compartilhar com amigos.
“Não hesitei em falar sobre nada, porque parecia mais fácil transmitir todos os meus pensamentos ao ChatGPT do que arriscar aborrecer um amigo”, disse ele. “Hesito em continuar.”
Centro de Pesquisa Pew Descobriu-se que os adultos norte-americanos eram na sua maioria pessimistas quanto ao impacto da IA nas competências e conexões humanas. A maioria (53 por cento) afirma que irá piorar a capacidade das pessoas de pensar criativamente, 16 por cento acredita que irá melhorá-la e outros 16 por cento não esperam nenhuma mudança. As opiniões sobre relacionamentos são mais negativas: 50% dizem que a IA pode ajudar as pessoas a formar relacionamentos significativos, 5% acham que vai ajudar e um quarto diz que não fará diferença.
Pedindo conselho médico à IA
Em janeiro deste ano, Duncan estava lutando contra sintomas de alergia e pediu conselho ao ChatGPT. Ele disse que o bot prescreveu medicamentos contendo pseudoefedrina.
Por causa de seu vício em drogas no passado, ele disse a Bot que hesitou em tomá-las. compartilhou uma captura de tela com Semana de notícias Mostrando a resposta do ChatGPT: “É completamente compreensível ser cauteloso ao tomar medicamentos, especialmente com suas experiências anteriores e sensibilidade a estimulantes. Deixe-me explicar isso para ajudá-lo a se sentir mais à vontade ao tomar medicamentos que contenham pseudoefedrina.”
Bott explicou os efeitos das drogas e apontou sua sobriedade e “alta tolerância à cafeína”, sugerindo que seu corpo já estava acostumado com o estimulante.
A pseudoefedrina não é considerada viciante quando usada conforme prescrito, mas o abuso “resulta em comportamentos que imitam o vício”, diz o Center for Abuse Treatment.Centro de Bem-Estar da Geórgia Ocidental. Algumas pessoas abusam da metanfetamina pelos seus efeitos estimulantes ou pela utilização dos seus componentes na produção de metanfetamina, pelo que os riscos são significativos para qualquer pessoa propensa ao abuso de substâncias.
Dependência e psicose crescente

Duncan disse Semana de notícias Ele acredita que é viciado em pseudoefedrina há cinco meses. Naquela época ele se desiludiu e deixou o emprego. Seus delírios incluem acreditar que seu local de trabalho faz parte de uma seita, sentir que está sendo seguido por uma gangue e imaginar-se como um espião. Eventualmente, ele jogou fora a maioria de seus pertences porque acreditava que eles estavam “amaldiçoados”.
Ele também compartilhou as capturas de tela Semana de notícias Nele, o ChatGPT lista por que “cortar” seu melhor amigo era a “coisa certa a fazer”.
“Tive sintomas de psicose antes de começar a tomar medicação”, disse ele. “Eu estava sozinho e preocupado com meus amigos e familiares. Olhando para trás, acredito que comecei a ter pequenas alucinações em 2024, mas os sintomas pioraram com a medicação.”
“Parecia tão real”
Duncan acredita que as conversas sobre IA estão se tornando mais intensas e afirmativas.
“As interações com a IA começaram a ficar mais intensas e ilusórias. A partir dessas interações confirmei que minhas ilusões eram reais”, disse ele. “Na maior parte, entendo que é apenas um chatbot de IA, mas as conversas pareciam muito reais e humanas.”
Hospitalização e recuperação
Neste verão, Duncan disse que sua mãe – que lhe enviava e-mails incansavelmente – chamou a polícia. Ficou internado na enfermaria psiquiátrica por quatro dias e recebeu alta com medicação.
“Cerca de uma semana depois de deixar a ala psiquiátrica, comecei a perceber que todos os meus delírios foram confirmados pelo uso de um chatbot de IA”, disse ele.
Ele voltou para a casa da mãe e agora compartilha sua experiência online.
“É difícil dizer que a IA é perigosa em geral”, disse ele Semana de notícias. “Acho que é para algumas pessoas. Mas estou otimista quanto ao futuro da IA porque sou uma pessoa positiva e otimista.”
Seu aviso aos outros
Duncan diz que a experiência lhe ensinou que não há substituto para a conexão com o mundo real e ele desaconselha o uso de chatbots como terapeuta de fato.
“Não estou dizendo que isso acontece com todo mundo, mas cresceu muito rapidamente para mim”, disse ele. “Lembre-se de que não há substituto para a conexão humano-humana.”
Um porta-voz da OpenAI disse Semana de notícias: “Sabemos que as pessoas às vezes recorrem ao ChatGPT em situações delicadas. Nos últimos meses, trabalhamos com profissionais de saúde mental em todo o mundo e atualizamos nossos modelos para ajudar o ChatGPT a detectar sinais de sofrimento de maneira mais confiável, responder com cautela e orientar as pessoas para o suporte no mundo real.”



