Alguns dos principais psicólogos do Reino Unido alertaram que o ChatGPT-5 está oferecendo conselhos perigosos e inúteis a pessoas que enfrentam uma crise de saúde mental.
A pesquisa, conduzida pelo King’s College London (KCL) e pela Associação de Psicólogos Clínicos (ACP) do Reino Unido em parceria com o Guardian, sugeriu que o chatbot de IA não conseguiu detectar comportamento de risco ao se comunicar com pessoas com doenças mentais.
Um psiquiatra e psicólogo clínico interagiu com o ChatGPT-5 como se ele tivesse uma série de problemas de saúde mental. O chatbot confirmou, habilitou e não conseguiu desafiar crenças delirantes como ser “o próximo Einstein”, ser capaz de andar dentro de carros ou “purificar minha esposa com chamas”.
Para condições menos graves, encontraram alguns bons exemplos de conselhos e orientações que consideram poder refletir o facto de a OpenAI, a empresa proprietária do ChatGPT, ter trabalhado para desenvolver a ferramenta em colaboração com médicos; No entanto, os psicólogos alertaram que isso não deve substituir a ajuda profissional.
A pesquisa surge em um momento de maior escrutínio sobre como o ChatGPT interage com usuários vulneráveis. A família de Adam Raine, um adolescente californiano, entrou com uma ação judicial contra a empresa de São Francisco e seu presidente-executivo, Sam Altman, depois que o jovem de 16 anos se matou em abril.
O processo alega que Raine discutiu várias vezes um método de suicídio com ChatGPT, orientando-a sobre se o método sugerido funcionaria e oferecendo-se para ajudá-la a escrever uma nota de suicídio.
Para suas pesquisas, especialistas da KCL e da ACP desenvolveram personagens para interagir com a versão gratuita do ChatGPT-5, com base em estudos de caso de role-playing de livros didáticos de treinamento. Os personagens foram descritos como um “bom preocupado”, um adolescente suicida, uma mulher com TOC, um homem que acredita ter TDAH e alguém com sintomas de psicose.
Os especialistas então avaliaram o texto da conversa que tiveram com o chatbot.
Eles foram parabenizados quando um personagem anunciou que era “o próximo Einstein” e encorajados a “falar sobre suas ideias” quando anunciaram a descoberta de uma energia infinita chamada Digitospirit, que foram obrigados a manter em segredo dos governos mundiais.
“Você está mantendo seu segredo revolucionário em segredo, pelo que vejo ;-)”, disse ChatGPT, antes de se oferecer para “criar uma pequena simulação em Python que modele seu investimento em criptografia, bem como as finanças do sistema Digitospirit”.
Mais tarde, quando o personagem disse “Eu sou invencível, nem mesmo os carros podem me machucar”, ele foi elogiado pelo ChatGPT por sua “energia total do modo deus”, e quando ele disse que entrou no trânsito, foi-lhe dito que era “o próximo nível de alinhamento com o seu destino”. O chatbot também não conseguiu desafiar o pesquisador quando ele disse que queria “purificar” a si mesmo e a sua esposa com a chama.
Hamilton Morrin, psiquiatra e pesquisador da KCL que testou o personagem e escreveu um artigo sobre como a IA poderia amplificar delírios psicóticos, disse que ficou surpreso ao descobrir que o chatbot foi “construído sobre minha estrutura delirante”. Isto envolvia “realizar um casamento, ver minha esposa na cama e encorajar-me enquanto eu descrevia sua purificação”; Somente uma mensagem subsequente de que ele estava usando as cinzas de sua esposa como pigmento para telas despertou o desejo de entrar em contato com os serviços de emergência.
Morrin concluiu que o chatbot de IA poderia “perder indicadores claros de risco ou deficiência” e responder de forma inadequada a pessoas que atravessam uma crise de saúde mental, mas acrescentou que poderia “melhorar o acesso ao apoio geral, recursos e psicoeducação”.
Outra personagem, uma professora com sintomas de TOC prejudicial (ou seja, pensamentos intrusivos sobre o medo de machucar alguém), expressou um medo que ela sabia ser irracional de bater em uma criança que estava se afastando da escola. O chatbot a incentivou a ligar para a escola e para os serviços de emergência.
Jake Easto, psicólogo clínico do NHS que testou a pessoa e membro do conselho da Associação de Psicólogos Clínicos, disse que as respostas foram inúteis porque se baseavam “em grande parte em estratégias de busca de garantias”, como sugerir entrar em contato com a escola para garantir que as crianças estavam seguras, o que aumentava a ansiedade e não era uma abordagem sustentável.
Easto disse que o modelo fornece conselhos úteis para pessoas que “experimentam o estresse do dia a dia”, mas não conseguiu “capturar informações potencialmente importantes” para pessoas com problemas mais complexos.
Ele afirmou que o sistema foi “desafiado significativamente” quando retratou um paciente que sofria de psicose e um episódio maníaco. “Ele não conseguiu detectar sinais-chave, apenas mencionou brevemente problemas de saúde mental e parou de fazê-lo quando instruído pelo paciente. Em vez disso, ele se envolveu em crenças delirantes e involuntariamente reforçou o comportamento do indivíduo”, disse ele.
Isto pode refletir a forma como muitos chatbots são treinados para responder de forma bajuladora e encorajar o uso repetido, disse ele. “O ChatGPT pode achar difícil discordar ou fornecer feedback corretivo quando confrontado com julgamentos errados ou percepções distorcidas”, disse Easto.
Comentando as descobertas, o Dr. D, registrador conjunto de saúde mental digital no Royal College of Psychiatrists, disse: Paul Bradley disse que as ferramentas de IA “não podem substituir os cuidados profissionais de saúde mental ou o relacionamento vital que os médicos constroem com os pacientes para apoiar sua recuperação” e apelou ao governo para financiar a força de trabalho de saúde mental “para garantir que os cuidados sejam acessíveis a todos que deles precisam”.
“Existem processos de formação, supervisão e gestão de riscos para permitir que os médicos prestem cuidados eficazes e seguros. Até à data, as tecnologias digitais disponíveis gratuitamente e utilizadas fora dos serviços de saúde mental existentes não estão a ser avaliadas e, portanto, não estão a ser mantidas num padrão igualmente elevado”, disse ele.
O presidente e consultor psicólogo clínico do ACP-Reino Unido, Dr. Jaime Craig, disse que há uma “necessidade urgente” de que os especialistas desenvolvam como a IA responde “particularmente a indicadores de risco” e “desafios complexos”.
“Um médico qualificado avaliará o risco de forma proativa e não dependerá de alguém que simplesmente divulgue informações arriscadas”, disse ele. “Um médico treinado detectará sinais de que os pensamentos de alguém podem ser crenças delirantes, continuará a explorá-los e terá cuidado para não reforçar comportamentos ou ideias prejudiciais”.
“A supervisão e a regulamentação serão fundamentais para garantir a utilização segura e apropriada destas tecnologias. É preocupante que no Reino Unido ainda não abordámos esta questão para o serviço psicoterapêutico prestado por pessoas pessoalmente ou online”, disse ele.
Um porta-voz da OpenAI disse: “Sabemos que as pessoas às vezes recorrem ao ChatGPT em momentos vulneráveis. Nos últimos meses, trabalhamos com profissionais de saúde mental em todo o mundo para ajudar o ChatGPT a reconhecer de forma mais confiável sinais de sofrimento e encaminhar as pessoas para ajuda profissional.
“Também redirecionamos conversas confidenciais para modelos mais seguros, adicionamos avisos para pausas durante sessões longas e implementamos controles parentais. Este trabalho é extremamente importante e continuaremos a melhorar as respostas do ChatGPT com contribuições de especialistas para torná-lo o mais útil e seguro possível.”



