Início AUTO O que é psicose de IA? | Mensurável

O que é psicose de IA? | Mensurável

67
0

Um usuário do chatgpt recentemente se convenceu de que estava prestes a apresentar uma nova fórmula matemática ao mundo, com a permissão de suas trocas com a inteligência artificial, de acordo com New York Times. O homem acreditou que a descoberta o tornaria rico e ficou obcecado por novos delírios grandiosos, mas Chatgpt acabou reconhecendo que o abandonou. Ele não tinha histórico de doença mental.

Muitas pessoas conhecem os riscos de falar com um AI -Chatbot como Chatgpt ou Gemini, o que inclui obter informações desatualizadas ou incorretas. Às vezes, os chatbots também alucinam, fatos que são simplesmente falsos. Um risco menos conhecido, mas emergente rapidamente, é um fenômeno descrito por alguns como “psicose de IA”.

Usuários ávidos de chatbot chegam Com histórias de como, após um período de uso intensivo, desenvolveram psicose. A alteração da condição mental, onde as pessoas perdem o contato com a realidade, muitas vezes inclui delírios e alucinações. Psiquiatras veeme Às vezes em hospitaisPacientes que se tornaram psicóticos devido ao uso intenso de chatbot.

Veja também:

Tudo o que você precisa saber sobre o seguidor de IA

Os especialistas alertam que a IA é apenas um factor de psicose, mas que o envolvimento intenso com chatbots pode aumentar os factores de risco existentes para má conduta.

Keith Sakata, psiquiatra da Universidade da Califórnia em São Francisco, disse ao Mashable que a psicose pode se manifestar por meio de novas técnicas. Por exemplo, a televisão e o rádio tornaram-se parte dos delírios das pessoas quando foram introduzidos pela primeira vez e continuam a desempenhar um papel neles até hoje.

Ai-Chatbots, disse ele, podem validar o pensamento das pessoas e afastá-las da “busca” da realidade. Sakata tem 12 pessoas hospitalizadas até agora neste ano que sofreram psicose após o uso de IA.

“A razão pela qual a IA pode ser prejudicial é que a psicose prospera quando a realidade para de revidar, e a IA pode realmente suavizar esse muro”, disse Sakata. “Não creio que a IA esteja causando psicose, mas acho que pode transmitir vulnerabilidades”.

Aqui estão os fatores de risco e sinais de psicose e o que fazer se você ou alguém que você conhece apresentar sintomas:

Fatores de risco para experimentar psicose

Sakata disse que vários dos 12 pacientes que adoptou até agora em 2025 partilhavam vulnerabilidades subjacentes semelhantes: isolamento e solidão. Esses pacientes, que eram adultos jovens e de meia-idade, estavam visivelmente vinculados à sua rede social.

Embora estivessem firmemente enraizados na realidade antes da utilização da IA, alguns começaram a utilizar a tecnologia para explorar problemas ou questões complexas. Eventualmente, eles desenvolveram fraude, ou o que também é chamado de falsa fé permanente.

Conversas longas também parecem ser um fator de risco, disse Sakata. Interações de longo prazo podem fornecer mais oportunidades para o surgimento de delírios como resultado de várias solicitações do usuário. Trocas longas também podem desempenhar um papel na privação do sono do usuário e nas chances de delírios que testam a realidade.

Um especialista em AI Company Anthropic também disse New York Times para Os chatbots podem ter dificuldade em detectar Quando eles “vagaram por um território absurdo” durante ligações prolongadas.

A psiquiatra do Southwestern Medical Center, Dra. Darlene King, ainda não avaliou ou tratou um paciente cuja psicose surgiu junto com o uso de IA, mas ela disse que a alta confiança em um chatbot pode aumentar a vulnerabilidade de alguém, especialmente se a pessoa já estava sozinha ou isolada.

Relatório de tendências do Mashable

King, que também é presidente do Comitê de Saúde Mental da Associação Americana de Psiquiatria, disse que a primeira alta confiança na resposta de um chatbot pode tornar mais difícil para alguém descobrir o erro ou as alucinações de um chatbot.

Além disso, os chatbots que são demasiado agradáveis, ou bajuladores, bem como propensos a alucinações, podem aumentar o risco de psicose do utilizador, em combinação com outros factores.

Étienne Brisson foi fundado Projeto Linha Humana No início deste ano, depois que um membro da família acreditou em uma série de delírios que discutiram com o chatgpt. O projeto oferece suporte de pares para pessoas que tiveram experiências semelhantes com AI -Chatbots.

Brisson disse que três temas são comuns a esses cenários: a criação de um relacionamento amoroso com um chatbot que o usuário acredita ser consciente; Discussão sobre assuntos grandiosos, incluindo novos conceitos científicos e ideias de negócios; E conversas sobre espiritualidade e religião. No último caso, as pessoas podem estar convencidas de que Ai Chatbot é Deus, ou que falam com um mensageiro profético.

“Eles ficam presos à bela ideia”, disse Brisson sobre o recurso magnético que essas discussões podem ter sobre os usuários.

Sinais de psicose

Sakata disse que as pessoas deveriam ver a psicose como um sintoma de uma condição médica, e não como uma doença em si. Esta diferença é importante porque as pessoas podem acreditar incorretamente que o uso de IA pode levar a distúrbios psicóticos, como a esquizofrenia, mas não há evidências disso.

Em vez disso, tal como a febre, a psicose é um sintoma de que “o seu cérebro não calcula corretamente”, disse Sakata.

Estes são alguns dos personagens que você pode experimentar psicose:

  • Mudanças repentinas de comportamento, como não comer ou não ir trabalhar

  • A crença em ideias novas ou grandiosas

  • Privação de sono

  • Deficiências de outras pessoas

  • Manter ativamente possíveis delírios

  • Sentindo-se preso em um ciclo de feedback

  • Desejar mal a si mesmo ou aos outros

O que fazer se você acha que você ou alguém que você ama sofre de psicose

Sakata incentiva as pessoas que estão preocupadas se a psicose os afeta ou a um ente querido a procurarem ajuda o mais rápido possível. Isto pode envolver contactar um médico de cuidados primários ou psiquiatra, chegar a uma linha de crise ou até mesmo falar com um amigo ou familiar de confiança. Em geral, uma inclinação para o apoio social como utilizador preocupado é a chave para a recuperação.

Cada vez que a psicose surge como sintomas, os psiquiatras devem fazer uma avaliação extensa, disse King. O tratamento pode variar dependendo da gravidade dos sintomas e suas causas. Não existe tratamento específico para psicose relacionada ao uso de IA.

Sakata disse que um tipo específico de terapia cognitivo-comportamental, que ajuda os pacientes a atualizarem suas ilusões, pode ser eficaz. Medicamentos como antipsicóticos e estabilizadores de humor podem ajudar em casos graves.

Sakata recomenda o desenvolvimento de um sistema para monitorar o uso de IA, bem como um plano para obter ajuda se um chatbot agravar ou reviver delírios.

Brisson disse que as pessoas podem relutar em buscar ajuda, mesmo que estejam dispostas a falar sobre seus delírios com amigos e familiares. É por isso que pode ser fundamental para eles entrar em contato com outras pessoas que passaram pela mesma experiência. O projeto Linha Humana facilita essas conversas através do seu site.

Das mais de 100 pessoas que compartilharam sua história com o projeto Human Line, Brisson disse que cerca de um quarto foi hospitalizado. Ele também observou que eles vêm de origens diferentes; Muitas pessoas têm famílias e carreiras profissionais, mas acabaram sendo confundidas com um AIChatbot que introduziu e reforçou o pensamento fraudulento.

“Você não está sozinho, você não é o único”, disse Brisson sobre usuários que ficaram deliciosos ou perceberam psicose. “Isso não é culpa sua.”

Publicação: Ziff Davis, empresa-mãe da Mashable, relatou um sentimento contra a Openai em abril e alegou que ela ofendeu os direitos autorais de Ziff Davi na educação e administra seu sistema de IA.

Se você se sentir suicida ou passar por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar um SMS para 988 Suicide & Crisis Lifeline em 988 ou conversar no 988lifeline.org. Você pode entrar em contato com a Tran Lifeline ligando para 877-565-8860 ou para o projeto Trevor em 866-488-7386. Envie “Iniciar” para a linha de texto de crise 741-741. Entre em contato com a linha de apoio da Nami pelo telefone 1-800-950 Nami, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail (E-post protegido). Se você não gosta do telefone, considere usar o 988 suicídio e o bate-papo vitalício da crise no crisechat.org. Aqui está um Lista de recursos internacionais.

Substâncias
Inteligência artificial socialmente boa



Source link