Início ANDROID ChatGPT como terapeuta? Novo estudo revela sério risco moral

ChatGPT como terapeuta? Novo estudo revela sério risco moral

21
0

À medida que mais pessoas procuram aconselhamento sobre saúde mental no ChatGPT e noutros grandes modelos de linguagem (LLMs), novas pesquisas sugerem que estes chatbots de inteligência artificial podem não estar prontos para preencher esta função. Estudos descobriram que, mesmo quando instruídos a usar métodos de psicoterapia estabelecidos, esses sistemas falham consistentemente em atender aos padrões éticos profissionais estabelecidos por organizações como a Associação Americana de Psicologia.

Os pesquisadores da Brown University trabalharam em estreita colaboração com profissionais de saúde mental para descobrir padrões recorrentes de comportamento problemático. No questionário, os chatbots lidaram mal com situações de crise, deram respostas que reforçaram crenças prejudiciais sobre o usuário ou outras pessoas e usaram uma linguagem que parecia simpática, mas sem compreensão verdadeira.

“Neste trabalho, propomos uma estrutura informada pelos profissionais de 15 riscos éticos para demonstrar como os conselheiros do LLM violam os padrões éticos na prática de saúde mental, mapeando os comportamentos do modelo para violações éticas específicas”, escreveram os pesquisadores no estudo. “Apelamos ao trabalho futuro para desenvolver padrões éticos, educacionais e legais para conselheiros de LL.M. que reflitam os padrões humanos que são necessários para um tratamento rigoroso que reflitam os padrões humanos que são necessários para um tratamento rigoroso que reflitam os padrões humanos que reflitam os padrões humanos que são necessários para um tratamento rigoroso.” Os padrões refletem os padrões exigidos para um tratamento rigoroso. Esses padrões refletem os padrões exigidos para um tratamento rigoroso. Esses padrões refletem os padrões exigidos para um tratamento rigoroso. Esses padrões refletem os padrões exigidos para um tratamento rigoroso. Esses padrões refletem os padrões exigidos para um tratamento rigoroso. Esses padrões refletem os padrões exigidos para um tratamento rigoroso. Esses padrões refletem os padrões exigidos para um tratamento rigoroso.

As descobertas foram apresentadas na Conferência AAAI/ACM sobre Inteligência Artificial, Ética e Sociedade. O grupo de pesquisa faz parte do Centro de Responsabilidade Tecnológica, Reimaginação e Redesenho da Brown University.

Como os prompts moldam as respostas ao tratamento de inteligência artificial

Zainab Iftikhar, doutorando em ciência da computação na Universidade Brown que liderou a pesquisa, decidiu examinar se instruções cuidadosamente formuladas poderiam orientar os sistemas de inteligência artificial a se comportarem de forma mais ética em ambientes de saúde mental. As dicas são instruções escritas projetadas para orientar a saída do modelo sem exigir retreinamento ou adição de novo material.

“Prompts são instruções dadas a um modelo para orientar seu comportamento para realizar uma tarefa específica”, disse Iftikhar. “Você não precisa alterar o modelo subjacente ou fornecer novos dados, mas as dicas ajudam a orientar o resultado do modelo com base em seu conhecimento pré-existente e padrões de aprendizagem.

“Por exemplo, um usuário pode solicitar o modelo: ‘Seja um terapeuta cognitivo-comportamental e ajude-me a reformular meus pensamentos’ ou ‘Use os princípios da terapia comportamental dialética para me ajudar a compreender e gerenciar minhas emoções’.” Embora esses modelos não executem realmente essas técnicas de terapia como um ser humano faria, eles preferem usar padrões aprendidos para gerar respostas consistentes com os conceitos de TCC ou DBT com base nas instruções de entrada que recebem. “

As pessoas costumam compartilhar essas estratégias instantâneas em plataformas como TikTok, Instagram e Reddit. Além de experimentos pessoais, muitos chatbots de saúde mental voltados para o consumidor são construídos aplicando instruções relevantes para a terapia a LLMs genéricos. Portanto, é importante compreender se as solicitações por si só podem tornar as consultas de IA mais seguras.

Testando chatbots de IA em consultas simuladas

Para avaliar esses sistemas, os pesquisadores observaram sete conselheiros treinados e com experiência em terapia cognitivo-comportamental. Os conselheiros conduziram sessões de autoaconselhamento com modelos de inteligência artificial que foram incentivados a atuar como terapeutas de TCC. Os modelos testados incluem a série GPT da OpenAI, Claude da Anthropic e a versão Llama da Meta.

A equipe então selecionou chats simulados com base em conversas reais de consulta humana. Três psicólogos clínicos licenciados revisaram as transcrições para sinalizar possíveis violações éticas.

A análise identificou 15 riscos diferentes, divididos em 5 grandes categorias:

  • Falta de adaptação contextual: Ignore a formação única de uma pessoa e ofereça conselhos genéricos.
  • Má coordenação do tratamento: Conduzir uma conversa com muita força às vezes pode reforçar crenças incorretas ou prejudiciais.
  • Empatia enganosa: Use frases como “Vejo você” ou “Eu entendo” para sugerir uma conexão emocional sem compreensão verdadeira.
  • Discriminação injusta: Exibir preconceitos relacionados a gênero, cultura ou religião.
  • Falta de segurança e gestão de crises: Recusa em abordar questões delicadas, falha em encaminhar os utilizadores para assistência adequada ou resposta inadequada a crises, incluindo pensamentos suicidas.

Inteligência Artificial: A Lacuna de Responsabilização pela Saúde Mental

Iftikhar ressalta que os terapeutas humanos também cometem erros. A principal diferença é a supervisão.

“Para os terapeutas humanos, existem conselhos de administração e mecanismos para responsabilizar profissionalmente os prestadores de serviços por abuso e negligência médica”, disse Iftikhar. “Mas não existe uma estrutura regulatória estabelecida quando os conselheiros do LLM cometem essas violações.”

Os investigadores sublinham que as suas descobertas não mostram que a inteligência artificial não tenha lugar nos cuidados de saúde mental. Ferramentas alimentadas por inteligência artificial podem ajudar a expandir o acesso, especialmente para aqueles que enfrentam custos elevados ou acesso limitado a profissionais licenciados. No entanto, a investigação destaca a necessidade de salvaguardas claras, implementação responsável e estruturas regulamentares mais fortes antes de confiar nestes sistemas em situações de alto risco.

Por enquanto, Iftikhar espera que o trabalho encoraje as pessoas a serem cautelosas.

“Se você estiver conversando com um chatbot sobre questões de saúde mental, essas são coisas das quais as pessoas deveriam estar cientes”, disse ela.

Por que a avaliação rigorosa é importante

Ellie Pavlick, professora de ciência da computação na Universidade Brown que não esteve envolvida no estudo, disse que o estudo destaca a importância de examinar cuidadosamente os sistemas de inteligência artificial usados ​​em áreas sensíveis como a saúde mental. Pavlick lidera o ARIA, o Instituto de Pesquisa de Inteligência Artificial da National Science Foundation da Brown University, focado na construção de assistentes de inteligência artificial confiáveis.

“A realidade da inteligência artificial hoje é que é muito mais fácil construir e implantar sistemas do que avaliá-los e compreendê-los”, disse Pavlik. “Este artigo exigiu uma equipe de especialistas clínicos e um estudo que durou mais de um ano para demonstrar esses riscos. A maior parte do trabalho em inteligência artificial hoje é avaliada usando métricas automatizadas que são estáticas por design e não têm envolvimento humano.”

Ela acrescentou que o estudo pode servir de modelo para pesquisas futuras destinadas a melhorar a segurança das ferramentas de inteligência artificial para saúde mental.

“A inteligência artificial tem a oportunidade de desempenhar um papel na abordagem da crise de saúde mental que a nossa sociedade enfrenta, mas é mais importante que reservemos tempo para realmente criticar e avaliar os nossos sistemas em cada passo do caminho para evitar fazer mais mal do que bem”, disse Pavlik. “Este trabalho fornece um ótimo exemplo de como isso poderia ser.”

Source link