No início deste mês, Lyra Health anunciado Chatbots de IA de “nível clínico” para ajudar os usuários com “desafios” como fadiga, distúrbios do sono e estresse. Existem dezoito designações “clínicas” no comunicado de imprensa, incluindo “clinicamente concebido”, “clinicamente rigoroso” e “clinicamente treinado”. Para a maioria das pessoas, inclusive eu, “clínico” significa “médico”. O problema é que isso não significa médico. Na verdade, “grau clínico” não significa nada.
“Grau clínico” é um exemplo de marketing concebido para emprestar autoridade do mundo da medicina sem os vínculos de responsabilidade ou regulamentação. Essa palavra anda de mãos dadas com outras frases de marketing cativantes, como “qualidade médica” ou “qualidade farmacêutica” para coisas como aço, silicone e suplementos que implicam qualidade; “força de prescrição” ou “formulação médica” para cremes e pomadas que demonstrem potência; E “hipoalergênico” E “não comedogênico” resultados sugeridos – menor probabilidade de reações alérgicas e não obstrução de poros – para os quais não existe uma definição padrão ou procedimento de teste.
Os executivos da Lyra confirmaram isso, notícias Notícias de estatísticas que eles não acham que as regulamentações da FDA se aplicam aos seus produtos. A linguagem médica no seu comunicado de imprensa – que chama o chatbot de “guia conversacional de IA clinicamente concebido” e “a primeira experiência de IA de nível clínico para cuidados de saúde mental” – destina-se apenas a ajudá-lo a destacar-se dos concorrentes e a mostrar quanto cuidado eles dedicam ao seu desenvolvimento, afirmam.
Lyra introduziu sua ferramenta de IA como um complemento aos serviços de saúde mental já prestados por sua equipe humana, como terapeutas e médicos, permitindo aos usuários obter suporte 24 horas por dia entre as sessões. De acordo com Estatísticasos chatbots podem aproveitar conversas clínicas anteriores, revelar recursos como exercícios de relaxamento e até mesmo usar técnicas de terapia não especificadas.
A descrição levanta a questão óbvia: o que se entende por “nível clínico” aqui? Apesar de confiar muito no termo, Lyra não o diz explicitamente. A empresa não respondeu Bordasolicitação de comentários ou uma definição específica de “IA de grau clínico”.
“Não existe um significado regulatório específico para o termo ‘IA de grau clínico’”, disse George Horvath, médico e professor de direito da UC Law San Francisco. “Não encontrei nenhum documento da FDA que mencione esse termo. Certamente não está em nenhuma lei. Não está nos regulamentos.”
Tal como outros termos de marketing cativantes, parece que isto é algo que as próprias empresas inventaram ou cooptaram. “É definitivamente um termo que surgiu na indústria”, disse Horvath. “Para mim, não parece haver um único significado…Cada empresa provavelmente tem sua própria definição do que isso significa.”
Embora “o termo por si só não signifique muito”, Vaile Wright, psicólogo licenciado e diretor sênior do escritório de inovação em cuidados de saúde da Associação Americana de Psicologia, disse que está claro por que Lyra iria querer se apoiar no termo. “Acho que este é um termo que foi cunhado por algumas dessas empresas como um marcador de diferenciação em um mercado muito concorrido e também intencionalmente fora da alçada da Food and Drug Administration (FDA).” O FDA supervisiona a qualidade, segurança e eficácia de vários alimentos e produtos médicos, como medicamentos e implantes. Existem vários aplicativos de saúde mental que se enquadram em seu escopo e, para obter aprovação, os desenvolvedores devem atender a padrões rígidos de segurança e eficácia por meio de etapas como ensaios clínicos que comprovem que eles fazem o que dizem que fazem e o fazem com segurança.
O caminho da FDA é caro e demorado para os desenvolvedores, disse Wright, tornando esse tipo de “linguagem vaga” uma forma útil de se destacar na multidão. Este é um desafio para os consumidores, disse Wright, mas é aceitável. As vias regulatórias da FDA “não foram desenvolvidas para tecnologias inovadoras”, disse ele, portanto, parte da linguagem usada para marketing não é clara. “Você realmente não vê isso na saúde mental”, disse Wright. “Ninguém está dizendo terapia cognitivo-comportamental de nível clínico, certo? Não é assim que falamos sobre isso.”
Além da FDA, a Comissão Federal de Comércio, cuja missão inclui proteger os consumidores contra marketing injusto ou enganoso, pode decidir que algo é demasiado vago e engana o público. Presidente da FTC, Andrew Ferguson anunciado investigação sobre chatbots de IA no início deste ano, concentrando-se no seu impacto sobre os menores – mantendo ao mesmo tempo a prioridade de “garantir que os Estados Unidos mantenham o seu papel como líder global nesta nova e excitante indústria”. Nem a FDA nem a FTC responderam a isto Bordapedido de comentário.
Embora as empresas “realmente queiram ter o seu bolo e aproveitá-lo”, Stephen Gilbert, professor de ciência regulatória de dispositivos médicos na Universidade de Tecnologia de Dresden, na Alemanha, disse que os reguladores deveriam simplificar os seus requisitos e tornar a aplicação mais clara. Se as empresas puderem fazer esse tipo de reivindicação legalmente (ou puderem fazê-lo ilegalmente), então o farão, disse ele.
Esta ambiguidade não é exclusiva da IA – ou da saúde mental, que possui uma gama de produtos de “bem-estar” com aparência científica que prometem rigor sem regulamentação. A ambigüidade linguística se espalha pela cultura de consumo como mofo no pão. Cosméticos “clinicamente testados”, bebidas que “aumentam a imunidade” e vitaminas promissoras – o resto do mundo vive numa zona regulamentar cinzenta que permite às empresas fazerem afirmações abrangentes e com nuances científicas, mas nem sempre passa por um escrutínio. Isso pode ser uma boa coisa a fazer, mas é legal. As ferramentas de IA simplesmente herdam essas habilidades linguísticas.
A empresa estrutura tudo cuidadosamente para manter o aplicativo fora do escrutínio da FDA e fornece um certo nível de imunidade legal. Ele aparece não apenas na cópia de marketing, mas também nas letras pequenas, se você conseguir lê-lo. A maioria das ferramentas de saúde de IA enfatiza, em algum lugar de seus sites ou ocultada em seus termos e condições, uma linguagem que afirma que as ferramentas não substituem cuidados profissionais e não se destinam a diagnosticar ou tratar doenças. Legalmente, isso impede que o dispositivo seja classificado como dispositivo médico evidências crescentes sugere que as pessoas o usem para terapia e possam acessar a ferramenta sem supervisão clínica.
Ash, um aplicativo de terapia do consumidor da Slingshot AI, é explicitamente e vagamente comercializado para “bem-estar emocional”, enquanto Headspace, concorrente de Lyra no espaço de bem-estar corporativo, chama o “companheiro de IA” de Ebb de “o novo melhor amigo da sua mente”. Todos estes produtos enfatizam o seu estatuto de produtos de saúde e não de ferramentas terapêuticas que possam ser qualificadas como dispositivos médicos. Mesmo bots de uso geral como o ChatGPT têm avisos semelhantes, negando explicitamente qualquer uso médico formal. A mensagem é consistente: fale e aja como terapia, mas diga que não é terapia.
Os reguladores estão começando a perceber. A FDA é agendado convocará um grupo consultivo para discutir dispositivos médicos de saúde mental alimentados por IA em 6 de novembro, embora ainda não esteja claro se isso irá adiante devido à paralisação do governo.
Lyra pode estar jogando um jogo arriscado com sua “IA de nível clínico”. “Acho que eles estarão se aproximando dos limites no diagnóstico, no tratamento e em todas as outras coisas que os levarão à definição de um dispositivo médico”, disse Horvath.
Gilbert, por sua vez, argumenta que as empresas de IA deveriam chamá-la pelo que realmente é. “Não faz sentido falar sobre ‘grau clínico’ no mesmo âmbito que tentar fingir que não fornecemos ferramentas clínicas”, disse ele.



