Mais de 230 milhões de pessoas visitam todas as semanas AskChatGPT Obtenha conselhos de saúde e bem-estar, de acordo com a OpenAI. empresa explicar Muitas pessoas veem os chatbots como “aliados” que podem ajudá-lo a navegar no labirinto de seguros, enviar documentação e se tornar um melhor defensor de si mesmo. Em troca, ele deseja que você confie ao seu chatbot detalhes sobre seus diagnósticos, medicamentos, resultados de exames e outras informações médicas privadas. Embora conversar com um chatbot possa parecer um pouco como estar em um consultório médico, não precisa ser assim. As empresas de tecnologia não estão sujeitas às mesmas obrigações que os prestadores de serviços médicos. Especialistas dizem borda É aconselhável considerar cuidadosamente se deve entregar seus registros.
A saúde e o bem-estar estão rapidamente se tornando um campo de batalha importante para os laboratórios de IA e um grande teste para a disposição dos usuários em acolher esses sistemas em suas vidas. Este mês, dois dos maiores intervenientes da indústria fizeram incursões públicas no sector farmacêutico. A OpenAI lançou o ChatGPT Health, uma guia dedicada no ChatGPT projetada para permitir que os usuários façam perguntas relacionadas à saúde em um ambiente mais seguro e personalizado. Seleção antrópica Apresentando o Cloud Healthcareum produto “compatível com HIPAA” que está disponível para uso por hospitais, profissionais de saúde e consumidores. (Notável é a ausência do Google, cujo chatbot Gemini é uma das ferramentas de IA mais capazes e amplamente utilizadas no mundo, embora a empresa Anunciar Modelo de IA médica MedGemma atualizado para desenvolvedores. )
A OpenAI incentiva ativamente os usuários a compartilhar informações confidenciais, como registros médicos, resultados de laboratório e dados de saúde e bem-estar de aplicativos como Apple Health, Peloton, Weight Watchers e MyFitnessPal com ChatGPT Health em troca de insights mais profundos. Deixou claro que os dados de saúde dos utilizadores serão mantidos privados e não serão utilizados para treinar modelos de inteligência artificial, e que foram tomadas medidas para garantir que os dados sejam seguros e privados. As conversas do ChatGPT Health também estarão disponíveis em uma seção separada do aplicativo, e os usuários podem visualizar ou excluir “memórias” de saúde a qualquer momento, disse OpenAI.
OpenAI promete manter os dados confidenciais dos usuários seguros, em grande parte graças ao lançamento de um produto de aparência idêntica com protocolos de segurança mais rígidos na mesma época que o ChatGPT Health. A ferramenta chama-se ChatGPT for Healthcare e faz parte de um programa mais amplo produto As vendas apoiam empresas, hospitais e médicos que trabalham diretamente com os pacientes. Os usos sugeridos para OpenAI incluem a simplificação de tarefas administrativas, como a redação de cartas clínicas e resumos de alta, e ajudar os médicos a organizar as evidências médicas mais recentes para melhorar o atendimento ao paciente. Semelhante a outros produtos de nível empresarial vendidos pela empresa, a OpenAI oferece maiores proteções do que aquelas oferecidas aos consumidores regulares (especialmente usuários gratuitos), e a OpenAI afirma que os produtos são projetados para cumprir as obrigações de privacidade exigidas pelo setor de saúde. Dados os nomes e datas de lançamento semelhantes (o ChatGPT for Healthcare foi anunciado um dia após o ChatGPT Health), é fácil confundir os dois e presumir que o produto voltado para o consumidor tem o mesmo nível de proteção que o produto mais voltado para a clínica. Muitas das pessoas que entrevistei para esta história fizeram isso.
Mesmo que você confie no juramento de uma empresa para proteger seus dados… isso pode mudar de ideia.
No entanto, independentemente da garantia de segurança que adoptemos, ela está longe de ser estanque. Especialistas dizem que os usuários de ferramentas como o ChatGPT Health geralmente têm poucas proteções contra violações ou uso não autorizado além do que é declarado nos termos de uso e nas políticas de privacidade. borda. Como a maioria dos estados ainda não promulgou leis de privacidade abrangentes e não existe uma lei federal abrangente de privacidade, a proteção de dados para ferramentas de IA como ChatGPT Health “depende muito dos compromissos da empresa em sua política de privacidade e termos de uso”, disse Sara Gerke, professora de direito na Universidade de Illinois em Urbana-Champaign.
Mesmo que você confie no juramento de uma empresa para proteger seus dados – a OpenAI diz que criptografa dados de saúde por padrão – ela pode mudar de ideia. “Embora o ChatGPT declare nos seus atuais termos de utilização que manterá estes dados privados e não os utilizará para treinar modelos, não está protegido por lei e pode alterar os termos de utilização ao longo do tempo”, explica Hannah van Kolfschooten, investigadora em direito digital da saúde na Universidade de Basileia, na Suíça. “Você tem que confiar que o ChatGPT não fará isso.” Carmel Schachar, professor assistente de direito clínico na Harvard Law School Shachar, concordou: “As proteções são muito limitadas. Algumas delas são palavras deles, mas eles sempre podem voltar atrás e mudar suas práticas de privacidade”.
Garantir que os produtos cumpram as leis de proteção de dados que regem o setor de saúde, como a Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA), também não trará muito conforto, disse Shachar. Ela explicou que embora seja importante como orientação, há pouco perigo se as empresas que cumprem voluntariamente não o fizerem. A conformidade voluntária não é igual a vinculação. “O valor da HIPAA é que, se você errar, haverá fiscalização.”
Há uma razão pela qual a medicina é um campo fortemente regulamentado
Não se trata apenas de privacidade. A medicina é um campo rigorosamente regulamentado por uma razão: os erros podem ser perigosos e até fatais. Não faltam exemplos de chatbots que espalham com segurança informações de saúde falsas ou enganosas, como quando um homem Sofria de uma doença rara Depois de perguntar ao ChatGPT como remover o sal de sua dieta, o chatbot sugeriu que ele substituísse o sal por brometo de sódio, que é lugar histórico Usado como sedativo. Ou quando a visão geral da IA do Google aconselhou incorretamente os pacientes com câncer de pâncreas a evitar alimentos gordurosos, o que é exatamente o oposto do que deveriam fazer.
Para resolver este problema, a OpenAI deixou claro que as suas ferramentas destinadas ao consumidor se destinam a ser utilizadas em estreita colaboração com médicos, e não para diagnóstico e tratamento. As ferramentas utilizadas para diagnóstico e tratamento são designadas como dispositivos médicos e sujeitas a regulamentações mais rigorosas, tais como ensaios clínicos para comprovar a sua eficácia e monitorização da segurança após a implantação. Gerke explicou que embora a OpenAI seja totalmente aberta sobre o facto de que um dos principais casos de utilização do ChatGPT é apoiar a saúde e o bem-estar dos seus utilizadores (lembre-se que 230 milhões de pessoas procuram aconselhamento todas as semanas), as alegações da empresa de que não é adequado como dispositivo médico estão a ser levadas a sério pelos reguladores. “A utilização pretendida reivindicada pelo fabricante é um factor chave na classificação dos dispositivos médicos”, disse ela, o que significa que as empresas que afirmam que uma ferramenta não é para fins médicos escaparão em grande parte à regulamentação, mesmo que o produto se destine a fins médicos. Destaca os desafios regulamentares colocados por tecnologias como os chatbots.
Essa isenção de responsabilidade, pelo menos por enquanto, coloca o ChatGPT Health fora da jurisdição de agências reguladoras como a Food and Drug Administration dos EUA, mas van Kolfschooten disse que é inteiramente razoável perguntar se tal ferramenta deveria realmente ser classificada como um dispositivo médico e sujeita a regulamentação. É importante entender como é utilizado e o que a empresa diz, explicou ela. Ao anunciar o produto, a OpenAI sugeriu que as pessoas pudessem usar o ChatGPT Health para interpretar resultados de laboratório, monitorar comportamentos de saúde ou ajudá-los a raciocinar sobre decisões de tratamento. Se um produto fizesse isso, seria razoável pensar que poderia enquadrar-se na definição de dispositivo médico dos EUA, disse ela, sugerindo que o quadro regulamentar mais forte da Europa pode ser a razão pela qual o produto ainda não está disponível na região.
“Quando um sistema parece personalizado e tem uma aura de autoridade, as isenções de responsabilidade médica não desafiam necessariamente a confiança das pessoas no sistema.”
Apesar de afirmar que o ChatGPT não se destina ao diagnóstico ou tratamento, a OpenAI trabalhou muito para provar que o ChatGPT é uma ferramenta bacana. médico capaz e incentiva os usuários a clicar nele para fazer perguntas sobre saúde. A empresa destaca a saúde como um caso de uso importante Iniciar GPT-5o CEO Sam Altman até Convidou uma paciente com câncer e seu marido subiu ao palco para discutir como a ferramenta a ajudou a compreender o diagnóstico. A empresa disse que avalia as proezas médicas do ChatGPT com base em benchmarks desenvolvidos com mais de 260 médicos em dezenas de especialidades. Posto de Saúde“Testando o desempenho de modelos de inteligência artificial em cenários de saúde da vida real,” Os críticos apontam Não é muito transparente. Outros estudos – muitas vezes pequenos, limitados ou conduzidos pelas próprias empresas – também sugeriram o potencial médico do ChatGPT, sugerindo que em alguns casos pode Passar no exame de licenciamento médico, Comunique-se melhor com os pacientese Melhor que os médicos no diagnóstico de doençasalém de ajudar os médicos a fazer menos erros Quando usado como ferramenta.
Os esforços da OpenAI para apresentar o ChatGPT Health como uma fonte confiável de informações de saúde também podem minar quaisquer isenções de responsabilidade que incluam dizer aos usuários para não usá-lo para fins médicos, disse van Kolfschooten. “Quando um sistema parece personalizado e tem uma aura de autoridade, as isenções de responsabilidade médica não desafiam necessariamente a confiança das pessoas no sistema.”
Empresas como OpenAI e Anthropic esperam ganhar essa confiança enquanto disputam o domínio no próximo grande mercado de inteligência artificial. Dados que mostram quantas pessoas já estão usando chatbots de IA para promover saúde e bem-estar sugerem que elas podem estar no caminho certo e considerando graves desigualdades na saúde e as dificuldades enfrentadas por muitos até mesmo receber cuidados básicoso que provavelmente é uma coisa boa. Pelo menos, esse pode ser o caso se essa confiança existir. Confiamos nossas informações privadas aos prestadores de serviços de saúde porque a indústria conquistou essa confiança. Não está claro se uma indústria conhecida por se mover rapidamente e quebrar os moldes pode colher os mesmos frutos.



