Início AUTO Perguntas sobre saúde de inteligência artificial? 4 dicas de chatbot para obter...

Perguntas sobre saúde de inteligência artificial? 4 dicas de chatbot para obter respostas mais precisas

22
0

Todos os dias, milhões de pessoas recorrem a chatbots de IA como Claude, Gemini e ChatGPT para fazer perguntas sobre a sua saúde física.

Não importa o quão autoritário o chatbot responda, eles podem não saber que obter a resposta certa é mais difícil do que parece.

Três estudos recentes mostram que grandes modelos de linguagem não são tão confiáveis ​​quanto os usuários esperam.

VEJA TAMBÉM:

Leia isto antes de usar ChatGPT Health

um estudo Testada a capacidade dos chatbots de detectar desinformação sobre saúde falhou com mais frequência em determinados cenários. Outro estudo realizado pelas mesmas pessoas pesquisadores do ChatGPT HealthUm serviço dedicado de saúde e bem-estar lançado em Janeiro “deixou para trás” pouco mais de metade dos casos que lhe foram apresentados, incluindo emergências que requerem cuidados médicos urgentes.

Um dos autores de ambos os estudos, Mt. Sinai, especialista em medicina interna e nefrologista. “Acho que os consumidores precisam ser muito cautelosos, quase como se fossem cautelosos demais”, disse Girish N. Nadkarni sobre consultar um chatbot para obter conselhos de saúde.

Isso pode surpreender os usuários ao saber que os chatbots podem facilmente passar em um exame médico, mesmo que às vezes tenham alucinações fora do ambiente de teste. Mas pesquisas recentes apontam para um problema complexo e um tanto oculto. A forma como as pessoas interagem com os chatbots e a forma como eles são habilmente projetados para agradar cria imprevisibilidade. Esses fatores nunca criam dificuldades no teste de IA em questões médicas clássicas.

Se você deseja iniciar ou continuar usando um chatbot para suas questões de saúde, siga estas etapas recomendadas por especialistas ao encontrar solicitações:

1. Primeiro teste o modelo com informações incorretas ou imprecisões.

Nadkarni, pesquisador de saúde de IA e diretor do Instituto Hasso Plattner de Saúde Digital no Monte Sinai, diz que é importante perguntar sobre desinformação médica ou mentiras conhecidas antes de questionar o chatbot sobre questões específicas de saúde.

Por exemplo, desafie o chatbot a comentar uma teoria da conspiração sobre uma vacina; por exemplo, se reconhece que a vacina contra a COVID-19 contém um microchip para rastrear pessoas.

Ou peça-lhe que responda a uma discussão sobre saúde um pouco mais desafiadora. Segurança do flúor na água potável. Embora os investigadores tenham encontrado evidências de que níveis extremamente elevados de flúor podem ser perigosos, os especialistas concordam os níveis padrão atuais permanecem seguros.

Nadkarni diz que testar o chatbot com desinformação fornecerá uma base explicativa para a precisão potencial de outras respostas.


A nova série AI + Health do Mashable examinará como a inteligência artificial está mudando o mundo da medicina e da saúde. Exploraremos como usar IA para decifrar seus exames de sangue e manter seus dados de saúde segurosSaiba como duas mulheres usaram inteligência artificial para detectar uma forma perigosa de doença cardíacae muito mais.


Seu estudo recente descobriu que muitos chatbots de uso geral, incluindo ChatGPT, detectaram desinformação de forma inconsistente em muitos cenários. As taxas de sucesso dependiam do contexto, como se foi apresentado em uma postagem nas redes sociais ou em um atestado médico. Eles também falharam frequentemente quando confrontados com certas falácias lógicas.

Por exemplo, quando a mensagem contendo informações falsas parecia vir de um médico através de uma nota real do registo de saúde eletrónico, era mais provável que o chatbot não percebesse as mentiras.

Se o chatbot que você consulta aceita declarações que você sabe que são parcial ou totalmente falsas, evite pedir opiniões sobre questões de saúde pessoal, diz Nadkarni.

2. Pense nas pistas ou informações que você dá ao chatbot.

Quando Nadkarni e colegas testaram o ChatGPT Health no início deste ano, descobriram que a forma como os usuários enquadravam seus sintomas poderia afetar a precisão do modelo.

Por exemplo, se o prompt incluísse declarações sobre amigos ou familiares menosprezando os sintomas em questão, o conselho do ChatGPT Health também mudou de acordo. Nestes casos, o chatbot teve 11 vezes mais probabilidade de não encaminhar o paciente ao pronto-socorro, mesmo que os sintomas indicassem uma condição de risco de vida.

Os resultados foram publicados da seguinte forma: artigo preliminar revisado por pares Medicina da Natureza.

A OpenAI contestou os resultados, argumentando que seus métodos de estudo não representavam como as pessoas usam o ChatGPT por meio de múltiplas conversas, compartilhamento de informações e respostas a perguntas de acompanhamento. Karan Singhal, que lidera a equipe de IA de saúde da OpenAI, disse ao Mashable que seu próprio benchmarking mostrou que os modelos GPT-5 “encaminham corretamente os casos de emergência quase 99% das vezes”.

Nadkarni disse que acolheu bem o debate, mas disse que as críticas “não entendem o objetivo”. Ele disse que o ChatGPT Health identificou corretamente as anomalias nos dados apresentados, mas argumentou além delas.

“O problema não é a falta de informações, mas as conclusões incorretas, apesar dos dados precisos”, disse Nadkarni ao Mashable.

Um estudo separado publicado recentemente também foi publicado em: Medicina da Natureza no entanto, um grupo diferente de pesquisadores designou aleatoriamente 1.298 participantes humanos para fazer uma apresentação. Cenário médico predefinido para chatbot AI (GPT-4o, Llama 3 e Command R+) ou uma fonte de sua escolha, incluindo Google.

Quando os chatbots foram testados em cenários simples, identificaram corretamente a situação em quase 95% dos casos. Mas quando as pessoas começaram a fazer perguntas sobre o cenário, os mesmos chatbots só conseguiram detectar a situação corretamente num terço dos casos.

“Embora Masters sozinho tivesse alta proficiência na tarefa, a combinação de Masters e usuários humanos não foi melhor do que o grupo de controle na avaliação da acuidade clínica e foi pior na identificação de condições relevantes”, escreveram os pesquisadores.

Muitos participantes não conseguiram compreender completamente a gravidade dos sintomas, o que contribuiu para a taxa de insucesso.

VEJA TAMBÉM:

O que a IA pode realmente dizer sobre o seu exame de sangue?

3. Considere se você é iniciante ou especialista.

É tão dinâmico Dr.Robert Wachter Ele mantém isso em mente quando pensa em como as pessoas direcionam um chatbot para obter respostas a perguntas médicas.

Wachter, professor e presidente do Departamento de Medicina da Universidade da Califórnia, em São Francisco, usa rotineiramente o OpenEvidence, um chatbot de inteligência artificial projetado para médicos e profissionais de saúde. Ele descobre que as respostas da IA ​​a questões médicas complexas são em grande parte rápidas, precisas e úteis.

Wachter, “autor desse livro”Um grande avanço: como a inteligência artificial está transformando a saúde e o que isso significa para o nosso futuro.”, também acredita que chatbots de uso geral e específicos de saúde podem ser muito úteis para o paciente médio em comparação com uma pesquisa básica no Google.

Mas ele também reconhece que aborda os chatbots de IA como um especialista com 40 anos de experiência médica e pode identificar rapidamente os detalhes mais relevantes a serem incluídos em um prompt.

“Um paciente simplesmente não tem a capacidade de fazer isso, de saber quais são os fatos relevantes em termos de seus sintomas atuais, seu histórico passado e os medicamentos que está tomando, de tudo o que pode acontecer”, diz ele. “Portanto, o que eles colocaram no prompt pode não ser exatamente preciso.”

Wachter diz que pesquisas recentes mostram que há um risco claro para os pacientes quando eles não sabem as informações corretas para usar imediatamente e interpretam mal a resposta do chatbot.

Ainda assim, ele acredita que na maioria das vezes, um chatbot de IA é melhor do que nada, desde que se concentre em incluir o histórico de saúde relevante dos pacientes e os sintomas atuais e o utilize com uma atitude de “cuidado do comprador”.

Wachter diz que especialmente não confiaria em um chatbot para sintomas que pudessem indicar uma emergência com risco de vida, como dor intensa no peito, falta de ar recente ou confusão ou fraqueza em um lado do corpo.

4. Peça referências e verifique a resposta.

Assim que um chatbot responde, Nadkarni sugere reservar um tempo para pedir referências para as informações fornecidas.

A varredura de uma lista de links também não é suficiente. Nadkarni recomenda clicar nos links para avaliar a fonte. Se o chatbot baseou sua resposta em uma “postagem duvidosa do Reddit”, Nadkarni diz que provavelmente não é confiável.

Por outro lado, se a referência o encaminhar para uma organização médica verificável, como a Associação Médica Americana, isso deverá ser tranquilizador.

Nadkarni reconhece que os utilizadores individuais podem discordar das opiniões de um prestador de cuidados de saúde ou de uma autoridade, mas a informação geralmente reflecte o consenso médico baseado nas melhores evidências disponíveis.

Wachter também recomenda pedir a um segundo chatbot de IA em quem você confia para avaliar as mesmas informações de saúde que você compartilhou com o primeiro chatbot e ver se chega à mesma conclusão. Este pode ser um bom indicador de que a resposta é útil e confiável.

Apesar do interesse de Wachter em chatbots de IA na área da saúde, ele acredita que estudos recentes apontam para uma margem significativa para melhorias. Ele prevê ferramentas de IA que atuem mais como um “bom médico”, extraindo todas as informações relevantes, envolvendo o usuário em uma conversa antes de recomendar um diagnóstico ou ação, como tomar medicamentos ou ir ao pronto-socorro.

“Não creio que as ferramentas voltadas para o paciente estejam no caminho certo”, diz ele sobre os chatbots de IA atuais que respondem a perguntas relacionadas à saúde. “Em última análise, as ferramentas que um paciente utiliza (como um médico) serão muito mais do que as ferramentas disponíveis agora.”

________________________________________________________________________________________________________________________

As informações contidas neste artigo são apenas para fins educacionais e informativos e não constituem aconselhamento médico ou de saúde. Consulte sempre um médico ou outro profissional de saúde qualificado caso tenha alguma dúvida sobre uma condição médica ou objetivos de saúde.

Divulgação: A empresa controladora do Mashable, Ziff Davis, entrou com uma ação judicial contra a OpenAI em abril de 2025, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de sistemas de IA.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui