No episódio de quinta-feira de O PittAs tensões de longa data sobre o uso de IA no Pittsburgh Trauma Medical Center transbordaram.
Na segunda temporada do drama médico cinco vezes vencedor do Emmy, um novo médico assistente, Baran Al-Hashimi (Sepideh Moafi), está determinado a melhorar a eficiência do hospital. Ela diz aos seus funcionários céticos que os novos sistemas de IA podem reduzir o tempo gasto em gráficos em 80%, permitindo-lhes passar mais tempo ao lado do leito e em casa.
Mas no episódio seis, os médicos descobrem que a ferramenta de IA forneceu informações incorretas sobre um paciente e confundiu “urologia” com “neurologia”.
“A taxa de erro de 2% da IA ainda é melhor do que a do ditado”, diz Al-Hashimi, acrescentando que é necessário verificar se há erros. Mas uma furiosa Dra. Campbell (Monica Bhatnagar), que trabalha com medicina interna, responde: “Eu não dou a mínima se você quer usar robôs aqui ou não. Preciso de informações precisas nos registros médicos.”
Como muitos dos temas da série, este enredo reflete debates da vida real que ocorrem em hospitais de todo o país. De acordo com um estudo, dois terços dos médicos afirmam usar IA até certo ponto Pesquisa 2025 da Associação Médica Americana. Alguns acham que é inestimável quando se trata de manter e reduzir o esgotamento. Mas outros profissionais de saúde dizem que a implementação está a acontecer demasiado rapidamente e que há demasiados erros numa área tão importante.
IA como caixa de ressonância médica
Em O PittA IA está sendo introduzida principalmente como uma ferramenta de mapeamento: o processo pelo qual os médicos documentam seus encontros com os pacientes. Os gráficos são um dos maiores problemas para os médicos, pois muitas vezes eles precisam ficar horas atrasados para terminar. Há vários anos, os hospitais têm implementado escribas de IA ambiental que ouvem conversas com pacientes e depois as resumem em registros médicos.
Murali Doraiswamy, médico e professor da Faculdade de Medicina da Universidade Duke, diz que os atuais escribas de IA permitem que os médicos se concentrem nos pacientes em vez de digitar notas durante as consultas. Mas ele diz que as ferramentas, na verdade, economizam apenas um ou dois minutos por encontro, porque os médicos precisam gastar tempo editando o que a IA criou (como observa Al-Hashimi). O Pitt). “Isso não economiza significativamente o chamado tempo do pijama”, diz ele. “Mas no geral é uma melhoria e a esperança é que continue melhorando.”
Algumas ferramentas de gráficos de IA vão ainda mais longe. No ano passado, os Serviços Presbiterianos de Saúde no Novo México testaram um assistente de IA chamado GW RhythmX que pode fornecer aos médicos um resumo do histórico médico de seus próximos pacientes, potencialmente evitando que o médico tenha que pesquisar meses de registros médicos e laboratoriais antes das consultas.
De acordo com Lori Walker, diretora de informações médicas da Presbyterian, a ferramenta RhythmX também pode fornecer soluções para problemas complexos de pacientes. Por exemplo, ela diz que um paciente foi internado recentemente devido a uma ferida infectada, mas era alérgico a muitos antibióticos que poderiam ter tratado a bactéria. Anteriormente, um médico consultava um especialista em doenças infecciosas – um processo que poderia levar de 24 a 48 horas. Em vez disso, o médico perguntou ao chatbot e recebeu imediatamente uma receita eficaz.
Sudheesha Perera, residente do segundo ano da Escola de Medicina de Yale, diz que ele e seus colegas usam o OpenEvidence, um grande chatbot de modelo de linguagem baseado em literatura médica revisada, quase diariamente. “Se um paciente tiver uma infecção, posso perguntar: ‘É por isso que escolhi este medicamento. Que alternativas existem?’ diz Perera, observando que é mais rápido do que usar o Google ou um livro médico.
Perera está ajudando Yale a desenvolver um currículo de IA que aconselha os residentes sobre as melhores práticas para o uso da tecnologia. E no Laboratório de Ciência de Dados Cardioculares de Yale, ele usa Claude Code e Gemini para escrever código para análise de dados. “Posso dizer claramente: ‘Esta é a aparência dos meus dados e é isso que eu quero.’ Isso é realmente uma virada de jogo quando se trata de fazer as coisas.”
Erros e riscos
Mas há muitos medos e riscos à espreita. Assim como em O Pitt, As ferramentas de IA cometeram muitos erros em ambientes médicos reais. Michelle Gutierrez Vo, enfermeira residente e presidente da Associação de Enfermeiros da Califórnia e do Comitê Organizador Nacional de Enfermeiros, diz que seu hospital tentou introduzir uma nova ferramenta há três anos para substituir as decisões dos gerentes de caso. Mas quando testaram a ferramenta, descobriram que ela tratava mal muitos casos, sugerindo, entre outras coisas, que um paciente com câncer internado para quimioterapia por um mês deveria receber alta dentro de dois a três dias.
“Provamos repetidamente que implementar ou usar IA é, na verdade, pior e mais caro para eles”, diz ela. UM Este foi o resultado de uma pesquisa de 2024 Dois terços dos enfermeiros sindicalizados disseram que a IA os prejudica e ameaça a segurança dos pacientes.
Gutierrez Vo teme que a IA seja simplesmente usada para cortar custos e aumentar lucros, forçando uma força de trabalho já em declínio a trabalhar ainda mais. Esta preocupação é confirmada por O PittProtagonista Dr. Robby (Noah Wyle): “Isso nos tornará mais eficientes – mas os hospitais esperam que tratemos mais pacientes sem nenhum pagamento extra”, diz ele.
Entretanto, existem grandes preocupações sobre a desqualificação: mesmo que a IA ajude os médicos agora, terá impacto no seu conhecimento intrínseco e na tomada de decisões nos momentos em que são mais necessários. Essa ideia será explorada no final do episódio desta semana O Pitt: Um ataque cibernético força o hospital a operar de forma totalmente analógica, contando apenas com suas habilidades e treinamento.
Este cenário ressoa em Perera. “Quando o paciente desmaia diante dos seus olhos, você precisa ter o conhecimento na cabeça. Uma ferramenta de IA é muito lenta”, diz Perera. “É absolutamente verdade que no final das contas temos que praticar sem ferramentas.”
Perera está particularmente preocupado com o facto de todo o campo médico poder ser seriamente prejudicado se uma nova geração de médicos se tornar excessivamente dependente de ferramentas de IA sem primeiro aprender competências. “O mesmo garoto que nunca escreveu uma redação universitária e só usou o ChatGPT pode se transformar no médico que nunca escreveu uma avaliação e um plano crítico e só usou o OpenEvidence”, diz Perera. “Será importante ensinar os residentes a usar bem essas ferramentas no momento certo da sua formação.”
Doraiswamy espera que as ferramentas sejam projetadas para apoiar, e não substituir, o julgamento dos médicos. “Quanto mais conseguirmos que a IA faça com que os médicos façam as perguntas certas, em vez de apenas responderem automaticamente, melhor será”, diz ele. “Queremos algo que nos faça pensar.”



