- Um sistema de inteligência artificial utilizado para diagnosticar cancro a partir de lâminas patológicas não funciona igualmente bem em todos os pacientes, com precisão variável em diferentes grupos demográficos, mostra um novo estudo.
- Os pesquisadores identificaram três razões principais por trás desse viés e criaram um novo método para reduzir significativamente essas diferenças.
- Os resultados destacam por que a IA médica deve ser avaliada regularmente quanto a preconceitos para ajudar a garantir cuidados oncológicos justos e confiáveis para todos.
Fundamentos de Patologia e Diagnóstico de Câncer
Durante décadas, a patologia tem sido fundamental para a forma como os médicos diagnosticam e tratam o câncer. Os patologistas estudam fatias extremamente finas de tecido humano ao microscópio, procurando sinais visíveis que revelem se o câncer está presente e, em caso afirmativo, que tipo e estágio o câncer atingiu.
Para um especialista treinado, examinar uma amostra rosa e rodopiante de tecido pontilhada de células roxas é como fazer um teste sem nome – a lâmina contém informações importantes sobre a doença, mas não fornece pistas sobre quem é o paciente.
Quando a IA vê mais do que o esperado
Essa suposição não se aplica inteiramente aos sistemas de IA que agora chegam aos laboratórios de patologia. Um novo estudo liderado por pesquisadores da Harvard Medical School mostra que um modelo de inteligência artificial patológica pode inferir detalhes demográficos diretamente de seções de tecido. Esta capacidade inesperada pode distorcer o diagnóstico de câncer em diferentes populações de pacientes.
Depois de avaliar vários modelos de inteligência artificial amplamente utilizados, concebidos para identificar o cancro, os investigadores descobriram que os sistemas não funcionavam igualmente bem em todos os pacientes. A precisão do diagnóstico varia de acordo com a raça, sexo e idade relatados pelo paciente. A equipe também descobriu vários motivos para essas diferenças.
Para resolver este problema, os pesquisadores desenvolveram uma estrutura chamada FAIR-Path que reduz significativamente o viés nos modelos de teste.
“A leitura de dados demográficos de slides de patologia é considerada uma ‘tarefa impossível’ para patologistas humanos, então o preconceito da IA patológica nos surpreendeu”, disse o autor sênior Kun-Hsing Yu, professor associado de informática biomédica no HMS Blavatnik Institute e professor assistente de patologia no Brigham and Women’s Hospital.
Yu enfatizou que identificar e corrigir preconceitos na IA médica é fundamental porque pode impactar diretamente a precisão do diagnóstico e os resultados dos pacientes. O sucesso do FAIR-Path sugere que melhorar a imparcialidade da IA da patologia do cancro, bem como de outras ferramentas de IA médica, pode não exigir grandes mudanças nos sistemas existentes.
O trabalho, apoiado em parte por financiamento federal, foi publicado em 16 de dezembro na revista Cell Reports Medicine.
Testando inteligência artificial contra o câncer
Yu e colegas examinaram preconceitos em quatro modelos comuns de IA de patologia atualmente em desenvolvimento para diagnóstico de câncer. Esses sistemas de aprendizagem profunda são treinados em grandes quantidades de lâminas patológicas rotuladas, permitindo-lhes aprender padrões biológicos e aplicar esse conhecimento a novas amostras.
A equipe avaliou o modelo usando um grande conjunto de dados multiinstitucional que incluía lâminas patológicas de 20 tipos diferentes de câncer.
Em todos os quatro modelos, a lacuna de desempenho permanece. Os sistemas de IA são menos precisos para determinados grupos demográficos definidos por raça, sexo e idade. Por exemplo, estes modelos têm dificuldade em distinguir subtipos de cancro do pulmão em pacientes afro-americanos de pacientes do sexo masculino. Eles também mostraram precisão reduzida na classificação dos subtipos de câncer de mama em pacientes mais jovens. Além disso, esses modelos têm dificuldade em detectar câncer de mama, rim, tireoide e estômago em determinados grupos populacionais. No geral, essas diferenças ocorreram em aproximadamente 29% das tarefas diagnósticas analisadas.
Yu diz que esses erros ocorrem porque o sistema de IA extrai informações demográficas de imagens de tecidos e, em seguida, depende de padrões relacionados a esses dados demográficos ao tomar decisões de diagnóstico.
Os resultados foram inesperados. “Porque queremos que a avaliação patológica seja objetiva”, disse Yu. “Ao avaliar imagens, não precisamos necessariamente conhecer os dados demográficos do paciente para fazer um diagnóstico”.
Isto levou os investigadores a fazerem uma pergunta-chave: Porque é que a IA patológica não consegue cumprir o mesmo padrão de objectividade?
Por que ocorre preconceito na IA patológica
A equipe identificou três fatores principais que contribuem para o preconceito.
Primeiro, os dados de treinamento costumam ser desiguais. É mais fácil obter amostras de tecidos de alguns grupos populacionais do que de outros, resultando num conjunto de dados desequilibrado. Isto torna mais difícil para os modelos de IA diagnosticarem com precisão cancros em grupos sub-representados, incluindo alguns definidos por raça, idade ou género.
No entanto, Yu salienta que “o problema é muito mais profundo do que isso”. Em alguns casos, os modelos tiveram um desempenho pior para determinados grupos demográficos, mesmo com amostras de tamanhos semelhantes.
Análises adicionais observaram diferenças na incidência da doença. Certos cancros ocorrem com mais frequência em determinados grupos de pessoas, tornando os modelos de IA particularmente precisos para esses grupos. Portanto, o mesmo modelo pode ter dificuldade em diagnosticar o cancro numa população onde o cancro é menos comum.
Os pesquisadores também descobriram que o modelo de IA poderia detectar diferenças moleculares sutis entre diferentes grupos populacionais. Por exemplo, estes sistemas podem identificar mutações em genes causadores de cancro e utilizá-los como atalhos para classificar tipos de cancro – o que pode reduzir a precisão em populações onde estas mutações são menos comuns.
“Descobrimos que, por ser tão poderosa, a IA pode distinguir muitos sinais biológicos ambíguos que não podem ser detectados por avaliações humanas padrão”, disse Yu.
Com o tempo, isto poderá levar a que os modelos de IA se concentrem em sinais mais estreitamente relacionados com a demografia do que com a própria doença, prejudicando assim o desempenho do diagnóstico em diferentes grupos de pacientes.
Tomadas em conjunto, disse Yu, essas descobertas sugerem que o viés na IA patológica é afetado não apenas pela qualidade e equilíbrio dos dados de treinamento, mas também pela forma como o modelo treinado interpreta o que vê.
Novas maneiras de reduzir o preconceito
Depois de identificar as fontes de preconceito, os pesquisadores começaram a corrigi-las.
Eles desenvolveram o FAIR-Path, uma estrutura baseada em métodos de aprendizado de máquina existentes, chamados de aprendizado contrastivo. Esta abordagem modifica o treinamento em IA para que o modelo se concentre mais nas distinções principais, como as diferenças entre os tipos de câncer, e se concentre menos nas diferenças menos relevantes, incluindo as características demográficas.
Quando o FAIR-Path foi aplicado ao modelo de teste, a diferença diagnóstica caiu aproximadamente 88%.
“Mostramos que, ao fazer esses pequenos ajustes, os modelos podem aprender características poderosas que os tornam mais gerais e justos em diferentes populações”, disse Yu.
Ele acrescentou que os resultados são encorajadores porque mostram que o viés pode ser reduzido significativamente, mesmo sem um conjunto de dados de treinamento totalmente equilibrado ou representativo.
No futuro, Yu e sua equipe estão trabalhando com instituições de todo o mundo para estudar o viés da IA em patologia em regiões com diferentes dados demográficos, práticas clínicas e ambientes laboratoriais. Eles também estão explorando como adaptar o FAIR-Path a situações em que os dados são limitados. Outra área de interesse é compreender como os preconceitos impulsionados pela IA podem levar a disparidades mais amplas nos cuidados de saúde e nos resultados dos pacientes.
O objetivo final, disse Yu, é desenvolver sistemas de IA patológica que apoiem especialistas humanos, fornecendo diagnósticos rápidos, precisos e justos para todos os pacientes.
“Acho que se compreendermos e projetarmos sistemas de IA com mais cuidado, poderemos construir modelos que funcionem bem em todas as populações”, disse ele.
Autoria, Financiamento, Divulgação
Outros autores do estudo incluem Shih-Yen Lin, Pei-Chen Tsai, Fang-Yi Su, Chun-Yen Chen, Fuchen Li, Junhan Zhao, Yuk Yeung Ho, Tsung-Lu Michael Lee, Elizabeth Healey, Po-Jen Lin, Ting-Wan Kao, Dmytro Vremenko, Thomas Roetzer-Pejrimovsky, Lynette Sholl, Deborah Dillon, Nancy U. Lin, David Meredith, Keith L. Ligon, Ying-Chun Lo, Nipon Chaisuriya, David J. Cook, Adelheid Woehrer, Jeffrey Meyerhardt, Shuji Ogino, MacLean P. Nasrallah, Jeffrey A. Golden, Sabina Signoretti e Jung-Hsien Jiang.
O financiamento foi fornecido pelo Instituto Nacional de Ciências Médicas Gerais e pelo Instituto Nacional do Coração, Pulmão e Sangue dos Institutos Nacionais de Saúde (subsídios R35GM142879, R01HL174679), o Departamento de Defesa (Prêmio de Desenvolvimento de Carreira do Programa de Pesquisa do Câncer Revisado por Pares HT9425-231-0523), American Cancer Society (Research Scholar Grant RSG-24-1253761-01-ESED), Google Research Scholar Award, Harvard Medical School Dean’s Innovation Award, Conselho Nacional de Ciência e Tecnologia de Taiwan (concedido a NSTC 113-2917-I-006-009, 112-2634-F-006-003, 113-2321-B-006-023, 114-2917-I-006-016) e bolsa de doutorado da New Miao Education Foundation.
Ligon atuou como consultor para Travera, Bristol Myers Squibb, Servier, IntegraGen, LEK Consulting e Blaze Bioscience; recebeu capital da Travera; e recebeu financiamento de pesquisa da Bristol-Myers Squibb e Eli Lilly and Company. Vremenko é cofundador e acionista da Vectorly.
Os autores prepararam o manuscrito inicial e editaram seções selecionadas para facilitar a leitura usando ChatGPT. O autor utilizou esta ferramenta, revisou e editou o conteúdo conforme necessário e assume total responsabilidade pelo conteúdo do artigo publicado.



