Um novo estudo publicado em 24 de março RadiologiaO Journal of the Radiological Society of North America (RSNA) mostra que tanto os radiologistas quanto os modelos multimodais de grande linguagem (LLM) têm dificuldade em distinguir entre raios X reais e imagens “profundamente falsas” geradas pela inteligência artificial (IA). As descobertas levantam preocupações sobre os riscos representados pelas imagens médicas sintéticas e destacam a necessidade de melhores ferramentas e formação para ajudar a proteger a precisão das imagens médicas e preparar os profissionais de saúde para identificar deepfakes.
Um “deepfake” é um arquivo de vídeo, foto, imagem ou áudio que parece real, mas foi criado ou alterado usando inteligência artificial.
“Nosso estudo mostra que esses raios X falsos são realistas o suficiente para enganar radiologistas, especialistas em imagens médicas altamente treinados, mesmo que eles saibam que existem imagens geradas por IA”, disse o autor principal do estudo, Mickael Tordjman, MD, pesquisador de pós-doutorado na Escola de Medicina Icahn no Monte Sinai, em Nova York. “Por exemplo, se as fraturas fabricadas são indistinguíveis das fraturas reais, isso cria um alto risco de litígio fraudulento. Também existem riscos significativos de segurança cibernética se os hackers conseguirem obter acesso à rede de um hospital e injetar imagens sintéticas para manipular diagnósticos de pacientes ou causar perturbações clínicas generalizadas, minando a confiabilidade fundamental dos registros médicos digitais”.
Detalhes da pesquisa e testes de imagem
O estudo incluiu 17 radiologistas de 12 instituições de 6 países (Estados Unidos, França, Alemanha, Turquia, Reino Unido e Emirados Árabes Unidos). Sua experiência varia de iniciantes a especialistas com até 40 anos de experiência prática. O estudo examinou um total de 264 imagens de raios X, divididas igualmente entre varreduras reais e imagens geradas por IA.
Os participantes visualizaram dois conjuntos independentes de imagens sem sobreposição. Um conjunto contém uma mistura de imagens reais e raios X gerados pelo ChatGPT de diferentes partes do corpo. O segundo grupo se concentrou em radiografias de tórax, metade reais e metade criadas usando RoentGen, um modelo de difusão de inteligência artificial generativa de código aberto desenvolvido por pesquisadores da Faculdade de Medicina da Universidade de Stanford.
Precisão de detecção de radiologista e IA
Quando os radiologistas não foram informados de que continham imagens falsas, apenas 41% dos radiologistas aprovaram os raios X gerados por IA após avaliarem a sua qualidade técnica. Depois que souberam da presença de imagens sintéticas, a precisão média na distinção entre imagens reais e falsas aumentou para 75%.
O desempenho varia amplamente entre os indivíduos. Os radiologistas identificaram corretamente de 58% a 92% das imagens produzidas pelo ChatGPT. Os sistemas de inteligência artificial apresentam limitações semelhantes. Quatro LLMs multimodais – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) e Llama 4 Maverick (Meta) – alcançaram taxas de precisão que variam de 57% a 85%. Mesmo o ChatGPT-4o, usado para gerar imagens deepfake, não detectou todas as imagens, embora tenha tido um desempenho melhor que outros modelos.
Para radiografias de tórax geradas pelo RoentGen, a precisão dos radiologistas variou de 62% a 78%, enquanto a precisão do modelo de IA variou de 52% a 89%.
A experiência não garante a detecção
O estudo não encontrou nenhuma correlação entre os anos de experiência de um radiologista e sua capacidade de detectar raios X falsos. No entanto, os radiologistas musculoesqueléticos tiveram desempenho significativamente melhor do que outras especialidades.
Dicas visuais em raios X deepfake
Os pesquisadores descobriram vários padrões que podem aparecer nas imagens compostas.
“Imagens médicas deepfake muitas vezes parecem perfeitas demais”, disse o Dr. Todjman. “Os ossos são muito lisos, a coluna vertebral é anormalmente reta, os pulmões são muito simétricos, o padrão dos vasos sanguíneos é muito uniforme e as fraturas parecem incomumente limpas e consistentes, muitas vezes limitadas a um lado do osso”.
Riscos e salvaguardas de imagens médicas
As descobertas destacam os sérios riscos representados pelos raios X falsos se usados indevidamente. Imagens falsas podem ser usadas em processos judiciais ou inseridas em sistemas hospitalares para influenciar o diagnóstico e interromper o atendimento.
Para reduzir estas ameaças, os investigadores recomendam medidas de proteção digital mais fortes. Isso inclui marcas d’água invisíveis incorporadas diretamente na imagem e assinaturas criptográficas vinculadas aos técnicos no momento da captura da imagem, o que pode ajudar a verificar a autenticidade.
O futuro da inteligência artificial em imagens médicas
“Podemos ter visto apenas a ponta do iceberg”, disse Todjman. “O próximo passo lógico nesta evolução é a geração de imagens 3D sintéticas por inteligência artificial, como tomografia computadorizada e ressonância magnética. Construir conjuntos de dados educacionais e ferramentas de detecção é agora crítico.”
Para apoiar a educação e a conscientização, os pesquisadores lançaram um repositório deepfake com curadoria que inclui questionários interativos para fins de treinamento.



