Início ANDROID Detector ‘universal’ detecta vídeos deepfake de IA com alta precisão

Detector ‘universal’ detecta vídeos deepfake de IA com alta precisão

11
0

Vídeo deepfake do primeiro-ministro australiano Anthony Albanese em smartphone

Associated Press/Alamy Austrália

Os detectores universais de deepfake alcançaram a melhor precisão na detecção de vários tipos de vídeos que são manipulados ou totalmente gerados pela inteligência artificial. Essa tecnologia poderia ajudar a sinalizar pornografia gerada por IA sem consentimento, fraudes deepfake ou vídeos de desinformação eleitoral.

A ampla disponibilidade de ferramentas baratas de criação de deepfake alimentadas por IA alimentou a disseminação descontrolada de vídeos sintéticos online. Muitos retratam mulheres – incluindo celebridades e até mesmo estudantes – em pornografia não consensual. E os deepfakes também têm sido usados ​​para influenciar eleições, bem como para aumentar a fraude financeira dirigida a consumidores comuns e executivos empresariais.

Mas a maioria dos modelos de IA treinados para detectar vídeos sintéticos concentram-se em rostos – o que significa que são mais eficazes no reconhecimento de um tipo específico de deepfake, onde o rosto de uma pessoa real é trocado por um vídeo existente. “Precisamos de um modelo que seja capaz de detectar vídeos manipulados facialmente, bem como vídeos manipulados em segundo plano ou vídeos totalmente gerados por IA”, disse Rohit Kundu na Universidade da Califórnia, Riverside. “Nosso modelo resolve esse problema – presumimos que todo o vídeo provavelmente foi gerado sinteticamente.”

Kundu e seus colegas treinaram um detector universal alimentado por IA para monitorar vários elementos de fundo de vídeo, bem como os rostos das pessoas. Esta tecnologia pode detectar sinais de inconsistências espaciais e temporais em deepfakes. Como resultado, esta tecnologia pode detectar condições de iluminação inconsistentes em pessoas inseridas artificialmente em vídeos de troca de rosto, diferenças nos detalhes de fundo de vídeos totalmente gerados por IA e até mesmo sinais de manipulação de IA em vídeos sintéticos que não contêm rostos humanos. O detector também sinaliza cenas realistas de videogames, como Grand Theft Auto V, que não foram necessariamente geradas por IA.

“A maioria dos métodos existentes lida com vídeos faciais gerados por IA – como trocas de rosto, vídeos com sincronização labial ou shows faciais que animam rostos a partir de uma única imagem”, disse Siwei Lyu na Universidade de Buffalo, em Nova York. “Este método tem uma gama mais ampla de aplicações.”

O detector universal alcançou entre 95% e 99% de precisão na identificação de quatro conjuntos de testes de vídeos envolvendo deepfakes manipulados por rosto. Isto é melhor do que todos os outros métodos publicados para detectar este tipo de deepfake. Ao monitorar vídeo totalmente sintético, os resultados também são mais precisos do que outros detectores avaliados até o momento. Pesquisadores apresentando seu trabalho na Conferência IEEE/Computer Vision and Pattern Recognition 2025 em Nashville, Tennessee, em 15 de junho.

Vários pesquisadores do Google também participaram do desenvolvimento do novo detector. O Google não respondeu às perguntas sobre se esse método de detecção poderia ajudar a detectar deepfakes em suas plataformas, como o YouTube. Mas a empresa está entre as que apoiam ferramentas de marca d’água que facilitam a identificação do conteúdo gerado por seus sistemas de IA.

O detector universal também poderá ser melhorado no futuro. Por exemplo, seria útil se a ferramenta pudesse detectar deepfakes implantados durante chamadas de videoconferência ao vivo, um truque que alguns fraudadores já começaram a usar.

“Como você sabe se a pessoa do outro lado é genuína, ou se é um vídeo deepfake, e isso pode ser determinado mesmo se o vídeo for enviado por uma rede e for afetado pelas características da rede, como a largura de banda disponível?” dizer Amit Roy-Chowdhury na Universidade da Califórnia, Riverside. “Essa é outra direção que estamos observando em nosso laboratório.”

Tópico:

Source link