Início ESPECIAIS Em 2025, o nível de deepfakes aumentou. Aqui estão as próximas etapas:

Em 2025, o nível de deepfakes aumentou. Aqui estão as próximas etapas:

19
0

Este artigo apareceu originalmente em: conversa.

Ao longo de 2025, os deepfakes melhoraram dramaticamente. Rostos, vozes e performances de corpo inteiro gerados por IA que imitam pessoas reais são de qualidade muito superior do que muitos especialistas esperavam há apenas alguns anos. Eles também têm sido cada vez mais usados ​​para enganar as pessoas.

Para muitos cenários cotidianos (especialmente videochamadas de baixa resolução e mídias compartilhadas em plataformas de mídia social), o realismo agora é tão alto que pode definitivamente enganar os espectadores não especialistas. Em termos práticos, os meios de comunicação sintéticos tornaram-se indistinguíveis das gravações originais para o público em geral e, em alguns casos, para instituições.

E esse aumento não se limita à qualidade. O volume de deepfakes explodiu: empresas de segurança cibernética golpe profundo Estima-se que haverá aproximadamente 500.000 deepfakes online em 2023, aumentando para aproximadamente 8 milhões em 2025, uma taxa de crescimento anual de quase 900%.

Eu sou um cientista da computação. Pesquisando deepfakes e outras mídias sintéticas. A meu ver, a situação é esta. Provavelmente piorará Em 2026, os deepfakes serão atores sintéticos que poderão reagir às pessoas em tempo real.

Agora quase qualquer pessoa pode criar um vídeo deepfake.

melhoria dramática

Subjacentes a esta expansão dramática estão várias mudanças tecnológicas. Primeiro, o realismo de vídeo deu um grande salto graças a modelos de geração de vídeo especialmente projetados. manter a consistência temporal. Esses modelos produzem vídeos com movimento consistente, identidade consistente das pessoas retratadas e conteúdo significativo de um quadro para o outro. O modelo separa as informações relacionadas ao movimento das informações relacionadas à representação da identidade da pessoa, permitindo o mesmo movimento. Mapeado para outro IDOu pode haver vários tipos de movimento para o mesmo ID.

Esses modelos produzem rostos estáveis ​​e consistentes, sem piscar, distorcer ou distorções estruturais ao redor dos olhos e do queixo, que já foram usados ​​como evidência forense confiável contra deepfakes.

Em segundo lugar, a clonagem de fala ultrapassou o que chamo de “limiar de indistinguibilidade”. Agora com apenas alguns segundos de áudio Um clone convincente – Completo com entonação natural, ritmo, ênfase, emoção, pausas e ruídos respiratórios. Esse recurso já está facilitando fraudes em grande escala. Alguns grandes varejistas Mais de 1.000 chamadas fraudulentas geradas por IA por dia. A percepção, diz ele, desaparece quando a fala sintética é fornecida.

Terceiro, as ferramentas de consumo reduziram as barreiras tecnológicas a quase zero. Atualizações OpenAI concha 2 E o Google 3 visíveis Uma onda de startups significa que qualquer pessoa pode descrever uma ideia e redigir um roteiro por meio de modelos de linguagem em larga escala, como o ChatGPT da OpenAI ou o Gemini do Google. Crie mídias audiovisuais sofisticadas em apenas alguns minutos. Os agentes de IA podem automatizar todo o processo. A capacidade de criar deepfakes consistentes e baseados em histórias em grande escala foi efetivamente democratizada.

A combinação de quantidades exorbitantes e de personas que são virtualmente indistinguíveis dos seres humanos reais é um problema sério. Desafios para detecção de deepfakeIsto é especialmente verdadeiro num ambiente de mídia onde a atenção das pessoas está dividida e o conteúdo se move mais rápido do que podemos rastreá-lo. O verdadeiro dano já foi feito. desinformação para bullying direcionado e fraude financeira – Tornado possível pela propagação de deepfakes antes que as pessoas percebam o que está acontecendo.

O pesquisador de IA Hany Farid explica como funcionam os deepfakes e seus efeitos.

O futuro é em tempo real

A trajetória para o próximo ano é clara. Os deepfakes estão migrando para a composição em tempo real, que pode produzir vídeos que se assemelham muito às nuances da aparência humana, facilitando a fuga dos sistemas de detecção. A fronteira está se movendo do realismo visual estático para a consistência temporal e comportamental. Crie conteúdo ao vivo ou quase ao vivo Não é um clipe pré-renderizado

A modelagem de identidade está convergindo para um sistema integrado que captura não apenas a aparência de uma pessoa, mas também como ela é. Mova-se, faça sons e fale de acordo com a situação. Os resultados vão além de “Essa pessoa se parece com a pessoa X” até “Essa pessoa se comporta como a pessoa X ao longo do tempo”. Espero que todos os participantes da videochamada sejam compostos em tempo real. Um ator conversacional com tecnologia de IA cujo rosto, voz e maneirismos se adaptam instantaneamente às suas instruções; Golpistas que distribuem avatares responsivos em vez de vídeos estáticos.

À medida que estas capacidades amadurecem, a lacuna de percepção entre os meios de comunicação humanos sintéticos e reais continuará a diminuir. Qualquer linha de defesa significativa estaria distante do julgamento humano. Em vez disso, você confia na proteção no nível da infraestrutura. Isso inclui fontes seguras, como mídia assinada criptograficamente e ferramentas de conteúdo de IA que as utilizam. Coalizão para Proveniência e Autenticidade de Conteúdo especificação. Também depende de ferramentas forenses multimodais como o meu laboratório. Deepfake-o-Meter.

Simplesmente observar os pixels em detalhes não é mais adequado.

Liu SiweiProfessor de Ciência da Computação e Engenharia; Diretor do Laboratório Forense de Mídia UB Universidade de Búfalo

Este artigo foi republicado de: conversa Sob licença Creative Commons. ler artigo original.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui