Início ANDROID A moderação deepfake do Meta não é boa o suficiente, diz Oversight...

A moderação deepfake do Meta não é boa o suficiente, diz Oversight Board

25
0

Os métodos do Meta para identificar deepfakes “não são robustos ou abrangentes o suficiente” para abordar a rapidez com que a desinformação se espalha durante conflitos armados como a guerra no Irão. Isto foi revelado pelo Meta Oversight Board – um órgão semi-independente que orienta as práticas de moderação de conteúdo da empresa – que agora está pedindo ao Meta que reformule a forma como exibe e rotula o conteúdo gerado por IA no Facebook, Instagram e Threads.

O apelo à ação vem de investigação sobre vídeos falsos de IA sobre alegados danos a edifícios em Israel partilhados na plataforma social Meta no ano passado, mas o Conselho disse que as suas recomendações eram especialmente relevantes hoje, dada a “escalada militar massiva” no Médio Oriente esta semana. No seu anúncio, o Conselho afirmou que o acesso a informações precisas e fiáveis ​​é fundamental para a segurança pública, face ao risco crescente de utilização de ferramentas de IA para espalhar desinformação.

“As conclusões do Conselho destacam que o sistema atual da Meta para rotular adequadamente o conteúdo de IA depende muito da auto-revelação do uso da IA ​​e do aumento da revisão e não atende às realidades do ambiente online de hoje”, disse o Meta Oversight Board. “Este caso também destaca os desafios na proliferação desse tipo de conteúdo entre plataformas, onde o conteúdo parece ter se originado no TikTok antes de aparecer no Facebook, Instagram e X.”

As medidas recomendadas pelo Conselho incluem encorajar o Meta a melhorar os regulamentos existentes sobre desinformação para abordar deepfakes enganosos e estabelecer novos padrões comunitários separados para conteúdo gerado por IA. A Meta também foi solicitada a desenvolver melhores ferramentas de detecção de IA, ser transparente sobre penalidades para violações de políticas de IA e melhorar os esforços de rotulagem de conteúdo de IA. Este último inclui garantir que o rótulo “IA de alto risco” seja adicionado a imagens e vídeos sintéticos com mais frequência e aumentar a adoção de C2PA (também conhecido como Credenciais de Conteúdo) para que as informações sobre o conteúdo gerado por IA sejam “claramente visíveis e acessíveis aos usuários”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui