Início ANDROID West Virginia está processando a Apple por supostamente permitir a propagação de...

West Virginia está processando a Apple por supostamente permitir a propagação de abuso infantil no iCloud

17
0

Virgínia Ocidental tem entrou com uma ação contra a Appleacusou a empresa de permitir a distribuição e armazenamento de material de abuso sexual infantil (CSAM) no iCloud. No o processo foi aberto na quinta-feiraO procurador-geral da Virgínia Ocidental, J.B. McCuskey, afirma que, ao abandonar os sistemas de detecção de CSAM em favor da criptografia de ponta a ponta, o iCloud se tornou uma “via segura e sem atrito para a posse, proteção e distribuição (de) CSAM”, em violação das leis estaduais de proteção ao consumidor.

Agora, West Virginia está acusando a Apple de “projetar seus produtos de forma consciente e intencional, com indiferença deliberada a danos muito evitáveis”. McCuskey acredita que outros estados também poderiam tomar medidas legais contra a Apple, já que disse aos repórteres durante uma coletiva de imprensa que acha que eles “olharão para a liderança que este escritório está assumindo” e “se juntarão a nós nesta luta”.

O processo afirma que a Apple fez 267 denúncias de CSAM ao Centro Nacional para Crianças Desaparecidas e Exploradas, menos do que os 1,47 milhão de denúncias feitas pelo Google e mais do que os 30,6 milhões de denúncias feitas pela Meta. O relatório também citou mensagens internas entre executivos da Apple, nas quais o chefe de fraudes da Apple, Eric Friedman, supostamente afirmou que o iCloud era “a maior plataforma para distribuição de pornografia infantil”.

Muitas plataformas online, incluindo Google, Reddit, Snap, Meta e outras, usam ferramentas como o PhotoDNA da Microsoft ou a API Content Security do Google para detectar, remover e denunciar CSAM em fotos e vídeos enviados através de seus sistemas. A Apple atualmente não oferece esse recurso, mas lançou vários recursos focados na segurança infantil, incluindo controles parentais que exigem que as crianças obtenham permissão para enviar mensagens de texto para novos números, bem como uma ferramenta que oculta automaticamente imagens de nudez de menores no iMessage em outros aplicativos. Mas McCuskey argumenta que estas salvaguardas não são suficientes para proteger as crianças.

“A Apple projetou conscientemente um conjunto de ferramentas que reduz drasticamente o atrito na posse, coleta, proteção e disseminação de CSAM, ao mesmo tempo em que projeta um escudo de criptografia que aumenta a probabilidade de os criminosos usarem a Apple para proteger suas atividades ilícitas”, afirma o processo.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui