Início ESPECIAIS A Meta provou que suas prioridades estavam erradas ao censurar postagens sobre...

A Meta provou que suas prioridades estavam erradas ao censurar postagens sobre relacionamentos lésbicos.

76
0

Meta em abril silenciosamente invertido Depois de excluir uma postagem do Instagram celebrando um relacionamento lésbico de longa data no Brasil. As postagens removidas não eram de natureza sexual e não continham material prejudicial a menores. A postagem em questão é um retrato de um momento na história em que lésbicas tiveram que esconder seus relacionamentos como “colegas de quarto” ou “namoradas” e seu amor foi apagado dos registros públicos. Mesmo assim, Meta removeu o conteúdo.

Mehta citou regras sobre discurso de ódio. comissão de supervisão Mais tarde, ele reconheceu o que deveria ter ficado claro desde o início. O caso brasileiro foi um exemplo de aplicação excessiva contra comunidades marginalizadas por sistemas automatizados que eram incapazes de ler o contexto, a linguagem reproduzida ou a própria postagem inteira. O conteúdo só foi restaurado após intervenção externa e defesa da comunidade LGBTQ+.

Favorito dos fãs do Mashable 101: Vote em seus criadores favoritos hoje!

Embora este incidente esteja atualmente a ser tratado como um erro restrito de moderação de conteúdo, os decisores políticos devem reconhecer que este é um claro sinal de alerta do que acontece quando as plataformas são empurradas para policiar o conteúdo em vez de corrigirem o seu design. Os estados de todo o país estão a apressar-se para “proteger as crianças online”, restringindo o acesso às redes sociais ou pressionando as empresas para removerem conteúdo “prejudicial” vagamente definido. Mas o que aconteceu no Brasil mostra o custo humano dessa abordagem.

Não há melhor avaliador das nuances quando as plataformas são incentivadas a remover a fala rapidamente e em grande escala. As redes sociais tornam-se uma ferramenta contundente e os primeiros a serem atingidos são aqueles cujas histórias requerem contexto humano e empatia radical para serem compreendidas.

Se os legisladores realmente quiserem proteger as crianças, eles precisam parar de pedir às plataformas que decidam quais histórias são aceitáveis ​​e começar a regulamentar as principais escolhas de design que causam danos, em primeiro lugar, como rolagem interminável, recomendações baseadas em engajamento e feeds baseados em vigilância.

Veja também:

Eu tive um Sugar Daddy do Grindr por um dia. Ele então tentou obter um reembolso.

Eis por que esta distinção é importante, especialmente para crianças LGBTQ+ e outras comunidades marginalizadas, como crianças neurodivergentes. Os jovens LGBTQ+ têm muito mais probabilidade do que os seus pares de confiar em espaços online para encontrar uma comunidade.Isto acontece muitas vezes porque a informação, o apoio, etc. não estão disponíveis ou são seguros em casa ou na escola. Mas eles também são bastante mais provável Eles acabam se envolvendo em interações on-line inseguras, incluindo assédio, aliciamento, doxxing ou sendo empurrados para espaços de alto risco que não procuravam.

Um pouco mais tarde na Austrália Nenhuma mídia social para menores de 16 anos Os defensores dos direitos das pessoas com deficiência observaram: Os jovens autistas estão isolados de algumas das únicas redes de apoio e de pares disponíveis para eles.

Os sistemas de recomendação não entendem a vulnerabilidade, mas entendem o envolvimento. Quando crianças queer procuram comunidades, as plataformas geralmente respondem amplificando agressivamente qualquer coisa que gere cliques. Normalmente, isso significa conteúdo cada vez mais sexual, adultos estranhos, retórica extremista ou contas predatórias que sabem exatamente como explorar o isolamento.

Diz-se que a rolagem infinita torna muito mais difícil para os jovens se desligarem. Centro eletrônico de informações pessoaisIsto é especialmente verdadeiro para pessoas em comunidades vulneráveis. Sugestões algorítmicas de “amigos” ou “contas” confundem as fronteiras entre jovens e adultos. Padrões fracos dificultam o bloqueio, o silenciamento ou o desaparecimento.

Os jovens, e não apenas os jovens LGBTQ+, podem ser vítimas online porque as plataformas são construídas para atrair a atenção e não para proteger os utilizadores. Os pais têm razão em se preocupar e defender a mudança. Mas o enquadramento baseado em conteúdo ignora o problema real.

O maior risco que as crianças enfrentam on-line não vem de uma única postagem ruim que não passa na moderação, mas de sistemas automatizados que enviam às crianças conteúdo que elas não pediram, conectam-nas com pessoas que elas não conhecem e as mantêm navegando por muito tempo depois que os sinais de alerta aparecem.

Os decisores políticos a nível estadual e federal devem conceber regulamentos que abordem directamente estes riscos. O código de design apropriado para a idade não informa à plataforma quais vozes permitir, mas pode dizer como a plataforma deve se comportar. O código de design precisa de padrões mais seguros, como limitação de perfis comportamentais, ferramentas de bloqueio poderosas, redução da amplificação de recomendações indesejadas e proteções que retardam o boca a boca e o uso compulsivo.

O público deve defender melhorias nos produtos em vez de violações dos seus direitos da Primeira e Quarta Emendas. O código de design reduz a probabilidade de uma criança curiosa ou solitária, como eu, procurar algoritmicamente por uma comunidade de perigo e ser empurrada para o perigo por um sistema que não se importa com quem eu sou.

Códigos de design apropriados à idade oferecem uma saída para essa confusão. Ao regular a forma como as plataformas são construídas e não o que as pessoas podem dizer, as leis de código de design reduzem os danos sem transformar as empresas em censores culturais. Você não precisa de uma plataforma para interpretar calúnias recicladas, história queer ou declarações políticas. Em vez disso, as empresas devem acabar com o vício e o risco da engenharia.

Não precisamos de mais proibições de conteúdo ou plataforma. Precisamos de menos sistemas prejudiciais. Se levamos a sério a proteção das crianças online, especialmente aquelas que já correm maior risco, este caso lembra-nos exatamente por onde começar.

Este artigo reflete as opiniões do autor.

Lennon Torres é o diretor do movimento. iniciativa de calor e sócios fundadores Atenção Estúdio.

Source link