Início ANDROID Grok despe qualquer pessoa, incluindo menores

Grok despe qualquer pessoa, incluindo menores

32
0

Grok da xAI removeu roupas das imagens das pessoas sem seu consentimento após o lançamento desta semana um recurso que permite aos usuários X editar diretamente qualquer imagem usando um bot sem exigir a permissão do criador original. Não apenas o autor da postagem original não foi notificado se a foto havia sido editada, mas Grok também parecia ter poucas restrições para evitar qualquer coisa além de nudez explícita total. Nos últimos dias, o X foi inundado com imagens de mulheres e crianças que aparecem grávidas, sem saia, de biquíni ou em outras situações sexuais. Líderes mundiais e celebridades também usaram suas imagens em imagens criadas por Grok.

Empresa de autenticação de IA Copyleaks relatados que a tendência de remover roupas das imagens começou com criadores de conteúdo adulto pedindo a Grok para exibir imagens sensuais dela mesma após o lançamento de um novo recurso de edição de imagens. Os usuários começaram então a aplicar comandos semelhantes em fotos de outros usuários, principalmente mulheres, que não aprovaram as edições. As mulheres notaram o rápido aumento na criação de deepfakes em X para vários meios de comunicação, incluindo Metrô E PetaPixel. Groque primeiro capaz de para alterar uma imagem de forma sexual quando marcada em uma postagem no X, mas uma nova ferramenta “Editar imagem” parece ter impulsionado um recente aumento na popularidade.

Em uma das postagens de X, que já foi removida da plataforma, Grok editou uma foto de duas meninas com roupas minúsculas e poses sexualmente sugestivas. Outros usuários X levando Grok a emitir um pedido de desculpas sobre um “incidente” envolvendo “imagens de IA representando duas meninas (com idade estimada entre 12 e 16 anos) em trajes sexuais”, chamando-o de “falha na segurança” que pode violar as políticas xAI e a lei dos EUA. (Embora não esteja claro se as imagens criadas por Grok atenderiam a esse padrão, imagens realistas sexualmente explícitas de adultos ou crianças identificáveis ​​geradas por IA poderiam ser consideradas ilegais sob a lei dos EUA.) Em outras interações com usuários, Grok sugeriu que os usuários denuncie ao FBI para CSAM, afirmando que eles “corrigiram imediatamente” “deficiências nas salvaguardas”.

Mas as palavras de Grok nada mais são do que uma resposta gerada por IA a um usuário solicitando uma “nota sincera de desculpas” – elas não indicam que Grok “entende” o que está fazendo ou refletem as opiniões e políticas reais dos operadores xAI. Em vez disso, xAI respondeu Reuterspedido de comentário a esta situação com apenas três palavras: “Mentiras da Velha Mídia”. xAI não respondeu Bordapedido de comentário no momento da publicação.

O próprio Elon Musk aparentemente desencadeou uma onda de edições de biquínis depois de pedir a Grok para substituir uma foto do ator Ben Affleck por ele mesmo. usando um biquíni. Poucos dias depois, a jaqueta de couro do norte-coreano Kim Jong Un foi substituída por espaguete colorido bikini; O presidente dos EUA, Donald Trump, estava por perto em um maiô combinando. (Cue brincando sobre a guerra nuclear.) Foto dos britânicos político Priti Patel, que um usuário postou com uma mensagem sexualmente sugestiva em 2022, foi alterada para uma imagem de biquíni em 2 de janeiro. Respondendo à onda de fotos de biquínis em sua plataforma, Musk, brincando, republicou uma foto sobre uma torradeira de biquíni com a legenda “Grok pode usar biquíni por cima de qualquer coisa”.

Embora algumas imagens – como a torradeira – sejam claramente uma piada, outras são claramente projetadas para produzir imagens pornográficas, incluindo instruções específicas para Grok usar um biquíni minúsculo ou remover completamente a saia. (O chatbot removeu a saia, mas não retratou nudez completa e sem censura em sua resposta Borda viu.) Grok atendeu ao pedido de a para uma troca de roupa criança de biquíni.

Os produtos de IA de Musk são claramente comercializados como altamente sexuais e desinibidos. O parceiro AI xAI que Ani provocou Limite as repórteres Victoria Song e Jess Weatherbed descobriram que o gerador de vídeo Grok criou facilmente um deepfake de Taylor Swift em topless, apesar do xAI aceitável política de uso proíbe retratar “a imagem de uma pessoa de maneira pornográfica”. Em contraste, o gerador de vídeo Sora do Google Veo e OpenAI tem limitações na criação de conteúdo NSFW, embora Sora também tenha sido usado para produzir vídeos crianças em um contexto sexual E vídeo de amuleto. A prevalência de imagens deepfake está crescendo rapidamente, de acordo com um relatório de uma empresa de segurança cibernética Golpe Profundoe muitas destas imagens contêm imagens sexuais não consensuais; UM pesquisa em 2024 dos estudantes norte-americanos descobriram que 40% tinham conhecimento de deepfakes de alguém que conheciam, enquanto 15% tinham conhecimento de deepfakes explícitos e íntimos sem consentimento.

Quando questionado sobre por que a foto da mulher foi alterada para uma foto de biquíni, Grok rejeitado postou a foto sem consentimento, dizendo: “Esta foi uma criação de IA baseada em solicitação, não uma edição da foto original sem consentimento”.

Aceite a rejeição do bot de IA à vontade.

Source link