Os demandantes incluem dois menores e um adulto que era menor de idade quando ocorreram os eventos do processo. Uma das vítimas, identificada como “Jane Doe 1”, alegou que em dezembro passado, ela soube que imagens explícitas dela e de pelo menos 18 menores geradas por IA estavam disponíveis no Discord. “Pelo menos cinco desses arquivos, um vídeo e quatro imagens, retratam seu rosto e corpo reais em cenas com as quais ela estava familiarizada, mas distorcidas em poses sexualmente explícitas”, afirma o processo.
O perpetrador, que foi preso, supostamente usou o CSAM gerado por IA de Jane Doe 1 “como uma ferramenta de troca em bate-papos em grupo do Telegram com centenas de outros usuários, trocando seus arquivos CSAM por conteúdo sexualmente explícito de outros menores”. O processo afirma que o perpetrador criou imagens explícitas de Jane Doe 1 e duas outras vítimas usando Grok. Também alegou que o xAI “não conseguiu testar a segurança dos recursos que desenvolveu” e que Grok tinha “falhas de design”.
Embora o X tenha tentado dificultar a edição de imagens pelos usuários com o Grok, Borda descobriu que ainda é possível manipular imagens carregadas na plataforma. X afirmou que “qualquer pessoa que use ou incentive Grok a criar conteúdo ilegal sofrerá as mesmas consequências como se tivesse carregado conteúdo ilegal”. X não respondeu imediatamente Bordapedido de comentário.
“São crianças cujas fotos escolares e de família foram transformadas em material de abuso sexual infantil por ferramentas de IA de empresas bilionárias e depois traficadas para predadores”, disse uma das advogadas das vítimas, Annika K. Martin de Lieff Cabraser, num comunicado. “Pretendemos responsabilizar a xAI por cada criança que ela prejudica desta forma.”
A ação busca indenização para as vítimas afetadas pelas “imagens ilegais” de Grok. Também pediu ao tribunal que impedisse a xAI de gerar e divulgar alegações de CSAM geradas por IA.



