Semanas depois do procurador-geral do Estado de Elon Musk, Rob Bonta apresentação Ele disse na quarta-feira que estava iniciando uma investigação sobre a situação para determinar se X e xAI, a empresa de IA de Musk e fabricante do chatbot Grok usado para gerar imagens pornográficas, haviam infringido a lei.
“O grande número de relatórios detalhando material não consensual e sexualmente explícito que a xAI publicou online nas últimas semanas é chocante. Este material, que retrata mulheres e crianças em situações nuas e sexualmente explícitas, tem sido usado para assediar pessoas na Internet”, disse Bonta num comunicado. Ele também instou a xAI a tomar “ações imediatas” para evitar que esse tipo de conteúdo seja criado ou espalhado.
Bonta parece ter um apoio público considerável para esta investigação. sem chance Pesquisas recentes do YouGov Espantosos 97% dos entrevistados disseram que as ferramentas de IA não deveriam ser autorizadas a criar conteúdo sexualmente explícito de crianças, e 96% disseram que essas ferramentas não deveriam ser capazes de despir menores em imagens.
A investigação incidirá nas tendências que ocorreram em X durante as férias de inverno. Os usuários solicitaram que Grok na plataforma editasse imagens de pessoas para mostrá-las em vários estados de nudez. A tendência cresceu suficientemente, De acordo com a empresa de análise de conteúdo de IA Copyleaks,Grok criava imagens sexuais sem consentimento a cada minuto. Algumas dessas imagens incluíam crianças, levando os usuários a retratar Grok sem roupa íntima ou biquíni. Os usuários frequentemente pediam a Grok para adicionar “esmalte de donut” aos rostos dos sujeitos de suas imagens.
Musk, o CEO da Em uma postagem postada antes do anúncio da investigação na Califórnia, Musk disse: disse“Não tenho conhecimento de quaisquer imagens de menores nus que Grok tenha produzido. Literalmente zero.”
A estreiteza de sua declaração tem muito peso, já que ele afirma nada saber sobre “imagens nuas de menores”. Isto não refuta a presença de imagens de nudez, imagens de menores despidos ou pessoas retratadas em situações sexuais. Também não menciona que muitas dessas imagens não são consensuais e foram criadas sem a permissão da pessoa retratada. Em vários casos, as imagens foram usadas diretamente para assediar a conta de X.
Musk disse que a culpa era dos usuários, e não dos modelos de IA ou plataformas que disseminam o conteúdo, na medida em que ele estava disposto a admitir que tais problemas eram possíveis. “Obviamente, a Grok não cria imagens voluntariamente, apenas as cria mediante solicitação do usuário. O princípio operacional da Grok é cumprir as leis de um determinado país ou estado, portanto, se você nos pedir para criar uma imagem, rejeitaremos qualquer criação ilegal”, disse ele. “Pode haver casos em que um hack hostil do prompt do Grok faça algo inesperado. Se isso acontecer, corrigiremos o bug imediatamente.”
Isto corresponde de perto à tênue resposta que X deu à situação. Em postagem da X Safety, a empresa disse: disse“Qualquer pessoa que incentive as pessoas a usar o Grok para criar conteúdo ilegal sofrerá as mesmas consequências como se estivesse enviando conteúdo ilegal.” No entanto, não somos responsáveis por habilitá-lo. Para constar, Musk republicou zombeteiramente o conteúdo criado como parte da tendência, incluindo imagens de uma torradeira gerada por IA e Rocket de biquíni.
A Califórnia é o primeiro estado dos Estados Unidos a começar a investigar esta situação. Autoridades de outros países, incluindo França, Irlanda, Reino Unidoe ÍndiaTodos começaram a investigar imagens sexuais não consensuais produzidas por Grok e podem apresentar acusações contra X e xAI. A Lei Take It Down, aprovada no ano passado, não exige que plataformas como X criem sistemas de notificação e remoção de imagens não consensuais até 19 de maio de 2026.



