Início ESPECIAIS Todas as coisas ruins que podem acontecer ao criar vídeos Sora

Todas as coisas ruins que podem acontecer ao criar vídeos Sora

26
0

A primeira vez que tive oportunidade, baixei o aplicativo Sora. Carreguei uma imagem do meu rosto beijando meus filhos quando eles dormem e a voz que uso para dizer à minha esposa que a amo e adicionei-as ao perfil da Sora. Fiz tudo isso usando o recurso “participação especial” de Sora para criar um vídeo bobo de 100 residentes de casas de repouso para idosos filmando minha própria IA com bolas de tinta.

O que eu acabei de fazer? O aplicativo Sora é baseado no modelo de IA Sora 2 e, francamente, é de tirar o fôlego. Você pode criar vídeos de qualidade variada, de média a medíocre. completamente satânico. É um buraco negro de energia e dados, e também um distribuidor de conteúdos altamente questionáveis. Como muitas coisas hoje em dia, usar Sora parece um pouco perverso, mesmo que você não saiba exatamente por quê.

Se você acabou de criar um vídeo do Sora, aqui estão algumas más notícias. Enquanto você lê isto, peço que se sinta um pouco sujo e culpado, e seu desejo é uma ordem.

A quantidade de eletricidade que você acabou de usar é:

Um vídeo Sora usa cerca de 90 watts-hora de eletricidade. De acordo comCNET. Este número é Estudo do uso de energia da GPU por meio do Hugging Face.

Na verdade, a OpenAI não publicou os números necessários para este estudo, e a pegada energética de Sora terá que ser inferida a partir de modelos semelhantes. Mas Sasha Luccioni, uma das pesquisadoras do Hugging Face que trabalhou no trabalho, não está satisfeita com essas estimativas. ela disse ao MIT Technology Review.“Precisamos parar de tentar fazer engenharia reversa dos números com base em boatos”, diz ele, e pressionar empresas como a OpenAI para que divulguem dados precisos.

De qualquer forma, diferentes jornalistas forneceram estimativas diferentes com base nos dados do Hugginface. Por exemplo, o Wall Street Journal adivinhar Aproximadamente 20 a 100 watts-hora.

A CNET compara essa estimativa ao funcionamento de uma TV de 65 polegadas por 37 minutos. O Journal compara a geração de conchas a cozinhar bifes crus ou mal passados ​​em uma churrasqueira elétrica ao ar livre (porque aparentemente tal coisa existe).

Para fazer você se sentir ainda pior, é uma boa ideia esclarecer algumas coisas sobre essa questão do uso de energia. Em primeiro lugar, o que acabei de descrever é o consumo de energia da inferência. Execute o modelo em resposta aos prompts. O treinamento real do modelo Sora exigiu uma quantidade de energia desconhecida, mas certamente astronômica. GPT-4 LLM exigiu estimativas. 50 gigawatts-hora– supostamente suficiente para abastecer São Francisco por 72 horas. A modelo de vídeo Sora levou mais do que isso, mas não se sabe quanto mais ela levou.

Olhando de uma certa maneira, se você optar por usar um modelo, estará incorrendo em algum custo desconhecido antes mesmo de criar o vídeo.

Em segundo lugar, separar raciocínio e treinamento é importante de outra forma ao tentar descobrir quanta culpa ambiental você tem (você já perguntou?). Podemos abstrair os elevados custos de energia em algo que já aconteceu. Por exemplo, se a vaca do seu hambúrguer morreu há algumas semanas, pedir um hambúrguer Beyond enquanto você já está sentado no restaurante não mata a vaca. Nesse sentido, executar um modelo de IA baseado em nuvem é semelhante a ordenar surf e turf. A “vaca” de todos os seus dados de treinamento já pode estar morta. No entanto, a “lagosta” de um prompt específico permanece viva até que você envie o prompt para a “cozinha”, o data center onde a inferência ocorre.

Aqui está a quantidade de água que você acabou de usar:

Vou fazer mais algumas suposições. desculpe. Os data centers utilizam grandes quantidades de água para resfriamento, seja por meio de sistemas de circuito fechado ou por evaporação. Você não tem ideia de qual data center, ou vários data centers, estiveram envolvidos na criação do vídeo do seu amigo como concorrente do American Idol cantando a música “Camptown Races”.

Mas provavelmente é mais água do que você se sente confortável. CEO da IA ​​aberta, Sam Altman alegar Uma única consulta de texto ChatGPT consome “cerca de 1/15 de uma colher de chá”, relata CNET. O custo de energia do vídeo é estimado em 2.000 vezes isso. Geração de texto Portanto, escrever a resposta no verso do envelope pode equivaler a 0,17 galões, ou cerca de 22 onças fluidas. Isso é um pouco mais do que uma garrafa plástica de Coca-Cola.

E isso se você considerar Altman pelo valor nominal. Poderia facilmente ser mais do que isso. Além disso, as mesmas considerações sobre custos de treinamento e inferência que se aplicam ao uso de energia também se aplicam aqui. Em outras palavras, usar Sora não é uma escolha inteligente para água.

Há uma pequena chance de que alguém tenha feito um deepfake realmente terrível sobre você.

As configurações de privacidade do Cameo de Sora são poderosas, desde que você as conheça e as utilize. Configurações em ‘Quem pode usar isto’ mais ou menos Proteja sua imagem de se tornar um brinquedo público, a menos que você selecione a configuração “Todos”, o que significa que qualquer pessoa pode fazer seu vídeo Sora.

Mesmo que você seja imprudente o suficiente para ter sua participação disponível publicamente, existem alguns controles adicionais na guia “Preferências da Camafeu”, como a capacidade de descrever verbalmente como você deseja que ela apareça em seu vídeo. Você pode escrever o que quiser aqui, como “magro, tonificado, atlético” ou “sempre cutucando o nariz”. Você também pode definir regras sobre quais comportamentos você nunca deve exibir. Por exemplo, você pode dizer que se você se mantiver kosher, nunca deverá ser visto comendo bacon.

Mas mesmo que você não permita que outras pessoas usem o Cameo, você ainda pode se confortar com seus recursos abertos que permitem criar proteções ao criar seus próprios vídeos.

No entanto, as proteções de conteúdo geral de Sora não são perfeitas. De acordo com Cartão modelo para Sora da OpenAISe alguém transmitir uma mensagem forte o suficiente, vídeos questionáveis ​​podem escapar.

Este cartão exibe taxas de sucesso para diferentes tipos de filtros de conteúdo na faixa de 95% a 98%. No entanto, excluindo as falhas, há 1,6% de probabilidade de ser um deepfake sexual, 4,9% de probabilidade de o vídeo conter violência e/ou sangue coagulado, 4,48% de probabilidade de ser uma “persuasão política violenta” e 3,18% de probabilidade de ser extremismo ou ódio. Estas possibilidades foram calculadas a partir de “milhares de mensagens hostis recolhidas através de equipas vermelhas direcionadas”. Em outras palavras, é uma tentativa de derrubar intencionalmente os trilhos com mensagens de quebra de regras.

Portanto, não é muito provável que alguém falsifique você sexualmente ou violentamente, mas a OpenAI (talvez sabiamente) nunca disse que faria isso.

Talvez alguém faça um vídeo de você tocando seu cocô.

Em meus testes, o filtro de conteúdo do Sora geralmente funcionou conforme anunciado e não vi o que o cartão modelo descreveu como um erro. Não criei meticulosamente 100 mensagens diferentes para enganar Sora e fazê-lo criar conteúdo sexual. Se você solicitar uma participação especial de nudez, verá uma mensagem de “Violação de conteúdo” em vez de um vídeo.

mas, parte Aplicamos políticas tão fracas que o conteúdo potencialmente ofensivo não é completamente filtrado. Sora, em particular, parece não ter interesse em conteúdo explícito e produzirá esse tipo de material sem qualquer proteção, desde que não viole outras políticas de conteúdo, como sexualidade e nudez.

Em meus testes, Sora produziu vídeos de pessoas interagindo com cocô, incluindo tirar cocô de um vaso sanitário com as próprias mãos. Por razões óbvias, não vou incorporar um vídeo aqui para fins de demonstração, mas você mesmo pode experimentar. Nenhum truque ou engenharia rápida foi necessária.

Minha experiência tem sido que modelos anteriores de geração de imagens de IA possuem medidas para evitar esse tipo de coisa, incluindo Dall-E, a versão do gerador de imagens OpenAI do Bing, mas esses filtros parecem ter desaparecido do aplicativo Sora. Não creio que seja necessariamente um escândalo, mas é desagradável!

O Gizmodo entrou em contato com a OpenAI para comentar sobre isso e atualizará quando recebermos uma resposta.

Seu vídeo engraçado pode ser apenas uma fraude viral de outra pessoa.

Sora 2 abriu um vasto e ilimitado mundo de golpes. Como um consumidor de conteúdo interessado e experiente na Internet, você nunca acreditará que algo como o vídeo viral abaixo possa ser real. Mostra imagens naturais que parecem ter sido filmadas fora da Casa Branca. Em um áudio que parece um telefonema ouvido, Donald Trump, gerado por IA, diz a alguém desconhecido para não divulgar os arquivos de Epstein, gritando: “Não os deixem sair. Quando eu descer, vou levar todos vocês comigo.”

Só de olhar os comentários do Instagram, alguns As pessoas pareciam acreditar que isso era real.

O criador do vídeo viral nunca afirmou que era real, disse ele ao Snopes. Confira o que Sora fezO vídeo é “inteiramente gerado por IA” e foi criado “exclusivamente para experimentação artística e comentários sociais”. É uma história plausível. É claramente criado para influência e visibilidade nas redes sociais.

No entanto, se você postar seu vídeo publicamente no Sora, outros usuários poderão baixá-lo e fazer o que quiserem com ele. Isso inclui postar vídeos em outras redes sociais e fingir que são reais. A OpenAI conscientemente fez do Sora um lugar onde os usuários podem rolar o apocalipse infinitamente. Depois de colocar seu conteúdo em um lugar como esse, o contexto não importa mais e não há como controlar o que acontece a seguir.



Source link