Isso é retrocessoUm boletim informativo semanal analisando uma das maiores histórias do mundo da tecnologia. Para saber mais sobre os desafios legais da IA, siga Adi Robertson.. retrocesso Ele chega às caixas de entrada dos assinantes às 8h ET. selecione retrocesso aqui.
A música se chamava “Heart on My Sleeve” e se você não conhecesse melhor, poderia ter adivinhado que estava ouvindo Drake. você fez Como você provavelmente sabe, está ouvindo o sinal de abertura de uma nova batalha jurídica e cultural. Foi uma batalha sobre como os serviços de IA deveriam ser capazes de usar os rostos e vozes das pessoas e como as plataformas deveriam responder.
Em 2023, a faixa falsa de Drake gerada por IA, ‘Heart on My Sleeve’, era uma novidade. No entanto, o problema que apresentava era claro. A música surpreendeu os músicos com sua imitação de um grande artista. O serviço de streaming o removeu seguindo questões técnicas legais de direitos autorais. No entanto, não foi criado diretamente pelo criador. cópia Qualquer coisa – é apenas uma imitação muito próxima. Assim, a atenção rapidamente se deslocou para a área separada do quase-direito. Este já foi um campo sinônimo de celebridades buscando endossos e paródias não autorizadas e, à medida que os deepfakes de áudio e vídeo proliferavam, parecia uma das poucas ferramentas disponíveis para regulá-los.
Ao contrário dos direitos de autor, que são regidos pela Lei dos Direitos de Autor do Milénio Digital e por vários tratados internacionais, não existe uma lei federal que reja os direitos de publicidade. É uma colcha de retalhos de feitiços diferentes, nenhum dos quais foi originalmente projetado com a IA em mente. Mas nos últimos anos, esforços foram feitos para mudar isso. Em 2024 Governador do Tennessee, Bill Lee O governador da Califórnia, Gavin Newsom (ambos os estados dependem fortemente da indústria da mídia), assinou legislação que amplia as proteções contra a pirataria de celebridades.
No entanto, espera-se que a lei se desenvolva mais lentamente do que a tecnologia. No mês passado, a OpenAI lançou o Sora, uma plataforma de criação de vídeo com IA especificamente destinada a capturar e remixar aparências humanas da vida real. Isto abriu as comportas para uma torrente de deepfakes, muitas vezes chocantemente realistas, inclusive de pessoas que não consentiram na sua criação. A OpenAI e outras empresas estão a responder implementando as suas próprias políticas de similaridade. Esta poderia ser a nova regra da Internet, pelo menos.
A OpenAI negou o lançamento do Sora de forma imprudente, com o CEO Sam Altman alegando que era “muito restritivo” por causa das grades de proteção. Porém, o serviço ainda gerou muitas reclamações. Foi lançado com restrições mínimas a retratos de figuras históricas. curso reverso Depois que o espólio de Martin Luther King Jr. reclamou de “representações desrespeitosas” do líder dos direitos civis assassinado. Espalhar o racismo ou cometer crimes. Apesar de promoverem restrições cuidadosas ao uso não autorizado de imagens de pessoas vivas, os usuários encontraram maneiras de colocar celebridades como Bryan Cranston em vídeos de Sora fazendo coisas como: tire uma selfie Isso levou a uma reclamação da SAG-AFTRA, que, junto com Michael Jackson, forçou a OpenAI a reforçar suas proteções de maneiras não especificadas.
Até mesmo algumas pessoas fez A aprovação de Sora Cameo (uma palavra que significa vídeo usando semelhanças humanas) foi perturbadora pelos resultados, que incluíram mulheres. Todos os tipos de produção fetichista. Altman disse que não percebeu que as pessoas poderiam ter sentimentos “intermediários” em relação às imagens aprovadas, como não querer “linguagem ofensiva ou palavras que considero profundamente problemáticas” em participações especiais públicas.
Sora tem lidado com mudanças, como mudanças nas políticas de figuras históricas, mas não é o único serviço de vídeo de IA, e as coisas estão ficando muito estranhas em todos os aspectos. O desperdício de IA tornou-se uma norma para a administração do presidente Donald Trump e alguns outros políticos, incluindo representações grosseiras ou abertamente racistas de certos inimigos políticos. Parece o influenciador progressista Harry SissonCandidato a prefeito de Nova York Postado por Andrew Cuomo. O vídeo ‘Criminosos de Zoran Mamdani’ mostrando seu oponente democrata engolindo um punhado de arroz (e rapidamente excluído). como Kat Tenbarge escreve: Notícias Spitfire No início deste mês, os vídeos de IA também se tornaram munição em dramas de influenciadores.
Quase sempre existe a possibilidade de tomar medidas legais por causa de vídeos não autorizados, assim como celebridades como Scarlett Johansson contrataram advogados pelo uso de sua imagem. Mas, ao contrário das alegações de violação de direitos de autor da IA, que suscitaram numerosos processos judiciais de grande repercussão e deliberações quase contínuas por parte dos reguladores, poucos incidentes semelhantes chegaram a esse nível. Talvez em parte porque o ambiente jurídico permanece fluido.
SAG-AFTRA agradeceu à OpenAI por mudar as barreiras de proteção de Sora e aproveitou a oportunidade para promover a Lei Nurture Originals, Foster Art, Keep Entertainment Safe (NO FAKES), uma tentativa de anos de codificar proteções contra “cópias digitais não autorizadas”. Eu usei. que proibição falsaque também ganhou o apoio do YouTube, introduz um direito nacional de controlar o uso de “representações eletrônicas altamente fotorrealistas geradas por computador” de vozes ou semelhanças visuais de pessoas, vivas ou mortas. Isto também inclui a responsabilidade por serviços online que permitem conscientemente a reprodução digital não autorizada.
A proibição da farsa atraiu severas críticas de grupos de liberdade de expressão online. A EFF o apelidou. Um mandato de “nova infra-estrutura de censura” que força as plataformas a filtrar o conteúdo de forma demasiado ampla levará quase inevitavelmente a remoções não intencionais e a um “veto dos booers” online. O projeto de lei inclui distinções para paródia, sátira e comentário, que deveriam ser permitidos sem autorização, mas isso “será um consolo para aqueles que não podem se dar ao luxo de litigar a questão”, alertou a organização.
Os oponentes da Lei NO FAKES podem se consolar com a pouca legislação que o Congresso aprova atualmente. Atualmente estamos enfrentando esses desafios. Segunda paralisação do governo federal mais longa da históriaE há um esforço separado para bloquear a regulamentação nacional da IA que poderia invalidar leis novas e semelhantes. Contudo, em termos práticos, a regra da similaridade ainda se aplica. No início desta semana, o YouTube anunciou que os criadores do programa de parceria podem usar sósias para procurar uploads não autorizados e solicitar sua remoção. A medida expande as políticas existentes que, entre outras coisas, permitem que parceiros da indústria musical retirem conteúdo que “imite a voz distinta de canto ou rap de um artista”.
E apesar de tudo isto, as normas sociais continuam a evoluir. Estamos entrando em uma era em que é fácil criar vídeos de quase qualquer pessoa fazendo quase qualquer coisa. deve você? Em muitos casos, essas expectativas ainda são verdadeiras.
- A maior parte da conversa recente é simplesmente sobre vídeos de IA de pessoas fazendo coisas estranhas ou estúpidas. No entanto, historicamente estudos têm mostrado que A esmagadora maioria dos deepfakes Imagens pornográficas de mulheres são frequentemente criadas sem consentimento. Além da concha, há uma conversa totalmente diferente sobre coisas como: Resultados do serviço AI Nudifye questões legais Semelhante a outras imagens sexuais não consensuais.
- Além das questões legais básicas sobre quando uma imagem pode ser não autorizada, há questões como quando um vídeo pode ser difamatório (se for suficientemente realista) ou assédio (se fizer parte de um padrão mais amplo de perseguição e intimidação), o que pode complicar ainda mais situações individuais.
- As plataformas sociais estão quase sempre habituadas a serem isentas de responsabilidade através da Secção 230, que estabelece que não podem ser tratadas como editores ou apresentadores de conteúdos de terceiros. À medida que mais e mais serviços tomam medidas proativas para ajudar os usuários a criar conteúdo, até que ponto a Seção 230 irá para proteger as imagens e vídeos resultantes parece uma questão interessante.
- Apesar dos temores de longa data de que a IA tornará virtualmente impossível distinguir entre fantasia e realidade, muitas vezes ainda é tão simples quanto usar o contexto e tudo, desde certos tiques editoriais até “contar”. Marca d’água óbvia) Certifique-se de que o vídeo seja gerado por IA. O problema é que muitas pessoas não olham com atenção ou não se importam se é falso.
- O alerta de Sara Jeong sobre fotos habilmente manipuladas é muito mais relevante agora do que quando ela o publicou em 2024.
- tempos de Nova York Tem uma aparência abrangente A afinidade especial de Trump com conteúdo gerado por IA.
- Análise de Max Read Sora como plataforma social e se vai “funcionar”.



