O que está acontecendo: Ted Sarandos é o CEO da Netflix. Fale sobre como a IA funciona Esta nova ferramenta incrível ajuda as pessoas a “contar histórias melhor, mais rápida e de novas maneiras”. Tudo parece bom, certo?
- Mas a realidade é esta. Enquanto ele fala, a nova ferramenta de criação de vídeo da OpenAI, Sora 2, está sendo usada para inundar a Internet com alguns. O conteúdo mais feio que se possa imaginar.
- Estamos falando da onda de vídeos de ‘comédia’ fatfóbicos e racistas que se espalham pelo Instagram, YouTube e TikTok. As pessoas estão criando e compartilhando vídeos brutais usando o Sora 2, que permite criar clipes incrivelmente realistas.
- Esse exemplo é verdadeiramente horrível. Há um vídeo viral que foi visto quase um milhão de vezes mostrando uma mulher com excesso de peso fazendo bungee jumping e sua perna “desabando” embaixo dela. Outra mostra uma mulher negra “caindo no chão de um KFC”. Esta é uma mistura nojenta de racismo e vergonha do corpo. Depois, há outros, que mostram entregadores caindo nas varandas ou “inchando” após uma refeição.
- E a parte mais assustadora? Muitas pessoas que veem este vídeo pensam que é real.
Por que isso é importante: Este é o grande problema da IA sobre o qual ninguém quer falar. Isso incluiu a criação de conteúdo odioso com esteróides.
- O que alguém com habilidades reais de produção levaria muitas horas para fazer agora pode ser feito por um odiador em segundos.
- Isto não é apenas “mau gosto”, é uma verdadeira crise ética. É uma forma de produzir em massa e amplificar os estereótipos mais prejudiciais sobre as pessoas em troca de risadas baratas.
- Isso também prova que as “proteções” que empresas de IA como a OpenAI afirmam ter em suas ferramentas estão falhando. Miseravelmente. Este tipo de conteúdo odioso e violento deveria ser bloqueado, mas claramente não é.

Por que eu deveria me importar: Se você usa mídias sociais, provavelmente já está vendo isso. Isto não é apenas trollagem online inofensiva.
- Essa porcaria molda a forma como as pessoas veem o mundo, especialmente as crianças.
- E como muitas pessoas não conseguem distinguir entre o que é criado pela IA e o que é real, os limites entre a realidade, o humor negro e o ódio puro e não adulterado tornam-se completamente confusos.
- E, claro, se um desses vídeos se tornar viral, ele apenas motivará uma dúzia de pessoas a criar suas próprias versões e clicar e “curtir” neles.
O que vem a seguir: Até agora, a OpenAI manteve-se completamente silenciosa sobre a nova onda de conteúdo fatfóbico.
- Mas está a forçar uma conversa necessária e desconfortável sobre quem é responsável quando estas ferramentas poderosas são utilizadas para ferir e assediar pessoas.
- Os reguladores estão claramente começando a prestar atenção. À medida que estas ferramentas de IA se tornam tão fáceis de utilizar como os filtros, o verdadeiro desafio é descobrir como podemos impedir que toda esta “criatividade” nos custe a nossa humanidade.



