Um antigo apresentador de rádio da NPR está processando o Google por supostamente roubar a voz de um podcaster masculino em sua ferramenta de podcasting de IA, de acordo com uma ação movida no condado de Santa Clara, Califórnia.
David Greene – o ex-apresentador de “Morning Edition” e “Up First” e a atual voz de “Left, Right & Center” do KCRW – disse que ouviu falar pela primeira vez sobre NotebookLM, a ferramenta de IA do Google que produz podcasts automatizados sob demanda, quando um ex-colega apresentou-o a ele.
“Então… provavelmente sou a 148ª pessoa a perguntar isso, mas você permitiu sua voz no Google?” O ex-colega de trabalho de Greene escreveu o e-mail em 2024, após ter feito a injeção do dispositivo. “Parece muito com você!”
De acordo com o processo, a caixa de entrada de Greene logo foi inundada com mensagens de familiares, amigos e colegas perguntando se Greene havia fechado um acordo com o Google para usar sua voz como ferramenta para organizar um podcast – a voz de um podcaster masculino e feminino.
“Eu estava completamente assustado”, disse Greene ao Washington Post. “Há um momento de pavor em que você gosta de ouvir a si mesmo.”
“Não sou um ativista anti-IA fanático. Foi apenas uma experiência muito estranha.”
O Google, que lançou sua ferramenta automatizada de podcasting em 2024, negou as reivindicações do processo, que foi aberto em 23 de janeiro.
“Essas alegações são infundadas. O som da voz masculina na Visão Geral de Áudio do NotebookLM é baseado em um ator profissional pago contratado pelo Google”, disse o porta-voz do Google, José Castañeda, ao Post.
Greene – que conseguiu seu primeiro emprego na NPR em 2005 – a voz masculina no podcast NotebookLM soava como ele, com o mesmo fechamento e entonação e ocasionais “uhs” e “curtidas”.
“Minha voz é a maior parte de quem eu sou”, disse Greene ao Washington Post, acrescentando que os olhos de sua esposa se arregalaram quando o podcast de IA tocou para ela.
Seu caso alega, mas não prova, que o Google falsificou sua voz para seu gerador de podcast alimentado por IA.
A denúncia cita uma empresa forense de IA não identificada que usou seu software para analisar o áudio do NotebookLM, dando uma estimativa de 53% a 60% de que a voz verde foi usada para treinar o bot. Esta é a classificação de confiança de “segunda profundidade”, de acordo com o estudo.
O caso mais recente de Green é uma questão de grande estabilidade técnica sobre possíveis infrações legais na instalação de ferramentas de IA.
Scarlett Johansson ameaçou com ação legal contra a OpenAI em 2024, quando “Heaven” lançou uma voz de chatbot que parecia a da famosa atriz – após recusar uma oferta do grupo para se tornar um dos robôs de Hope. Eles finalmente excluíram o OpenAI da plataforma Sky.
A plataforma de mídia social X, anteriormente conhecida como Twitter, enfrentou reação negativa em 2024 depois que imagens “deepfake” sexualmente explícitas de Taylor Swift foram vistas milhões de vezes no aplicativo.
O tribunal removeu temporariamente o nome do cantor e palavras relacionadas da barra rastreada – embora uma das imagens geradas por IA já tivesse sido visualizada 47 milhões de vezes antes de ser removida.
O advogado de Green – Joshua Michelangelo Stein, associado da Boies Schiller Flexner – também representa autores de livros, incluindo a comediante Sarah Silverman e o jornalista Ta-Nehisi Coates em seu processo de direitos autorais de IA contra Meta.
“Temos fé no tribunal e encorajamos as pessoas a darem o exemplo ao ouvirem a si mesmas”, disse Stein ao Washington Post.
Stein não respondeu imediatamente ao pedido de comentários do Post.



