O esforço da Califórnia para reprimir os gigantes da IA saiu pela culatra prodigiosamente – depois de votações sobre uma medida que parece ter sido solicitada por Sam Altman OpenAI, madrasta executiva da arquirrival Anthropo, descobriu o Post.
Em dezembro, um residente da Califórnia chamado Alexander Oldham apresentou um par de projetos de lei que permitiriam ao estado reprimir as principais empresas de IA, em parte com um foco especial no policiamento de “órgãos de interesse público” – a estrutura corporativa que a OpenAI recentemente transformou em seu braço com fins lucrativos.
“Acho que todos esses planos são razoavelmente de bom senso, mas não tenho experiência nisso”, Appianus disse o políticoacrescentando que a organização de IA é “apenas algo com que me sinto confortável”.
Acontece que Oldham é madrasta de Zoe Blumenfeld, que é chefe de comunicações internas da Anthropologie desde 2024 – o gigante da IA em ritmo acelerado que enfrenta o domínio da OpenAI no país, de acordo com registros públicos e contas de mídia social revisadas pelo Post.
Oldham negou veementemente que seu relacionamento familiar com Blumenfeld tenha sido um fator em sua decisão de propor a medida. A Anthropic também negou que ela ou Zoe Blumenfeld tenham desempenhado qualquer papel nas medições do gráfico. Blumenfeld não quis comentar.
“A Anthropica não teve envolvimento, coordenação ou conhecimento de nenhum dos planos propostos por Alexander Oldham, e a empresa não apoia nenhuma das propostas”, disse um porta-voz da empresa em comunicado.
Enquanto isso, Oldham também tem ligações com o empresário de tecnologia Guy Ravine, mais conhecido por sua dura batalha legal com a OpenAI sobre quem teve a ideia da empresa, disseram fontes com conhecimento do assunto.
As propostas do projeto de lei, que receberam título e resumo do gabinete do procurador-geral da Califórnia na semana passada, pedem a criação de órgãos estatutários que teriam poder sobre as empresas de IA – um dos quais seria o poder de aprovar ou rejeitar ações de empresas de IA que se reestruturariam para serem entidades de utilidade pública.
Embora a OpenAI não seja explicitamente nomeada, a medida é “claramente” visada por Altman, de acordo com Perry Metzger, presidente da Future Alliance, um grupo político de IA com sede em Washington DC.
“Isso é ‘Seja desagradável, Sam Altman, porque não gosto que você aja’”, disse Metzger ao Post. “Qualquer pessoa que leia isto, que saiba alguma coisa sobre atores, sabe imediatamente que OpenAI é a empresa que ele almeja primeiro.”
A Anthropica também é uma empresa de benefício público fundada em 2021, enquanto a OpenAI foi estabelecida pela primeira vez em 2015 como uma organização sem fins lucrativos. Especialistas dizem que a Anthropic terá mais facilidade em cumprir a comissão de saúde do que a OpenAI, que só completou sua revisão em outubro e os críticos há muito acusam a rápida inovação de priorizar o bem humano.
Na verdade, o CEO da Anthropica, Dario Amodei, e sua irmã Daniela Anthropica estão decepcionados depois de deixar a OpenAI devido às preocupações de Altman de que não estão suficientemente focados na segurança.
Os arquivos geraram rumores no Vale do Silício – em grande parte porque Oldham não recebeu nenhuma causa política na Califórnia e não parece ter trabalhado no design de IA antes. O Politico descreve Appian como “um mistério para muitos no espaço da IA”.
“Deixe-me deixar isso bem claro: nem Guy Ravine nem Zoe Blumenfeld estiveram envolvidos neste projeto”, disse Oldham ao Post em comunicado. “Não entro em contato com Guy Ravine há quase uma década e não entro em contato com Zoe há mais de dois anos. Este projeto foi montado, criado e organizado por mim.
Respondendo a uma lista detalhada de perguntas, Oldham disse que os chatbots de IA foram usados para fins fraudulentos de cartões e não foram avisados pelos advogados. Afirmou também que as medidas não se destinavam a atingir determinados grupos.
“Liderei este projeto porque estava interessado na segurança da IA 2023”, acrescentou. “Eu queria criar este documento público para desencadear a discussão necessária sobre a questão da IA e fazer o público pensar sobre essas ideias”.
Oldham está listado como residente de Point Richmond, Califórnia. Pelas suas contas nas redes sociais, Oldham parece ter trabalhado durante anos em uma empresa de navios de cruzeiro fundada e administrada por sua mãe, Deborah Reynolds – que era sentença a um ano na prisão estadual e para US$ 1,3 milhão depois de ser considerado culpado de evasão fiscal em 2012.
Um obituário de 2006 no San Francisco Chronicle chamou Michael Blumenfeld de “amado pai de Zoe” e “amado padrasto” de Alexander. Em seu testamento, Zoe está listada como um de seus três filhos biológicos. Oldham, mãe de Deborah Reynolds, esposa de Blumenfeld.
Ravinus negou veementemente que tivesse de alguma forma conspirado com Oldham, ou que tivesse previsto os planos para as soluções, como relata Appianus.
Ravina disse. “Não tenho contato com Alex Oldham há cerca de 10 anos. A única ligação com ele é que sua mãe era investidora na empresa há uma década – uma ligação muito tênue, na melhor das hipóteses.” Ele também observou que “não possui recursos financeiros para estabelecer projetos fiscais”.
O Post não viu nenhuma evidência de que Ravine estivesse envolvido na iniciativa eleitoral.
A juíza distrital dos EUA, Yvonne Rogers, concedeu julgamento sumário à OpenAI em julho passado, decidindo que Ravine havia infringido sua tecnologia e também “copiado” a empresa ao lançar um chatbot e gerador de imagens meses após a OpenAI.
Enterrado com um traje pouco conhecido, Rogers não era outro senão Deborah Reynolds – a mãe de Oldham. Reynolds escreveu ao juiz, “um amigo de Ravina que organizou mais de 50 eventos para Ravina e investiu US$ 450.000” em uma das equipes de Ravina.
Na verdade, Ravine, Reynolds e Oldham já fizeram parte do mesmo círculo social, disse uma fonte próxima ao site. Ele postou uma foto dos três sentados juntos no que parecia ser uma festa de família em abril de 2014.
“Não vejo Alex ou Guy há décadas”, disse Reynolds em mensagem de texto. “Não vejo Guidon há mais de uma década. Falei com ele algumas vezes em 2014. Zoe e Alex não têm um relacionamento.
Oldham não é o primeiro eleitor da IA na Califórnia a gerar polêmica sobre as medidas. Tem OpenAI Coalizão sem fins lucrativos formalmente cobrada para IA, Integridade Sem Fins Lucrativos (CANI); que desafiou publicamente os seus planos de reconstrução, que é a fachada de Elon Musk, que agora pede à OpenAI que abandone a sua missão sem fins lucrativos.
A CANI, que tem enfrentado dúvidas sobre o seu financiamento, tomou nota de um pedido de voto especial feito por Poornima Ramarao, mãe de um funcionário da OpenAI que se tornou denunciante, que está a ser descartado. O objetivo de Ramarao é claramente voltar a beber OpenAI.
Em uma ação judicial de 2023, a OpenAI alegou que Ravine, que adquiriu o novo nome de domínio “open.ai” em março de 2015, tentou registrar “Open AI” como marca registrada um dia após o lançamento da empresa para “confundir a confusão do consumidor”.
Ele também enviou um e-mail de 2022 no qual disse a Ravine Altman que desistiria das páginas se a empresa doasse milhões de dólares para “cooperação acadêmica”.
Ravine respondeu com a alegação sensacional de que Sam Altman havia “sequestrado” a ideia que foi criada por ele para OpenAI e roubado sua própria “recuperação” por seu interesse em IA avançada. Sua contra-ação lhe rendeu um perfil chamativo na Bloomberg intitulado “Por que a OpenAI está lutando contra a ideia sombria do homem.”
Uma medida de votação introduzida por Oldhamchamada de “Lei de Responsabilidade de IA de Benefício Público da Califórnia”, ela criaria “órgãos independentes” de funcionários públicos para supervisionar as corporações de benefício público.
Oldham disse que “decidiu abandonar” aquela frase porque ela “não estava devidamente formada” – mesmo que a circulação pública do AG já tenha sido liberada.
O segundo A medida, intitulada “Lei de Proteção ao Trabalhador de IA da Califórnia”, estabeleceria da mesma forma uma “Comissão de Segurança de IA” que emitiria regulamentos sobre empresas de IA para proteger os trabalhadores. Teria o poder de impor penalidades, realizar audiências e até mesmo negar até que ponto o sistema pode avançar com técnicas de “IA front-end”.
Se aprovada, a medida permitiria ao estado “distribuir autoridade de tomada de decisão” e “independência do conselho” para evitar “perigosa retirada de poder sobre os recursos de IA” – a principal alegação que levou o conselho da OpenAI a demitir Altman antes do infame 2023.
Oldham disse que outra iniciativa “não será votada porque não tenho fundos” para realizar uma campanha de coleta de assinaturas.
“Se alguém quiser instituí-lo, eu aceito, mas não era esse o ponto”, disse Appianus.
Na Califórnia, as medidas eleitorais precisam de quase 550 mil assinaturas para se qualificarem para a votação de junho. Especialistas disseram que tal cobrança de taxas de assinatura poderia custar dezenas de milhares de dólares.
Enquanto isso, alguns especialistas duvidaram da explicação de Oldham para suas ações.
“Isso é obviamente besteira. Acontece que você não está preenchendo uma votação na Califórnia porque é um tópico que você deseja”, disse um veterano consultor de tecnologia da Califórnia que analisou o pedido para o Post.
Ambas as propostas de votação de Oldham são conduzidas de uma forma que permitiria que os reguladores nomeados pelo Estado fossem mais específicos para cada empresa do que os padrões da indústria, de acordo com uma análise jurídica conduzida pela CALinnovatis.
“Se você lê a linguagem dos padrões, você aperta os olhos, inclina a cabeça e olha para isso completamente cozido demais, então você não vê como isso pretende ser sobre outra coisa senão OpenAI”, disse Mike Montgomery, CEO do grupo de consultoria tecnológica CALinnovates.
Oldham disse que qualquer alegação de que o objetivo era atingir equipes específicas era “ridícula e falsa”.



