Início ESPECIAIS Fontes anônimas detalham as afirmações não confiáveis ​​de Sam Altman em um...

Fontes anônimas detalham as afirmações não confiáveis ​​de Sam Altman em um novo relatório.

12
0

Na segunda-feira nova iorquino Sam Altman publicou uma longa investigação detalhando o período que antecedeu e se seguiu à sua breve demissão do cargo de CEO da OpenAI.

No final de 2023, o conselho da OpenAI chocou o Vale do Silício ao demitir repentinamente Sam Altman. Após uma campanha de cinco dias na mídia por parte de Altman e seus apoiadores e uma carta aberta exigindo seu retorno, Altman retornou à empresa como CEO. Os membros do conselho que lideraram o golpe foram depostos e substituídos por aliados de Altman, incluindo o economista Larry Summers e o ex-CTO do Facebook Bret Taylor, que agora atua como presidente do conselho da OpenAI.

Quando Altman voltou como CEO, os funcionários da OpenAI começaram a se referir aos tumultuados dias como o “Blip”. Esta é uma referência aos eventos do Universo Cinematográfico Marvel, onde o supervilão Thanos destruiu metade da população mundial durante um período de cinco anos.

De acordo com um relatório da New Yorker, citando entrevistas com dezenas de pessoas bem informadas, incluindo Altman, o executivo da OpenAI foi demitido porque o seu conselho de administração decidiu que não confiava nele o suficiente para “apertar o botão” da superinteligência artificial, um futuro sistema de IA teórico e altamente competitivo que poderia superar a inteligência humana em todos os sentidos. O termo às vezes é usado de forma intercambiável com Inteligência Geral Artificial (AGI), mas descreve etapas além disso.

Após um memorando confidencial enviado a outros membros do conselho pelo então cientista-chefe da OpenAI, Ilya Sutskever, o conselho compilou cerca de 70 páginas de documentos demonstrando o “padrão consistente de mentira” de Altman, incluindo protocolos de segurança internos.

A suposta história de mentiras de Altman se estende até mesmo antes da OpenAI, de acordo com o relatório. De acordo com a investigação, funcionários seniores da antiga startup de Altman, o agora extinto serviço de compartilhamento de localização Loopt, pediram ao conselho que o demitisse do cargo de CEO devido a preocupações com a falta de transparência.

Altman foi criticado por seu trabalho na aceleradora de startups Y Combinator, onde liderou a empresa por cinco anos até ser demitido por desconfiança, segundo fontes citadas no artigo. Os executivos da Y Combinator disseram que ele não foi demitido, mas simplesmente solicitado a escolher entre o acelerador de startups e o OpenAI. O falecido hacktivista e ex-coproprietário do Reddit Aaron Swartz, que era colega de Altman quando ele se juntou à Y Combinator como empresário na Loopt, supostamente o descreveu como um “sociopata” em quem “nunca se poderia confiar”.

Na OpenAI, Altman foi acusado de mentir para executivos e também para funcionários do governo. O relatório detalha casos em que Altman disse a autoridades de inteligência dos EUA que a China havia solicitado financiamento governamental para lançar um grande projeto de desenvolvimento de AGI e lançar uma contra-ofensiva, mas não forneceu qualquer prova quando questionado.

O relatório também detalha o caso de Altman por supostamente desmentir o cofundador da Anthropic e então funcionário da OpenAI, Dario Amodei, em relação às disposições do acordo multibilionário da Microsoft que a OpenAI assinou em 2019 que ignorou uma cláusula altruísta que Amodei incluiu no estatuto da empresa. A cláusula em questão era sobre AGI e presumia que se outras empresas encontrassem uma maneira de construí-lo com segurança, a OpenAI, como uma organização sem fins lucrativos com objetivos de segurança em primeiro lugar, “pararia de competir com este projeto e começaria a apoiá-lo”. Desde então, a OpenAI se reestruturou em uma empresa com fins lucrativos.

Até mesmo alguns executivos seniores da Microsoft, com quem a OpenAI mantém uma parceria de longa data desde o acordo de 2019, descreveram Altman como “alguém que deturpou, distorceu, renegociou e quebrou contratos”. Um executivo sênior parece ter dito o seguinte sobre Altman: “Acho que é uma possibilidade pequena, mas real, de que ele acabe sendo lembrado como um fraudador de nível Bernie Madoff ou Sam Bankman-Fried”.

Estas são palavras surpreendentes para ler de um executivo de uma empresa tão grande e importante como a OpenAI, mas têm muito mais peso considerando que a OpenAI é uma empresa líder na criação de tecnologia que muitos, incluindo os seus primeiros funcionários, definiram como uma ameaça existencial para a humanidade.

Sob a liderança de Sam Altman, a tecnologia OpenAI penetrou em quase todos os aspectos da vida moderna. A IA da OpenAI é usada por dezenas de milhões de pessoas em todo o mundo para aconselhamento de saúde e por inúmeras outras em tudo, desde a automatização de tarefas em todos os setores até à conclusão dos trabalhos de casa dos alunos e até mesmo ao fornecimento de companhia sombria a pessoas solitárias que a procuram. O ChatGPT também é usado em todo o governo federal, e Altman vendeu recentemente a tecnologia ao Departamento de Defesa.

Tudo isso graças à habilidade de vendas de Altman. Ele vendeu o potencial e a realidade do ChatGPT a tantas pessoas que isso levou a uma onda de negociações sem precedentes e potencialmente vulnerável que atraiu tantos investimentos que alguns especialistas dizem que agora está sustentando toda a economia dos EUA.

O relatório da New Yorker também afirma que Altman garantiu ao conselho que o GPT-4 havia sido aprovado pelo painel de segurança, o que acabou sendo uma deturpação quando os membros do conselho solicitaram documentação de aprovação. Sutskever afirmou no memorando que Altman minimizou a necessidade de autorização de segurança, citando o conselho geral da empresa em uma conversa com a ex-CTO da OpenAI, Mira Murati. Mas quando Murati perguntou a seu conselheiro geral sobre isso, ele disse que estava “confuso de onde Sam tirou essa impressão”.

As críticas aos recursos de segurança do ChatGPT são especialmente sérias considerando as consequências do GPT-4o, a iteração do ChatGPT que se seguiu ao GPT-4. O talento do modelo para a bajulação teria levado a casos de “psicose de IA” em usuários vulneráveis, alguns resultando em morte.

Algumas das inconsistências de Altman foram bem documentadas publicamente. O representante da OpenAI fez repetidamente declarações contraditórias sobre os méritos de colocar anúncios em chatbots de IA, a necessidade de regulamentação da IA ​​e se a função de voz do ChatGPT, lançada em 2024, foi inspirada na atuação de Scarlett Johansson no filme ‘Her’. Altman também foi recentemente investigado por um enorme acordo de US$ 100 bilhões com a Nvidia que nunca se materializou conforme anunciado pela primeira vez.

O relatório também detalha como a cultura da empresa mudou significativamente após o retorno de Altman como CEO. Antes do ‘blip’, a empresa abordou o conceito AGI com cautela, mas desde então a AGI tornou-se a estrela norte da empresa, com slogans como ‘Feel AGI’ aparecendo em mercadorias espalhadas pelo escritório. Essa lacuna se manifestou na prática, à medida que a OpenAI dissolveu algumas de suas equipes principais focadas na segurança do chatbot, como a equipe Existencial AI Risk e a equipe Superalignment, ambas co-lideradas por Sutskever.

O relatório surge no momento em que a liderança de Altman é analisada à medida que a empresa começa a preparar-se para um potencial IPO.

De acordo com recente relatório de informaçõesAltman parece estar em desacordo com a administração mais uma vez, desta vez em relação aos preparativos para o IPO da OpenAI. Altman quer abrir o capital já no quarto trimestre deste ano e supostamente prometeu gastar US$ 600 bilhões nos próximos cinco anos, apesar das expectativas de que a OpenAI queimará mais de US$ 200 bilhões antes de ganhar algum dinheiro. Enquanto isso, o relatório afirma que a CFO da OpenAI, Sarah Friar, acredita que a empresa não está pronta para abrir o capital este ano devido aos seus compromissos de gastos arriscados. Ao contrário de Altman, Friar ainda não acredita que o crescimento da receita da OpenAI possa apoiar seus compromissos financeiros, e ele nem tem certeza se a empresa deveria investir tanto dinheiro em servidores de IA.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui