Na tarde de sexta-feira, enquanto acontecia esta entrevista, um alerta de notícias apareceu na tela do meu computador. A administração Trump estava cortando relações com a Anthropic, uma empresa de IA de São Francisco fundada em 2021 por Dario Amodei. O secretário de Defesa, Pete Hegseth, falou logo depois que Amodei se recusou a usar a tecnologia da Anthropic para vigilância em massa de cidadãos dos EUA ou para drones armados autônomos que poderiam selecionar e matar alvos sem intervenção humana, invocando a Lei de Segurança Nacional para colocar a empresa na lista negra de fazer negócios com o Departamento de Defesa.
Foi uma série de eventos de cair o queixo. A Anthropic perderá até US$ 200 milhões em contratos e poderá ser proibida de trabalhar com outros empreiteiros de defesa depois que o presidente Trump disse ao Truth Social que todas as agências federais “cessarão imediatamente o uso de toda a tecnologia da Anthropic”. (Anthropic disse mais tarde que isso aconteceria. Desafie o Ministério da Defesa em tribunal.)
Max Tegmark passou quase uma década alertando que a corrida para construir sistemas de IA mais poderosos está ultrapassando a capacidade mundial de gerenciá-los. Fundado por um físico do MIT Instituto de Pesquisa de Vida Futura Ajudei a organizá-lo em 2014 e 2023. carta aberta — Em última análise, assinado por mais de 33.000 pessoas, incluindo Elon Musk, apelando à suspensão do desenvolvimento de IA avançada.
Sua visão da crise humana era implacável. Tal como os seus concorrentes, a empresa lançou as sementes da crise. O argumento da Tegmark não começou com o Departamento de Defesa, mas com uma decisão tomada anos antes, uma decisão partilhada por toda a indústria para resistir à regulamentação. Anthropic, OpenAI, Google DeepMind e outros há muito se comprometem a governar com responsabilidade. Esta semana Antrópico mesmo Princípios fundamentais do nosso próprio compromisso de segurança — uma promessa de não lançar sistemas de IA cada vez mais poderosos até que a empresa esteja confiante de que não causarão danos.
Agora, sem regras, não há muito que possa ser feito para proteger estes jogadores, disse Tegmark. Detalhes dessa entrevista, editados para maior extensão e clareza, seguem. Você pode ouvir a conversa completa no TechCrunch esta semana. Baixar estritamente VC Podcast.
Qual foi sua primeira reação ao ver essa notícia sobre a Antrópica?
O caminho para o inferno está pavimentado de boas intenções. É muito interessante olhar para trás há 10 anos, quando as pessoas estavam muito entusiasmadas com a forma como poderíamos criar inteligência artificial para curar o cancro, aumentar a prosperidade americana e tornar a América mais forte. E agora estamos zangados com esta empresa porque o governo dos EUA não quer que a IA seja usada para vigilância doméstica em massa dos americanos, e não quer robôs assassinos que possam decidir autonomamente quem será morto sem intervenção humana.
Evento de crise tecnológica
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
A Anthropic apostou toda a sua identidade em ser uma empresa de IA que prioriza a segurança, mas tem trabalhado com agências de defesa e inteligência (pelo menos desde 2024). Você acha que isso é contraditório?
É contraditório. Se você puder ser um pouco cínico sobre isso, sim. A Anthropic tem sido muito boa em se promover como sendo totalmente voltada para segurança. Mas se você realmente olhar para os fatos e não para as afirmações, verá que Anthropic, OpenAI, Google DeepMind e xAI disseram muito sobre como pensam sobre segurança. Nenhum deles apoiou regulamentações de segurança vinculativas como em outras indústrias. E todas as quatro empresas já renegaram as suas promessas. Primeiro foi o Google. O grande slogan era ‘Não seja mau’. Então eles o abandonaram. Depois, recuaram em outra promessa de longo prazo, que consistia basicamente em não causar danos à IA. Eles desistiram para vender IA para vigilância e armas. A OpenAI removeu a palavra segurança de sua declaração de missão. xAI desligou toda a sua equipe de segurança. E no início desta semana, a Anthropic voltou atrás na sua promessa de segurança mais importante: não lançar sistemas poderosos de IA até ter certeza de que não causariam danos.
Como é que as empresas com promessas de segurança tão importantes chegaram a este ponto?
Todas essas empresas, especialmente OpenAI e Google DeepMind, mas também, até certo ponto, Anthropic, estão dizendo: ‘Confie em nós. Nós iremos nos regular”, disse ele, e continuou a fazer lobby pela regulamentação da IA. E eles fizeram lobby com sucesso. Portanto, há atualmente menos regulamentação de sistemas de IA nos Estados Unidos do que de regulamentação de sanduíches. Se você quiser abrir uma lanchonete e o fiscal de saúde encontrar 15 ratos na cozinha, ele não deixará você vender sanduíches até que você conserte. Mas ‘não se preocupe. Não vou vender sanduíches. Eu venderia uma namorada de IA para uma criança de 11 anos. Eles foram associados ao suicídio no passado. Ele então anunciará que é uma superinteligência capaz de derrubar o governo dos Estados Unidos. Mas me sinto bem com o meu. – O inspetor disse: ‘Tudo bem, vá em frente. Não venda sanduíches.
Existem regulamentos de segurança alimentar, mas não existem regulamentos de IA.
E acho que todas essas empresas realmente compartilham responsabilidades. Porque isto é o que teria acontecido se eles tivessem assumido todas as promessas que fizeram no passado e como eram tão seguras e boas e se tivessem reunido e ido ao governo e dito: ‘Por favor, aceite os nossos compromissos voluntários e transforme-os em lei americana que vincula até os nossos concorrentes mais desleixados.’ Em vez disso, estamos num completo vazio regulamentar. E sabemos o que acontece quando há uma anistia corporativa total. talidomidaQuando as empresas de tabaco obrigam as crianças a fumar, é produzido amianto, que causa cancro do pulmão. Portanto, é um tanto irônico que sua própria resistência às leis que definem o que é certo e o que não é certo quando se trata de IA esteja agora voltando para mordê-los.
Actualmente não existem leis que proíbam a construção de IA para matar americanos, pelo que o governo pode subitamente ser solicitado a fazê-lo. Se as empresas tivessem se manifestado antes e dito: “Queremos esta lei”, não estariam nesta situação. Eles realmente deram um tiro no pé.
O contra-argumento das empresas é sempre a concorrência com a China. Se as empresas americanas não fizerem isso, a China o fará. Essa afirmação é válida?
Vamos analisar isso. A coisa mais comum que os lobistas das empresas de IA dizem – eles são agora mais bem financiados e superados em número pelos lobistas da indústria dos combustíveis fósseis, da indústria farmacêutica e do complexo militar-industrial – é que sempre que alguém propõe regulamentação de qualquer tipo, eles dizem “mas a China”. A China está tomando medidas para banir completamente a namorada AI. Proibições, bem como restrições de idade, estão sendo consideradas. Toda IA antropomórfica. por que? Não porque queiram agradar à América, mas porque sentem que isto está a arruinar a juventude da China e a enfraquecer a China. É evidente que também está a enfraquecer a juventude americana.
E quando as pessoas dizem que temos de correr para construir superinteligência para vencer a China, porque não sabemos realmente como controlar a superinteligência, o resultado padrão é que a humanidade perde o controlo da Terra para máquinas alienígenas. O Partido Comunista Chinês realmente gosta de controle. Quem em sã consciência pensa que Xi Jinping toleraria que alguma empresa chinesa de IA criasse algo para derrubar o governo chinês? Sem chance. Seria obviamente uma coisa muito má para o governo dos EUA ser derrubado num golpe de Estado pela primeira empresa americana a construir superinteligência. Isto é uma ameaça à segurança nacional.
Este é um enquadramento convincente que vê a superinteligência como uma ameaça à segurança nacional e não como um trunfo. Você vê essa visão ganhando força em Washington?
Quando as pessoas da comunidade de segurança nacional ouvem Dario Amodei descrever a sua visão, ele faz o seu famoso discurso onde diz que estamos prestes a ter uma reunião. Uma terra de gênios em data centers — Eles podem começar a pensar: ‘Espere um minuto, Dario acabou de usar a palavra nação? Talvez eu devesse colocar aquele país de gênios em um data center na mesma lista de ameaças que estou monitorando. Porque parece ameaçador para o governo dos EUA. E penso que, mais cedo ou mais tarde, muitos membros da comunidade de segurança nacional dos EUA perceberão que a superinteligência descontrolada é uma ameaça, não uma ferramenta. Isto é completamente análogo à Guerra Fria. Houve uma competição pelo domínio económico e militar contra a União Soviética. Nós, americanos, ganhámos essa corrida sem nos envolvermos numa segunda corrida para ver quem conseguia colocar o maior número de crateras nucleares nas outras superpotências. As pessoas perceberam que era apenas suicídio. Ninguém vence. A mesma lógica se aplica aqui.
O que tudo isto significa para o ritmo de desenvolvimento da IA de forma mais ampla? E quão próximos você acha que estamos do sistema que você descreve?
Há seis anos, quase todos os especialistas em IA que conheço previram que passariam décadas até que tivéssemos uma IA capaz de dominar a linguagem e o conhecimento a níveis humanos. Talvez 2040, talvez 2050. Todos estão errados. Porque agora já temos. Vimos a IA avançar muito rapidamente em algumas áreas, desde o ensino médio até o nível universitário, do nível de doutorado até o nível de professor universitário. No ano passado, a IA ganhou a medalha de ouro na Olimpíada Internacional de Matemática, que é tão difícil quanto o trabalho humano. meu escreveu uma tese junto Josué Bengio, e HendricksE há apenas alguns meses, outros importantes pesquisadores de IA apresentaram uma definição rigorosa de AGI. De acordo com isso, o GPT-4 progrediu para cerca de 27%. O GPT-5 está cerca de 57% concluído. Ainda não chegamos lá, mas você pode ver rapidamente que passar de 27% para 57% pode não demorar muito.
Ontem, quando estava dando uma palestra para alunos do MIT, disse que mesmo que demore quatro anos para se formar, talvez você não consiga mais emprego. Definitivamente, nunca é cedo demais para começar a se preparar para isso.
Antrópico agora está na lista negra. Eu me pergunto o que acontecerá a seguir. Irão outros gigantes da IA apoiar isto e dizer: ‘Nós também não vamos fazer isto’? Ou alguém como xAI levanta a mão e diz ‘A Antrópico não queria esse contrato, nós aceitamos’? (Nota do editor: Horas depois da nossa entrevista, a OpenAI anunciou o seu próprio contrato com o Departamento de Defesa.)
Ontem à noite, Sam Altman apareceu e disse que ele também apoia o Anthropic e compartilha a mesma linha vermelha. Admiro sua coragem em dizer isso. O Google não tinha nada a dizer quando iniciamos esta entrevista. Seria extremamente embaraçoso para nós, como empresa, se eles permanecessem calados, e acho que muitos de nossos funcionários sentiriam o mesmo. Também não ouvi nada do xAI ainda. Então será interessante ver. Basicamente, há momentos em que todos têm que mostrar a sua verdadeira face.
Existe uma versão com resultados realmente bons?
Sim, é por isso que estou estranhamente otimista. Há uma alternativa muito clara aqui. Se começarmos a tratar as empresas de IA como qualquer outra empresa, precisaremos revogar a anistia corporativa. Obviamente, terão de provar a especialistas independentes que sabem como conduzir e controlar coisas como ensaios clínicos antes de lançarem um produto forte. Então entraremos em uma era de ouro com todas as coisas boas da IA, sem a ansiedade existencial. Não é esse o caminho que estamos trilhando agora. Mas poderia ser assim.



