A ascensão da inteligência artificial aumentou a demanda por data centers como este em Londres
Jason Alden/Bloomberg via Getty Images
Se alguém construir, todos morrerão
Eliezer Yudkowsky e Nate Soares (Bodley Head, Reino Unido; Little, Brown, EUA)
Em toda a existência humana, há muitas coisas com as quais precisamos nos preocupar. As preocupações financeiras, as alterações climáticas e a procura do amor e da felicidade estão no topo da lista de muitas pessoas, mas para alguns poucos dedicados, uma preocupação está acima de todas as outras: a de que a inteligência artificial acabará por destruir a humanidade.
Elyzer Yudkowsky do Machine Intelligence Research Institute (MIRI), na Califórnia, vem empurrando a questão há um quarto de século, para um pequeno grupo de seguidores dedicados. Então entramos na era do ChatGPT, e suas ideias sobre segurança de IA foram generalizadas, apoiadas tanto por CEOs de tecnologia quanto por políticos.
Escreva com Nate Soarestambém no MIRI, Se alguém construir, todos morrerão é a tentativa de Yudkowsky de destilar seus argumentos em uma mensagem simples e fácil de digerir que possa ser aceita pela sociedade. Ele consegue atingir esse objetivo, condensando ideias anteriormente presas em longos posts de blog e artigos wiki em um livro altamente legível que é analisado por todos, desde celebridades como Stephen Fry e Mark Ruffalo até pesos pesados da política, incluindo Fiona Hill e Ben Bernanke. O problema é que, embora convincente, o argumento é fatalmente falho.
Antes de explicar porquê, admito que não dediquei a minha vida a considerar esta questão tão profundamente como Yudkowsky o fez. No entanto, não descartei sem pensar. Acompanho o trabalho de Yudkowsky há vários anos e ele tem algumas ideias muito interessantes. Eu até li e gostei muito de 660.000 palavras de sua fanfiction Harry Potter e o Método da Racionalidadeonde adere à filosofia da comunidade racionalista, que tem laços estreitos com a segurança da IA e com o movimento de altruísmo eficaz.
Todos os três movimentos procuraram derivar a sua forma de ver o mundo a partir dos primeiros princípios, aplicando lógica e evidências para determinar a melhor maneira de viver. Assim, Yudkowsky e Soares, sendo bons racionalistas, começaram Se alguém construir, todos morrerão desde os primeiros princípios também. O capítulo inicial explica como nenhuma lei da física impede o surgimento de uma inteligência superior à humana. Não acho que isso seja controverso. O capítulo a seguir fornece uma excelente explicação de como grandes modelos de linguagem (LLMs), como aqueles que suportam ChatGPT, são criados. “LLMs e humanos são máquinas geradoras de frases, mas são moldados por processos diferentes para realizar trabalhos diferentes”, dizem os dois – mais uma vez, concordo plenamente.
O terceiro capítulo é onde começamos a divagar. Yudkowsky e Soares descrevem como a IA começará a se comportar como se “desejasse” coisas, ignorando ao mesmo tempo a questão filosófica muito real de se podemos realmente dizer que uma máquina pode “querer”. Apontam para os testes do modelo o1 da OpenAI, que mostraram um comportamento inesperado para resolver um desafio de cibersegurança acidentalmente “impossível”, e apontam para o facto de o modelo não “desistir” como um sinal de que se comporta como se quisesse ter sucesso. Pessoalmente, acho difícil interpretar qualquer motivação neste cenário – se colocarmos uma barragem num rio, o rio não “desistirá” dos seus esforços para passar, mas o rio não quer mais nada.
Os próximos capítulos abordam o que é conhecido como problema de alinhamento da IA, argumentando que uma vez que uma IA tenha desejos, é impossível alinhar os seus objetivos com os da humanidade, e que uma IA superinteligente acabará por esgotar toda a matéria e energia disponíveis para alcançar as suas ambições. Esta ideia foi anteriormente popularizada como “maximização de clipes de papel” pelo filósofo Nick Bostrom, que acreditava que uma IA encarregada de criar clipes de papel acabaria por tentar transformar tudo em clipes de papel.
Claro – mas e se simplesmente desligarmos isso? Para Yudkowsky e Soares isso é impossível. A posição deles é que uma IA suficientemente avançada é indistinguível da magia (palavras minhas, não deles) e terá vários meios para evitar a sua destruição. Eles imaginam tudo, desde uma IA astuta que paga humanos em criptomoedas para cumprir suas ordens (o que é razoável, eu acho, mas novamente estamos de volta à questão do “querer”) até a descoberta de uma função anteriormente desconhecida do sistema nervoso humano que permitiria hackear nossos cérebros diretamente (eu acho? Talvez? Claro.).
Se você criar um cenário como este, a IA certamente parecerá assustadora. A dupla também argumentou que os sinais de declínio da IA, como é o caso do mais recente modelo GPT-5 da OpenAI, poderiam na verdade ser o resultado de uma IA superinteligente sabotando seus concorrentes. Parece não haver nada que não nos leve à destruição.
Então, o que devemos fazer sobre isso? Yudkowsky e Soares têm uma série de prescrições políticas, todas elas essencialmente irracionais. A primeira é que as unidades de processamento gráfico (GPUs), os chips de computador que impulsionam a atual revolução da IA, devem ser estritamente limitadas. Eles dizem que é ilegal possuir mais de oito das principais GPUs da era de 2024 sem estar sujeito ao monitoramento do tipo nuclear por um organismo internacional. Para efeito de comparação, a Meta possui pelo menos 350.000 desses chips. Se isto for implementado, os países devem estar preparados para fazer cumprir estas restrições bombardeando centros de dados não registados, mesmo que isso corra o risco de uma guerra nuclear.”porque os data centers podem matar mais pessoas do que as armas nucleares”(ênfase neles).
Respire fundo. Como chegamos aqui? Para mim, tudo isso é uma forma de aposta de Pascal. O matemático Blaise Pascal afirmou que era racional viver a vida como se Deus (Cristianismo) existisse, com base em algumas quantidades simples. Se Deus realmente existe, acreditar irá prepará-lo para ganhos infinitos no céu, enquanto não acreditar irá levá-lo a perdas infinitas no inferno. Se Deus não existisse, você poderia perder um pouco em viver uma vida piedosa, mas apenas até certo ponto. A maneira de maximizar a felicidade é a crença.
Da mesma forma, se assumirmos que a IA causa um mal infinito, quase tudo pode ser justificado para evitá-lo. É este pensamento que faz os racionalistas acreditarem que qualquer acção no presente pode ser justificada desde que conduza à criação de biliões de seres humanos felizes no futuro, mesmo que aqueles que vivem hoje sofram.
Sinceramente, não entendo como alguém pode passar o dia pensando assim. As pessoas que vivem hoje são importantes. Temos desejos e preocupações. Bilhões de nós estamos ameaçados pelas mudanças climáticas, um problema que praticamente não é mencionado Se alguém construir, todos morrerão. Vamos remeter a IA superinteligente à ficção científica e dedicar as nossas energias à resolução dos problemas dos factos científicos aqui e agora.