Computadores analógicos usam menos energia que computadores digitais
obras de metamor/Getty Images
Computadores analógicos que resolvem rapidamente equações-chave usadas no treinamento de modelos de inteligência artificial podem oferecer uma solução potencial para o aumento do consumo de energia em data centers causado pelo boom da IA.
Laptops, smartphones e outros dispositivos familiares são conhecidos como computadores digitais porque armazenam e processam dados na forma de uma série de dígitos binários, 0 ou 1, e podem ser programados para resolver vários problemas. Em contraste, os computadores analógicos são geralmente projetados para resolver apenas um problema específico. Eles armazenam e processam dados usando quantidades que podem variar continuamente, como resistência elétrica, em vez de usar 0s e 1s discretos.
Os computadores analógicos são excelentes em velocidade e eficiência energética, mas anteriormente eram menos precisos que os computadores digitais. Agora, Zhong Sun da Universidade de Pequim, na China, e colegas criaram um par de chips analógicos que funcionam juntos para resolver equações matriciais com precisão – uma parte fundamental do envio de dados por redes de telecomunicações, da execução de grandes simulações científicas ou do treinamento de modelos de IA.
O primeiro chip produz soluções de baixa precisão para cálculos matriciais muito rapidamente, enquanto o segundo chip executa um algoritmo de refinamento iterativo para analisar a taxa de erro do primeiro chip e, assim, melhorar a precisão. Sun disse que o primeiro chip produziu resultados com uma taxa de erro de cerca de 1 por cento, mas após três ciclos do segundo chip, esse número caiu para 0,0000001 por cento – o que ele disse estar alinhado com a precisão dos cálculos digitais padrão.
Até agora, os pesquisadores criaram um chip capaz de resolver uma matriz 16 por 16, ou uma matriz com 256 variáveis, que pode ser aplicada a alguns pequenos problemas. Mas a Sun reconheceu que responder às perguntas utilizadas nos grandes modelos de IA atuais exigiria circuitos muito maiores, talvez um em um milhão.
Mas uma vantagem que os chips analógicos têm sobre os digitais é que matrizes maiores não demoram tanto para serem concluídas, enquanto os chips digitais enfrentam dificuldades exponenciais à medida que o tamanho da matriz aumenta. Isso significa que o rendimento – a quantidade de dados processados por segundo – de um chip de matriz 32 x 32 superaria uma GPU Nvidia H100, um dos chips de última geração usados para treinar IA atualmente.
Teoricamente, uma maior escala poderia render até 1.000 vezes o rendimento de chips digitais, como GPUs, usando 100 vezes menos energia, disse Sun. Mas ele é rápido em salientar que as tarefas do mundo real podem desviar-se de capacidades muito restritas, resultando em retornos menores.
“Esta é apenas uma comparação de velocidade e, para aplicações reais, o problema pode ser diferente”, disse Sun. “Nosso chip só pode realizar computação matricial. Se a computação matricial ocupa uma grande parte da tarefa de computação, isso representa uma aceleração muito significativa para o problema, mas se não, então a aceleração é limitada.”
Portanto, a Sun diz que o resultado mais provável é a criação de um chip híbrido, onde a GPU é equipada com vários circuitos analógicos que lidam com áreas problemáticas muito específicas – mas que ainda pode demorar vários anos.
James Millen do King’s College London disse que os cálculos matriciais são um processo chave no treinamento de modelos de IA e a computação analógica oferece melhorias potenciais.
“O mundo moderno é construído sobre computadores digitais. Estas máquinas extraordinárias são computadores universais, o que significa que podem ser usadas para calcular qualquer coisa, mas nem tudo pode ser calculado de forma eficiente e rápida”, disse Millen. “Os computadores analógicos são adaptados para tarefas específicas e, desta forma, podem ser muito rápidos e eficientes. Este trabalho utiliza chips de computação analógicos para acelerar um processo chamado inversão de matriz, que é um processo chave no treinamento de certos modelos de IA. Fazer isso de forma mais eficiente poderia ajudar a reduzir os enormes requisitos de energia de nossa crescente dependência da IA.”
Tópico:



