Início ANDROID Existe uma maneira simples de reduzir drasticamente o uso de energia de...

Existe uma maneira simples de reduzir drasticamente o uso de energia de IA

12
0

A IA depende de data centers que usam grandes quantidades de energia

Jason Alden/Bloomberg/Getty

A aplicação de modelos de IA mais ponderados às tarefas poderia potencialmente poupar 31,9 terawatts-hora de energia só este ano – o equivalente à produção de cinco reactores nucleares.

Tiago da Silva Barros da Universidade da Côte d’Azur, na França, e seus colegas analisaram 14 tarefas diferentes que as pessoas realizavam usando ferramentas generativas de IA, que vão desde a geração de texto até o reconhecimento de fala e classificação de imagens.

Eles então examinaram tabelas de classificação públicas, incluindo uma hospedada pelo centro de aprendizado de máquina Hugging Face, para ver o desempenho de vários modelos. A eficiência energética do modelo durante a inferência – quando o modelo de IA gera respostas – é medida com uma ferramenta chamada CarbonTracker, e o uso total de energia do modelo é calculado rastreando os downloads dos usuários.

“Com base no tamanho do modelo estimamos o consumo de energia e com base nisso podemos tentar fazer estimativas”, disse da Silva Barros.

Os investigadores descobriram que, em 14 tarefas, mudar do modelo com melhor desempenho para o modelo com maior eficiência energética para cada tarefa reduziria o consumo de energia em 65,8% e apenas tornaria os resultados menos úteis em 3,9% – uma compensação que dizem ser aceitável para a sociedade.

Dado que algumas pessoas já utilizam os modelos mais económicos, se as pessoas no mundo real mudassem de modelos de alto desempenho para modelos com maior eficiência energética, isso poderia reduzir o consumo global de energia em 27,8 por cento. “Ficamos surpresos com o quanto foi economizado”, disse um membro da equipe Frédéric Giroire no Centro Nacional Francês de Pesquisa Científica.

No entanto, isto exigirá mudanças tanto por parte dos utilizadores de IA como das empresas, disse da Silva Barros. “Temos que pensar em rodar modelos pequenos, mesmo que percamos parte do desempenho”, disse ele. “E as empresas, quando desenvolvem modelos, é importante que partilhem informações sobre esses modelos para que permitam aos utilizadores compreender e avaliar se esses modelos consomem muita energia ou não.”

Algumas empresas de IA reduzem o consumo de energia de seus produtos por meio de um processo denominado destilação de modelo, onde modelos grandes são usados ​​para treinar modelos menores. Isso teve um impacto significativo, disse ele Chris Preist na Universidade de Bristol, na Inglaterra. Por exemplo, o Google afirmou recentemente aumento da eficiência energética em 33 vezes em Gêmeos no ano passado.

No entanto, encorajar os utilizadores a escolher o modelo mais eficiente “provavelmente não limitará o aumento de energia dos centros de dados como sugerem os autores, pelo menos na actual bolha de IA”, Preist disse. “A redução da energia por solicitação permitirá que mais clientes sejam atendidos mais rapidamente com opções de consideração mais sofisticadas”, disse ele.

“O uso de modelos menores pode certamente reduzir o uso de energia no curto prazo, mas há muitos outros fatores a serem considerados ao fazer projeções significativas para o futuro”, disse Sasha Luccioni no rosto abraçado. Alertou que os efeitos inversos, como o aumento do uso, “devem ser tidos em conta, bem como o impacto mais amplo na sociedade e na economia”.

Luccioni destaca que qualquer pesquisa nessa área depende de estimativas e análises externas devido à falta de transparência de cada empresa. “O que precisamos, para fazer essas análises mais complexas, é de maior transparência por parte das empresas de IA, dos operadores de data centers e até dos governos”, disse ele. “Isso permitirá que pesquisadores e legisladores façam projeções e decisões informadas.”

Tópico:

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui