Nos Estados Unidos, a inteligência artificial consome muita eletricidade. De acordo com a Agência Internacional de Energia, os sistemas de inteligência artificial e os centros de dados consumirão aproximadamente 415 terawatts-hora de eletricidade em 2024. Isto representa mais de 10% da geração total de eletricidade do país, prevendo-se que a procura duplique até 2030.
Este rápido crescimento levanta preocupações sobre a sustentabilidade. Em resposta, os investigadores da Escola de Engenharia criaram um sistema de inteligência artificial de prova de conceito concebido para aumentar a eficiência. Sua abordagem pode reduzir o consumo de energia em até 100 vezes, ao mesmo tempo que melhora o desempenho das tarefas.
Uma abordagem híbrida chamada inteligência artificial neurossimbólica
A pesquisa vem do laboratório de Matthias Scheutz, Professor de Tecnologia Aplicada da Família Carroll. Sua equipe está desenvolvendo inteligência artificial neurossimbólica, que combina redes neurais tradicionais com raciocínio simbólico. Esta abordagem reflete como as pessoas resolvem problemas, dividindo-os em etapas e categorias.
Este trabalho será apresentado na Conferência Internacional sobre Robótica e Automação em Viena, em maio, e aparecerá nos anais da conferência.
Ensine robôs a ver, compreender e agir
Ao contrário dos grandes modelos de linguagem (LLMs) familiares, como ChatGPT e Gemini, a equipe se concentra em sistemas de inteligência artificial usados em robótica. Esses sistemas são chamados de modelos de ação de linguagem visual (VLA). Eles ampliam as capacidades do LL.M. combinando movimento visual e físico.
O modelo VLA recebe dados visuais da câmera e instruções da linguagem e depois traduz essas informações em ações do mundo real. Por exemplo, eles podem controlar as rodas, braços ou dedos do robô para completar tarefas.
Por que a inteligência artificial tradicional tem dificuldade para concluir tarefas simples
Os sistemas VLA tradicionais dependem fortemente de dados e aprendizado por tentativa e erro. Se for solicitado a um robô que empilhe blocos em uma torre, ele deverá primeiro analisar a cena, identificar cada bloco e determinar como colocá-los corretamente.
Esse processo geralmente leva a erros. As sombras podem confundir o sistema quanto ao formato dos blocos, ou o robô pode posicionar os blocos incorretamente, causando o colapso da estrutura.
Esses erros são semelhantes aos observados no LL.M. Assim como um bot pode perder um bloco, um chatbot também pode produzir resultados errados ou enganosos. Os exemplos incluem a fabricação de casos jurídicos ou a criação de imagens com detalhes irrealistas, como dedos extras.
Como o raciocínio simbólico melhora a precisão e a eficiência
O raciocínio simbólico oferece diferentes estratégias. Em vez de depender apenas de padrões do material, utiliza regras e conceitos abstratos, como forma e equilíbrio. Isso permite que o sistema planeje com mais eficiência e evite tentativas e erros desnecessários.
“Assim como o LL.M.A., os modelos VLA operam com base em estatísticas de grandes conjuntos de treinamento de cenários semelhantes, mas isso pode levar a erros”, disse Scheutz. “O VLA simbólico neural pode aplicar regras que limitam o número de tentativas e erros durante o aprendizado e encontrar soluções mais rapidamente. Ele não apenas conclui a tarefa mais rapidamente, mas também reduz significativamente o tempo gasto no treinamento do sistema.”
Obtenha ótimos resultados em testes de quebra-cabeças
Os pesquisadores testaram seu sistema usando o quebra-cabeça da Torre de Hanói, um problema clássico que requer um planejamento cuidadoso.
Neural Symbol VLA tem uma taxa de sucesso de 95%, em comparação com apenas 34% do sistema padrão. Quando dada uma versão mais complexa do quebra-cabeça que nunca havia sido encontrada antes, o sistema híbrido ainda teve uma taxa de sucesso de 78%. Todas as tentativas de modelos tradicionais falharam.
O tempo de treinamento também é drasticamente reduzido. O novo sistema levou apenas 34 minutos para aprender a tarefa, enquanto o modelo tradicional demorou mais de um dia e meio.
Economias de energia significativas durante o treinamento e uso
O consumo de energia também é significativamente reduzido. A energia necessária para treinar um modelo neural simbólico é apenas 1% daquela de um sistema VLA padrão. Durante a operação, utiliza apenas 5% da energia exigida pelos métodos tradicionais.
Schutz comparou essa ineficiência às ferramentas cotidianas de inteligência artificial. “Esses sistemas simplesmente tentam prever a próxima palavra ou ação em uma sequência, mas isso pode ser imperfeito e produzir resultados imprecisos ou alucinações. Seu consumo de energia costuma ser desproporcional à tarefa. Por exemplo, quando você pesquisa no Google, o resumo de IA no topo da página consome 100 vezes mais energia do que gerar uma lista de sites.”
A inteligência artificial pressiona cada vez mais a infraestrutura energética
À medida que a adoção da inteligência artificial acelera em vários setores, a procura por poder computacional continua a aumentar. As empresas estão a construir centros de dados cada vez maiores, alguns deles exigindo centenas de megawatts de energia. Este nível de consumo pode exceder as necessidades de uma pequena cidade inteira.
A tendência desencadeou uma corrida à expansão das infra-estruturas e levantou preocupações sobre restrições energéticas a longo prazo.
Um caminho mais sustentável para a inteligência artificial
Os investigadores acreditam que a abordagem atual baseada em LLM e VLA pode não ser sustentável a longo prazo. Embora estes sistemas sejam poderosos, eles consomem grandes quantidades de energia e ainda podem produzir resultados não confiáveis.
Em contraste, a inteligência artificial neurossimbólica oferece uma direção diferente. Ao combinar a aprendizagem com o raciocínio estruturado, pode fornecer uma base mais eficiente e confiável para futuros sistemas de inteligência artificial.



