Início ANDROID A IA superinteligente está chegando ou é apenas um sonho de ficção...

A IA superinteligente está chegando ou é apenas um sonho de ficção científica?

10
0

As máquinas se tornarão mais inteligentes que os humanos?

Chan2545/iStockphoto/Getty Images

Se seguirmos as palavras dos líderes das empresas de inteligência artificial, os seus produtos significam que a próxima década será muito diferente na história da humanidade: uma era dourada de “abundância radical”, em que a física de altas energias é “resolvida” e vemos o início da colonização espacial. Mas os investigadores que trabalham com os sistemas de IA mais avançados da atualidade estão a descobrir uma realidade diferente, nomeadamente que mesmo os melhores modelos não conseguem resolver puzzles básicos que a maioria dos humanos considera garantidos, enquanto a promessa de uma IA que possa “raciocinar” parece ser exagerada. Então, em quem você deve confiar?

Sam Altman e Demis Hassabis, CEOs da OpenAI e do Google DeepMind respectivamente, afirmaram recentemente que sistemas de IA poderosos e que mudam o mundo estão no horizonte. No uma postagem no blogAltman escreve que “a década de 2030 será provavelmente muito diferente de qualquer época anterior”, especulando que poderemos passar “de grandes avanços na ciência dos materiais num ano para interfaces cérebro-computador de alta largura de banda no próximo”.

Hasbisis, em entrevista com Cabotambém disse que, na década de 2030, a inteligência artificial geral (AGI) começará a resolver problemas como “curar doenças terríveis”, levando a “uma expectativa de vida mais saudável e mais longa”, bem como descobrir novas fontes de energia. “Se tudo isso acontecer”, disse Hassabis na entrevista, “então esta será uma era de máximo desenvolvimento da humanidade, onde viajaremos para as estrelas e colonizaremos galáxias”.

Essa visão depende fortemente da suposição de que grandes modelos de linguagem (LLMs), como o ChatGPT, se tornarão mais capazes quanto mais dados de treinamento e poder de computação usarmos. Esta “lei da escala” parece estar em vigor nos últimos anos, mas há sinais de que está a começar a enfraquecer. Por exemplo, o modelo GPT-4.5 mais recente da OpenAI, cujo treinamento provavelmente custou centenas de milhões de dólares, alcança apenas melhorias modestas em relação ao seu antecessor GPT-4. E esses custos são insignificantes em comparação com as despesas futuras, e o relatório mostra que Meta anunciará um investimento de US$ 15 bilhões em um esforço para alcançar “superinteligência”.

No entanto, o dinheiro não é a única solução para este problema – as empresas de IA também recorreram a modelos de “raciocínio”, como o o1 OpenAI, lançado no ano passado. Esses modelos utilizam mais tempo de computação e, portanto, demoram mais para gerar uma resposta, gerando assim sua própria saída. Esse processo iterativo é chamado de “cadeia de pensamento”, em um esforço para comparar passo a passo como uma pessoa pensa sobre um problema. “Existem razões legítimas para se preocupar com a estagnação da IA”, disse Noam Brown da OpenAI Novo Cientista no ano passado, mas o1 e modelos semelhantes significam que a “lei da escala” pode continuar, disse ele.

Mas pesquisas recentes revelam que esse modelo de raciocínio pode atrapalhar até mesmo quebra-cabeças lógicos simples. Por exemplo, pesquisadores da Apple testar chinês O modelo de raciocínio da empresa de IA DeepSeek e o modelo de raciocínio de Claude Anthropic, que funciona como a família de modelos o1 da OpenAI. Os pesquisadores descobriram que tinham “limitações em cálculos precisos: não conseguiram usar algoritmos explícitos e raciocínio inconsistente para resolver o quebra-cabeça”, escreveram os pesquisadores.

A equipe testou a IA em vários quebra-cabeças, como um cenário em que uma pessoa tinha que transportar mercadorias através de um rio com o menor número de passos, e a Torre de Hanói, um jogo em que era necessário mover anéis um por um entre três pólos sem colocar um anel maior em cima de um menor. Embora os modelos tenham conseguido resolver o quebra-cabeça com a configuração mais fácil, eles tiveram dificuldade em aumentar o número de anéis ou itens a serem transportados. Embora passássemos mais tempo a pensar em problemas mais complexos, os investigadores descobriram que os modelos de IA utilizavam menos “tokens” – peças de informação – à medida que a complexidade do problema aumentava, sugerindo que o tempo de “pensamento” apresentado pelos modelos era apenas uma ilusão.

“A desvantagem é que essas tarefas são fáceis de concluir”, disse ele Artur Garcia na cidade, Universidade de Londres. “Há 50 anos sabíamos como usar o raciocínio simbólico da IA ​​para resolver esses problemas.” É possível que estes sistemas mais recentes possam ser refinados e ampliados para eventualmente serem capazes de resolver problemas complexos, mas esta investigação mostra que é improvável que isso aconteça apenas através do aumento do tamanho do modelo ou dos recursos computacionais que lhes são dados, disse Garcez.

É também um lembrete de que esses modelos ainda lutam para resolver cenários que nunca viram fora dos dados de treinamento, disse ele. Nikos Aletras na Universidade de Sheffield. “Na verdade, estes modelos funcionam muito bem em muitos casos, como encontrar, organizar informações e depois resumi-las, mas estes modelos foram treinados para fazer este tipo de coisas, e parece mágico, mas não é – eles foram treinados para fazer isto”, disse Aletras. “Agora, acho que a pesquisa da Apple encontrou um ponto cego.”

Enquanto isso, outras pesquisas mostram que aumentar o tempo de “pensamento” pode, na verdade, prejudicar o desempenho dos modelos de IA. Soumya Suvra Ghosal e colegas da Universidade de Maryland testaram o modelo DeepSeek e descobriram um processo mais longo de “cadeia de pensamento” causa uma diminuição na precisão em testes de raciocínio matemático. Por exemplo, para um dos seus benchmarks matemáticos, descobriram que duplicar o número de tokens utilizados por um modelo poderia melhorar o seu desempenho em cerca de 5%. No entanto, o uso de 10 a 15 vezes mais tokens reduziu novamente a pontuação do benchmark em cerca de 17%.

Em alguns casos, parece que o resultado da “cadeia de pensamento” produzido pela IA não tem nada a ver com a resposta final que ela fornece. Quando testou um modelo DeepSeek sobre a capacidade de navegar em um labirinto simples, Subbarao Kambhampati da Arizona State University e seus colegas descobriram que, embora a IA resolva problemas, o resultado da sua “cadeia de pensamento” ainda contém erros que não se refletem na solução final. Além do mais, dar à IA uma “cadeia de pensamento” sem sentido pode, na verdade, produzir respostas melhores.

“Nossos resultados desafiam a suposição predominante de que tokens intermediários ou ‘cadeias de pensamento’ podem ser interpretados semanticamente como traços do raciocínio interno de um modelo de IA, e alertam contra tal antropomorfização”, disse Kambhampati.

É verdade, todas as pesquisas mostram que esses rótulos de “pensamento” ou “raciocínio” para modelos de IA são nomes impróprios, diz Ana Rogers na Copenhagen IT University, na Dinamarca. “No meu tempo neste campo, todas as técnicas populares em que consegui pensar foram inicialmente alardeadas com analogias cognitivamente vagas que acabaram por se revelar erradas.”

Andreas Vlachos na Universidade de Cambridge mostra que os LLMs ainda têm aplicações claras na geração de texto e outras tarefas, mas pesquisas recentes sugerem que podemos ter dificuldades para fazê-los resolver os problemas complexos que Altman e Hassabis prometeram que seriam resolvidos em apenas alguns anos.

“Essencialmente, há uma incompatibilidade entre o que esses modelos são treinados para fazer, que é prever a próxima palavra, e isso vai contra o que estamos tentando fazer, que é gerar raciocínio”, disse Vlachos.

Mas a OpenAI discorda. “Nosso trabalho mostra que métodos de raciocínio como a linha de pensamento podem melhorar significativamente o desempenho em problemas complexos, e estamos trabalhando ativamente para expandir essas capacidades por meio de melhor treinamento, avaliação e design de modelos”, disse um porta-voz. DeepSeek não respondeu a um pedido de comentário.

Tópico:

Source link