Início ANDROID Esta inteligência artificial sabe a resposta, mas não entende a pergunta

Esta inteligência artificial sabe a resposta, mas não entende a pergunta

17
0

Os psicólogos há muito debatem se a mente humana pode ser explicada por uma teoria única e unificadora, ou se funções distintas, como atenção e memória, devem ser estudadas separadamente. Agora, a inteligência artificial (IA) está entrando no debate, oferecendo uma nova maneira de explorar como a mente funciona.

Em julho de 2025, um estudo foi publicado em natureza Foi lançado um modelo de inteligência artificial chamado “Centauro”. Centaur é construído em grandes modelos de linguagem padrão e aprimorado usando dados de experimentos psicológicos, com o objetivo de simular o comportamento cognitivo humano. Segundo informações, ele teve um bom desempenho em 160 tarefas, incluindo tomada de decisões, controle executivo e outros processos mentais. As descobertas atraíram a atenção generalizada e são vistas como um possível passo em direção a sistemas de inteligência artificial que possam replicar de forma mais ampla o pensamento humano.

Nova pesquisa levanta questões

Um estudo publicado recentemente Aberto Nacional de Ciências Desafie essas afirmações. Pesquisadores da Universidade de Zhejiang acreditam que o aparente sucesso do Centaur pode vir do overfitting. Por outras palavras, o modelo pode ter aprendido a reconhecer padrões no material de formação e a reproduzir as respostas esperadas em vez de compreender a tarefa.

Para testar esta ideia, os investigadores criaram vários novos cenários de avaliação. Em um exemplo, eles substituíram um prompt de múltipla escolha que descrevia uma tarefa mental específica pela instrução “Por favor, escolha a opção A”. Se o modelo realmente compreender a tarefa, ele deverá escolher consistentemente a opção A. Em vez disso, o Centaur continua a selecionar a “resposta correta” do conjunto de dados original.

Este comportamento indica que o modelo não explica o significado do problema. Em vez disso, depende de padrões estatísticos aprendidos para “adivinhar” a resposta. Os pesquisadores compararam isso com alunos que se saíram bem ao memorizar o formato do teste, mas não compreenderam verdadeiramente o material.

Por que isso é importante para a avaliação da inteligência artificial

As descobertas destacam a necessidade de cautela ao avaliar as capacidades de grandes modelos de linguagem. Embora estes sistemas sejam muito eficazes no ajuste de dados, a sua natureza de “caixa negra” torna difícil saber como chegam aos seus resultados. Isso pode levar a problemas como alucinações ou mal-entendidos. Testes cuidadosos e diversificados são essenciais para determinar se um modelo realmente possui as habilidades que demonstra.

O verdadeiro desafio: compreensão da linguagem

Embora o Centaur seja considerado um modelo capaz de simular a cognição, sua maior limitação parece estar na compreensão da linguagem. Especificamente, torna difícil identificar e responder à intenção por trás de uma pergunta. A pesquisa sugere que alcançar a verdadeira compreensão da linguagem pode ser um dos desafios mais importantes no desenvolvimento de sistemas de inteligência artificial que simulem de forma mais completa a cognição humana.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui