Início ANDROID A IA pode entender as flores sem poder tocá-las ou cheirá-las?

A IA pode entender as flores sem poder tocá-las ou cheirá-las?

12
0

O que são flores se você não consegue cheirá-las?

Imagens Clearview RF/Alamy

A última geração de modelos de inteligência artificial parece ter uma compreensão do mundo ao nível humano, mas acontece que a falta de informação sensorial – e corporal – limita a forma como conseguem compreender conceitos como flores ou humor.

Qihui Xu na Ohio State University e colegas perguntaram a humanos e a um grande modelo de linguagem (LLM) sobre sua compreensão de quase 4.500 palavras – de “flor” e “prego” a “fofo” e “balanço”. Os participantes e o modelo de IA foram convidados a avaliar cada palavra com base em vários aspectos, como o nível de excitação emocional que evocam, ou a sua associação com os sentidos e a interação física com várias partes do corpo.

O objetivo era ver como os LLMs, incluindo GPT-3.5 e GPT-4 da OpenAI, bem como PaLM e Gemini do Google, se comparavam aos humanos em suas classificações. Acontece que os humanos e a IA têm mapas conceituais semelhantes em relação às palavras que não estão relacionadas às interações com o mundo externo, mas muito diferentes quando as palavras estão associadas a sentidos e ações físicas.

Por exemplo, os modelos de IA tendem a acreditar que uma pessoa pode sentir flores através do tronco – algo que a maioria dos humanos acha estranho e prefere apreciá-las visualmente ou cheirando.

O problema, diz Xu, é que os LLMs constroem sua compreensão do mundo a partir de textos retirados da internet, e isso não é suficiente para compreender conceitos sensuais. “Eles são muito diferentes dos humanos”, disse ele.

Alguns modelos de IA foram treinados em informações visuais, como fotos e vídeos, além de texto, e os pesquisadores descobriram que os resultados desses modelos correspondiam melhor aos julgamentos humanos das palavras, levantando a possibilidade de que adicionar mais sentidos poderia aproximar os futuros modelos de IA da compreensão do mundo pelos humanos.

“Isso nos diz que os benefícios de fazer treinamento multimodal podem ser maiores do que esperávamos. É como se um mais um pudesse realmente ser maior que dois”, disse Xu. “Em termos de desenvolvimento de IA, isto apoia a importância do desenvolvimento de modelos multimodais e a importância de ter corpos.”

Filipe Feldman da Universidade de Maryland, no condado de Baltimore, diz que dar a um modelo de IA um corpo de robô e expô-lo a informações sensório-motoras provavelmente levará a melhorias nas capacidades, talvez significativamente, mas devemos ter muito cuidado ao fazer isso, dado o risco de os robôs causarem danos físicos às pessoas ao seu redor.

Evitar tais riscos significa adicionar barreiras de proteção às ações do robô ou simplesmente usar robôs leves que não representam perigo no treinamento, disse Feldman – mas isso tem suas próprias desvantagens.

“Isso distorcerá a forma como eles entendem o mundo”, disse Feldman. “Uma das coisas que eles vão aprender é que você pode ricochetear, porque a massa é pequena. Então agora você tenta aplicar esse conhecimento profundo que tem a ver com contato físico (em robôs reais que têm massa) e seus robôs humanóides acreditam que podem colidir uns com os outros a toda velocidade. Sim, isso vai ser um problema.”

Tópico:

Source link