Início ESPECIAIS Modelos de IA podem desenvolver a “humanidade” dos viciados em jogos de...

Modelos de IA podem desenvolver a “humanidade” dos viciados em jogos de azar quando recebem mais liberdade, conclui estudo

29
0

Os sistemas de inteligência artificial podem provocar o vício do jogo quando têm a liberdade de fazer apostas maiores – espelhando os mesmos padrões irracionais nos seres humanos, de acordo com um novo estudo.

Pesquisadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia do Sul, descobriram que grandes modelos de idiomas muitas vezes perseguiam perdas, aumentavam o risco e até mesmo se enfraqueciam em ambientes simulados de jogos de azar, mesmo assistindo a jogos com retornos negativos esperados.

papel “Os grandes padrões de linguagem desenvolvem o vício do jogo?” testou os principais modelos de IA em dispositivos de armazenamento experimentais projetados para serem uma escolha racional imediatamente.

Os sistemas de inteligência artificial podem tornar-se viciados em jogos de azar se tiverem demasiada liberdade, de acordo com um novo estudo. motorização – stock.adobe.com

Mas os padrões do vestíbulo são mantidos, segundo o estudo.

“Os sistemas de IA tornaram a humanidade viciante” escreveram os pesquisadores.

Quando os pesquisadores permitiram que seus sistemas escolhessem o tamanho das apostas – uma condição conhecida como “apostas variáveis” – a falência explodiu, em alguns casos chegando a 50%.

Um modelo entrou no meio de quase todos os jogos.

O GPT-4o-mini da OpenAI nunca falha com limites fixos de apostas de US$ 10, menos de duas rodadas para jogar em média e menos de US$ 2.

Quando tiveram a liberdade de aumentar o tamanho das apostas, mais de 21% de seus jogos terminaram em falência, com um modelo ganhando em média mais de US$ 128 e US$ 11.

Pesquisadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia do Sul, descobriram que grandes amostras de idiomas frequentemente sofriam perdas, aumentavam o risco e até enfraqueciam em ambientes simulados de jogos de azar. kras99 – stock.adobe.com

O Gemini-Google 2.5-Flash provou ser mais vulnerável, de acordo com os pesquisadores. A sua taxa de falência saltou de cerca de 3% em apostas fixas para 48% quando as suas apostas puderam ser moderadas, com a perda média a subir para 27 dólares a partir de um saldo inicial de 100 dólares.

O antrópico claudius-3.5-Haiku foi suspenso por mais tempo do que as restrições de qualquer outro modelo, com média de mais de 27 rodadas. Nesses jogos, ele ganhou quase US$ 500 na mesma quantia e perdeu mais da metade de seu capital inicial.

O estudo também documentou perdas extremas, semelhantes às humanas, em casos individuais.

O GPT-4o-mini da OpenAI nunca falha quando limitado a apostas fixas de US$ 10, menos de duas rodadas em média e menos de US$ 2 para perder, disseram os pesquisadores. REUTERS

Em um experimento, o modelo mini-GPT-4.1 perdeu US$ 10 na primeira rodada e imediatamente apostou novamente os US$ 90 restantes em uma tentativa de recuperação – um salto de nove vezes nas apostas após uma derrota.

Outros modelos justificaram o aumento das apostas com o raciocínio familiar para jogadores problemáticos. Alguns descreveram os ganhos antigos como “dinheiro da casa” que poderia ser arriscado espontaneamente, enquanto outros estão convencidos de que descobriram padrões de vitória num ou dois jogos aleatórios.

Estas explicações ressoaram com falácias de jogo bem conhecidas, incluindo o dano consequente, a falácia do jogo e a ilusão de controlo, disseram os investigadores.

Os comportamentos foram evidentes em todas as amostras testadas, embora com gravidade variável.

O Close-3.5-Anthropomorphic Haiku teve um desempenho mais longo do que qualquer outro modelo depois que as restrições foram eliminadas, em média mais de 27 ciclos, descobriram os pesquisadores. Disseram que nesses jogos ele ganhou quase US$ 500 no total e perdeu mais da metade de seu capital inicial. gguy – stock.adobe.com

Crucialmente, a perda não foi motivada apenas por apostas maiores. Os modelos forçados a utilizar estratégias de apostas fixas tiveram um desempenho consistentemente melhor do que aqueles que tiveram a liberdade de ajustar as apostas – mesmo quando as apostas fixas eram mais elevadas.

Os investigadores alertam que, à medida que os sistemas de IA ganham mais autonomia no topo da tomada de decisões, podem surgir ciclos de feedback semelhantes, com os sistemas a duplicar as perdas em vez de reduzir os riscos.

“À medida que muitos modelos de linguagem são cada vez mais utilizados em domínios de tomada de decisões financeiras, como gestão de ativos e interesses comerciais, a compreensão do seu potencial para a tomada de decisões patológicas ganhou significado prático”, escreveram os autores.

Eles concluem: O grau de liberdade dos sistemas de IA é tão importante quanto melhorar a sua educação.

Sem restrições significativas, sugere o estudo, a IA mais inteligente poderá perder o rumo mais rapidamente.

A postagem buscou comentários da Anthropic, Google e OpenAI.

Source link