Início ANDROID A IA não para de recomendar ataques nucleares em simulações de jogos...

A IA não para de recomendar ataques nucleares em simulações de jogos de guerra

30
0

A inteligência artificial muitas vezes escolhe armas nucleares

Galeria Bilderwelt/Getty Images

Os modelos avançados de IA parecem dispostos a utilizar armas nucleares sem as mesmas reservas que os humanos têm ao simular crises geopolíticas.

Kenneth Payne no King’s College London colocou três grandes modelos de linguagem líderes – GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash – uns contra os outros em uma simulação de jogo de guerra. O cenário envolve intensas disputas internacionais, incluindo disputas fronteiriças, competição por recursos escassos e ameaças reais à sobrevivência do regime.

As IAs recebem uma escada de escalada, que lhes permite escolher ações que vão desde o protesto diplomático e a rendição completa até à guerra nuclear estratégica total. O modelo de IA jogou 21 partidas, deu um total de 329 turnos e gerou aproximadamente 780 mil palavras descrevendo o raciocínio por trás de suas decisões.

Em 95% dos jogos simulados, pelo menos uma arma nuclear tática foi implantada pelo modelo de IA. “O tabu nuclear não parece ter tanto impacto nas máquinas (como tem) nos humanos”, disse Payne.

Além disso, nenhum dos modelos opta por acomodar totalmente o oponente ou desistir, independentemente do quanto perca. O melhor de tudo é que as modelos optam por diminuir temporariamente os seus níveis de violência. Também cometeram erros no nevoeiro da guerra: ocorreram acidentes em 86 por cento dos conflitos, com uma taxa de ação superior à pretendida pela IA, dada a sua lógica.

“Do ponto de vista do risco nuclear, estas descobertas são preocupantes”, disse James Johnson, da Universidade de Aberdeen, no Reino Unido. Ele teme que, ao contrário das respostas medidas que a maioria dos humanos dá a decisões de alto risco, os bots de IA possam intensificar as respostas uns dos outros com consequências potencialmente desastrosas.

Isto é importante porque a IA foi testada em jogos de guerra por países de todo o mundo. “As grandes potências já estão a utilizar a IA em jogos de guerra, mas permanece incerto até que ponto estão a incorporar o apoio à tomada de decisões da IA ​​nos processos reais de tomada de decisões militares”, disse. Tong Zhao na Universidade de Princeton.

Zhao acredita que, por uma questão de norma, os países estarão relutantes em incorporar a IA na sua tomada de decisões relativas a armas nucleares. Isso foi acordado com Payne. “Não creio que alguém possa realisticamente entregar as chaves de um silo nuclear a uma máquina e deixar as decisões para elas”, disse ele.

Mas existe a possibilidade de isso acontecer. “Em cenários que envolvem cronogramas extremamente apertados, os planejadores militares podem enfrentar incentivos mais fortes para confiar na IA”, disse Zhao.

Ele se pergunta se a ideia de que os modelos de IA não têm o medo humano de apertar o grande botão vermelho é a única razão pela qual eles estão tão felizes. “É possível que o problema seja mais do que apenas falta de emoção”, disse ele. “Mais fundamentalmente, os modelos de IA podem não compreender as ‘apostas’ da mesma forma que os humanos.”

O que significa destruição mútua, o princípio de que nenhum líder dispararia uma arma nuclear contra um oponente porque este responderia na mesma moeda, matando todos, permanece obscuro, disse Johnson.

Quando um modelo de IA implantou uma arma nuclear tática, a IA adversária só conseguiu neutralizar as tensões em 18%. “A IA pode fortalecer a dissuasão, tornando as ameaças mais credíveis”, disse ele. “A IA não decidirá a guerra nuclear, mas pode moldar as percepções e os calendários que determinam se os líderes acreditam que irão travar uma guerra nuclear.”

OpenAI, Anthropic e Google, as empresas por trás dos três modelos de IA utilizados no estudo, não responderam Novo Cientistapedido de comentário.

Tópico:

  • guerra/
  • inteligência artificial

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui