Início ESPECIAIS A IA poderia dar aos EUA uma vantagem letal numa guerra contra...

A IA poderia dar aos EUA uma vantagem letal numa guerra contra o Irão – mas há riscos Ciência, Clima e Tecnologia Notícias

13
0

Esqueça a ficção científica. A era da IA ​​na guerra chegou.

Israel usa sistemas de IA Gaza para sinalizar alvos potenciais e ajudar a priorizar as coisas.

Os militares dos Estados Unidos supostamente usaram um modelo antropomórfico, o Claude, em seu a operação para sequestrar Nicolás Maduro da Venezuela.

E também depois Anthropica teve problemas com a administração dos EUA exatamente como IA usado na guerra, os militares dos EUA aparentemente ainda usaram Claudius no ataque Irã.

Último Irã: Trump critica Starmer sobre a posição do Reino Unido

É altamente possível, dizem os especialistas, que os mísseis que hoje sobrevoam Teerão sejam alvo de um sistema de IA.

“A IA está a mudar a natureza da guerra moderna no século XXI. O impacto que tem e terá é difícil”, afirma Craig Jones, professor sénior de geografia política na Universidade de Newcastle.

“A sessão é um potencial incrível.”

Aterrorizado ou não, ele não parece voltar. Se quisermos ter uma noção da importância da posição militar dos EUA em relação à IA, um bom ponto de partida é um memorando enviado pelo Secretário da Defesa Pete Hegseth, que se autodenomina Secretário da Guerra, a todos os altos líderes militares no início deste ano.

“Eu direciono a tendência da guerra para acelerar o domínio da IA ​​militar da América, com uma força de combate ‘IA primeiro’ em todas as frentes, da frente à retaguarda”, escreveu o Sr.

Isto não é um experimento, é um comando para acelerar e escalar a IA.

Ou como diz Hegseth: A velocidade vence.

Imagem:
É possível que os EUA já estejam a utilizar IA para informar os seus ataques com armas. Foto: AP/CentCom

Mas a salada em questão não é a primeira que vem à mente.

Na verdade, a autonomia está a aumentar em algumas áreas. Em Ucrâniapor exemplo, os drones são capazes de continuar uma missão mesmo depois de perderem contacto com um operador humano.

Mas não somos robôs autônomos vagando pelo campo de batalha.

“Ainda não estamos no Exterminador do Futuro”, diz David Leslie, professor de ética, tecnologia e sociedade na Universidade Queen Mary de Londres.

Os sistemas nos quais a IA está incorporada – conhecidos como “sistemas de apoio à decisão” no jargão militar – são conselheiros que sinalizam alvos, sugerem ameaças e priorizam-nas.

Os sistemas de IA podem reunir imagens de satélite, comunicações interceptadas, dados logísticos e fluxos de redes sociais – milhares, até centenas de milhares de dados – e modelos de superfície muito mais rapidamente do que qualquer sociedade humana.

A ideia é que ajudem a atravessar a névoa da guerra, permitindo que os líderes se concentrem nos recursos que mais lhes interessam, ao mesmo tempo que potencialmente trazem à luz o poder de soldados humanos cansados ​​e sobrecarregados.

Isto significa não apenas uma ferramenta, diz o Dr. Jones, mas uma nova forma de tomar decisões.

“A IA, tal como a vemos nas nossas vidas, é mais parecida com uma infraestrutura”, disse ele. “Está embutido no sistema.”

“Temos essa capacidade de pegar aquela guarda que já fazemos há vários anos.

“Mas agora a IA está lhe dando confiança para fazer isso e matar o líder do Irã e capturar adversários sérios e inimigos sérios e encontrá-los de uma forma que é improvável onde não foram encontrados antes.”

‘A própria ferramenta persuasiva’

O professor Leslie concorda que as novas disciplinas são extremamente capazes do ponto de vista militar.

“É a velocidade da corrida que está impulsionando esse aumento”, disse ele. “Decidir os ciclos é mais rápido e traz benefícios aos soldados.”

Uma característica importante dos sistemas de apoio à decisão é que a IA não aperta botões. O homem faz. Essa foi a ênfase principal nas discussões sobre IA militar. É sempre “o homem do armário”.

Como OpenAIuma empresa que faz Bate-papoGPTpostar anúncio da empresa para fornecer IA ao Pentágono: “Os engenheiros da OpenAI revelaram uma limpeza ajudando o governo

A OpenAI também enfatizou que tinha conseguido um acordo com o Pentágono de que a sua tecnologia não seria utilizada para três “linhas vermelhas”: vigilância doméstica em massa, sistemas de armas autónomos e tomada de decisão automatizada de alto risco.

Mas mesmo com o homem enfaixado, a questão permanece.

Leia mais:
AI quer se tornar nuclear, ele encontra interesse
Fechar Trabalho 4.6: Esta IA acaba de passar no ‘teste da máquina de vendas’.


Ataque aéreo EUA-Israel destrói partes de cidade iraniana

Quando você está travando uma guerra, um humano pode realmente verificar ambos os julgamentos de uma IA? Quando o tempo é reduzido e a informação incompleta, o que realmente significa “escrutínio humano”?

“Os humanos estão tecnicamente em um loop”, diz o Dr. Jones.

“Na minha opinião, isso não ocorre porque eles se tornaram tomadores de decisão e vigilantes eficazes. A IA… é uma ferramenta muito persuasiva para as pessoas que tomam decisões.”

Ou, como afirma o Professor Leslie: “Estamos realmente enfrentando um risco potencial de uma queda de pressão… onde, devido à velocidade envolvida, não temos a acção humana crítica para avaliar as recomendações de envolvimento humano que estão a ser apresentadas por estes sistemas.”

E depois há a questão da própria falácia da IA.

Leia mais:
Reino Unido implantará Publius Draco em Chipre PM confirma
Irã Perguntas e Respostas: Por que Trump pode provar uma vitória rápida

Uma testemunha da Sky News descobriu que nem Claude nem ChatGPT poderiam ter tantas pernas quanto uma galinha se a galinha não esperasse para esperar.

Além do mais, a IA é perfeita, mesmo quando está claramente errada.

O exemplo veio de um artigo que ilustrou dezenas de exemplos de crimes semelhantes. “Mas não existe um único exemplo de pernas de animais”, disse o autor Anh Vo.


A inteligência artificial está acelerando – mas quão rápido é rápido demais? Rowland Manthorpe analisa as pesquisas mais recentes.

“Uma apresentação geral por categorias de dados e trabalhos”, acrescentou Vo.

A razão é que a IA não vê realmente o mundo de uma forma humana – algo que é mais provável de ser suspeitado a partir de dados anteriores.

Na maioria das vezes, este tipo de raciocínio estatístico é surpreendentemente eficaz. Basta prever o mundo que funciona com probabilidades.

Mas os riscos selvagens e elevados são determinados ambientes pela sua própria natureza.

Estamos ultrapassando os limites desta tecnologia nas situações mais imprevisíveis que se possa imaginar.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui