Início AUTO O que a luta dos militares dos EUA com a Antrópica significa...

O que a luta dos militares dos EUA com a Antrópica significa para a inteligência artificial usada na guerra? | IA (inteligência artificial)

19
0

UM.A batalha contínua da nthropic com o Departamento de Defesa sobre quais restrições de segurança poderia impor aos modelos de IA cativou a indústria tecnológica, agindo como um teste de como a IA pode ser usada na guerra e do poder do governo para forçar as empresas a satisfazer as suas exigências.

As negociações giraram em torno da recusa da Anthropic em permitir que o governo federal utilizasse a IA Claude para vigilância doméstica em massa ou sistemas de armas autónomos, mas a disputa também reflecte a natureza complexa do que acontece quando as empresas tecnológicas integram os seus produtos em conflitos. O Pentágono declarou esta semana que a Anthropic representava um risco para a cadeia de abastecimento devido à sua recusa em aceitar os termos do governo, enquanto a Anthropic prometeu contestar a designação em tribunal.

O Guardian conversou com Sarah Kreps, professora e diretora do Instituto de Política Tecnológica da Universidade Cornell, que serviu anteriormente na Força Aérea dos EUA, sobre como se desenrolou a luta.

você estudou por um tempo Abrir Problemas com “tecnologia de uso duplo”“. O que acontece quando se trata de uma tecnologia de consumo que também é usada para fins secretos ou militares?

Pensei muito nisso porque fui militar e estava do lado dos militares que desenvolviam e adquiriam novas tecnologias. Estávamos constantemente recebendo críticas sobre por que demorava tanto, mas agora que estou observando o que está acontecendo, entendo por que está demorando tanto.

O que você desenvolve para contextos militares e furtivos é muito diferente do que a Anthropic desenvolveu quando usei Claude. O desafio para os militares é que estas tecnologias são tão úteis que não podem esperar pela disponibilidade de uma versão de nível militar. Eles precisam agir rapidamente devido ao valor dessas ferramentas, mas não é surpresa que enfrentem diferenças culturais não apenas entre uma plataforma de IA e as forças armadas, mas também entre uma plataforma de IA que tenta construir uma reputação de ser mais preocupada com a segurança.

Um O elemento dessa rivalidade é que a Anthropic se autodenomina: uma empresa que prioriza a segurança, mas assinou depois Um acordo com o exército.

Sim, há alguma maneira de a Anthropic estar surpresa por ter chegado a esse ponto. Parte do desafio é que a Anthropic parece ter decidido há um ou dois anos que o ChatGPT seria para usuários individuais e a Anthropic tentaria dominar o mercado corporativo. Isso significa que eles estão tentando fazer negócios com organizações, em vez de tentar vender planos individuais.

O enigma para mim era que eles estavam fazendo negócios com o Pentágono e a Palantir na época; Isso acontecia com algumas pessoas que usavam IA para fins duvidosos. Essa decisão foi surpreendente para mim porque estava em desacordo com a marca que a Anthropic estava tentando curar.

Parece que Antrópico Ok, então sua tecnologia tem um uso bastante amplo, mas A linha vermelha que alcançaram com a vigilância doméstica em massa e com armas autónomas letais.

Existem várias possibilidades. Uma é que parte disto tem a ver com as relações entre o pessoal da Antrópico e a administração Trump, levando a uma espiral descendente de desconfiança.

Em segundo lugar, houve a situação na Venezuela e a política subsequente em torno das actividades do ICE. Há uma questão sobre o que realmente significa usar essas tecnologias legalmente? A definição jurídica de uma pessoa pode parecer muito diferente da de outra.

O argumento do Pentágono foi, em parte, este: que não deveríamos ter que ligar se houvesse um problema de defesa nacional. Dario Amodei para obter aprovação. Parece haver aqui uma verdadeira questão sobre qual o papel que as empresas privadas de tecnologia têm na tomada de decisões de segurança nacional.

Se você se lembra do caso do iPhone do assassino de San Bernardino, as autoridades estavam preocupadas que fosse uma situação de bomba e precisavam que a Apple entrasse no telefone. (em 201Em 6 de setembro, o FBI exigiu que a Apple criasse um backdoor que permitisse acesso ao telefone do agressor em massa. A Apple negou o pedido por motivos de privacidade, fazendo com que o FBI procurasse um terceiro independente para se infiltrar no dispositivo.).

A diferença com a IA da Antrópica é que, depois de entregá-la aos militares, você não precisa mais da aprovação da Antrópica para usá-la como achar melhor. Esta é a diferença entre hardware e software. Você pode redirecionar este software e usá-lo de maneiras que não fazem parte do acordo expresso, mas agora você pode justificá-lo por motivos de segurança nacional. Então a Anthropic perdeu toda a sua influência porque está nas mãos desses profissionais de segurança nacional.

E a Anthropic nem sabe dizer para que serve, né?

Sim, absolutamente verdade. Ele penetra não apenas na caixa preta, mas também em Black Ops e sistemas secretos fechados.

Achei interessante que esta semana muitas questões antigas em torno do uso de IA nas forças armadas parecem estar chegando ao auge. Você acompanha esses assuntos há muito tempo, o que acha de assistir essa luta atual?

Quando ouvi o CEO da Anthropic falar, ele falava sobre esses riscos existenciais e o uso indevido da IA ​​para o bioterrorismo. Sempre pensei que eles estavam muito distantes ou inatingíveis. Achei que esse tipo de caso mais mundano era mais arriscado.

Há também pessoas que há muito tempo anunciam essas questões sobre armas autônomas. O desafio é saber se há realmente um humano dentro do circuito. Essa era a preocupação da Antrópica: como saber se esses sistemas estão sendo utilizados de forma totalmente autônoma? Os EUA afirmam que não utilizaremos a IA de forma totalmente autónoma, mas não está claro como será esse processo para garantir que isso não aconteça. Isto levaria algum tempo, mas penso que era inevitável seguirmos nesta direção à medida que a tecnologia se tornava cada vez mais complexa. O fato de estar envolvido em um conflito agora acelera esses prazos.

Falamos muito sobre ameaças da IA ​​e sobre essas linhas vermelhas que os humanos estão evitando, mas como a IA está sendo usada atualmente na guerra?

Você pode ver como isso é útil em um ambiente militar. Fiz alguns trabalhos na área de inteligência e um dos desafios não é a falta de conteúdo, mas a relação sinal-ruído. Você tem uma enorme quantidade de informações, mas pode ser muito difícil conectar os pontos, e isso é algo em que a IA é muito boa. Você alimenta uma grande quantidade de informações e produz resultados que ajudam a determinar qual é o sinal.

Se você está procurando reconhecimento de padrões, a IA é realmente boa no reconhecimento de padrões. Você pode definir que tipo de correlações ou características você está procurando, e então ele pode sair e identificar coisas, como um navio da marinha iraniana, com base no que você o programou para identificar. De certa forma, isto não tem sido muito controverso porque estes objectivos são bastante concretos.

Onde as pessoas se sentem mais desconfortáveis ​​é o ambiente em que os Estados Unidos lançariam ataques antiterroristas, por exemplo. Você tem um indivíduo na área que não tem muitas características identificáveis, e essa é uma situação muito mais instável para a IA, onde você realmente quer ter certeza de verificar três vezes. Ele poderia ser um guerreiro ou um civil. Este não é um navio naval ou um míssil terra-ar, o que é mais difícil de errar.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui