Início ANDROID Funcionários da OpenAI e do Google apoiam o processo da Antrópico contra...

Funcionários da OpenAI e do Google apoiam o processo da Antrópico contra o Pentágono

10
0

Na segunda-feira, a Anthropic entrou com uma ação contra o Departamento de Defesa pelo que considera um risco na cadeia de abastecimento. Horas depois, quase 40 funcionários da OpenAI e do Google — incluindo Jeff Dean, cientista-chefe do Google e líder do Gemini — entrou com um amicus brief em apoio ao processo da Anthropicdetalhando suas preocupações sobre a decisão da administração Trump e os riscos e implicações da tecnologia.

A notícia chega depois de algumas semanas dramáticas para a Anthropic, quando a administração Trump designou a empresa como um risco na cadeia de abastecimento – uma designação normalmente reservada a empresas estrangeiras que o governo considera ser um risco potencial para a segurança nacional de alguma forma – depois de a Anthropic ter aderido a duas linhas vermelhas relativamente a casos de utilização aceitáveis ​​para uso militar da tecnologia: vigilância doméstica em massa e armas totalmente autónomas (ou sistemas de IA com o poder de matar sem envolvimento humano). As negociações falharam, seguidas de opróbrio público e outras empresas de IA co-assinaram contratos permitindo “qualquer uso legal” da sua tecnologia.

A designação de risco da cadeia de abastecimento não só impediu a Anthropic de trabalhar em contratos militares, mas também colocou outras empresas na lista negra caso utilizassem produtos da Anthropic no seu trabalho no Pentágono, forçando-as a desligar a Claude se quisessem manter os seus contratos lucrativos. No entanto, embora os primeiros modelos tenham sido utilizados com sucesso para inteligência secreta, as ferramentas da Anthropic já estavam profundamente integradas no trabalho do Pentágono – tanto que, poucas horas depois do secretário da Defesa Pete Hegseth ter anunciado a sua nomeação, os militares dos EUA alegadamente usaram Claude na campanha que matou o líder do Irão, o aiatolá Ali Khamenei.

Este amicus brief procura argumentar que a designação de risco da cadeia de fornecimento da Anthropic “é um ato inapropriado de retaliação e é prejudicial ao interesse público” e que as preocupações por trás das linhas vermelhas da Anthropic “são reais e exigem uma resposta”. Confirma também que vale a pena revisitar as duas linhas vermelhas da Anthropic, afirmando que “a vigilância doméstica em massa alimentada pela IA representa graves riscos para a governação democrática – mesmo em mãos responsáveis” e que “os sistemas de armas letais totalmente autónomos apresentam riscos que também devem ser abordados”.

O grupo por trás do amicus brief se descreve como “engenheiros, pesquisadores, cientistas e outros profissionais que trabalham em laboratórios de inteligência artificial na fronteira dos EUA”.

“Construímos, treinamos e estudamos sistemas de IA em grande escala que atendem a uma ampla gama de usuários e aplicações, inclusive em áreas críticas de segurança nacional, aplicação da lei e operações militares”, escreveu o grupo. “Apresentamos este documento não como porta-vozes de uma empresa, mas a título individual, como profissionais com conhecimento em primeira mão do que estes sistemas podem ou não fazer, e do que está em jogo quando a sua implementação vai além dos quadros legais e éticos concebidos para os regular.”

No que diz respeito à vigilância doméstica em massa, o grupo afirmou que, embora os dados sobre os cidadãos americanos estejam por todo o lado, sob a forma de câmaras de vigilância, dados de geolocalização, publicações nas redes sociais, transações financeiras e muito mais, “o que falta é uma camada de IA que transforme este vasto e fragmentado cenário de dados numa ferramenta de vigilância unificada e em tempo real”. Atualmente, escrevem eles, esses fluxos de dados estão isolados, mas se a IA for usada para correlacioná-los, eles poderiam combinar “dados de reconhecimento facial com o histórico de localização, registros de transações, gráficos sociais e padrões de comportamento de centenas de milhões de pessoas simultaneamente”.

No que diz respeito especificamente às armas letais autónomas, o grupo afirma que não são fiáveis ​​em condições novas ou desconhecidas que não estão em sintonia com o ambiente em que foram treinadas – o que significa que “não se pode confiar nelas para identificar alvos com perfeita precisão, e são incapazes de fazer compromissos contextuais subtis entre alcançar um objectivo e contabilizar impactos humanos adicionais”. Além disso, escreveu o grupo, o potencial alucinatório dos sistemas de armas letais autónomos significa que é importante que os humanos estejam envolvidos no processo de tomada de decisão “antes que as munições letais sejam lançadas contra alvos humanos” – especialmente porque as cadeias de raciocínio de tais sistemas são muitas vezes indisponíveis para os operadores e pouco claras até mesmo para os criadores de sistemas.

O grupo responsável pelo amicus brief escreveu: “Diferimos em política e filosofia, mas estamos unidos na crença de que os sistemas de IA existentes apresentam riscos quando utilizados para permitir a vigilância doméstica em massa ou a operação autónoma de sistemas de armas letais sem supervisão humana, e que esses riscos requerem algum tipo de proteção, seja através de salvaguardas técnicas ou restrições de utilização”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui