Início ESPECIAIS O Departamento de Justiça afirmou que a humanidade não pode confiar no...

O Departamento de Justiça afirmou que a humanidade não pode confiar no seu sistema de combate.

10
0

administração trunfo Em um processo judicial na terça-feira, a empresa argumentou que não violou os direitos da Primeira Emenda da Antrópico ao designar os desenvolvedores de IA como riscos da cadeia de suprimentos e previu que o processo da empresa contra o governo fracassaria.

“A Primeira Emenda não dá permissão ao governo para impor unilateralmente termos contratuais, e a Anthropic não fez nenhum comentário para apoiar uma conclusão tão radical”, escreveram os advogados do Departamento de Justiça dos EUA.

A resposta foi apresentada no tribunal federal de São Francisco, um dos dois locais onde a Anthropic está contestando a decisão do Departamento de Defesa de sancionar a empresa por preocupações sobre potenciais vulnerabilidades de segurança, um rótulo que poderia impedir a empresa de contratos de defesa. A Antropic afirma que a administração Trump excedeu seu poder ao aplicar o rótulo e impedir que a tecnologia da empresa fosse usada dentro do departamento. Se a designação se mantiver, a Anthropic poderá perder até bilhões de dólares em receitas projetadas este ano.

A Anthropic quer retomar os negócios normalmente até que o processo seja resolvido. Rita Lin, a juíza que supervisiona o caso de São Francisco, marcou uma audiência para a próxima terça-feira para decidir se atende ao pedido da Antrópico.

Em um documento apresentado na terça-feira ao Departamento de Defesa e outras agências, os advogados do Departamento de Justiça descreveram as preocupações da Anthropic sobre a potencial perda de negócios como “legalmente insuficientes para qualificá-la como um dano irreparável” e instaram Lin a negar à empresa um adiamento.

Os advogados também escreveram que a administração Trump está motivada a agir por causa de “preocupações sobre as possíveis ações futuras da Antrópico se mantiver o acesso” aos sistemas de tecnologia do governo. “Ninguém tentou limitar as atividades expressivas da Anthropic”, escreveram.

O governo alega que os esforços da Antrópico para limitar a forma como o Pentágono pode usar a tecnologia de IA levaram o secretário da Defesa, Pete Hegseth, a determinar “razoavelmente” que “os funcionários da Antrópico poderiam envolver-se em sabotagem, introduzir maliciosamente capacidades indesejadas ou destruir o design, a integridade ou a operação dos sistemas de segurança nacional”.

O Departamento de Defesa e a Anthropic estão brigando por possíveis restrições ao modelo Claude AI da empresa. A Anthropic acredita que o seu modelo não deve ser usado para promover a vigilância generalizada dos americanos e atualmente não é suficientemente fiável para alimentar armas totalmente autónomas.

Vários especialistas jurídicos disseram anteriormente à WIRED que a Anthropic tem um forte argumento de que as suas ações na cadeia de abastecimento constituem retaliação ilegal. Mas os tribunais muitas vezes favorecem os argumentos de segurança nacional do governo, e os responsáveis ​​do Pentágono retrataram a Anthropic como um empreiteiro desonesto e a sua tecnologia não é fiável.

Em particular, o DoW ficou preocupado com o fato de que permitir o acesso contínuo da Antrópica à infraestrutura técnica e operacional de combate do DoW criaria riscos inaceitáveis ​​para a cadeia de abastecimento do DoW. “Os sistemas de IA são altamente vulneráveis ​​à manipulação, e se a Anthropic sentir, a seu critério, que a ‘linha vermelha’ corporativa foi ultrapassada, a Anthropic pode tentar desativar a tecnologia ou alterar proativamente o comportamento do modelo antes ou durante as operações de combate em andamento.”

O Departamento de Defesa e outras agências federais estão trabalhando para substituir as ferramentas de IA da Anthropic por produtos de empresas de tecnologia rivais nos próximos meses. Um dos maiores usos do Claude pelos militares é por meio do software de análise de dados Palantir, disseram pessoas familiarizadas com o assunto à WIRED.

No processo de terça-feira, os advogados argumentaram que o Pentágono “não pode simplesmente apertar um botão num momento em que o Antrópico é atualmente o único modelo de IA aprovado para uso” enquanto os “sistemas classificados e operações de combate de alta intensidade do Pentágono estão em andamento”. O departamento está trabalhando para implantar sistemas de IA do Google, OpenAI e xAI como alternativas.

Numerosas empresas e grupos apresentaram petições judiciais apoiando a Antropic, incluindo pesquisadores de IA, Microsoft, sindicatos de funcionários federais e ex-líderes militares. Nenhum documento foi apresentado em apoio ao governo.

A Antrópica tem até sexta-feira para apresentar uma resposta refutando as alegações do governo.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui