A humanidade não pode ser manipulada Quando executado pelos militares dos EUA, o modelo generativo de IA, Claude escreveu em um processo judicial na sexta-feira: A declaração foi feita em resposta às acusações da administração Trump de que a empresa potencialmente manipulou suas ferramentas de IA durante a guerra.
“A Antrópico nunca fez nada para interromper as operações de Claude, alterar suas funções, bloquear o acesso, impactar ou comprometer as operações militares”, disse Thiyagu Ramasamy, chefe do setor público da Antrópico. escreveu. “A Anthropic não tem o acesso necessário para desativar a tecnologia ou alterar o comportamento dos modelos antes ou durante as operações em andamento.”
O Pentágono tem discutido há meses com os principais laboratórios de IA sobre como a sua tecnologia poderia ser usada para a segurança nacional e quais seriam os limites da sua utilização. Este mês, o secretário de Defesa Pete Hegseth designou o Antrópico como um risco na cadeia de abastecimento. Isso impedirá que o Departamento de Defesa use o software da empresa, inclusive por empreiteiros, nos próximos meses. Outras agências federais também estão abandonando Claude.
A Anthropic entrou com duas ações questionando a constitucionalidade da proibição e busca liminar de urgência para derrubá-la. No entanto, os clientes já começaram a cancelar suas transações. A audiência de um desses casos está marcada para 24 de março no tribunal distrital federal de São Francisco. Um juiz poderá em breve decidir sobre uma revogação temporária.
Num documento apresentado no início desta semana, os advogados do governo escreveram que o Pentágono “não tem de tolerar o risco de que sistemas militares críticos sejam comprometidos num momento crítico para a defesa nacional e para as operações militares activas”.
O Departamento de Defesa dos EUA está usando Claude para ajudar a analisar dados, fazer anotações e desenvolver planos de batalha, informou a WIRED. O argumento do governo é que a Anthropic poderia interferir nas operações militares ativas, bloqueando o acesso a Claude ou promovendo atualizações prejudiciais se a empresa não aprovar determinados usos.
Ramasamy rejeitou essa possibilidade. “A Anthropic não mantém nenhum backdoor ou ‘interruptor de interrupção’ remoto”, escreveu ele. “Por exemplo, o pessoal relacionado com humanos não pode entrar no sistema DoW para modificar ou desativar modelos enquanto trabalha. A tecnologia não funciona dessa forma.”
Ele continuou dizendo que a Anthropic só pode fornecer atualizações com a aprovação do governo e dos provedores de nuvem, neste caso Amazon Web Services, mas não especificou nomes. Ramasamy acrescentou que a Anthropic não tem acesso a avisos ou outros dados que usuários militares inserem em Claude.
Os executivos da Antrópico entraram com ações judiciais afirmando que a empresa não queria veto sobre decisões táticas militares. Sarah Heck, chefe de política escreveu A Antrópico estava disposta a garantir isso no contrato proposto em 4 de março, de acordo com um documento judicial na sexta-feira. “Para evitar dúvidas, (Anthropic) entende que esta licença não concede ou concede qualquer direito de controlar ou vetar decisões operacionais legais do Departamento de Guerra”, afirma a proposta, citando um nome alternativo para o Departamento de Defesa.
A empresa também está preparada para aceitar linguagem que aborde preocupações sobre o uso de Claude para realizar ataques letais sem supervisão humana, afirmou Heck. No entanto, as negociações acabaram fracassando.
Por enquanto, o Ministério da Defesa disse O tribunal alegou que a empresa estava “tomando medidas adicionais para mitigar os riscos da cadeia de abastecimento” apresentados pela empresa, “trabalhando com prestadores de serviços de nuvem terceirizados para garantir que a liderança humana não possa fazer alterações unilaterais” no sistema Claude atualmente em vigor.



