A Microsoft apoiou o desafio legal da Anthropic contra o Pentágono dos EUA, apresentando uma petição judicial apoiando o esforço da empresa de IA para derrubar uma designação agressiva que efetivamente a proíbe de fazer negócios governamentais.
Um resumo amigável A Microsoft, que integrou as ferramentas de IA da Anthropic nos sistemas que fornece aos militares dos EUA, argumentou em uma decisão apresentada em um tribunal federal em São Francisco esta semana que uma ordem de restrição temporária era necessária para evitar interrupções graves aos fornecedores cujos produtos dependem da tecnologia da empresa de IA. Google, Amazon, Apple e OpenAI também assinaram um documento para apoiar a Anthropic.
A Microsoft é um dos parceiros tecnológicos mais antigos do Pentágono e tem interesse na era militar de Joe Biden Capacidade conjunta de batalha em nuvem de US$ 9 bilhões Além de contratos com Amazon, Google e Oracle, também possui acordos separados de software e serviços empresariais no valor de vários bilhões de dólares. Os contratos da Microsoft com o governo abrangem agências civis, de defesa e de inteligência, e a Microsoft chegou a um acordo em setembro, sob a administração Trump. Outro acordo multibilionário ajudando a promover serviços em nuvem e inteligência artificial no governo federal.
O pedido ocorre depois que a Anthropic entrou com duas ações na segunda-feira, uma no tribunal federal da Califórnia e outra no tribunal de apelações do circuito de DC; Ele opôs-se à decisão do Pentágono de rotular esta situação como um risco na cadeia de abastecimento, uma designação que nunca antes foi aplicada a uma empresa norte-americana.
A disputa decorre de negociações contratuais que fracassaram no mês passado sobre um acordo de US$ 200 milhões para implantar a inteligência artificial da Anthropic em sistemas militares secretos enquanto os Estados Unidos se preparam para a guerra contra o Irã.
As negociações foram interrompidas depois que a Anthropic insistiu que a sua tecnologia não deveria ser usada para vigilância em massa de cidadãos dos EUA ou para alimentar armas letais autônomas; Isto levou o secretário da Defesa, Pete Hegseth, a rotulá-los de risco na cadeia de abastecimento. Na semana passada, o Pentágono notificou formalmente a Anthropic sobre a decisão, e a empresa disse que os contratos governamentais começaram a ser cancelados. Na quinta-feira, o diretor de tecnologia do Pentágono, Emil Michael, disse à CNBC: “Você não tem chance” A agência está renegociando com a Anthropic após a nomeação.
Em sua denúncia, a Anthropic explicou os limites e hesitações por trás de sua própria tecnologia. “Atualmente, a Anthropic não tem a confiança de que Claude, por exemplo, operará de forma confiável ou segura se for usado para apoiar uma guerra autônoma letal.” arquivamento lido. “Assim, essas restrições de uso decorrem da compreensão única da Anthropic sobre os riscos e limitações de Claude.”
A empresa também disse que os seus direitos da primeira alteração estavam sob ataque, argumentando que o Pentágono estava a utilizar a designação de risco da cadeia de abastecimento (normalmente reservada a empresas com ligações a concorrentes estrangeiros como a China) como punição ideológica pela sua posição pública sobre a segurança da IA.
Entretanto, na investigação preliminar da investigação em curso do Pentágono sobre o ataque militar Tomahawk à escola primária Shajarah Tayyebeh, no qual pelo menos 175 pessoas teriam morrido, segundo autoridades iranianas, foi relatado que Washington era responsável pelos assassinatos. Não ficou claro se inteligência artificial foi usada nos ataques, o que parecia ser um erro de direcionamento com base em dados desatualizados da agência de inteligência de defesa, disseram pessoas familiarizadas. New York Times.



