Início ESPECIAIS OpenAI assinou contrato de IA com o Pentágono depois que Trump ordenou...

OpenAI assinou contrato de IA com o Pentágono depois que Trump ordenou a proibição humana.

20
0

A OpenAI chegou a um acordo com o Departamento de Defesa para implantar modelos de inteligência artificial em sistemas militares classificados, poucas horas depois que o presidente Donald Trump ordenou que as agências federais parassem de usar tecnologia da rival Anthropic.

O anúncio foi feito na sexta-feira pelo CEO da OpenAI, Sam Altman, que disse que a empresa assinou um contrato com o Departamento de Defesa para usar seus modelos nas redes confidenciais do departamento. O acordo segue uma rápida escalada entre a administração Trump e a Antrópica sobre como os sistemas de IA podem ser usados ​​num contexto militar.

Esta manhã, o presidente Trump instruiu todas as agências federais a:pare imediatamente“Usando produtos antrópicos, o secretário de Defesa Pete Hegseth também disse que a empresa”Riscos da cadeia de abastecimento para a segurança nacional”, é uma classificação comumente usada pelas autoridades federais de compras para limitar certas tecnologias em contratos de defesa.

Nos últimos anos, restrições semelhantes à cadeia de abastecimento foram aplicadas a empresas de telecomunicações estrangeiras, como a Huawei e a ZTE. Artigo 889 da Lei de Autorização de Defesa Nacional de 2019. Estas medidas foram implementadas através de regras de compras federais que exigem que os empreiteiros certifiquem que tecnologias proibidas não serão utilizadas em contratos governamentais. Para a Antrópico, a designação exigiria que o Departamento de Defesa eliminasse gradualmente o uso dos sistemas da empresa e que os empreiteiros militares certificassem que seu trabalho não inclui as ferramentas de IA da Antrópico. A administração concedeu um período de transição de seis meses.

Espaço de coworking da cidade de TNW – onde o melhor trabalho acontece

Um espaço de trabalho projetado para crescimento, colaboração e oportunidades infinitas de networking no centro da tecnologia.

O confronto centra-se na questão de saber se as empresas de IA podem limitar a forma como os militares utilizam os seus sistemas.

A Anthropic procurou garantias contratuais de que o seu modelo emblemático, o Claude, não seria utilizado para vigilância doméstica em massa dos americanos ou para alimentar armas totalmente autónomas. O Pentágono argumentou que não pretende utilizar a IA dessa forma, mas que os modelos devem continuar a estar disponíveis para todos os fins legais.

Após semanas de negociações, as negociações entre a Anthropic e o Departamento de Defesa foram interrompidas. As autoridades acusaram a empresa de tentar impor restrições ideológicas às operações militares. A Antrópica argumentou que suas objeções eram restritas e focadas na segurança e nos direitos constitucionais.

Pouco depois de o governo tomar medidas contra a Anthropic, Altman anunciou que a OpenAI havia assinado seu próprio contrato com o Departamento de Defesa.

no postar paraAltman disse que o acordo reflete duas coisas para a OpenAI.Os princípios de segurança mais importantes“: Proibição de vigilância doméstica em massa e requisitos de responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomos.

A DoW concorda com estes princípios, reflecte-os nas suas leis e políticas e incorpora-os nos seus contratos.”Altman disse, referindo-se ao uso recente de“Departamento de Guerra”marca no post oficial.

Transações de crédito: Sam Altman
Postagem de Sam Altman X sobre colaboração com DoW

Não está claro como o acordo da OpenAI difere substancialmente das proteções que a Anthropic buscava. Funcionários do Pentágono argumentaram que a lei existente dos EUA e a política do Pentágono já proíbem a vigilância doméstica em massa e armas totalmente autónomas e que não são necessárias novas normas legais.

Nos últimos anos, a disputa com a Antrópica tornou-se cada vez mais política.

no postagem social da verdadeTrump criticou a empresa em termos duros e enquadrou a sua posição como uma tentativa de ignorar a autoridade constitucional. Hegseth acusou a Anthropic de tentar exercer controle sobre as decisões operacionais militares e disse que o departamento deve manter acesso irrestrito aos modelos de IA para fins legítimos.

Donald J. Trump proibirá o uso da antropologia em todas as agências federais.
Transações de crédito: Postagem social da verdade de Donald J. Trump
Donald J. Trump proibirá o uso da antropologia em todas as agências federais.

A Anthropic recuou, argumentando que a designação de risco da cadeia de abastecimento excede a autoridade legal do Departamento de Defesa. A empresa disse que a lei federal limita tais decisões a certos contratos relacionados com a defesa e não dá à administração ampla autoridade para bloquear todas as atividades comerciais com empresas nacionais. A Antrópico disse que planeja contestar a designação em tribunal.

As decisões sobre riscos na cadeia de abastecimento estão mais frequentemente associadas a empresas estrangeiras que são vistas como ameaças à segurança nacional. A aplicação desta designação aos desenvolvedores de Frontier AI baseados nos EUA marca uma mudança significativa na forma como as autoridades de compras são usadas no contexto da inteligência artificial.

Este episódio destaca a rapidez com que a IA se tornou parte da política de segurança nacional.

OpenAI, Anthropic, Google e xAI de Elon Musk garantiram contratos do Departamento de Defesa ou aprovação para uso de seus modelos de IA, inclusive em ambientes classificados. Ao mesmo tempo, as preocupações com a vigilância, as armas autónomas e a fiabilidade dos modelos linguísticos em grande escala levaram a um maior escrutínio das implantações militares de IA.

A Anthropic, informou a NPR, está avaliada em cerca de US$ 380 bilhões, está se preparando para abrir o capital e agora enfrenta incertezas jurídicas e de reputação após as ações do governo. O contrato do Departamento de Defesa que está no centro da disputa vale até 200 milhões de dólares, uma parcela relativamente pequena da receita declarada da empresa, mas simbolicamente significativa.

Para a OpenAI, este contrato posiciona a empresa como um parceiro-chave na estratégia de IA do Departamento de Defesa, ao mesmo tempo que mantém princípios de segurança declarados publicamente.

Ainda não está claro se os resultados contrastantes reflectem diferenças substanciais nos termos contratuais ou diferentes estratégias de negociação. O que está claro é que a relação entre os criadores de IA e os militares dos EUA entrou numa fase mais visível e politicamente significativa.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui