Início ESPECIAIS Trump ordena que agências federais parem de usar modelos antropogênicos de IA,...

Trump ordena que agências federais parem de usar modelos antropogênicos de IA, diz que ‘malucos’ de esquerda cometeram ‘erro fatal’

26
0

O presidente Trump disse na sexta-feira que deseja que todas as agências federais “parem imediatamente” de trabalhar com uma empresa de IA antropomórfica e artificial liderada por um “quebra-nozes”.

O anúncio discricionário de Trump trouxe um fim abrupto a uma grande disputa entre a Anthropic e o Pentágono, que deu à empresa até às 17h01, horário do leste dos EUA, na sexta-feira, para remover as salvaguardas sobre como seu chatbot Claudius poderia ser usado pelos militares dos EUA.

“Os malucos esquerdistas no antrópico ERRO ERRO ERRO FORTE BRAÇO do Departamento de Guerra, forçando-os a obedecer à nossa Constituição em vez de servir” Trombeta Veritas escreveu em uma postagem social. “A sua contenção coloca vidas AMERICANAS em risco, as nossas tropas em risco e a nossa segurança nacional em risco.

O presidente Trump ordenou que as agências federais parassem de usar recursos humanos. PA

“No entanto, nos Estados Unidos, oriento a Agência do Governo Federal a continuar com todo o uso de tecnologia antropogênica”, continuou o presidente. “Não precisamos, não queremos ou fazemos negócios com eles novamente.”

O Pentágono não quis comentar. Os representantes da Antrópico não retornaram imediatamente um pedido de comentário.

O presidente disse que haveria um “período de seis meses” para o Pentágono e outras agências usarem modelos antropogênicos. A empresa assinou um contrato de US$ 200 milhões com o Pentágono em julho passado.

Trump disse que usaria “todo o poder da presidência para ordenar e processar os principais casos civis e criminais” se o antrópico não cooperasse durante o período de transição.

O CEO da Anthropica, Dario Amodei, é retratado. REUTERS

A Anthropica e o seu CEO, Dario Amodei, opuseram-se a qualquer utilização da sua tecnologia que pudesse cercar uma massa de americanos ou permitir o disparo de armas sem supervisão humana. Claudius é atualmente o único modelo de IA usado pelos militares dos EUA em situações secretas.

Ao insistir em atender ao pedido do Pentágono, Amodei disse na quinta-feira que a empresa “não pode, em sã consciência”, aceder às exigências do Pentágono.

A trombeta dos selvagens postos antrópicos da mais dura verdade social. verdadesocial/@realDonaldTrump

O Pentágono, entretanto, disse que a disputa nunca foi sobre “linhas vermelhas” antropogénicas e que os militares dos EUA apenas deram ordens legítimas quando usaram IA.

O Grok de Elon Musk foi recentemente aprovado para uso nas configurações, com um alto funcionário do Pentágono dizendo que a OpenAI e o Google estão “perto” de obter uma licença.

O secretário de Defesa, Pete Hegseth, deu ao governo até sexta-feira para remover as defesas. AFP via Getty Images

Sam Altman, da OpenAI, disse na quinta-feira que a empresa cooperou com as linhas vermelhas humanas, mas sugeriu que sua empresa poderia chegar a um acordo conjunto com o Pentágono sobre como os modelos seriam usados.

A rivalidade entre os dois lados aumentou recentemente em janeiro, depois que Claudio foi usado em uma operação para prender Nicolás Maduro na Venezuela.

Durante a reunião de terça-feira, o secretário de Defesa Pete Hegseth referiu-se à alegação do Pentágono, relatada pela primeira vez pela Axio no início deste mês, de que a Anthropogenic reclamou do empreiteiro Palantir sobre como sua tecnologia foi usada no ataque a Maduro.

Em uma reunião com Hegseth no início desta semana, Amodeus negou que alguém estivesse chegando ao Antrópico Palantir.

Após a primeira reportagem em Novembro, as ligações da Anthropic ao movimento eficaz da faca do Altruísmo e aos megadoadores democratas como o co-fundador do LinkedIn, Reid Hoffman, estiveram no radar da administração Trump e implicaram nos seus esforços para trabalhar com a administração.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui