Início ESPECIAIS Trump acusa Anthropic de estar ‘acordado’ e ordena que o Fed pare...

Trump acusa Anthropic de estar ‘acordado’ e ordena que o Fed pare de usar Claude AI

25
0

O presidente Donald Trump pediu na sexta-feira às agências federais que parassem de usar o Claude AI da Anthropic depois que o Departamento de Defesa negou à empresa permissão para usá-lo para vigilância em massa doméstica ou sistemas de armas totalmente autônomos.

presidente Postado Em sua plataforma Truth Social, ele disse que estava ordenando ao governo federal que “cessasse imediatamente” o uso de ferramentas antrópicas e que haveria uma eliminação progressiva de seis meses para agências como o Departamento de Defesa. Ele também acusou a Anthropic de ser uma “EMPRESA RADICAL DE ESQUERDA, ACORDADA”. A postagem representa o último passo em um confronto que se intensificou significativamente esta semana entre a Anthropic e o governo federal.

Claude é amplamente utilizado em todo o Departamento de Defesa, inclusive em sistemas classificados, mas a administração Trump tem procurado usar a tecnologia para “todos os fins legais”. A Anthropic insistiu nos contratos existentes que a sua tecnologia não seria utilizada na vigilância em massa dos americanos ou em sistemas de armas ofensivas autónomas sem intervenção humana.

No início desta semana, o secretário de Defesa Pete Hegseth disse: conversou com o CEO da Anthropic, Dario Amodei. Invocando poderes raramente usados, ele disse que a Anthropic forçaria o Departamento de Defesa a usar Claude para fins legítimos ou sinalizaria a empresa para riscos na cadeia de suprimentos, colocando em risco seu uso pelo governo ou por empreiteiros de defesa. Hegseth deu à Anthropic um prazo de sexta-feira para cumprir.

O CEO da Antrópico, Dario Amodei, disse: nome A empresa, que foi fundada com foco na segurança da IA, disse que “não pode, em sã consciência, atender ao pedido (do Departamento de Defesa)” de remover uma cláusula em seu contrato que dizia que Claude não poderia ser usado para sistemas de armas totalmente autônomos ou vigilância doméstica.

Leia mais: As câmeras Ring da Amazon se aprofundam na vigilância policial e governamental

Preocupações com IA e vigilância em massa

Amodei levantou preocupações de que a lei não acompanha o potencial de vigilância em massa dos americanos. O governo já pode comprar informações como o histórico de navegação e os registos de movimentos pessoais dos americanos sem mandado, mas a inteligência artificial aumenta esse risco. “Com uma IA poderosa, é possível recolher automaticamente dados distribuídos e individualmente inofensivos em grande escala para criar uma imagem abrangente da vida de todos”, escreveu ele.

Michael Pastor, reitor do Programa de Direito Tecnológico da Faculdade de Direito de Nova York, disse por e-mail que é comum no direito contratual que os envolvidos busquem clareza nos termos. “O humanismo tem razão em pressionar fortemente sobre o que significa ‘para um propósito legal’”, disse ele. “Se o Departamento de Defesa dos EUA estiver relutante em esclarecer se usará a tecnologia da Anthropic para vigilância doméstica em grande escala, parece que a Anthropic tem justificativa para agitar a bandeira.”

Claude da Antrópico é supostamente o sistema de IA mais amplamente usado pelos militares dos EUA. As alternativas podem incluir ferramentas xAI da OpenAI, Google ou Elon Musk.

De um memorando interno O Wall Street Journal informou Na sexta-feira, o CEO da OpenAI, Sam Altman, disse aos funcionários que a empresa, assim como a Anthropic, tem uma linha vermelha: nenhuma vigilância doméstica em grande escala ou armas ofensivas autônomas. Altman disse que essas proteções podem ser gerenciadas por meio de requisitos técnicos, como a exigência de que modelos sejam implantados na nuvem. (Divulgação: a empresa controladora da CNET, Ziff Davis, entrou com uma ação judicial contra a OpenAI em 2025, alegando que a OpenAI violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)

Funcionários do Google e OpenAI petição Instou a empresa a apoiar a Anthropic na sua recusa em utilizar modelos de IA para vigilância doméstica em massa ou sistemas de armas letais totalmente autónomos. A petição diz que o Departamento de Defesa está “tentando dividir cada empresa com medo de que a outra desmorone. Essa estratégia só funciona se nenhum de nós souber a posição do outro”.

Tal como a tecnologia de consumo, os sistemas de inteligência artificial foram amplamente adoptados nos sectores governamental e militar. Estas ferramentas melhoraram muito nas suas capacidades ao longo dos últimos anos e o ritmo da mudança não está a abrandar. A regulamentação e a supervisão da IA ​​não acompanharam o ritmo. A IA tornou a vigilância corporativa e governamental mais fácil e barata, ampliando os danos potenciais.

O pastor disse que o debate pode ter implicações significativas para a influência que os governos e as empresas de tecnologia têm uns sobre os outros quando as suas opiniões sobre o uso apropriado da tecnologia entram em conflito. “A Antrópico pode sentir que ceder aqui abre uma caixa de Pandora na qual Claude poderia ser colocado”, disse ele.



Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui