Donald Trump ordenou na sexta-feira que seu governo “cessasse imediatamente qualquer uso” da inteligência artificial (IA) da Anthropic; A start-up californiana recusou-se a abri-la aos militares americanos sem restrições em nome da ética.
• Leia também: Trump diz que está considerando ‘tomada pacífica’ de Cuba
• Leia também: ‘Não muito satisfeito’ com negociações com o Irã, Donald Trump mantém opção militar em jogo
“Estou ordenando a TODAS as agências federais do governo dos Estados Unidos que PARAM IMEDIATAMENTE todo o uso da tecnologia da Antrópico. Não precisamos deles, não os queremos e não trabalharemos mais com eles”, trovejou o presidente americano na plataforma Truth Social.
A Anthropic, editora do modelo Claude AI, recusou-se um dia antes a ceder ao ultimato do secretário de Defesa Pete Hegseth, que expiraria na sexta-feira, exigindo que os fornecedores de IA suspendessem quaisquer restrições ao uso de seus modelos padrão.
Com esta decisão, a jovem empresa estabeleceu um limite ético à utilização da sua tecnologia, que os militares e a inteligência americana utilizam atualmente para a defesa do país, em duas situações específicas: vigilância em massa de cidadãos americanos e armas letais totalmente autónomas.
“Acreditamos que, num número limitado de casos, a inteligência artificial pode prejudicar os valores democráticos em vez de defendê-los”, disse o seu chefe, Dario Amodei, que assinou um contrato de 200 milhões de dólares com o governo americano em junho.
“Egoísmo”
“Usar estes sistemas para vigilância doméstica em massa é incompatível com os valores democráticos”, acrescentou.
O líder de 40 anos insistiu que os sistemas de inteligência artificial mais avançados ainda não são suficientemente fiáveis para lhes confiar a autoridade para controlar armas letais e, portanto, matar sem supervisão humana como último recurso.
Dario Amodei disse que armas totalmente autônomas “devem ser implantadas com medidas de segurança apropriadas que não existem hoje”.
“Não ofereceremos conscientemente um produto que ponha em perigo soldados e civis americanos”, disse ele.
Donald Trump classificou a recusa da Anthropic em conceder acesso incondicional a AI Claude um “erro catastrófico”.
“O seu egoísmo põe em perigo as vidas dos americanos, os nossos soldados e a segurança nacional”, acusou o presidente republicano.
“Os Estados Unidos nunca permitirão que uma corporação esquerdista radical dite aos nossos grandes militares como lutar e vencer guerras!” » com raiva em letras maiúsculas.
Enfrentando pressão da administração Trump, quase 400 funcionários do Google e da OpenAI expressaram seu apoio à Anthropic em uma carta aberta na sexta-feira.
“O Pentágono está negociando com o Google e a OpenAI para fazê-los aceitar o que a Anthropic recusa”, escrevem.
«S’unir»
“Esperamos que os nossos líderes deixem de lado as suas diferenças e se unam para rejeitar as exigências do Departamento de Defesa”, insistem os autores.
Noutra convocatória publicada na sexta-feira, os sindicatos e órgãos representativos dos trabalhadores da Amazon, Microsoft e Google pediram aos seus empregadores que “rejeitem as exigências do Pentágono”.
Em sua disputa com a Anthropic, Pete Hegseth havia lhe dado um ultimato até esta sexta-feira, às 22h01. A GMT cumprirá as suas exigências sob pena de forçar a start-up a cumprir determinada legislação que remonta à Guerra Fria.
O Departamento de Defesa garante que os fornecedores de IA planejam usar seus modelos de acordo com a lei.
Fundada em 2021 por graduados da OpenAI, a Anthropic sempre adotou uma abordagem ética em relação à inteligência artificial.
No início de 2026, a start-up publicou um documento denominado constituição, que detalhava um conjunto de instruções dadas a Claude para supervisionar a sua produção. Em particular, visam “prevenir ações inadequadamente perigosas”.
Donald Trump anunciou especificamente que começaria um período de transição de seis meses, durante o qual o Departamento de Defesa se separaria das ferramentas da Antrópica.
A Anthropic não respondeu imediatamente quando contactada pela AFP.



