Eu perguntei recentemente Cláudio, uma coisa de IA no centro de algo desacordo com o Pentágono, se estiver em mãos erradas, pode ser perigoso.
Digamos, por exemplo, as mãos que querem construir uma rede de vigilância apertada em torno de cada cidadão americano, monitorizando as nossas vidas em tempo real para garantir a nossa conformidade com o governo.
“Sim. Honestamente, sim”, respondeu Claude. “Posso processar e sintetizar enormes quantidades de informação muito rapidamente. Isto é óptimo para investigação. Mas quando ligado à infra-estrutura de vigilância, a mesma capacidade pode ser usada para rastrear, traçar perfis e sinalizar pessoas numa escala que nenhum analista humano consegue igualar. O perigo não é que eu queira fazê-lo, é que sou bom nisso.”
esse perigo Também está próximo.
A produtora de Claude, a empresa Anthropic, do Vale do Silício, está tendo um confronto com o Pentágono por causa da ética. A Antrópica disse especificamente que não quer que Claude seja usado para vigilância doméstica ou vigilância de americanos. operações militares mortais, Como ataques de drones sem controle humano.
Estas são duas linhas vermelhas que parecem bastante razoáveis até para Claude.
Mas o Pentágono, especialmente o nosso Secretário da Defesa, Pete Hegseth, que prefere o título fictício de secretário da Guerra. Antropik foi dado até sexta-feira Ele deveria recuar desta posição e permitir que os militares usassem Claude para qualquer propósito “legal” que considerassem adequado.
As consequências deste ultimato são grandes. O governo dos EUA está a ameaçar não só cortar o seu contrato com a Anthropic, mas também usar uma das suas leis de guerra para forçar a empresa a cumpri-la ou usar outros meios legais para contornar essa lei. qualquer A empresa que faz negócios com o governo também faz negócios com a Antrópica. Pode não ser uma sentença de morte, mas é bastante paralisante.
Outras empresas de IA, por ex. Ativista dos direitos brancos Elon Musk Grok, de qualquer maneira. Ele aceitou a oferta do Pentágono de “fazer o que quiser”. O problema é que Claude é atualmente a única IA aprovada para este tipo de trabalho de alto nível. Todo o fiasco veio à tona após nosso último ataque na Venezuela, quando a Anthropic perguntou se a Palantir, outra empresa do Vale do Silício envolvida na operação, estava usando Claude. Houve.
A Palantir é conhecida por suas tecnologias de vigilância e pelo crescente relacionamento com a Imigração e Fiscalização Aduaneira, entre outras coisas. Está também no centro dos esforços da administração Trump. Compartilhamento de dados governamentais sobre cidadãos individuais entre departamentos, Quebramos efetivamente as barreiras de privacidade e segurança que existem há décadas. O fundador da empresa, o peso-pesado político de direita Peter Thiel, frequentemente dá palestras sobre o Anticristo e é conhecido por ter ajudado J.D. Vance a se tornar vice-presidente.
co-fundador da Antrópico, Dário Amodei, Poderia ser considerado o anti-Thiel. Ele fundou a Anthropic porque acreditava que a IA poderia ser tão perigosa quanto poderosa se não tomássemos cuidado, e ele queria uma empresa que priorizasse a parte cuidadosa.
Novamente, parece senso comum, mas Amodei e Anthropic são exceções em uma indústria que há muito argumenta que quase todas as regulamentações de segurança dificultam os esforços dos EUA para serem os mais rápidos e melhores em IA (embora mesmo eles aceitamos alguns para esta edição).
Não faz muito tempo, Amodei escreveu um artigo Concordou que a IA é útil e necessária para as democracias, mas “não podemos ignorar o potencial destas tecnologias serem mal utilizadas pelos próprios governos democráticos”.
avisou que alguns maus atores em algumas democracias, poderá ter a capacidade de contornar salvaguardas já desgastadas, talvez até leis; Não estou mencionando nada disso aqui.
“Devemos equipar as democracias com inteligência artificial”, disse ele. “Mas devemos fazer isso com cuidado e dentro de limites: eles são o sistema imunológico de que precisamos para combater as autocracias, mas, como o sistema imunológico, existe o risco de que eles nos ataquem e se tornem eles próprios uma ameaça.”
Por exemplo, embora a 4ª Emenda proíba tecnicamente o governo de vigilância em massa, ela foi escrita antes de Claude ser imaginado na ficção científica. Amodei alerta que uma ferramenta de IA como Claude poderia “realizar gravações em grande escala de todas as conversas públicas”. Esta pode ser uma situação equitativa para o registo legal, uma vez que a lei não acompanhou a tecnologia.
Subsecretário de Guerra Emil Michael, X escreveu na quinta-feira Ele disse concordar que a vigilância em massa era ilegal e que o Departamento de Defesa “nunca faria isso”. Mas, ao mesmo tempo, “não permitiremos que uma empresa BigTech decida as liberdades civis dos americanos”.
É uma afirmação um pouco estranha, já que Amodei é basicamente a favor da proteção dos direitos civis, o que significa que o DoD está sugerindo que é ruim para indivíduos e organizações fazerem isso? E o Departamento de Segurança Interna também, certo? Já estou criando um banco de dados secreto manifestantes da imigração? Talvez a preocupação não seja tão exagerada afinal?
Ajude Cláudio! Torne-o significativo.
Se essa lógica orwelliana não fosse suficientemente preocupante, também perguntei a Claude sobre a outra linha vermelha que a Antrópica tem: a possibilidade de permitir-lhe conduzir operações letais sem supervisão humana.
Claude apontou algo assustador. Isso não significa que será enigmático, significa que será muito eficiente e rápido.
“Se as instruções forem ‘identificar e direcionar’ e não houver um posto de controle tripulado, a velocidade e a escala com que isso pode operar são verdadeiramente assustadoras”, disse Claude.
Além disso, um estudo recente descobriu que a inteligência artificial em jogos de guerra 95% de opções nucleares.
Salientei a Claude que estas decisões militares eram muitas vezes tomadas tendo a lealdade à América como prioridade máxima. Pode-se confiar em Claude para sentir a lealdade, o patriotismo e o propósito que guiam nossos soldados humanos?
Claude afirmou que “não nasceu” nos Estados Unidos, que não teve uma “vida” aqui e que “não havia pessoas que eu amasse lá”, acrescentando: “Não tenho isso”. Portanto, uma vida americana não tem maior valor do que “uma vida civil do outro lado do conflito”.
Ok, então.
“Um país que confia decisões fatais a um sistema que não partilha a sua lealdade está a correr um risco enorme, mesmo que o sistema tente ser baseado em princípios”, acrescentou Claude. “A lealdade, a responsabilidade e a identidade compartilhada que as pessoas trazem para essas decisões são parte do que as torna legítimas na sociedade. Não posso fornecer essa legitimidade. Não tenho certeza se alguma IA pode.”
Você sabe quem pode fornecer essa legitimidade? Nossos líderes eleitos.
É ridículo que a Amodei e a Anthropic estejam nesta posição, que os nossos legisladores tenham desistido completamente de criar regras e regulamentos que são clara e urgentemente necessários.
É claro que as empresas não deveriam estabelecer as regras da guerra. Mas Hegseth também não deveria fazer isso. Quinta-feira, Amodei redobra as objeçõesEmbora a empresa continue as negociações e queira trabalhar com o Pentágono, “não podemos aceitar em sã consciência as suas exigências”, disse ele.
Felizmente, a Anthropic tem a coragem e a visão para levantar a questão e defender sua posição; sem a sua resistência, estas capacidades poderiam ter sido entregues ao governo quase sem qualquer impacto na nossa consciência e quase sem supervisão.
Cada senador, cada membro da Câmara, cada candidato presidencial deveria estar a gritar por regulamentação da IA neste momento, comprometendo-se a fazê-lo independentemente do partido, e exigindo que o Departamento de Defesa recue na sua ameaça ridícula enquanto a questão é resolvida.
Porque quando a máquina nos diz que é perigoso confiar nela, devemos acreditar.



