Início AUTO Segundo o relatório, o exército dos EUA usou o modelo de inteligência...

Segundo o relatório, o exército dos EUA usou o modelo de inteligência artificial da Anthropic, Claude, no ataque à Venezuela | IA (inteligência artificial)

27
0

Claude, o modelo de inteligência artificial desenvolvido pela Anthropic, foi usado durante a operação do exército dos EUA para sequestrar Nicolás Maduro da Venezuela, Wall Street Journal esclarecido Sábado, em um exemplo de destaque de como o departamento de defesa dos EUA está usando inteligência artificial em suas operações.

O ataque dos EUA à Venezuela incluiu o bombardeio da capital Caracas e a morte de 83 pessoas, segundo o Ministério da Defesa venezuelano. Os termos de uso da Antrópico proíbem o uso de Claude para fins violentos, desenvolvimento de armas ou vigilância.

Anthropic foi o primeiro desenvolvedor de IA conhecido por ter sido usado pelo Departamento de Defesa dos EUA em uma operação secreta. Não ficou claro como o veículo, que tem capacidades que vão desde o processamento de PDFs até a pilotagem de drones autônomos, foi implantado.

Um porta-voz da Anthropic se recusou a comentar se Claude foi usado na operação, mas disse que qualquer uso da ferramenta de IA era necessário para cumprir suas políticas de uso. O departamento de defesa dos EUA não comentou as acusações.

O WSJ citou fontes não identificadas que disseram que Claude foi contratado por meio da parceria da Anthropic com a Palantir Technologies, uma empreiteira que trabalha com o departamento de defesa e aplicação da lei federal dos EUA. Palantir se recusou a comentar as acusações.

Os EUA e outros militares estão a utilizar cada vez mais a IA como parte do seu arsenal. Os militares israelitas usaram drones com capacidades autónomas em Gaza e fizeram uso extensivo de inteligência artificial para reabastecer o seu banco-alvo em Gaza. Os militares dos EUA usaram inteligência artificial em ataques no Iraque e na Síria nos últimos anos.

Os críticos alertaram contra o uso de inteligência artificial em tecnologias de armamento e a implantação de sistemas de armas autónomos, apontando erros de mira criados por computadores que determinam quem deve ou não ser morto.

As empresas de IA estão a debater-se sobre a forma como as suas tecnologias devem interagir com o setor da defesa; Dario Amodei, CEO da Anthropic, pede regulamentação para evitar danos causados ​​pela implantação da IA. Amodei também expressou cautela sobre o uso de inteligência artificial em operações letais autônomas e vigilância nos Estados Unidos.

Esta postura mais cautelosa aparentemente irritou o departamento de defesa dos EUA; O secretário da Guerra, Pete Hegseth, disse em janeiro que o departamento “não usará modelos de inteligência artificial que não permitirão o envolvimento em guerras”.

O Pentágono anunciou em janeiro que trabalharia com a xAI, de propriedade de Elon Musk. O departamento de defesa também está usando uma versão personalizada dos sistemas Gemini e OpenAI do Google para apoiar pesquisas.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui