Início ESPECIAIS A Anthropic acusou três laboratórios chineses de IA de abusar de Claude...

A Anthropic acusou três laboratórios chineses de IA de abusar de Claude para melhorar seus próprios modelos.

19
0

A Anthropic pede ação contra “ataques de destilação” de IA depois de acusar três empresas de IA de uso indevido de seu chatbot Claude. No site antropologia Alegou que DeepSeek, Moonshot e MiniMax têm realizado “uma campanha em escala industrial… para extrair ilegalmente as capacidades de Claude para melhorar seus próprios modelos”.

A destilação no mundo da IA ​​ocorre quando um modelo menos capaz depende das respostas de um modelo mais poderoso para se treinar. Embora a destilação não seja uma coisa ruim em geral, a Anthropic disse que esse tipo de ataque pode ser usado de maneiras mais nefastas. De acordo com a Anthropic, essas três empresas chinesas de IA foram responsáveis ​​por “mais de 16 milhões de trocas com Claude em aproximadamente 24.000 contas fraudulentas”. Do ponto de vista da Antrópico, essas empresas concorrentes estavam usando Claude como um atalho para desenvolver modelos de IA mais avançados, o que poderia ter resultado em contornar certas salvaguardas.

A Anthropic disse no post que foi capaz de vincular cada uma dessas campanhas de ataque refinadas a uma empresa específica com um “alto grau de confiança” graças a correlações de endereços IP, solicitações de metadados e indicadores de infraestrutura, juntamente com a corroboração com outros na indústria de IA que descobriram comportamento semelhante.

No início do ano passado, a OpenAI fez afirmações semelhantes de que os concorrentes estavam a refinar os seus modelos e a banir contas suspeitas em resposta. Quanto à Anthropic, a empresa por trás de Claude disse que atualizaria seus sistemas para tornar os ataques de destilação mais difíceis e fáceis de identificar. Embora a Anthropic critique essas outras empresas, ela também enfrenta um processo de uma editora musical que acusou a empresa de IA de usar cópias ilegais da música para treinar seu chatbot Claude.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui