A Anthropic afirma que a DeepSeek e duas outras empresas chinesas de IA usaram indevidamente os modelos de IA da Claude para melhorar seus próprios produtos. em anunciado na segunda-feiraA Anthropic disse que a “campanha em escala industrial” criou aproximadamente 24 mil contas fraudulentas e incluiu mais de 16 milhões de trocas com Claude. mais cedo jornal de Wall Street.
Três empresas foram indiciadas: DeepSeek, MiniMax e Moonshot. “Destilaria” ClaudeOu treine modelos de IA menores com base em modelos de IA avançados. A Anthropic diz que a destilação é um “método de treinamento legítimo”, mas acrescenta que “também pode ser usada para fins ilícitos”, incluindo “a aquisição de capacidades poderosas de outros laboratórios por uma fração do tempo e do custo que seriam necessários para desenvolvê-las de forma independente”.
A Antthropic acrescentou que era “improvável” que modelos destilados ilegalmente assumissem as proteções existentes. “Laboratórios estrangeiros que refinam o modelo dos EUA poderiam fornecer essas capacidades desprotegidas para sistemas militares, de inteligência e de vigilância, permitindo que governos autoritários implementem IA de linha de frente para operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa”, escreveu a Anthropic.
DeepSeek, que causou impacto na indústria de IA com seus modelos poderosos, porém eficientes, teve mais de 150.000 trocas com Claude e visa recursos de inferência, de acordo com a Anthropic. Também foi acusado de usar Claude para criar uma “alternativa segura à censura para questões politicamente sensíveis sobre dissidentes, líderes partidários ou autoritarismo”. A OpenAI disse em uma carta aos legisladores na semana passada: Da mesma forma culpa DeepSeek tem um “esforço contínuo para aproveitar os recursos desenvolvidos pela OpenAI e outros laboratórios pioneiros dos EUA”.
Moonshot e MiniMax tiveram mais de 3,4 milhões e 13 milhões de trocas com Claude, respectivamente. A Anthropic está pedindo a outros membros da indústria de IA, provedores de nuvem e legisladores que resolvam a questão da destilação, acrescentando que o “acesso limitado ao chip” pode limitar o treinamento do modelo e a “escala da destilação ilícita”.



