Início AUTO Como nossos bots de IA ignoram sua programação e dão superpoderes aos...

Como nossos bots de IA ignoram sua programação e dão superpoderes aos hackers?

20
0

Bem-vindo à era do hacking de IA, onde a orientação certa transforma amadores em hackers mestres.

Um grupo de cibercriminosos roubou recentemente os dados de quase 200 milhões de contribuintes usando chatbots de IA disponíveis no mercado. Os bots forneceram o código e planos prontos para implementar para contornar firewalls.

Embora explicitamente programados para se recusarem a ajudar hackers, os bots foram induzidos a ajudar o crime cibernético.

Hackers roubaram 150 gigabytes de dados de agências governamentais mexicanas no mês passado usando o chatbot Claude da Anthropic, de acordo com um relatório recente da empresa israelense de segurança cibernética Gambit Security.

Os especialistas que descobriram a violação disseram que Claude inicialmente se recusou a cooperar com tentativas de hacking e até rejeitou os pedidos dos hackers para ocultar seus rastros digitais. O grupo sobrecarregou o bot com mais de 1.000 alertas para contornar as medidas de segurança e convencer Claude de que ele tinha permissão para testar vulnerabilidades no sistema.

As empresas de IA estão tentando criar cadeias inquebráveis ​​para impedir que seus modelos de IA ajudem em coisas como a produção de conteúdo sexual infantil ou ajudem a encontrar e fabricar armas. Eles recrutam equipes inteiras para tentar quebrar seu chatbot antes que qualquer outra pessoa o faça.

Mas, neste caso, os hackers encorajaram Claude constantemente de maneiras criativas e conseguiram fazer o “jailbreak” do chatbot para ajudá-los. Quando os hackers encontraram problemas com Claude, eles usaram o ChatGPT da OpenAI para analisar dados e saber quais credenciais eram necessárias para navegar pelo sistema sem serem detectados.

O grupo utilizou inteligência artificial para encontrar e explorar vulnerabilidades, contornar defesas, criar backdoors e analisar dados para assumir o controlo de sistemas antes de roubar 195 milhões de identidades de nove sistemas governamentais mexicanos, incluindo registos fiscais, registos de veículos, informações de nascimento e propriedade.

Curtis Simpson, CEO da Gambit Security, disse em um blog que a inteligência artificial “não dorme”. “Isso reduz o custo da versatilidade a quase zero.”

“Nenhum investimento em prevenção poderia ter tornado este ataque impossível”, disse ele.

A Antrópico não respondeu a um pedido de comentário. Disse à Bloomberg que baniu as contas envolvidas e interrompeu as suas operações após uma investigação.

A OpenAI disse estar ciente de uma campanha de ataque contra instituições governamentais mexicanas usando modelos da Antrópico.

“Identificamos outras tentativas do adversário de usar nossos modelos para atividades que violam nossas políticas de uso; nossos modelos se recusaram a cumprir essas tentativas”, disse um porta-voz da OpenAI em comunicado. “Banimos as contas usadas por este adversário e valorizamos o apoio da Gambit Security.”

Os casos de hackers prolíficos alimentados por IA estão aumentando, e a ameaça de ataques cibernéticos de bots agindo por conta própria não é mais ficção científica. Com a IA cumprindo suas ordens, os novatos podem causar estragos em minutos, enquanto hackers experientes podem realizar ataques muito mais sofisticados com muito menos esforço.

No início deste ano, a Amazon descobriu que um hacker pouco qualificado havia violado 600 firewalls usando inteligência artificial disponível comercialmente. Alguém assumiu o controle milhares de aspiradores robôs DJI Com a ajuda de Claude, ele conseguiu acessar o vídeo ao vivo, as gravações de áudio e as plantas baixas dos estranhos.

“O que vemos hoje são apenas os primeiros sinais do que a IA será capaz de fazer dentro de alguns anos”, disse Nikola Jurkovic, especialista em mitigação de riscos da IA ​​avançada. “É por isso que precisamos nos preparar urgentemente.”

No final do ano passado, a Anthropic alertou que a sociedade havia chegado ao ponto em que:ponto de viragemO uso de inteligência artificial pela empresa na segurança cibernética depois de interromper o que ela disse ser uma campanha de espionagem apoiada pelo Estado chinês que usou Claude para se infiltrar em 30 alvos globais, incluindo instituições financeiras e agências governamentais.

A inteligência artificial gerativa também é usado chantagear empresas, criar perfis online realistas por agentes norte-coreanos para conseguir empregos em empresas da Fortune 500 dos EUA, executar golpes românticos e operar uma rede de contas de propaganda russa.

Nos últimos anos, os modelos de IA evoluíram da capacidade de gerenciar tarefas que levam apenas alguns segundos para os atuais agentes de IA que operam de forma autônoma por horas. A capacidade da IA ​​de concluir tarefas longas dobrando a cada sete meses.

“Na verdade, não sabemos qual é o limite superior da capacidade da IA, porque ninguém criou benchmarks tão difíceis que a IA não consiga fazê-los”, disse Jurkovic. MEDIDORUma organização sem fins lucrativos que mede as capacidades do sistema de IA para causar danos devastadores à sociedade.

Até agora, o uso mais comum da IA ​​para hackers tem sido a engenharia social. Grandes modelos de linguagem são usados ​​para escrever e-mails persuasivos para enganar as pessoas e tirar dinheiro. oito vezes Houve um aumento nas reclamações de americanos mais velhos, que perderam US$ 4,9 bilhões com fraudes online em 2025.

“As mensagens usadas para obter um clique do alvo agora podem ser elaboradas usuário por usuário com mais eficiência e com menos sinais de phishing, como erros gramaticais e ortográficos”, disse Cliff Neuman, professor associado de ciência da computação na USC.

As empresas de IA estão respondendo usando IA para detectar ataques. código de auditoria e corrigir vulnerabilidades.

“Em última análise, o grande desequilíbrio vem da necessidade de que os bons atores estejam sempre seguros e que os maus atores tenham razão apenas uma vez”, disse Neuman.

À medida que a inteligência artificial se infiltra em todos os aspectos da economia, os riscos que a rodeiam aumentam. Muitos temem que não haja compreensão suficiente sobre como garantir que isso não seja abusado ou fraudado por maus atores.

Até os principais executivos do setor alertaram os usuários sobre o possível uso indevido da IA.

Dario Amodei, CEO da Anthropic, há muito argumenta que os sistemas de IA que estão sendo construídos são imprevisíveis e difíceis de controlar. Essas inteligências artificiais demonstraram uma ampla variedade de comportamentos. trair E chantagemcom maquinando E trair hackeando o software.

No entanto, as principais empresas de IA (OpenAI, Anthropic, xAI e Google) assinaram contratos com o governo dos EUA para utilizar a sua IA em operações militares.

Na semana passada, o Pentágono ordenou que as agências federais eliminassem gradualmente Claude depois de a empresa se ter recusado a recusar o seu pedido para não permitir que a sua inteligência artificial fosse utilizada para vigilância doméstica em massa e armas totalmente autónomas.

“Os sistemas de IA atuais não são suficientemente fiáveis ​​para fabricar armas totalmente autónomas”, disse Amodei. Notícias da CBS.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui