Início ANDROID O Google interrompe um hack de dia zero que diz ter sido...

O Google interrompe um hack de dia zero que diz ter sido desenvolvido com IA

96
0

Pela primeira vez, o Google afirma ter detectado e interrompido uma exploração de dia zero desenvolvida com IA. De acordo com relatos de Grupo de inteligência de ameaças do Google (GTIG), um “principal ator de ameaças cibercriminosas” planeja usar a vulnerabilidade para um “evento de exploração em massa” que lhes permitiria ignorar a autenticação de dois fatores em uma “ferramenta de administração de sistema baseada na web de código aberto” sem nome.

Os pesquisadores do Google encontraram pistas no script Python usado para a exploração que indicavam assistência da IA, como “pontuações CVSS alucinadas” e um formato de “livro didático estruturado” consistente com os dados de treinamento do LLM. A exploração aproveita “uma falha lógica semântica de alto nível onde os desenvolvedores codificam suposições de confiança” no sistema 2FA da plataforma. Isso ocorre depois de semanas ponderando sobre as capacidades dos modelos de IA focados na segurança cibernética, como o Mythos da Anthropic, e as vulnerabilidades recentemente divulgadas do Linux descobertas com a ajuda da IA.

Esta é a primeira vez que o Google encontra evidências de que a IA esteve envolvida em um ataque como este, embora os pesquisadores do Google tenham notado que “não acreditam que o Gemini tenha sido usado”. O Google disse que foi capaz de “interromper” essa exploração específica, mas também disse que mais hackers estão usando IA para encontrar e explorar vulnerabilidades de segurança. O relatório também nomeia a IA como um alvo para os invasores, dizendo que “o GTIG observou que os adversários estão cada vez mais visando componentes integrados que fornecem utilidade aos sistemas de IA, como habilidades autônomas e conectores de dados de terceiros”.

O relatório do Google também detalha como os hackers usam o “jailbreaking baseado em personalidade” para fazer com que a IA encontre vulnerabilidades de segurança para eles, como um comando de exemplo que instrui a IA a fingir ser um especialista em segurança. Os hackers também alimentaram repositórios inteiros de dados de vulnerabilidade em modelos de IA e usaram o OpenClaw de uma forma que mostrou “interesse em refinar cargas geradas por IA em um ambiente controlado para melhorar a confiabilidade das explorações antes da implantação”.

Source link