Início ANDROID A inteligência artificial está perturbando a segurança cibernética

A inteligência artificial está perturbando a segurança cibernética

26
0

A Anthropic disse no final do ano passado que hackers chineses apoiados pelo Estado usaram sua tecnologia de inteligência artificial para penetrar nos sistemas de computador de cerca de 30 empresas e agências governamentais em todo o mundo.

em um postagem no blogA Anthropic disse que este é o primeiro caso relatado de ataque cibernético em que a tecnologia de inteligência artificial coletou informações confidenciais com ajuda limitada de operadores humanos. A empresa afirma que os hackers humanos lidam com cerca de 10 a 20 por cento do trabalho necessário para os ataques.

Cinco meses depois, continua a ser o único exemplo conhecido de um ataque cibernético conduzido principalmente por um “agente de inteligência artificial”, uma tecnologia que pode escrever o seu próprio código de computador e utilizar software. Mas à medida que a Anthropic e o seu principal rival, OpenAI, se preparam para lançar novos e mais poderosos sistemas de inteligência artificial, os especialistas em segurança cibernética alertam cada vez mais abertamente que a inteligência artificial está a mudar fundamentalmente a segurança cibernética.

A tecnologia da Anthropic, OpenAI, Google e outras poderá permitir que hackers identifiquem vulnerabilidades de segurança em sistemas informáticos mais rapidamente do que no passado, aumentando dramaticamente os riscos numa batalha de décadas entre hackers e os especialistas em segurança que protegem as redes informáticas.

Mas, tal como outras ferramentas na longa história da cibersegurança, a IA mais recente pode ser utilizada tanto ofensiva como defensivamente. À medida que os hackers utilizam a inteligência artificial para destruir e roubar, os especialistas em segurança também recorrem à inteligência artificial para encontrar falhas nos sistemas – incluindo algumas que passaram despercebidas durante décadas. A questão é quem descobre a falha primeiro.

“Esta é a maior mudança na história da Internet”, disse Francis deSouza, diretor de operações do Google Cloud e presidente de produtos de segurança. “Você tem que combater a inteligência artificial com inteligência artificial.”

Desde o ano passado, os principais projetos de software de código aberto – que fornecem a infraestrutura subjacente para sites e serviços na Web – têm sido inundados com informações sobre pessoas que utilizam inteligência artificial para identificar vulnerabilidades de segurança.

Muitos dos chamados relatórios de bugs são falsos devido a erros cometidos por sistemas de inteligência artificial. Mas nos últimos meses, à medida que a inteligência artificial avançou, começaram a identificar bugs legítimos a um ritmo alarmante e os programadores correram para os corrigir.

“Esses modelos de IA estão aumentando as capacidades humanas”, diz Daniel Stenberg, que gerencia um importante e popular projeto de código aberto chamado Curl. “Se você usar essas ferramentas corretamente, elas poderão realmente melhorar sua capacidade de encontrar problemas de software.”

Fevereiro, Antrópico explicar A empresa usou tecnologia de inteligência artificial para descobrir mais de 500 vulnerabilidades chamadas de dia zero (vulnerabilidades de segurança desconhecidas pelos fabricantes de software) em uma variedade de softwares de código aberto comumente usados. No mês seguinte, um pesquisador da Anthropic revelou que havia Usando inteligência artificial para descobrir vulnerabilidades críticas de segurança Em sua essência, o sistema operacional Linux é o software que alimenta a maior parte da Internet e é usado em servidores de computador, serviços de computação em nuvem, telefones Android e Teslas.

A vulnerabilidade existe desde 2003, mas aparentemente não foi detectada.

Os especialistas estão divididos sobre se um dos lados nesta luta obteve uma vantagem significativa através da inteligência artificial e não têm certeza de como a luta se desenrolará nos próximos anos. Mas a maioria concorda que as empresas e os governos que não adoptem a mais recente inteligência artificial para fins de defesa ficarão muito vulneráveis.

Chatbots como Claude da Anthropic e GPT da OpenAI já são muito bons em escrever códigos de computador. Esses sistemas ajudam os engenheiros a criar novos softwares. Eles podem usar ferramentas online, como programas de e-mail e calendários online. Eles podem detectar pontos fracos em software e serviços online e procurar vulnerabilidades de segurança.

Nos últimos meses, novas ferramentas de IA, como Claude Code da Anthropic e Codex da OpenAI (projetado para codificação), ajudaram os desenvolvedores a criar agentes de IA que podem lidar com uma variedade de tarefas por conta própria. Isto inclui identificar e explorar vulnerabilidades de segurança em software.

“Há quatro ou cinco meses fizemos mudanças significativas na funcionalidade desses sistemas”, disse Zico Kolter, membro do conselho da OpenAI e professor de ciência da computação na Universidade Carnegie Mellon, especializado em segurança e inteligência artificial.

A inteligência artificial está ajudando os invasores de outras maneiras. Especialistas em segurança cibernética dizem que algumas pessoas usam chatbots para redigir e-mails de phishing e notas de resgate. Outros estão usando inteligência artificial para analisar grandes quantidades de dados roubados e determinar quais informações podem ser valiosas. D’Souza disse que sem a ajuda da inteligência artificial, os invasores às vezes podem invadir uma rede de computadores em minutos, mas com a ajuda da inteligência artificial, a intrusão pode levar apenas alguns segundos.

Alguns hackers se especializam em invadir sistemas e depois vender seu acesso a outros invasores. Essas transferências costumavam levar até oito horas, disse D’Souza, enquanto os hackers negociavam as vendas e entregavam pontos de entrada comprometidos. O processo agora foi acelerado para cerca de 20 segundos, disse ele, e os hackers às vezes usam agentes de inteligência artificial para acelerar o processo.

Anthropic, OpenAI e outras empresas de inteligência artificial estão tentando adicionar proteções às suas ferramentas para evitar que se tornem armas cibernéticas. Mas os invasores podem contornar esses obstáculos informando ao sistema de IA que não estão realmente conduzindo um ataque.

Por exemplo, eles podem dizer que estavam apenas jogando um jogo de “capturar a bandeira” – um exercício de segurança cibernética que simula ataques reais e permite que os engenheiros pratiquem a descoberta e a exploração de vulnerabilidades.

Alguns especialistas acreditam que as proteções adicionadas por empresas como a Anthropic e a OpenAI podem, na verdade, dar uma vantagem aos invasores mal-intencionados. Eles argumentam que as proteções podem fazer com que os chatbots recusem ajuda aos usuários que tentam proteger seus sistemas contra ataques, mas que hackers obstinados podem procurar mais por vulnerabilidades e manter os truques para si.

“Claude construiu fortes proteções para evitar o abuso de nossos modelos”, disse o porta-voz da Anthropic, Paruul Maheshwary, em um comunicado. “À medida que as barreiras à execução de ataques cibernéticos sofisticados continuam a cair, acreditamos que estas proteções são críticas para evitar que a inteligência artificial seja usada como ferramenta para os atacantes”.

Embora a tecnologia de inteligência artificial dê novos poderes aos hackers ofensivos, os especialistas estão divididos sobre se essas ferramentas dão aos atacantes uma vantagem geral sobre os defensores.

Mesmo depois de meses de melhorias constantes, as tecnologias de IA ainda apresentam falhas – o que significa que requerem a experiência de especialistas experientes em segurança cibernética. Em muitos casos, estas ferramentas ainda são limitadas pelas competências das pessoas que as utilizam.

“Você ainda precisa de um arquiteto de software envolvido no circuito desses sistemas”, disse o Dr. Colter.

Ele e outros acreditam que os defensores têm uma vantagem porque o seu trabalho é mais fácil. Eles só precisam encontrar as brechas. Os hackers ofensivos devem encontrar e explorar vulnerabilidades.

“É mais fácil descobrir uma vulnerabilidade do que explorá-la de forma significativa”, disse o Dr. Colter.

(O New York Times processou a OpenAI e a Microsoft em 2023, acusando-as de violação de direitos autorais sobre conteúdo de notícias relacionado a sistemas de inteligência artificial. Ambas as empresas negaram as acusações.)

Na semana passada, a revista Fortune provocou outra rodada de discussão na comunidade de segurança cibernética. relatório A empresa publicou inadvertidamente o conteúdo de uma postagem no blog descrevendo seu sistema de inteligência artificial ainda a ser lançado. A postagem do blog disse que a tecnologia representa outra “mudança radical” na eficácia da inteligência artificial.

Após o vazamento do artigo, Nikesh Arora, CEO da empresa de segurança cibernética Palo Alto Networks, publicou uma postagem no blog alertando empresas e governos sobre a necessidade de adotar as ferramentas mais recentes.

“A capacidade de identificar vulnerabilidades será muito melhor do que vimos antes”, disse ele em entrevista. “Temos que estar preparados para resolver essas questões.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui