Início ESPECIAIS Por que 2026 será o ano da IA ​​de segurança cibernética

Por que 2026 será o ano da IA ​​de segurança cibernética

23
0

Diz-se que o custo médio global de uma violação de dados diminuiu 9%, para 4,44 milhões de dólares em 2025, o primeiro declínio em cinco anos. Relatório de custo de violação de dados da IBM. Superficialmente, parece que estão sendo feitos progressos. A IA de segurança e a automação estão finalmente rendendo dividendos, encurtando os prazos de detecção e reduzindo a sobrecarga de investigação.

Mas os números das manchetes obscurecem uma realidade mais desconfortável. Organizações com ampla automação relataram que o custo de uma violação foi quase US$ 1,9 milhão menor do que aquelas que dependem de processos manuais. O fosso entre líderes e retardatários não está a diminuir, mas a aumentar. E as ferramentas de IA que estão a impulsionar estas poupanças de custos estão a introduzir uma nova categoria de risco que os reguladores, as seguradoras e os conselhos de administração já não podem ignorar.

O paradoxo da automação

Os centros de operações de segurança adotaram a IA para atender à urgência de um setor com escassez de analistas. As taxas de desgaste devido ao esgotamento excedem 25% ao ano em muitas equipes SOC, entre as mais altas de TI. Normalmente leva de 6 a 12 meses para substituir um analista experiente. A matemática é brutal. As organizações não conseguem alcançar a resiliência.

A automação deveria resolver esse problema. Fluxos de trabalho estreitos e bem definidos permitem classificação de alertas, correlação de logs e enriquecimento iterativo. que Relatório de tendências de segurança cibernética Nextgen 2025/2026 Até 2025, estima-se que a telemetria da indústria atinja 308 petabytes em mais de 4 milhões de identidades, endpoints e ativos em nuvem, gerando quase 30 milhões de pistas investigativas. Os analistas confirmaram que havia apenas cerca de 93 mil ameaças reais vindas da montanha, uma taxa de acerto de apenas 0,3%. O volume por si só é impossível de gerenciar sem automação.

💜 da tecnologia da UE

As últimas novidades do cenário tecnológico da UE, a história do sábio fundador Boris e a questionável arte de IA. Receba-o em sua caixa de entrada gratuitamente todas as semanas. Cadastre-se agora!

Ciclo de campanha publicitária de operações de segurança do Gartner para 2025 Implantando agentes AI SOC no pico das expectativas inflacionadasAlertamos que as reivindicações ainda superam as melhorias sustentadas e mensuráveis. A adoção antecipada muitas vezes acrescenta trabalho antes de reduzi-lo. Os falsos positivos e as alucinações continuam a ser riscos operacionais reais. E os modelos de custo muitas vezes limitam a implantação generalizada em funções SOC.

O paradoxo é claro. As organizações precisam de IA para combater o dilúvio de dados, mas a IA descontrolada cria exatamente os pontos cegos que pretendia eliminar. Um relatório de 2025 da IBM descobriu que a presença de IA sombra, funcionários que usam ferramentas de IA generativa não autorizadas para processar dados confidenciais, adicionou uma média de US$ 670.000 ao custo de uma violação. Espantosos 97% das organizações violadas que sofreram incidentes de segurança relacionados com IA não tinham controlos de acesso de IA adequados. Entretanto, 63% das organizações inquiridas admitiram não ter quaisquer políticas de governação de IA em vigor.

O significado é claro. A automação sem governança redistribui o risco, e não o reduz. Num ambiente regulatório que exige cada vez mais transparência, a IA não gerida no seu SOC não é apenas uma responsabilidade técnica. Exposição de conformidade.

Quando a fadiga de advertência se torna um vetor de violação

O custo humano é mensurável e vai muito além dos limites orçamentais. A pesquisa citada no relatório Nextgen descobriu que as equipes SOC rotineiramente ignoram ou ignoram até 30% dos alertas recebidos por necessidade, e não por descuido. Quando todos os alertas parecem iguais e chegam a um console desconectado com contexto fragmentado, um analista experiente deve analisar o instinto em vez das evidências.

Os resultados variam entre sectores, mas os padrões repetem-se. A saúde continua sendo o setor mais caro em termos de violações, com US$ 7,42 milhões por incidente e 279 dias de contenção. A fadiga dos alertas não é apenas um problema de TI. O conjunto de dados da ENISA de 215 incidentes médicos de 2021 a 2023 descobriu que 54% envolviam ransomware e, em 30%, os dados dos pacientes eram o alvo principal. Hospitais relataram que desvios de ambulâncias e atrasos cirúrgicos estão diretamente ligados à sobrecarga de pessoal e ao entupimento das tubulações de detecção.

Nos setores da indústria transformadora e da energia, onde a implementação da NIS2 terá início em 2025, um dia de inatividade em instalações de elevado rendimento pode custar milhões de euros. Os invasores estão cada vez mais visando sistemas de controle industrial, navegando por redes de TI mal segmentadas e aproveitando com precisão alertas vagos e contextuais que analistas sobrecarregados tendem a ignorar.

Os dados financeiros apoiam este ponto. As violações contidas no prazo de 200 dias atingiram uma média de 3,87 milhões de dólares em 2025, enquanto as violações que excederam esse limite atingiram uma média de 5,01 milhões de dólares. Os incidentes multiambientais que abrangem nuvem, SaaS e infraestrutura local simultaneamente foram ainda mais caros, com uma média de US$ 5,05 milhões, com um ciclo de vida próximo de 276 dias. O ambiente operacional determina a complexidade e a complexidade determina o custo.

A lição para 2025 é que o grande volume de dados aumentará. No entanto, as equipes bem-sucedidas são aquelas que tratam a correlação e o enriquecimento como imperativos arquitetônicos, em vez de complementos opcionais.

Convergência regulatória na Europa

Agora, três quadros regulamentares estão a convergir para uma única exigência. Isso significa que você precisa demonstrar resiliência continuamente, e não apenas relatá-la após o fato.

A Lei de Resiliência Operacional Digital (DORA), que entrou em vigor em toda a UE em janeiro de 2025, remodela a segurança cibernética nos serviços financeiros em torno da resiliência operacional em caso de perturbações graves de TI. Os requisitos de relatórios são o fator mais perturbador. As agências devem enviar relatórios de incidentes dentro de horas, apoiados por evidências forenses de auditoria. Os registros devem ser assinados digitalmente e marcados com data e hora para sobreviver ao escrutínio dos reguladores meses depois.

A Diretiva SRI2, que será traduzida para o direito nacional em toda a Europa em 2024-2025, expande o âmbito regulamentar de sete setores para 18 setores essenciais e críticos. Na Roménia, isto mudou com a Lei 124/2025, que pela primeira vez designa explicitamente a indústria transformadora como um setor regulamentado e força os estabelecimentos de produção a adotar um quadro de conformidade equivalente aos hospitais e bancos. Ao abrigo do NIS2, o Conselho é diretamente responsável, com sanções que incluem multas e desqualificação da adesão à UE.

E a obrigação mais substantiva é a lei da UE sobre IA, que entra em vigor em 2 de agosto de 2026. Os sistemas de IA de alto risco, uma categoria que abrange muitas ferramentas de automação de segurança, devem demonstrar isso. Conformidade com os requisitos Trata-se de gestão de riscos, governança de dados, documentação técnica, transparência, supervisão humana, precisão, robustez e segurança cibernética. Os provedores devem implementar medidas técnicas contra envenenamento de dados, evasão de modelos e ataques adversários.

Para grupos financeiros globais, a complexidade multiplica-se. Uma única violação pode exigir relatórios simultâneos sob DORA, GDPR e estruturas nacionais, cada uma com diferentes formatos e prazos. Para os fabricantes recentemente incluídos no âmbito do NIS2, o problema é ainda mais fundamental. Muitas empresas não possuem a infraestrutura de ferramentas para gerar evidências de classificação de conformidade, e muito menos as pressões de tempo.

Juntos, estes três quadros criam um ambiente regulamentar no qual a IA da cibersegurança simplesmente não pode ser eficaz. Ou seja, deve ser auditável, responsável e gerenciável. As questões que as organizações enfrentam não são mais “Quão seguros estamos??” mas “Você pode fazer uma demonstração aos reguladores dentro de algumas horas?“. Para organizações que avaliam plataformas construídas para este ambiente regulatório, recentes Comparação de fornecedores europeus de SIEM Fornece contexto adicional.

O caso da autonomia governamental

Esta convergência regulamentar está a mudar a aparência de uma boa arquitetura de segurança. A indústria está migrando da automação baseada em regras, onde manuais executam etapas predeterminadas, para autonomia controlada ou operações SOC semiautônomas com proteções de conformidade integradas.

No modelo de autonomia controlada, a IA não substitui o julgamento humano. O espaço de decisão torna-se mais estreito. A correlação ocorre no momento da coleta, reduzindo dezenas de alertas fragmentados a um caso difícil com evidências de auditoria completas.

A pontuação da UEBA classifica identidades e ativos anômalos por risco, permitindo que os analistas se concentrem no que importa, em vez de se perderem no barulho. E cada cronograma de investigação funciona como produtos assinados digitalmente, mapeados digitalmente e em conformidade, prontos para exportação aos reguladores.

Os princípios arquitetônicos são concisos. Toda prática de segurança também é uma prática de conformidade. Uma vez examinado pelos analistas, o sistema produz resultados operacionais e relatórios prontos para os reguladores. Isso evita a duplicação que assola as organizações que executam ferramentas separadas de SIEM, SOAR e conformidade, cada uma adicionando custo, latência e esforço de integração.

As plataformas europeias baseiam-se cada vez mais nesta filosofia. Por exemplo, a Nextgen Software, sediada na Roménia, concebeu a sua plataforma CYBERQUEST para integrar detecção, investigação e relatórios de conformidade num único fluxo de trabalho, garantindo que todos os casos difíceis gerem automaticamente pistas de auditoria às exigências DORA e NIS2. Os módulos de monitoramento de TO sem agente atendem a uma lacuna crítica para fabricantes e concessionárias. Isso significa obter visibilidade dos sistemas de controle industrial sem implantar agentes de endpoint intrusivos. Esforços de convergência semelhantes podem ser vistos em todo o cenário de fornecedores europeus, desde fornecedores nórdicos de SIEM que criam exportações prontas para conformidade até iniciativas lideradas pela Alemanha que incorporam o mapeamento ISO 27001 e NIS2 diretamente em sua lógica de detecção.

De assistentes a agentes – com cuidado

A próxima fronteira é passar de assistentes de IA para sistemas de agentes de IA que executam ativamente fluxos de trabalho de detecção, investigação e resposta, em vez de simplesmente sugerir as próximas etapas. Esta é uma transição que a indústria está a abordar com uma mistura de ambição e cautela.

Vlad Gladin, CTO da Nextgen Software, explica esses desenvolvimentos em termos práticos.As personas da Cyber ​​​​Minds AI estão evoluindo de assistentes consultivos para agentes investigativos com consciência situacional. Em vez de simplesmente recomendar respostas, esses agentes podem correlacionar a telemetria entre dados de identidade, rede e endpoint em tempo real, realizar análises forenses preliminares e fornecer aos analistas uma narrativa investigativa rica, em vez de uma fila desconectada de alertas. O objetivo não é remover o analista do loop, mas garantir que o contexto já esteja configurado quando o analista ingressar.

Isso reflete a trajetória mais ampla da indústria. O Gartner recomenda tratar os agentes AI SOC como ferramentas de melhoria do fluxo de trabalho, em vez de substitutos autônomos, com foco na manutenção da supervisão humana. As preocupações são válidas. A automação excessiva cria riscos quando os agentes agem com base em suposições erradas, e a maioria dos casos de uso atuais permanece restrita e específica para tarefas, em vez de de ponta a ponta.

Uma abordagem controlada significa construir confiança gradualmente. Comece com o enriquecimento automatizado e a montagem de casos. Classificação de prioridade baseada em UEBA. Devem então evoluir para ações de resposta semiautônomas, sempre com uma trilha de auditoria que possa ser verificada posteriormente pelos reguladores ou seguradoras.

Há uma razão pela qual este modelo incremental ressoa particularmente na Europa. O ambiente regulamentar do continente recompensa o controlo demonstrável sobre as funções brutas. Um agente de IA que pode fazer a triagem de milhares de alertas por hora é impressionante. Um agente de IA que pode fazer a triagem de milhares de alertas por hora e gerar um cronograma de incidentes compatível com DORA para cada alerta é lucrativo. As lógicas comercial e regulatória estão convergindo para os mesmos requisitos arquitetónicos.

O que 2026 exige

As organizações melhor posicionadas em 2026 não serão necessariamente aquelas com a IA mais avançada, mas sim aquelas que possam demonstrar que a IA é confiável. Num ambiente em que a DORA exige provas forenses em poucas horas, o NIS2 responsabiliza pessoalmente os conselhos e a legislação da UE em matéria de IA exige uma governação demonstrável para sistemas de alto risco. O verdadeiro diferenciador não é a velocidade da detecção, mas a velocidade da confiança demonstrável.

Isto significa que a conformidade não pode continuar a ser um exercício adicional realizado trimestralmente por uma equipa separada. Isso deve fazer parte do fluxo de trabalho da detecção à resolução, criado automaticamente como subproduto do tratamento de incidentes. Uma plataforma que forneça provas prontas para auditoria como uma consequência natural das operações, em vez de exigir que os analistas se reorganizem após o facto, estabelecerá um novo padrão.

A indústria de segurança cibernética tem acelerado em direção à automação na última década. Até 2026, a corrida para gerir a automação irá mudar, demonstrando aos reguladores, seguradoras e conselhos de administração que as máquinas que defendem a rede são elas próprias um passivo. O vencedor não será a organização com mais IA. Serão eles que poderão mostrar a IA em ação.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui