Shadow AI está em ascensão e causando problemas para as organizações.
Um estudo recente do MIT descobriu que mais de 90% dos funcionários utilizam ferramentas pessoais de IA e apenas 40% das organizações gerem a sua utilização formal.
Além disso, um relatório recente da IBM descobriu que, embora 97% das organizações tenham sofrido incidentes de segurança cibernética relacionados com IA, a maioria ainda carece de governação.
Ele é Diretor Sênior de Pesquisa de Segurança e Inteligência Competitiva da Exabeam.
Um enorme jogo de cabo de guerra ocorreu no cenário da segurança cibernética. As organizações deveriam limitar o uso da IA sombra e potencialmente sufocar a criatividade e as oportunidades que a acompanham, ou deveriam deixá-la correr solta e arriscar sua exploração?
Existe um meio-termo que procure equilibrar inovação, visibilidade, conformidade e fiscalização?
Shadow AI: O que é e qual é o problema?
O grande problema é a incerteza em torno da IA sombra em geral. Shadow AI não tem uma definição universal, mas geralmente ocorre quando recursos que uma empresa desconhece são usados para executar funções de negócios.
Uma das razões pelas quais é difícil limitar a Shadow AI é a facilidade de implementação, não apenas em todos os setores, mas também na vida cotidiana.
As pessoas sempre procuram a maneira mais fácil de realizar uma tarefa. Se houver uma maneira de adotar a tecnologia para realizar o trabalho com mais eficiência, faremos isso mesmo que a organização não aprove.
O problema é que a natureza criativa da IA torna difícil controlá-la. Existem muitas áreas cinzentas entre o indivíduo e o prompt onde podem surgir riscos.
A organização não sabe se há algum segredo. Outras informações além daquelas que você compartilha são coletadas e não podemos verificar se as informações geradas pela IA são corretas ou reais.
Perigos da adoção precipitada
A capacidade de adotar tecnologias novas e estimulantes sempre superará a capacidade de compreendê-las e controlá-las, e a IA demonstra isso em uma escala sem precedentes.
O crescimento exponencial e a proliferação da IA nos ambientes cibernéticos modernos deram aos indivíduos o maior controlo sobre a sua expressão criativa em qualquer momento da história, tornando esta uma oportunidade indiscutível.
Mas, por outro lado, as organizações têm implementado e adotado a IA sem realmente a compreenderem. Como resultado, a probabilidade de uma organização ser violada disparou e a quantidade de trabalho e análise resultante disparou. O trabalho que as equipas de segurança devem fazer para mitigar estas violações tornou-se tão esmagador que a sua resposta ao risco não consegue acompanhar o ritmo de crescimento da IA.
Precisamos analisar como gerenciamos remunerações e contratos, bem como riscos de terceiros. Isso ocorre porque, embora as organizações possam possuir agentes de IA, eles geralmente são desenvolvidos com software de outras empresas.
Há a questão de saber até que ponto uma organização estará disposta a ajudar quando surgir um problema, dependendo do que está em jogo ou das possíveis consequências para o agente.
Agentes de IA: a chave para a liberdade criativa
Também precisamos de formas de aumentar a visibilidade das ações dos agentes de IA. No passado, logs de rede, logs de endpoint, Estratégia de prevenção de perda de dados. Precisamos compreender as entradas e saídas do sistema, quais identidades estão envolvidas e o contexto da situação em que o problema começou a ocorrer.
Do lado da resposta, você precisa determinar como identificar rapidamente se há um problema. No entanto, as contramedidas precisam de ser atualizadas para enfrentar os desafios colocados pelos agentes modernos de IA. Deve ser estabelecido um grupo governamental de IA, responsável por manter os agentes de IA para que possam completar as tarefas programadas sem representar riscos.
Isto não só permite que os indivíduos aproveitem a liberdade criativa e a conveniência que a IA oferece, mas também protege as organizações contra riscos de ataques e liberta as equipas de segurança para fazerem o seu trabalho sem a necessidade de supervisionar constantemente os agentes. Agentes de IA confiáveis e robustos criam sistemas de defesa de segurança mais eficientes.
São necessárias contramedidas adicionais para retreinar, desabilitar ou forçar o retreinamento de agentes de IA que não existem atualmente. Para responder imediatamente, deve haver uma contraparte dentro do SOC, e pode haver empresários que estabeleçam tal estrutura. Atualmente estamos no nível 1 do CMMI para este processo, talvez até 0.
Os analistas de ameaças internas dependerão fortemente desses ajustes. Se pudermos construir estruturas e desenvolver processos para lidar com a sobrecarga de informações gerada pela Shadow AI, os analistas de ameaças internos estarão mais bem equipados para lidar com as ameaças antes que se tornem críticas para a organização.
Ter uma política de utilização de IA clara e facilmente aplicável, com ferramentas conhecidas e comprovadas e um processo para rever, testar e implementar novos agentes ou ferramentas de IA através de análises de engenharia e segurança é a única forma de alcançar um nível adequado de mitigação de riscos. É importante tornar este processo simples e transparente. Caso contrário, seus funcionários sempre encontrarão uma maneira de contornar isso.
Compreender o caminho para o uso da IA requer compreensão. As organizações não podem controlar o que não entendem e muitas organizações priorizaram a implantação rápida em detrimento da visibilidade e da governança. Se conseguir encontrar um equilíbrio entre inovação e segurança, a sua organização poderá maximizar a sua segurança contra ameaças externas, ao mesmo tempo que permite aos seus funcionários a liberdade de inovar e mudar o mundo.
Listamos os melhores softwares antivírus, incluindo análises de especialistas, testes e classificações.



