A inteligência artificial (IA) é o assunto do momento, com as últimas e melhores tecnologias de IA atraindo quase sempre uma cobertura jornalística. E poucos setores provavelmente se beneficiarão tanto, ou possivelmente se prejudicarão tanto, quanto o setor de cibersegurança. Ao contrário da crença popular, alguns profissionais da área têm usado a tecnologia de alguma forma há mais de duas décadas. Mas o poder da computação em nuvem e os algoritmos avançados estão se combinando para aprimorar ainda mais as defesas digitais ou ajudar a criar uma nova geração de aplicativos baseados em IA que podem transformar a maneira como as organizações protegem, detectam e respondem a ataques.
Por outro lado, à medida que esses recursos se tornam mais baratos e mais acessíveis, os cibercriminosos também usarão a tecnologia em engenharia social, desinformação, golpes e muito mais. Um novo white paper (em inglês) da ESET se propõe a revelar os riscos e as oportunidades para os defensores cibernéticos.
Um breve histórico da IA na cibersegurança
Os modelos de linguagem ampla (LLMs) podem ser a razão pela qual as salas de reuniões em todo o mundo estão fervilhando de conversas sobre IA, mas a tecnologia tem sido usada de outras maneiras há anos. A ESET, por exemplo, usou a IA pela primeira vez há mais de um quarto de século por meio de redes neurais em uma tentativa de melhorar a detecção de macrovírus. Desde então, a empresa tem usado a IA de várias maneiras para fornecer:
- Diferenciação entre amostras de códigos maliciosos e limpos;
- Triagem, classificação e rotulagem rápidas de amostras de malware em massa;
- Um sistema de reputação na nuvem, aproveitando um modelo de aprendizado contínuo por meio de dados de treinamento;
- Proteção de endpoints com altas taxas de detecção e baixas taxas de falsos positivos, graças a uma combinação de redes neurais, árvores de decisão e outros algoritmos;
- Uma ferramenta avançada de sandbox na nuvem com tecnologia de aprendizado de máquina em várias camadas para detecção, descompactação e varredura, detecção experimental e análise comportamental profunda;
- Nova proteção de nuvem e endpoint alimentada por modelos de IA transformadores;
- XDR que ajuda a priorizar as ameaças correlacionando, classificando e agrupando grandes volumes de eventos.
Por que as equipes de segurança estão usando IA?
Hoje, mais do que nunca, as equipes de segurança precisam de ferramentas eficazes baseadas em IA, graças a três fatores principais:
1. A escassez de pessoal qualificado continua sendo um grande problema
Na última contagem, havia um déficit de cerca de quatro milhões de profissionais de cibersegurança em todo o mundo, incluindo 348 mil na Europa e 522 mil na América do Norte. As organizações precisam de ferramentas para melhorar a produtividade de sua equipe atual e fornecer orientação sobre análise de ameaças e correção na ausência de colegas seniores. Ao contrário das equipes humanas, a IA pode operar 24 horas por dia, 7 dias por semana, 365 dias por ano e detectar padrões que podem passar despercebidos pelos profissionais de segurança.
2. Cibercriminosos são ágeis, decisivos e cheios de recursos
Enquanto as equipes de cibersegurança lutam para recrutar pessoal, seus adversários estão ficando mais fortes. De acordo com uma estimativa, a economia do cibercrime pode custar ao mundo até US$ 10,5 trilhões por ano até 2025. Os cibercriminosos iniciantes podem encontrar tudo o que precisam para lançar ataques, agrupados em ofertas e kits de ferramentas "as-a-service". Os intermediários oferecem acesso a organizações que já foram atacadas. E até mesmo agentes estatais estão se envolvendo em ataques com motivação financeira, principalmente a Coreia do Norte, mas também a China e outras nações. Em países como a Rússia, o governo é suspeito de incentivar ativamente o hacktivismo antiocidental.
3. Os riscos nunca foram tão altos
À medida que o investimento digital cresceu ao longo dos anos, também cresceu a dependência dos sistemas de computador para impulsionar o crescimento sustentável e a vantagem competitiva. Os defensores da rede sabem que, se não conseguirem evitar ou detectar e conter rapidamente as ameaças cibernéticas, sua organização poderá sofrer danos financeiros e à reputação significativos. Atualmente, uma vazamento de dados custa em média US$ 4,45 milhões. Mas um vazamento grave provocado por um ransomware que envolva interrupção de serviços e roubo de dados pode custar várias vezes esse valor. Uma estimativa afirma que somente as instituições financeiras perderam US$ 32 bilhões em tempo de inatividade devido à interrupção de serviços desde 2018.
Como as equipes de segurança estão usando a IA?
Portanto, não é de se admirar que as organizações estejam procurando aproveitar o poder da IA para ajudá-las a prevenir, detectar e responder às ameaças cibernéticas de forma mais eficaz. Mas como exatamente elas fazem isso? Correlacionando indicadores em grandes volumes de dados para identificar ataques. Identificando códigos maliciosos por meio de atividades suspeitas que se destacam da norma. E ajudando os analistas de ameaças a interpretar informações complexas e a priorizar alertas.
Aqui estão alguns exemplos de usos atuais e futuros da IA para o bem:
- Inteligência contra ameaças: os assistentes GenAI com tecnologia LLM podem simplificar o complexo, analisando relatórios técnicos densos para resumir os principais pontos e itens acionáveis em inglês simples para os analistas.
- Assistentes de IA: a incorporação de "co-pilotos" de IA nos sistemas de TI pode ajudar a eliminar erros de configuração perigosos que, de outra forma, exporiam as organizações a ataques. Isso pode funcionar tanto para sistemas gerais de TI, como plataformas de nuvem, quanto para ferramentas de segurança, como firewalls, que podem exigir configurações complexas para serem atualizadas.
- Aumento da produtividade dos SOCs: atualmente, os analistas dos Centros de Operações de Segurança (SOCs) estão sob enorme pressão para detectar, responder e conter rapidamente as ameaças que chegam. No entanto, o tamanho da superfície de ataque e o número de ferramentas que geram alertas podem ser esmagadores. Isso significa que as ameaças legítimas não são detectadas, enquanto os analistas perdem tempo com falsos positivos. A IA pode aliviar a carga contextualizando e priorizando esses alertas e até mesmo resolvendo os de menor importância.
- Novas detecções: Os cibercriminosos evoluem constantemente suas táticas, técnicas e procedimentos (TTPs). Mas, ao combinar indicadores de comprometimento (IoC) com informações publicamente disponíveis e feeds de ameaças, as ferramentas de IA podem fazer a varredura das ameaças mais recentes.
Como a IA é usada em ataques cibernéticos?
Infelizmente, os criminosos também estão de olho na IA. De acordo com o Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido, essa tecnologia "exacerbará a ameaça global provocada pelo ransomware" e "quase certamente aumentará o volume e o impacto dos ataques cibernéticos nos próximos dois anos". Considere o seguinte:
- Engenharia social: um dos usos mais óbvios da GenAI é ajudar os cibercriminosos a criar campanhas de phishing altamente convincentes e quase gramaticalmente perfeitas em escala.
- BEC e outros golpes: mais uma vez, a tecnologia GenAI pode ser implantada para imitar o estilo de escrita de uma pessoa física ou jurídica específica a fim de enganar a vítima para que ela transfira dinheiro ou entregue dados confidenciais ou de login. O áudio e o vídeo Deepfake também podem ser usados para a mesma finalidade. O FBI emitiu vários avisos sobre isso no passado.
- Desinformação: a GenAI também pode se envolver na criação de conteúdo para operações de influência. Um relatório recente alertou que a Rússia já está usando essas táticas, que poderiam ser amplamente replicadas se fossem bem-sucedidas.
Os limites da IA
Para o bem ou para o mal, a IA atualmente tem suas limitações. Ela pode gerar altas taxas de falsos positivos e, sem conjuntos de treinamento de alta qualidade, seu impacto será limitado. A supervisão humana também é frequentemente necessária para verificar se os resultados estão corretos e para treinar os próprios modelos. Tudo indica que a IA não é uma bala de prata nem para os atacantes nem para os defensores.
Eventualmente, suas ferramentas poderão ser colocadas umas contra as outras: algumas procurando falhas nas defesas e enganando os funcionários, enquanto outras procuram sinais de atividade maliciosa de IA.
Para saber mais sobre o uso da IA na cibersegurança, confira o novo relatório da ESET.