A IA acelerou a corrida armamentista da cibersegurança no último ano, e os próximos 12 meses prometem ser igualmente desafiadores. Isso traz implicações significativas para as equipes de cibersegurança das empresas e seus empregadores, bem como para os usuários da web. Enquanto a tecnologia de IA ajuda os defensores a aprimorar a segurança, os cibercriminosos não perdem tempo em explorar ferramentas potencializadas por IA. Como resultado, podemos esperar um aumento em golpes, engenharia social, fraudes de contas, desinformação e outras ameaças.
É isso que podemos esperar de 2025.
O que deve ser considerado?
No início de 2024, o Centro Nacional de Cibersegurança do Reino Unido (NCSC) alertou que a IA já está sendo utilizada por diversos tipos de cibercriminosos e que "quase certamente aumentará o volume e o impacto dos ciberataques nos próximos dois anos". A ameaça se torna ainda mais séria no contexto da engenharia social, onde a IA generativa (GenAI) pode ajudar cibercriminosos a criar campanhas altamente convincentes em idiomas locais com perfeição; ou no reconhecimento, onde a IA pode automatizar a identificação em larga escala de ativos vulneráveis.
Embora essas tendências certamente continuem em 2025, também é possível que vejamos o uso da IA para:
- Burlar a autenticação: A tecnologia de deepfake sendo utilizada para ajudar golpistas a se passarem por clientes em selfies e verificações baseadas em vídeo, visando a criação de novas contas e o acesso a contas existentes.
- Comprometimento de e-mail corporativo (BEC): A IA é novamente utilizada em ataques de engenharia social, desta vez para enganar destinatários corporativos e levá-los a transferir fundos para contas controladas pelos golpistas. Áudios e vídeos falsificados também podem ser usados para se passar por CEOs e outros altos executivos em chamadas telefônicas e reuniões virtuais.
- Golpes de falsificação de identidade: Grandes modelos de linguagem (LLM) de código aberto oferecerão novas oportunidades para golpistas. Ao treiná-los com dados extraídos de contas de redes sociais hackeadas ou de acesso público, os criminosos podem se passar por vítimas em sequestros virtuais e outros golpes projetados para enganar amigos e familiares.
- Golpes envolvendo influencers: Em 2025, é esperado que golpistas continuem utilizando IA generativa (GenAI) para criar contas falsas ou duplicadas em redes sociais, imitando celebridades, influencers e outras figuras conhecidas. Deepfakes serão publicadas para atrair seguidores e induzi-los a fornecer informações pessoais ou dinheiro, por exemplo, em golpes de investimentos e criptomoedas, incluindo os tipos de fraudes destacadas no último Relatório de Ameaças da ESET. Isso aumentará a pressão sobre as plataformas de redes sociais para oferecer ferramentas eficazes de verificação de contas e selos de autenticidade, além de exigir maior atenção dos usuários.
- Desinformação: Estados hostis e outros grupos explorarão a GenAI para criar facilmente conteúdo falso, visando engajar usuários crédulos em redes sociais e fazê-los seguir contas falsas. Esses usuários podem então se tornar amplificadores on-line para operações de influência, de maneira mais eficiente e difícil de detectar do que as tradicionais fazendas de conteúdo ou trolls.
- Quebra de senhas: Ferramentas alimentadas por IA têm a capacidade de decifrar credenciais de usuários em massa em questão de segundos, possibilitando o acesso a redes e dados corporativos, além de contas de clientes.
Preocupações com a privacidade da IA em 2025
A IA não será apenas uma ferramenta para cibercriminosos neste ano; ela também poderá introduzir um alto risco de vazamento de dados. A tecnologia requer enormes volumes de texto, imagens e vídeos para ser treinada, e, muitas vezes, esses dados podem incluir informações sensíveis, ainda que de forma acidental. Em alguns casos, empresas de redes sociais e outras organizações podem alterar seus termos e condições para utilizar dados de clientes no treinamento de modelos, levantando preocupações significativas sobre privacidade e consentimento.
Uma vez capturada pelo modelo de IA, essa informação representa um risco para as pessoas se o próprio sistema de IA for atacado, ou se os dados forem compartilhados com outros por meio de aplicativos GenAI que utilizam o LLM. Também existe a preocupação de que usuários corporativos compartilhem, sem querer, informações sensíveis relacionadas ao trabalho por meio de mensagens no GenAI. De acordo com uma pesquisa, um quinto das empresas britânicas expuseram acidentalmente dados corporativos potencialmente sensíveis devido ao uso de GenAI por seus funcionários.
IA para defensores em 2025
A boa notícia é que a IA desempenhará um papel cada vez mais importante no trabalho das equipes de cibersegurança neste ano, à medida que se integrar a novos produtos e serviços. Com base em uma longa história de segurança impulsionada pela IA, essas novas ofertas ajudarão a:
- Gerar dados sintéticos para a formação de usuários, equipes de segurança e até mesmo ferramentas de segurança baseadas em IA.
- Resumir relatórios de inteligência sobre ameaças longos e complexos, facilitando uma tomada de decisão mais rápida em caso de incidentes.
- Melhorar a produtividade das equipes de SecOps, contextualizando e priorizando alertas, além de automatizar fluxos de trabalho para pesquisa e correção.
- Analisar grandes volumes de dados em busca de indícios de comportamentos suspeitos.
- Melhorar a capacitação das equipes de TI com funções de "copiloto" integradas em diversos produtos, ajudando a reduzir a probabilidade de erros de configuração.
No entanto, os responsáveis pela TI e segurança digital também devem compreender as limitações da IA e a importância da experiência humana no processo de tomada de decisões. Neste ano, será necessário um equilíbrio entre humanos e máquinas para mitigar o risco de alucinações, degradação de modelos e outras consequências potencialmente negativas. A IA não é uma solução única. Ela deve ser combinada com outras ferramentas e técnicas para alcançar resultados ótimos.
Para obter mais informações sobre o uso da IA em cibersegurança, confira este white paper da ESET.
Desafios da IA no cumprimento e na aplicação
O cenário das ameaças e o desenvolvimento da segurança da IA não ocorrem isoladamente. Mudanças geopolíticas em 2025, especialmente nos EUA, podem até levar à desregulação nos setores de tecnologia e mídias sociais. Isso, por sua vez, poderia permitir que golpistas e outros agentes maliciosos inundassem as plataformas on-line com ameaças geradas por IA.
No entanto, o que está claro é que a IA mudará radicalmente nossa forma de interagir com a tecnologia em 2025, tanto para o bem quanto para o mal. Ela oferece enormes benefícios potenciais para empresas e indivíduos, mas também traz novos riscos que precisam ser gerenciados. Todos nós devemos trabalhar mais de perto no próximo ano para garantir que isso aconteça. Governos, empresas do setor privado e usuários finais devem cumprir seu papel e trabalhar juntos para aproveitar o potencial da IA e, ao mesmo tempo, mitigar seus riscos.