Não é novidade que a Inteligência Artificial chegou para revolucionar o mundo. No entanto, o lado B dessa revolução é evidente: os cibercriminosos souberam aproveitar todo esse potencial para criar ataques de engenharia social muito mais direcionados, realistas e sofisticados.

Nesse cenário, as técnicas que envolvem a clonagem de voz para se passar por familiares, amigos ou conhecidos estão em plena ascensão devido ao alto nível de evolução que alcançaram. O objetivo? Fazer com que as vítimas entreguem informações privadas ou até mesmo seu dinheiro.

Por isso, a seguir, analisamos a metodologia utilizada pelos cibercriminosos nesse tipo de golpe, os impactos que podem causar nas pessoas e como evitar se tornar uma vítima.

A clonagem de voz: um golpe em ascensão

Em diversas ocasiões, alertamos sobre como a Inteligência Artificial pode ser utilizada pelo cibercrime para aprimorar ou potencializar significativamente seus ataques e fraudes. Os golpes que se aproveitam da clonagem de voz são um exemplo claro disso.

Especificamente, os cibercriminosos utilizam pequenos trechos de uma gravação real e, por meio da Inteligência Artificial e dos padrões de voz, criam conversas e frases para aplicar seus golpes, gerando consequências tão graves quanto onerosas.

Especificamente, os cibercriminosos utilizam pequenos trechos de uma gravação real e, por meio da Inteligência Artificial e dos padrões de voz, criam conversas e frases para aplicar seus golpes, gerando consequências tão graves quanto prejudiciais.

De onde eles podem obter essas amostras de voz? Muito fácil: a partir de uma gravação de áudio ou de vídeos publicados em redes sociais como Instagram ou TikTok.

Um dado importante: o Voice Engine, a ferramenta de Inteligência Artificial da OpenAI capaz de imitar vozes humanas com grande precisão, precisa apenas de uma entrada de texto e uma única amostra de áudio de 15 segundos para gerar uma fala natural e semelhante à original.

Para dimensionar o impacto, a Comissão Federal de Comércio dos Estados Unidos informou que, apenas em 2023, o país perdeu 2,7 bilhões de dólares devido a fraudes.

Nessa mesma linha, o Starling Bank (banco britânico que opera exclusivamente on-line) alertou sobre a crescente predominância desse tipo de golpe no Reino Unido. Uma pesquisa realizada com mais de 3 mil pessoas revelou que mais de um quarto dos adultos afirmou ter sido vítima de uma fraude envolvendo clonagem de voz por inteligência artificial pelo menos uma vez no ano. E o dado mais alarmante: 46% dos entrevistados não sabiam que esse tipo de golpe existia.

No mesmo relatório, foi detalhado que os criminosos podem replicar a voz de uma pessoa utilizando inteligência artificial a partir de apenas três segundos de áudio - algo que pode ser facilmente encontrado em vídeos publicados na internet, por exemplo.

A preocupação chegou ao FBI

O número crescente de fraudes que envolvem Inteligência Artificial para torná-las muito mais realistas foi tão alarmante que até o próprio FBI emitiu um comunicado para alertar as pessoas.

"Os cibercriminosos estão aproveitando a IA para criar mensagens de voz ou vídeo e e-mails muito convincentes, possibilitando esquemas de fraude contra indivíduos e empresas de forma igual. Essas táticas sofisticadas podem resultar em perdas financeiras devastadoras, prejuízos à reputação e comprometimento de dados confidenciais", destacaram no comunicado.

Além disso, o FBI ressaltou que os criminosos estão conseguindo "manipular e criar conteúdo de áudio e vídeo com um realismo sem precedentes, a fim de enganar vítimas desatentas para que revelem informações confidenciais ou autorizem falsas transações".

Como evitar ser vítima dessas fraudes?

Diante desse tipo de fraude que envolve engenharia social, o primeiro passo é manter-se bem atento. Isso significa prestar atenção especial àqueles mensagens inesperadas que chegam com urgência para solicitar dinheiro ou credenciais de determinadas contas. E, nessa mesma linha, devolver a ligação para o familiar ou amigo em questão, utilizando um número de telefone conhecido.

Outra das medidas sugeridas pelos especialistas é ter uma "frase segura", previamente acordada entre familiares e amigos, com o objetivo de confirmar se a pessoa do outro lado da linha realmente é quem diz ser.

No caso das empresas, além de combinar soluções para reduzir a quantidade de e-mails, ligações e mensagens de phishing que chegam aos seus colaboradores e colaboradoras, é fundamental que elas eduquem as pessoas para que possam identificá-los e não cair na armadilha.

Também é muito importante implementar a autenticação multifator sempre que possível. Trata-se de adicionar uma camada extra de segurança, com o objetivo de garantir que os cibercriminosos não consigam acessar nossas contas e sistemas.

Leia mais: