O uso mal-intencionado da Inteligência Artificial (IA) gerou um aumento crescente e preocupante de fraudes envolvendo deepfakes. Neste artigo, analisamos o fenômeno por meio de casos reais e fazemos a seguinte pergunta: a própria Inteligência Artificial é a melhor ferramenta para detectar esses tipos de golpes?
Inteligência Artificial: avanços e preocupações
O progresso proporcionado pela Inteligência Artificial é tão importante quanto inegável, impactando significativamente o campo dos deepfakes. Os fracassos das gerações anteriores de avatares alimentados por IA já ficaram para trás.
Hoje, a IA generativa pode alcançar resultados cada vez mais semelhantes aos humanos. Qual o problema? A enxurrada de desinformação que pode ser gerada pelo uso indevido da IA por cibercriminosos.
Um dos principais fatores que possibilitam a disseminação dos deepfakes é o fato de que a tecnologia baseada em IA se tornou muito mais barata e acessível. Isso facilita o lançamento de campanhas de desinformação convincentes e golpes ad hoc.
Para dar um exemplo, a criação de um vídeo pornográfico deepfake de 60 segundos pode levar menos de 25 minutos e ser feita a um custo incrivelmente baixo: menos de um dólar americano.
A questão vai para as urnas
Este ano, quase um quarto da população mundial irá às urnas para eleger seus candidatos. Nesse contexto eleitoral, há uma preocupação crescente com a desinformação específica (e potencialmente decisiva).
Não é novidade que há uma série de fraudes orientadas por inteligência artificial, usadas especificamente pelo cibercrime para influenciar os resultados. O papel das deepfakes nesses casos pode ser decisivo.
Tanto é assim que, em janeiro deste ano, um áudio deepfake do presidente dos EUA, Joe Biden, circulou por meio de uma chamada automatizada para um número desconhecido de eleitores das primárias de New Hampshire. Na mensagem, ele aparentemente pediu às pessoas que não comparecessem às urnas e guardassem seu voto para a eleição de novembro.
Com base nisso, a OpenAI afirma "reconhecer que as modalidades de áudio do GPT-4 apresentam uma variedade de novos riscos". Essa ferramenta pode ser usada para se passar por políticos, celebridades e até mesmo por amigos e familiares. E essa situação tende a piorar, devido ao poder do GPT-4 em tornar as chamadas falsas mais convincentes.
Em consonância com isso, o Fórum Econômico Mundial (WEF) alertou recentemente que a desinformação e a informação incorreta foram classificadas como o risco global número um para os próximos dois anos. É assim que os golpes de engenharia social, juntamente com a desinformação e a informação errônea, alimentados por deepfakes, estão fortemente posicionados como uma das maiores ameaças na internet.
Como o próprio relatório adverte: "O conteúdo sintético manipulará as pessoas, prejudicará as economias e fraturará as sociedades de várias maneiras nos próximos dois anos... existe o risco de que alguns governos ajam muito lentamente e enfrentem um dilema entre impedir a desinformação e proteger a liberdade de expressão".
Leia mais: Criminosos usam inteligência artificial para imitar a voz do CEO de uma empresa e roubar € 220 mil
Influencers no centro das atenções
Nesse contexto em que os golpes de engenharia social estão aumentando exponencialmente e de forma preocupante, as deepfakes se tornaram uma arma para atacar os principais influencers. De fato, a Twicsy, um fornecedor de serviços de rede social, relata que 84% dos influencers foram vítimas de pornografia deepfake.
De acordo com a Twicsy, as influencers têm 99 vezes mais chances de serem vítimas de pornografia deepfake do que os homens: "Essa diferença não só demonstra a natureza seletiva dessa exploração, mas também reflete as normas sociais que alimentam a sexualização das imagens das mulheres nesses setores".
Isso é reforçado em algumas redes sociais específicas. O exemplo mais paradigmático é o Instagram, "a plataforma na qual as influencers são mais vulneráveis, com 94% de chance de serem alvo. A natureza centrada no visual do Instagram, combinada com sua amplificação algorítmica, cria um ambiente ideal para a disseminação de pornografia deepfake", afirma o relatório.
O problema é parte da solução?
Assim como a Inteligência Artificial é apresentada como um elemento decisivo para impulsionar os ataques de deepfake por cibercriminosos, ela também aparece no horizonte como um fator essencial para reconhecê-las e detectá-las.
Um exemplo claro é a OpenAI, que está trabalhando em novas ferramentas para facilitar a detecção de imagens feitas com IA. Na verdade, ela incorporou uma nova ferramenta para identificar se uma imagem foi criada com seu gerador de imagens DALL-E, além de introduzir vários métodos avançados de marca d'água para marcar mais claramente o conteúdo gerado por seus próprios sistemas.
O detector usa inteligência artificial para analisar metadados ocultos em arquivos para determinar a autenticidade, com uma eficácia de 98,8%, o que representa um avanço significativo na detecção de deepfakes.
"As pessoas ainda podem criar conteúdo falso sem essas informações (ou podem removê-las), mas não podem forjá-las ou alterá-las facilmente, o que as torna um recurso importante para criar confiança. À medida que a adoção do padrão aumenta, essas informações podem acompanhar o conteúdo em todo o seu ciclo de vida de compartilhamento, modificação e reutilização. Com o tempo, acreditamos que esse tipo de metadado se tornará algo que as pessoas esperam, preenchendo uma lacuna crucial nas práticas de autenticidade de conteúdo digital", disse a organização.
É possível ser avisado?
Diante desse cenário, há algo que você possa fazer para ser avisado? A primeira etapa, como sempre, é a educação: sobre como os conteúdos falsos funcionam e os possíveis prejuízos que eles podem causar. É de vital importância que você esteja ciente de que mesmo os vídeos que parecem ser muito realistas podem ser fabricados.
Outra boa prática é verificar a autenticidade da fonte e a reputação e a credibilidade do site, da conta de rede social ou do aplicativo que está promovendo o conteúdo.
Também é importante analisar o contexto do conteúdo: ele corresponde ao tom e ao estilo habituais da pessoa ou organização no vídeo? Se alguma coisa parecer improvável, é provável que você esteja usando uma deepfake.
E, por fim, preste atenção às inconsistências. Detalhes como movimentos faciais irregulares, erros de sincronização labial ou anomalias na qualidade do áudio e do vídeo podem ser sinais de alerta que indicam que o conteúdo foi manipulado digitalmente.