No es una novedad que la Inteligencia Artificial llegó para revolucionar el mundo. Pero el lado B de esta irrupción es claro: los ciberdelincuentes han sabido aprovechar todo este potencial para armar ataques de ingeniería social mucho más dirigidos, realistas y sofisticados.

Y en ese universo, las técnicas que involucran la clonación de voz para hacerse pasar familiares, amigos o conocidos están en pleno auge por el grado de evolución que lograron. ¿Su objetivo? Que las víctimas entreguen información privada o directamente su dinero.

Por eso, a continuación analizaremos la metodología que utilizan los atacantes en este tipo de engaños, cómo pueden afectar a las personas y de qué manera evitar ser víctima.

La clonación de voz: una estafa que está en alza

En diferentes oportunidades hemos alertado sobre cómo la Inteligencia Artificial puede ser utilizada por el cibercrimen para potenciar o mejorar notablemente sus ataques y engaños. Las estafas que se valen de la clonación de voz son otro claro ejemplo de esto.

En concreto, los cibercriminales toman pequeños fragmentos de una grabación real y mediante el uso de la Inteligencia Artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas.

¿De dónde pueden obtener estas muestras de la voz? Muy fácil: de una grabación de voz o de videos que estén publicados en redes sociales como Instagram o TikTok.

Un dato: Voice Engine, la herramienta de Inteligencia Artificial de Open IA que puede imitar voces humanas con una gran precisión, necesita una entrada de texto y una única muestra de audio de 15 segundos para generar un habla que suene natural y se asemeje al original.

Para dimensionar cuál es su impacto, la Comisión Federal de Comercio de los Estados Unidos informó que solo en 2023 ese país perdió 2.700 millones de dólares solo por estafas.

En esa línea, Starling Bank (banco británico que opera de manera online) alertó sobre la preponderancia de este tipo de estafas en el Reino Unido. La encuesta realizada a más de 3.000 personas reveló que más de una cuarta parte de los adultos afirma haber sido víctima de una estafa de clonación de voz mediante inteligencia artificial al menos una vez en el año. Y lo que aún es más preocupante: el 46% de los encuestados no sabía que existían tales estafas.

En el mismo informe detallaron que los estafadores pueden replicar la voz de una persona a través de la inteligencia artificial a partir solamente de tres segundos de audio (los cuales pueden ser encontrados fácilmente si hay publicado un vídeo en línea, por ejemplo).

También te puede interesar: Utilizan AI para imitar la voz del CEO de una compañía y robar 220 mil euros

La preocupación llegó hasta el FBI

Tan creciente es el número de estafas que involucran a la Inteligencia Artificial para hacerlas mucho más realistas que hasta el propio FBI emitió un comunicado para alertar a las personas.

“Los atacantes están aprovechando la IA para crear mensajes de voz o video y correos electrónicos muy convincentes para permitir esquemas de fraude contra individuos y empresas por igual. Estas tácticas sofisticadas pueden resultar en pérdidas financieras devastadoras, daño a la reputación y compromiso de datos confidenciales”, remarcaron desde el organismo.

Además, el FBI destaca que los atacantes están logrando “manipular y crear contenido de audio y video con un realismo sin precedentes, con el fin de engañar a víctimas desprevenidas para que divulguen información confidencial o autoricen transacciones fraudulentas”.

¿Cómo evitar ser víctima de estas estafas?

Ante este tipo de estafas que involucran la ingeniería social, el primer paso es mantenerse bien alerta. Esto quiere decir, prestar especial atención a aquellos mensajes inesperados que llegan con la urgencia de solicitar dinero o credenciales de ciertas cuentas. Y en esa misma línea, devolver la llamada al familiar o amigo en cuestión a un número de teléfono conocido.

Otra de las medidas sugeridas por los especialistas es tener una “frase segura”, que sea acordada previamente entre familiares y amigos, con el objetivo de comprobar si la persona que está hablando del otro lado es quien realmente dice ser.

En el caso de las empresas, más allá de combinar soluciones para reducir la cantidad de correos electrónicos, llamadas y mensajes de phishing que llegan a sus colaboradores, es primordial que puedan educar a las personas para que puedan detectarlos y no caer en la trampa.

También es muy importante implementar la autenticación multifactor siempre que se pueda. Se trata de agregar una capa de seguridad extra, con el objetivo de que los ciberdelincuentes no puedan acceder a nuestras cuentas y sistemas.

Lectura recomendada:
5 principales desafíos que impone la inteligencia artificial generativa
Deepfakes en la era de la Inteligencia Artificial
Las 5 maneras en las que el cibercrimen utiliza la Inteligencia Artificial