El uso malintencionado de la Inteligencia Artificial ha generado un creciente y preocupante aumento de los engaños que involucran deepfakes. En el siguiente artículo analizaremos el fenómeno a través de casos reales y plantearemos el siguiente: ¿es la propia Inteligencia Artificial la mejor herramienta para detectar este tipo de estafas?  

La Inteligencia Artificial: avances y preocupación

El avance que está evidenciando la Inteligencia Artificial es tan importante como innegable. Y esto por supuesto que impacta en el terreno de las deepfakes. Atrás quedaron aquellos fallos que presentaban las generaciones anteriores de avatares mediante la inteligencia artificial.

Hoy, la IA generativa puede lograr resultados cada vez más parecidos a los humanos. ¿El problema? La catarata de desinformación que puede generarse gracias a mal uso que los actores maliciosos le pueden dar a la Inteligencia Artificial.

Uno de los principales factores que permitió la expansión de deepfakes es que la tecnología impulsada por IA se tornó mucho más barata y accesible. Esto genera que lanzar campañas de desinformación convincentes o estafas ad hoc sea realmente muy fácil.

Por poner un ejemplo, crear un video pornográfico deepfake de 60 segundos puede requerir algo menos de 25 minutos y se puede llevar a cabo a un costo irrisorio: menos de un dólar estadounidense.

La problemática se traslada a las urnas

Durante este año, casi una cuarta parte de la población mundial se dirigirá a las urnas para elegir a sus candidatos. En este contexto eleccionario, crece la preocupación sobre hechos puntuales (y que pueden ser decisivos) de desinformación.

No es novedad que existan diversos engaños impulsados ​​por inteligencia artificial, utilizados específicamente por el cibercrimen, para tener una influencia en los resultados. El papel de las deepfakes en estos casos puede ser determinante.

Tanto es así que, en enero de este año, un audio deepfake del presidente estadounidense Joe Biden circuló a través de una llamada automática a un número desconocido de votantes de las primarias en New Hampshire. En el mensaje, aparentemente, pedía a las personas que no acudieran a votar y que guardaran su voto para las elecciones de noviembre.

En base a esto, OpenAI asegura “reconocer que las modalidades de audio de GPT-4o presentan una variedad de riesgos novedosos”. De esta manera, podría utilizarse esta herramienta para hacerse pasar por políticos, celebridades, pero también y amigos y familiares de las personas. Y esta situación solo podría agravarse, debido al poder de GPT-4o de hacer que las llamadas fraudulentas sean más convincentes.

En concordancia con esto, el Foro Económico Mundial (WEF) alertó recientemente que la desinformación y la información errónea fueron clasificadas como el riesgo global número uno de los próximos dos años. Así es como las estafas de ingeniería social junto a la desinformación y la información errónea potenciadas con las deepfakes, se posicionan con fuerza como una de las mayores amenazas en Internet.

Así es como el propio informe advierte: “El contenido sintético manipulará a las personas, dañará las economías y fracturará las sociedades de numerosas maneras durante los próximos dos años… existe el riesgo de que algunos gobiernos actúen con demasiada lentitud y se enfrenten a un dilema entre prevenir la desinformación y proteger la libertad de expresión”.

También te puede interesar: Utilizan AI para imitar la voz del CEO de una compañía y robar 220 mil euros

Los influencers, también en la mira

En este contexto donde las estafas de ingeniería social aumentan exponencial y preocupantemente, los deepfakes se convirtieron en un arma para atacar también a los principales influencers. De hecho, Twicsy, proveedor de servicios de redes sociales, informa que el 84% de los influencers fue víctima de pornografía deepfake.

Según Twicsy, las influencers tienen 99 veces más chances de ser víctimas de pornografía deepfake que los hombres: “Esta diferencia no solo demuestra la naturaleza selectiva de esta explotación, sino que también refleja las normas sociales que alimentan la sexualización de las imágenes de las mujeres en estas industrias”.

Esto se potencia en algunas redes sociales puntuales. El ejemplo más paradigmático es Instagram, “plataforma en la que las influencers femeninas son más vulnerables, con un 94% de probabilidades de ser atacadas. La naturaleza centrada en lo visual de Instagram, combinada con su amplificación algorítmica, crea un entorno ideal para la difusión de pornografía deepfake”, asegura el informe.

¿El problema es parte de la solución?

Así como la Inteligencia Artificial se presenta como un elemento decisivo para potenciar los ataques de deepfake por parte de los actores maliciosos, también asoma en el horizonte como un factor clave para reconocerlas y detectarlas.

Un ejemplo claro es el de OpenAI, que se encuentra trabajando en nuevas herramientas que faciliten la detección de imágenes realizadas con IA. De hecho, ha incorporado una nueva herramienta para identificar si una imagen fue creada con su generador de imágenes DALL-E, como también introdujo diversos métodos de marca de agua avanzados para así marcar de una forma más evidente el contenido generado por sus propios sistemas.

Así, el detector utiliza la propia inteligencia artificial para analizar metadatos ocultos en los archivos, y determinar autenticidad, con una efectividad del 98.8%, lo cual representa un avance más que significativo en lo que es la detección de deepfakes.

“Las personas aún pueden crear contenido engañoso sin esta información (o pueden eliminarla), pero no pueden falsificarla ni alterarla fácilmente, lo que la convierte en un recurso importante para generar confianza. A medida que aumenta la adopción del estándar, esta información puede acompañar al contenido a lo largo de su ciclo de vida de intercambio, modificación y reutilización. Con el tiempo, creemos que este tipo de metadatos será algo que las personas esperarán, llenando un vacío crucial en las prácticas de autenticidad del contenido digital”, detallaron desde la reconocida organización.

¿Es posible estar prevenido?

Ante este panorama, ¿hay algo que podemos hacer para estar prevenidos? El primer paso, como siempre, es la educación: en cómo funcionan las deepfake y cuál es el daño potencial que pueden causar. Es de vital importancia que seamos conscientes de que incluso los videos que parecen ser muy realistas podrían tratarse de piezas fabricadas.

Otra buena práctica es verificar la autenticidad de la fuente y la reputación y la credibilidad del sitio web, la cuenta de redes sociales o la aplicación que esté promoviendo el contenido.

También es importante analizar el contexto del contenido: ¿coincide con el tono y el estilo habitual de la persona o la organización presente en el video? Si algo parece poco probable, es posible que se trate de un deepfake.

Y por último, se debe prestar atención a las inconsistencias. Detalles como movimientos faciales irregulares, errores en la sincronización labial o anomalías en la calidad del audio y el video pueden ser alarmas que indican que el contenido fue ha sido manipulado digitalmente.