Las deepfakes están comenzando a crearse con mayor facilidad y rapidez, y están abriendo una puerta a una nueva forma de delito cibernético. Aunque los videos falsos todavía se consideran como relativamente dañinos o incluso como graciosos, este fenómeno podría dar un giro más siniestro en el futuro y ser el centro de escándalos políticos, delitos cibernéticos o incluso escenarios inimaginables que involucran videos falsos, y no solo dirigidos a figuras públicas.
Se conoce como deepfake a la técnica de síntesis de imágenes humanas basada en inteligencia artificial que se utiliza para crear contenido falso, ya sea desde cero o usando un video existente con el objetivo de replicar la apariencia y el sonido de un humano real. Tales videos pueden parecer increíblemente reales y actualmente muchos de estos involucran a celebridades o figuras públicas que dicen algo escandaloso o falso.
Una reciente investigación muestra un gran aumento en la creación de videos que hacen uso de esta técnica, casi duplicándose el número de estos videos solo en los últimos nueve meses. Los deepfakes también están creciendo en calidad a un ritmo acelerado. Este video que muestra a Bill Hader transformándose sin esfuerzo entre Tom Cruise y Seth Rogan es solo un ejemplo de cuán auténticos se ven y suenan estos videos. Al buscar en YouTube el término 'deepfake', te darás cuenta de que estamos viendo la punta del iceberg de lo que está por venir.
De hecho, ya se han registrado casos en los que se utiliza esta tecnología para el fraude, donde, según los informes, se utilizó una voz falsa para estafar a un CEO con una gran suma de dinero. Se cree que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la empresa matriz alemana y fue convencido para transferir, de forma inmediatamente, € 220,000 (aproximadamente US$ 244,000) a la cuenta bancaria de un supuesto proveedor húngaro. Si fue tan fácil influir en alguien simplemente pidiendo que lo haga mediante una llamada telefónica, entonces seguramente necesitaremos una mejor seguridad para mitigar esta amenaza.
Engañando el ojo
También hemos visto aplicaciones que hacen que los deepnudes conviertan en segundos las fotos de cualquier persona vestida en una foto en topless. Si bien, afortunadamente, una aplicación en particular, DeepNude, fue dada de baja, ¿qué sucedería si la misma regresa bajo otra forma y es capaz de crear videos convincentemente de apariencia auténtica?
También hay evidencia de que la producción de estos videos se está convirtiendo en un negocio lucrativo, especialmente en la industria de la pornografía. La BBC dice que "el 96% de estos videos son de celebridades femeninas cuyas imágenes fueron utilizadas para crear videos sexuales sin su conocimiento o consentimiento".
Un proyecto de ley reciente en California ha dado un salto de fe y ha hecho ilegal crear una deepfake pornográfica de alguien sin su consentimiento, multando al responsable con hasta $150,000. Pero es muy probable que ninguna legislación sea suficiente para disuadir a algunas personas de crear esta clase de videos.
Para estar seguros, un artículo de The Economist discute que para hacer una deepfake lo suficientemente convincente se necesitaría una gran cantidad de material en video y/o grabaciones de voz para hacer incluso una breve deepfake. Quería desesperadamente crear una deepfake de mí mismo, pero lamentablemente, al no contar con muchas horas de video, no pude hacer una deepfake de mi rostro.
Habiendo dicho eso, en un futuro no muy lejano, puede ser completamente posible que a partir de solo unas pocas “historias” de Instagram se pueda crear una deepfake convincente para la mayoría de los seguidores. Adicionalmente, las deepfakes también pueden ser utilizadas para hacer bullying en las escuelas, la oficina o incluso en otros terrenos.
Además, los ciberdelincuentes definitivamente utilizarán más esta tecnología para generar víctimas. Las deepfakes se están volviendo más fáciles de crear y se vuelven casi imposibles de detectar para el ojo humano. Como resultado, toda esa falsificación podría contaminar el agua que separa la realidad de la ficción, lo que a su vez podría llevarnos a no confiar en nada, incluso cuando se nos presenta algo que nuestros sentidos nos dicen que es real.
Enfrentando una amenaza muy real
Entonces, ¿qué se puede hacer para prepararnos ante esta amenaza? Primero, necesitamos educar mejor a las personas sobre la existencia de las deepfakes, cómo funcionan y el daño potencial que pueden causar. Todos tendremos que aprender a ser conscientes de que incluso los videos más realistas que vemos podrían tratarse de piezas fabricadas.
En segundo lugar, la tecnología necesita desesperadamente desarrollar una mejor detección de las deepfakes. Aunque el machine learning es una pieza central en la creación de estos contenidos falsos, deberá crearse algo que actúe como el antídoto capaz de detectarlos sin depender únicamente del ojo humano.
Finalmente, las plataformas sociales deben darse cuenta de que existe una amenaza importante y que puede tener un impacto muy grande, porque cuando se combina un video impactante con las redes sociales, el resultado suele ser una propagación muy rápida, lo cual podría tener un impacto negativo en la sociedad.
No me malinterpretes; disfruto enormemente el desarrollo de la tecnología y ver cómo se desarrolla frente a mis propios ojos. Sin embargo, debemos ser conscientes de cómo la tecnología a veces puede afectarnos negativamente, especialmente cuando el machine learning está madurando a un ritmo más rápido que nunca. De lo contrario, pronto veremos que las deepfakes se convertirán en la norma y esto tendrá efectos de largo alcance.
Quizás te interese: Desafío de Facebook premiará a quien desarrolle tecnología para detectar deepfakes