Facebook acaba de anunciar a través de una publicación que en diciembre de este año lanzará el desafío “Deepfake Detection Challenge (DFDC)” a través del cual buscará incentivar el desarrollo de tecnología que sea capaz de combatir el impacto de las deepfakes.
Para ello lanzará un paquete de datos que contienen rostros y videos, el cual será elaborado de manera consensuada con las personas cuyos rostros estarán dentro de este material. Para evitar cualquier especulación que se pueda generar alrededor de los datos que se utilizarán y dado los inconvenientes con temas de privacidad en los que se ha visto envuelta la compañía en el pasado, Facebook promete que no utilizará información de los usuarios como parte de este paquete de datos.
Este material, que podrá ser descargado por los participantes –que deberán aceptar las normas de uso de esos datos antes de participar-, se lanzará junto con el desafío en el marco de una conferencia sobre sistemas de procesamiento de información neuronal que se llevará a cabo en la ciudad de Vancouver, Canadá, entre el 8 y el 14 de diciembre de 2019.
De esta manera, el gigante tecnológico, quien destinará 10 millones de dólares para este desafío global que se extenderá hasta marzo de 2020, premiará a quien desarrolle una tecnología que pueda ser utilizada por cualquier usuario y que permita identificar algoritmos que utilicen inteligencia artificial para la creación de videos adulterados que tengan como objetivo engañar al usuario que lo vea.
El ganador será elegido de acuerdo a varias pruebas que se realizarán a la propuesta enviada a través de las cuales se verificará la efectividad del modelo presentado. Dichas pruebas serán realizadas no solo por Facebook, sino también por otros colaboradores que también formarán parte de esta iniciativa, como son: Microsoft y académicos de Cornell Tech, MIT, Universidad de Oxford, Universidad de California, Berkeley (UC), Universidad de Maryland, College Park y la Universidad de Albany.
Según Facebook, el objetivo del Deepfake Detection Challenge es acelerar la creación de mecanismos que permitan detectar las deepfakes y prevenir la distribución de contenidos adulterados dado el rápido crecimiento que estos contenidos han tenido y lo difíciles que son de detectar.