Los algoritmos curan el contenido que diariamente consumimos en línea; priorizando, clasificando, asociando y filtrando información. De este modo, ejercen el poder para moldear la experiencia de usuario e incluso la percepción que tenemos del mundo, explica Nicholas Diakopoulos en un reporte publicado en 2013.

Hace poco viví la experiencia de encontrarme rodeado de un grupo de chicos que lo único que hacían era mirar las pantallas de sus teléfonos. Se me ocurrió que se podría tratar de un gran momento para interactuar con ellos y conocer qué es lo que más les gusta hacer con sus dispositivos.

Tratando de averiguar, entre otras cosas, si tenían conciencia o no de la cantidad de permisos que les solemos dar a los dispositivos y apps que tenemos instaladas en ellos, surgió la siguiente conversación:

—¿Sabes cuáles son los permisos que pide Instagram para poder funcionar?

—No, no tengo idea.

—¿Y que algunos permisos los podrías revocar y la app seguiría funcionando?

—¿Cómo cuáles?

—El que permite el acceso al micrófono, a tus contactos y a tu ubicación, por ejemplo.

—¿Y si quiero grabar una Historia hablando o cantando?

—Tienes razón, necesitarías el acceso al micrófono, pero los demás permisos no.

Seguimos conversando y la charla se puso más interesante:

—Yo descubrí que, según qué cuenta use, en las búsquedas me aparecen resultados diferentes.

—¿Y sabes por qué sucede eso?

—No, pero seguro que tú me lo vas a decir.

—Es debido a los algoritmos; es decir, el código que está detrás de la app.

—Pero la diferencia entre un perfil y otro solo es la cantidad de post y los contactos que tengo

en una y otra cuenta.

—Justamente; tu eres la misma persona, lo que difiere es el consumo y producción que haces en cada uno de los perfiles.

Comprendiendo cómo funcionan los algoritmos a partir de los datos

Las apps y plataformas que utilizamos a diario utilizan Inteligencia Artificial (IA) para tomar decisiones a partir de la enorme cantidad de datos precisos que obtienen de nuestras cuentas y de la información presente en nuestros perfiles. A partir del procesamiento de estos datos mediante la IA estructuran los gustos y preferencias de los usuarios y monetizan esta información, entre otras cosas, contribuyendo a la microfocalización que implementan los anunciantes para llegar a usuarios específicos.

Lo curioso de esto es que, tal como se demostró en un estudio publicado en 2018, muchas personas confiarían más en un consejo de un algoritmo que en uno dado por un ser humano. Es decir que ahora, a la problemática que supone la división entre quienes tienen acceso a Internet y quienes no, se suma otro aspecto importante a la discusión: la división entre los que tienen conciencia del control que tienen los algoritmos de sus datos y quienes aún no.

Karrie Karahalios, profesora de ciencias de la computación de la Univerdidad de Illinois, hace algunos años realizó una investigación sobre el “contagio de las emociones” que se dan a través de las noticias de Facebook. El estudio mostró que cuantos menos mensajes positivos se mostraban en el feed de noticias, las personas publicaban menos mensajes positivos y crecían los negativos. Con la intención de explorar más este comportamiento, desde el equipo de Karahalios crearon una herramienta que ayudaba a las personas a comprender cómo funciona el servicio de noticias de Facebook.

La herramienta mostraba la pantalla dividida: a la izquierda se veía la lista de historias y a la derecha la lista completa de las publicaciones realizados por su red de contactos, sin ningún tipo de filtro o manipulación por parte del algoritmo. En una tercera columna se mostraban las publicaciones que estaban ocultas y otras que aparecían con mayor frecuencia. Por último, la herramienta permitía hacer una selección manual de las publicaciones que quería ver y las que no.

Convocaron a un pequeño grupo de 40 personas representativas de la demografía de los Estados Unidos y algunas se sorprendieron al corroborar cómo el feed de noticias era manipulado. Sin embargo, al finalizar el estudio, dado que los participantes podían elegir qué publicaciones querían ver, terminaron valorando la curación que habían realizado del feed.

Meses después, los investigadores realizaron un seguimiento y recogieron devoluciones de las personas que participaron. Algunas se sintieron empoderadas, mientras que otras decidieron cambiar la configuración de sus perfiles. Una incluso aseguró haber dejado de utilizar Facebook porque entendía que no cumplía con sus expectativas de uso de sus datos.

Estas conclusiones me llevaron a querer seguir leyendo más investigaciones relacionadas al tema, y me permitió toparme con un término que ya antes me había convocad: “Burbujas de Información” o “Burbujas de Filtros”.  La referencia común es la charla TED que brindó, en 2011, Eli Pariser, titulada “Beware online "filter bubbles". El punto de partida en el que se basa esta construcción actual se apoya en la idea de que cada uno de nosotros vive experiencias diferentes.

Para comprender más esto, Google, al momento de entregarnos un resultado, tiene en cuenta más de 50 elementos que definen su criterio; por ejemplo, que tipo, marca y sistema operativo utilizamos para conectarnos, nuestra ubicación y enlace, qué explorador web utilizamos, y muchos otros más. Esto demuestra que no hay un tipo de búsqueda estándar, sino que cada una de las búsquedas ofrece resultados únicos, hechos a medida, aunque busquemos exactamente lo mismo. Lo más interesante de este mecanismo, como veíamos en el experimento de Karrie Karahalios, es que no sabemos exactamente cuáles son los elementos que entran en juego a la hora de ofrecer un resultado de búsqueda y tampoco cuáles quedan por fuera. Esto dificulta que podamos acceder a otros puntos de vista o adoptar una mirada más desafiante sobre el tema.

Un acertado planteo que hizo Pariser fue acerca de la necesidad de saber si los algoritmos que nos gobiernan contienen ética y sentido de responsabilidad cívica. Además, que las compañías deberían ser más transparentes y permitir saber cuáles son los filtros que aplican a cada uno de nosotros en particular y cómo podemos tener algún tipo de control sobre ellos.

Habiendo planteado este escenario podríamos concluir que son pocas las personas que informadas acerca de cómo los algoritmos dan forma al espacio digital que los rodea y sus implicancias en las decisiones que tomamos. Por esta razón resulta tan importante concientizar y capacitar a las personas, para que adquieran las herramientas necesarias para tomar el control de sus experiencias en las plataformas que utilizan.

Como ciudadanos digitales en formación, nos merecemos ser conscientes y entender el poder que los algoritmos tienen sobre nosotros.

Autor del post: Javier Lombardi; mentor educativo de Argentina Cibersegura.

Lee también: Privacidad en línea: ¿puedes ser rastreado en Internet?