Os algoritmos filtram o conteúdo que consumimos de forma on-line diariamente - priorizando, classificando, associando informações. Dessa forma, eles exercem o poder de moldar a experiência do usuário e até a percepção que temos do mundo, explica Nicholas Diakopoulos em um relatório publicado em 2013.
Recentemente, vivi a experiência de me encontrar cercado por um grupo de garotos que apenas olhavam para as telas de seus smartphones. Percebi que poderia ser um ótimo momento para interagir com eles e conhecer as atividades que normalmente realizam em seus dispositivos.
Tentando descobrir, entre outras coisas, se eles estavam cientes ou não da quantidade de permissões que geralmente concedemos aos dispositivos e aplicativos que instalamos neles, surgiu a seguinte conversa:
— Você sabe quais são as permissões que o Instagram solicita para poder funcionar?
— Não, eu não tenho ideia.
— E quais permissões podem ser desabilitadas sem prejudizar o funcionamento do app?
— Quais, por exemplo?
— A quela que permite acesso ao microfone, aos seus contatos e à sua localização, por exemplo.
— E se eu quiser gravar stories falando ou cantando?
— Ótima pergunta. Neste caso, você precisaria dar acesso ao microfone, mas as outras permissões não.
Continuamos conversando e o assunto ficou ainda mais interessante:
— Descobri que, dependendo da conta que usamos, resultados diferentes aparecem nas pesquisas.
— Você saber por que isso acontece?
— Não, mas certamente você poderá me explicar.
— É devido aos algoritmos; isto é, o código por trás do aplicativo.
— Mas a diferença entre um perfil e outro é apenas a quantidade de postagens e os contatos que tenho em ambas as contas.
— Isso mesmo. Você é a mesma pessoa, o que difere é o consumo e a produção que você faz em cada um dos perfis.
Entendendo como os algoritmos funcionam a partir de dados
Os aplicativos e plataformas que usamos todos os dias usam Inteligência Artificial (AI) para tomar decisões com base na enorme quantidade de dados precisos que eles obtêm de nossas contas e das informações presentes em nossos perfis. A partir do processamento desses dados por meio da AI, eles estruturam os gostos e preferências dos usuários e monetizam essas informações, entre outras coisas, contribuindo para a Microtargeting que os anunciantes implementam para alcançar usuários específicos.
O engraçado é que, como demonstrado em um estudo publicado em 2018, muitas pessoas confiam mais no conselho de um algoritmo do que no conselho de um ser humano. Ou seja, agora, para o problema da divisão entre aqueles que têm acesso à Internet e aqueles que não têm, outro aspecto importante é adicionado à discussão: a divisão entre aqueles que estão cientes do controle que seus algoritmos de dados têm e aqueles que ainda não.
Karrie Karahalios, professora de ciência da computação da Universidade de Illinois, há alguns anos, conduziu uma pesquisa sobre o "contágio de emoções" que ocorre através das notícias do Facebook. O estudo mostrou que quanto menos mensagens positivas eram exibidas no feed de notícias, as pessoas publicavam menos mensagens positivas e mais negativas. Com a intenção de explorar ainda mais esse comportamento, a equipe da professora Karahalios criou uma ferramenta que ajudou as pessoas a entender como o serviço de notícias do Facebook funciona.
A ferramenta mostrava a tela dividida: à esquerda, era possível ver a lista de histórias e, à direita, a lista completa de publicações feitas pela sua rede de contatos, sem nenhum filtro ou manipulação pelo algoritmo. Em uma terceira coluna, foram exibidas publicações ocultas e outras que apareciam com mais frequência. Por fim, a ferramenta permitia fazer uma seleção manual das publicações que o usuário queria ver e as que não queria.
Eles convocaram um pequeno grupo de 40 pessoas representativas da demografia dos Estados Unidos e algumas ficaram surpresas ao comprovar como o feed de notícias foi manipulado. No entanto, ao final do estudo, como os participantes puderam escolher quais publicações queriam ver, acabaram avaliando o filtro que haviam feito no feed.
Meses depois, os pesquisadores realizaram um acompanhamento e coletaram as respostas das pessoas que participaram. Algumas se sentiram empoderadas, enquanto outros decidiram alterar suas configurações de perfil. Uma delas até alegou ter parado de usar o Facebook porque entendeu que não atendia às expectativas de uso de seus dados.
Essas conclusões me levaram a continuar lendo mais pesquisas relacionadas ao assunto e me permitiram encontrar o termo "Bolhas de Informação" ou "Bolhas de Filtros". A referência comum é a palestra TED que foi ministrada por Eli Pariser em 2011, intitulada Beware online “filter bubbles”. O ponto de partida no qual essa construção atual se baseia é a ideia de que cada um de nós vive experiências diferentes.
Para entender isso, o Google, ao entregar um resultado, leva em conta mais de 50 elementos que definem seus critérios. Por exemplo, que tipo, marca e sistema operacional usamos para que possamos nos conectar, nossa localização e link, qual navegador web usamos e muitos outros. Isso mostra que não existe um tipo padrão de pesquisa, mas que cada busca oferece resultados exclusivos e personalizados, mesmo se procurarmos exatamente a mesma. A coisa mais interessante sobre esse mecanismo, como vimos no experimento de Karrie Karahalios, é que não sabemos exatamente quais são os elementos que entram em jogo ao oferecer um resultado de pesquisa e também quais são deixados de fora. Isso dificulta o acesso a outros pontos de vista ou uma visão mais desafiadora sobre o assunto.
Uma excelente afirmação feita por Pariser foi sobre a necessidade de saber se os algoritmos que nos governam contêm ética e um senso de responsabilidade cívica. Além disso, essas empresas devem ser mais transparentes e informar quais são os filtros que se aplicam a cada um de nós em particular e como podemos ter algum tipo de controle sobre eles.
Tendo em conta este cenário, podemos concluir que poucas pessoas são informadas sobre como os algoritmos moldam o espaço digital que as cerca e suas implicações nas decisões que tomamos. Por esse motivo, é tão importante aumentar a conscientização e capacitar as pessoas, para que elas adquiram as ferramentas necessárias para assumir o controle de suas experiências nas plataformas que usam.
Como cidadãos digitais em formação, merecemos estar cientes e entender o poder que os algoritmos têm sobre nós.
Autor do post: Javier Lombardi, Educador na Argentina Cibersegura.