Os usuários do Facebook e Instagram experimentam notícias políticas diferentes em seus fluxos, dependendo de suas opiniões políticas, mas novas pesquisas publicadas na quinta-feira sugerem que os fluxos cronológicos não solucionarão o problema da polarização.
A Meta e mais de uma dúzia de acadêmicos externos uniram-se para desenvolver quatro projetos de pesquisa sobre como o Facebook e o Instagram influenciaram o comportamento dos usuários durante a eleição de 2020. A empresa forneceu dados agregados de cerca de 208 milhões de usuários dos Estados Unidos, que equivale a quase todos os 231 milhões de usuários do Facebook e Instagram em todo o país na época.
Durante a eleição de 2020, aqueles usuários que haviam sido rotulados como “conservadores” ou “liberais” antes consumiram conteúdo jornalístico distinto entre si. Estatísticas mostram que 97% de todos os artigos políticos classificados como “falsos” pela Meta foram visualizados por usuários conservadores ao invés de liberais. Apenas 3,9% das informações consumidas pelos adultos americanos durante esse período se referia a notícias políticas.
Os usuários que eram considerados “conservadores” viajam com conteúdos muito mais compatíveis com suas crenças do que aqueles que são vistos como liberais.
Durante algum tempo, os legisladores têm culpado os fluxos de notícias numerados por contribuir para a divisão política nos EUA. Por isso, os pesquisadores realizaram um experimento no qual alguns indivíduos optaram por usar feeds cronológicos no Facebook e Instagram em vez dos algorítmicos durante um período de três meses entre setembro e dezembro de 2020. Outro grupo, por sua vez, manteve os fluxos de dados gerados por algoritmo.
A mudança provocou uma redução dramática na quantidade de tempo despendida nas plataformas, bem como uma queda na taxa de engajamento dos posts individuais. Os usuários que usaram os feeds algorítmicos passaram significativamente mais tempo na plataforma do que aqueles que usaram os feeds cronológicos. Embora os feeds cronológicos apresentassem mais conteúdo “moderado” no Facebook, os cientistas descobriram que também aumentou o conteúdo político (até 15,2%) e o “não seguro” (até 68,8%).
Após o encerramento da experiência, os pesquisadores investigaram os sujeitos para investigar se o ajuste trouxe um aumento na participação política, como assinar petições online, comparecer a comícios e votar na eleição de 2020. Os participantes não informaram nenhuma diferença estatisticamente expressiva entre usuários que tiveram qualquer feed do Facebook e Instagram.
Os resultados indicam que a abordagem da alimentação cronológica não é uma solução única para problemas como a polarização”, comentou Jennifer Pan, professora de Comunicação da Universidade Stanford, em uma declaração na quinta-feira.
Outro estudo da parceria descobriu que a remoção de conteúdo compartilhado do Facebook foi eficaz em reduzir significativamente as fontes de notícias não confiáveis nos feeds de usuários. No entanto, isso não causou nenhuma mudança na polarização, mas diminuiu o conhecimento geral das notícias dos usuários envolvidos, de acordo com os pesquisadores.
Ao remover os posts compartilhados dos feeds das pessoas, Andrew Guess, professor adjunto de Política e Assuntos Públicos da Universidade de Princeton, afirmou a pesquisa de quinta-feira, isso significa que eles estão vendo menos conteúdo potencialmente enganoso e tendências de viralização. Todavia, isso também implica que eles estão vendo menos conteúdo de fontes confiáveis, o que é ainda mais comum entre compartilhamentos.
Muitas alterações foram realizadas desde 2020 na forma como o Facebook está projetando os seus algoritmos.
Katie Harbath, do Centro de Políticas Bipartidárias e ex-diretor de políticas públicas do Facebook, afirmou em uma entrevista com The Verge na quarta-feira que houve grandes alterações desde 2020 com relação à forma como o Facebook constrói seus algoritmos. Ela destacou que o conteúdo político foi extremamente reduzido. Além disso, ela observou que os algoritmos estão “vivos” e isso exige mais transparência, especialmente na Europa, mas também responsabilidade nos Estados Unidos.
Como parte da aliança, Meta foi obrigada a inspecionar os resultados dos cientistas e não recompensou algum deles pelo seu empenho no projeto. Contudo, os dados das marcas Facebook e Instagram foram cedidos pela companhia, e os pesquisadores confiaram em seus sistemas de classificação próprios para determinar se os usuários eram considerados liberais ou conservadores.
Há muito tempo, a Facebook e sua matriz, a Meta, têm argumentado que os algoritmos desempenham uma função na gerar polarização. Em março de 2021, a BuzzFeed News informou que a empresa criou um “manual” (e webinar) para os funcionários que instruía sobre como responder às reclamações de divisão.
Em um post de blog da quinta-feira, Nick Clegg, o dirigente da Meta de Assuntos Globais, elogiou os resultados da pesquisa, alegando que os achados sugerem que as mídias sociais têm menos influência na divisão política do que a empresa afirmou.
Apesar de ainda não haver uma resposta definitiva sobre o impacto das mídias sociais nas principais atitudes políticas, crenças e comportamentos, cada vez mais estudos experimentais têm contribuído para a ideia de que as plataformas do Meta não resultam na prejudicial polarização “afetiva” ou têm influência significativa nesses resultados, como afirmou Clegg em sua postagem.
Ainda que a investigação prévia tenha demonstrado que a polarização não se origina nas mídias sociais, foi mostrado que ela a aguça. No contexto de um estudo de 2020 divulgado na American Economic Review, cientistas remuneraram usuários dos Estados Unidos para deixar de usar o Facebook por um mês a seguir às eleições médio-termo de 2018. Esta interrupção reduziu drasticamente a “polarização de pontos de vista sobre questões políticas”, mas semelhantemente à pesquisa publicada na quinta-feira, não diminuiu a polarização geral de maneira estatisticamente relevante.
A Meta espera que, ao final, sejam obtidos 16 papéis, uma vez que estes quatro iniciais já foram produzidos.
Talia Jomini Stroud, da Universidade do Texas em Austin, e Joshua Tucker, da Universidade de Nova York, que são principais acadêmicos da parceria, sugeriram que alguns estudos poderiam ter sido muito curtos para afetar o comportamento do usuário ou que outras fontes de informação, tais como impressão e televisão, poderiam ter desempenhado um grande papel na influência das crenças do usuário.
Entendemos que o algoritmo desempenha um papel importante ao moldar as experiências on-platform dos usuários, mas também reconhecemos que não há evidências de que alterações ao sistema possam afetar as opiniões políticas das pessoas, afirmaram Stroud e Tucker num comunicado de quinta-feira. Porém, não temos pistas sobre o motivo.