Um novo estudo publicado nas revistas Science e Nature sugere que a polarização política nas mídias sociais não é estritamente uma função do algoritmo.
Um novo estudo publicado nas revistas Science e Nature sugere que a polarização política nas mídias sociais não é estritamente uma função do algoritmo. Os estudos, que foram conduzidos em colaboração entre a Meta e pesquisadores de várias universidades, descobriram que os usuários do Facebook e do Instagram são mais propensos a ver conteúdo de pessoas que compartilham suas crenças, mesmo quando são expostos a uma variedade de fontes diferentes.
Em um dos estudos, os pesquisadores mostraram o que acontece quando os usuários do Facebook e do Instagram veem o conteúdo por meio de um feed cronológico, em vez de um feed alimentado por algoritmo. Eles descobriram que fazer isso durante um período de três meses “não alterou significativamente os níveis de polarização de questões, polarização afetiva, conhecimento político ou outras atitudes importantes”.
Em outro estudo, os pesquisadores descobriram que o Facebook, como um ambiente social e informativo, é substancialmente segregado ideologicamente. Eles escreveram que “o Facebook é muito mais segregado ideologicamente do que pesquisas anteriores sobre o consumo de notícias na Internet com base no comportamento de navegação descobriram”.
Os pesquisadores também descobriram que os usuários do Facebook têm muito mais probabilidade de ver conteúdo de fontes semelhantes do que de fontes transversais. Mesmo quando são expostos a uma variedade de fontes diferentes, eles são mais propensos a curtir, comentar e compartilhar conteúdo de pessoas que compartilham suas crenças.
Os estudos sugerem que a polarização política nas mídias sociais é um fenômeno complexo que é influenciado por uma variedade de fatores, incluindo o algoritmo, o comportamento do usuário e o próprio conteúdo. Eles também sugerem que a Meta está fazendo esforços para abordar o problema, mas mais pesquisas são necessárias para determinar se esses esforços são eficazes.
Em um blog post, Nick Clegg, presidente de assuntos globais da Meta, disse que os estudos “lançam uma nova luz sobre a alegação de que a forma como o conteúdo é exibido nas mídias sociais – e especificamente pelos algoritmos da Meta – mantém as pessoas divididas”. Ele acrescentou que a Meta está “comprometida em fazer mais para ajudar as pessoas a entender e se envolver com informações de uma forma mais crítica”.