Sua alimentação de mídia social é construída para concordar com você. E se ela não concordasse?

  • Categoria do post:Notícias

Um novo estudo aponta o design do algoritmo como uma forma potencial de reduzir câmaras de eco – e polarização – online.

Ao percorrer as redes sociais por tempo suficiente, um padrão emerge. Pausa em uma postagem questionando a mudança climática ou tomando uma posição firme sobre uma questão política, e a plataforma responde rapidamente – oferecendo mais pontos de vista semelhantes, entregues com crescente confiança e certeza.

Esse ciclo de feedback é a arquitetura de uma câmara de eco: um espaço onde ideias familiares são amplificadas, vozes dissidentes desaparecem e crenças podem se solidificar em vez de evoluir.

Mas uma nova pesquisa da Universidade de Rochester descobriu que as câmaras de eco podem não ser um fato da vida online. Publicado no IEEE Transactions on Affective Computing, o estudo argumenta que elas são em parte uma escolha de design – uma que poderia ser suavizada com uma mudança surpreendentemente modesta: introduzir mais aleatoriedade no que as pessoas veem.

A equipe interdisciplinar de pesquisadores, liderada pelo Professor Ehsan Hoque do Departamento de Ciência da Computação, criou experimentos para identificar a rigidez das crenças e avaliar se a introdução de mais aleatoriedade em uma rede social poderia ajudar a reduzi-la. Os pesquisadores estudaram como 163 participantes reagiram a declarações sobre temas como mudança climática depois de usar canais de mídia social simulados, alguns com feeds modelados em redes sociais mais tradicionais e outros com mais aleatoriedade.

Importante destacar que “aleatoriedade” nesse contexto não significa substituir conteúdo relevante por besteira. Em vez disso, significa flexibilizar a lógica usual de “mostre-me mais do que eu já concordo” que impulsiona muitos algoritmos atualmente. No modelo dos pesquisadores, os usuários eram periodicamente expostos a opiniões e conexões que não escolheram explicitamente, ao lado daquelas que escolheram.

“Em uma série de experimentos, descobrimos que o que as pessoas veem online influencia suas crenças, muitas vezes as aproximando das visões às quais estão repetidamente expostas”, diz Adiba Mahbub Proma, uma estudante de doutorado em ciência da computação e primeira autora do artigo. “Mas quando os algoritmos incorporam mais aleatorização, esse ciclo de feedback enfraquece. Os usuários são expostos a uma gama mais ampla de perspectivas e se tornam mais abertos a visões diferentes.”

Os autores – que também incluem o Professor Gourab Ghoshal do Departamento de Física e Astronomia, James Druckman, Professor Martin Brewer Anderson de Ciência Política, o estudante de doutorado Neeley Pate e Raiyan Abdul Baten ’16, ’22 (PhD) – afirmam que os sistemas de recomendação que as plataformas de mídia social usam podem levar as pessoas a câmaras de eco que tornam o conteúdo divisivo mais atraente. Como antídoto, os pesquisadores recomendam mudanças simples de design que não eliminam a personalização, mas introduzem mais variedade, permitindo aos usuários controlar seus feeds.

Os resultados chegam num momento em que governos e plataformas estão lidando com desinformação, queda na confiança institucional e respostas polarizadas a eleições e orientações de saúde pública. Proma recomenda que os usuários de mídias sociais mantenham os resultados em mente ao refletir sobre seus próprios hábitos de consumo de mídia social.

“Se seu feed parecer muito confortável, isso pode ser proposital”, diz Proma. “Busque vozes que o desafiem. Os feeds mais perigosos não são aqueles que nos chateiam, mas aqueles que nos convencem de que estamos sempre certos.”

A pesquisa foi parcialmente financiada pelo Programa de Financiamento Inicial do Instituto Goergen para Ciência de Dados e Inteligência Artificial.