Um novo estudo indica o design de algoritmos como uma forma potencial de reduzir as câmaras de eco – e a polarização – online. Percorra as redes sociais tempo suficiente e um padrão emerge. Pausa em uma postagem questionando a mudança climática ou adotando uma linha dura sobre uma questão política, e a plataforma responde rapidamente – servindo mais dos mesmos pontos de vista, entregues com crescente confiança e certeza. Esse ciclo de feedback é a arquitetura de uma câmara de eco: um espaço onde ideias familiares são amplificadas, vozes discordantes desaparecem, e crenças podem se solidificar em vez de evoluir. Mas uma nova pesquisa da Universidade de Rochester descobriu que as câmaras de eco podem não ser um fato da vida online. Publicado em IEEE Transactions on Affective Computing, o estudo argumenta que elas são parcialmente uma escolha de design – que poderia ser suavizada com uma mudança surpreendentemente modesta: introduzindo mais aleatoriedade no que as pessoas veem. A equipe interdisciplinar de pesquisadores, liderada pelo Professor Ehsan Hoque do Departamento de Ciência da Computação, criou experimentos para identificar a rigidez das crenças e avaliar se a introdução de mais aleatoriedade em uma rede social poderia ajudar a reduzi-la. Os pesquisadores estudaram como 163 participantes reagiram a declarações sobre tópicos como mudanças climáticas após o uso de canais de mídia social simulados, alguns com feeds modelados em plataformas de mídia social mais tradicionais e outros com mais aleatoriedade. É importante ressaltar que “aleatoriedade” neste contexto não significa substituir conteúdo relevante por bobagens. Em vez disso, significa afrouxar a lógica usual de “mostre-me mais do que eu já concordo” que impulsiona muitos algoritmos hoje em dia. No modelo dos pesquisadores, os usuários eram periodicamente expostos a opiniões e conexões que não escolheram explicitamente, ao lado daquelas que escolheram. “Através de uma série de experimentos, descobrimos que o que as pessoas veem online influencia suas crenças, muitas vezes as aproximando das opiniões às quais são repetidamente expostas”, diz Adiba Mahbub Proma, estudante de doutorado em ciência da computação e primeira autora do artigo. “Mas quando os algoritmos incorporam mais aleatoriedade, esse ciclo de feedback enfraquece. Os usuários são expostos a uma gama mais ampla de perspectivas e ficam mais abertos a visões diferentes”. Os autores – que incluem também o Professor Gourab Ghoshal do Departamento de Física e Astronomia, James Druckman, Professor Martin Brewer Anderson de Ciência Política, a estudante de doutorado Neeley Pate, e Raiyan Abdul Baten ’16, ’22 (PhD) – afirmam que os sistemas de recomendação que as plataformas de mídia social usam podem levar as pessoas a câmaras de eco que tornam o conteúdo divisivo mais atraente. Como antídoto, os pesquisadores recomendam mudanças simples no design que não eliminem a personalização, mas introduzam mais variedade, permitindo ainda que os usuários controlem seus feeds. As descobertas chegam num momento em que governos e plataformas estão lidando com desinformação, confiança institucional em declínio e respostas polarizadas às eleições e orientações de saúde pública. Proma recomenda que os usuários de mídias sociais tenham em mente os resultados ao refletirem sobre seus próprios hábitos de consumidores de mídia social. “Se sua feed parece muito confortável, pode ser por design”, diz Proma. “Procure vozes que desafiem você. As feeds mais perigosas não são aquelas que nos irritam, mas aquelas que nos convencem de que sempre estamos certos”. A pesquisa foi parcialmente financiada pelo Goergen Institute for Data Science and Artificial Intelligence Seed Funding Program. Editado por Asim BN. Este post foi originalmente publicado no Centro de Notícias da Universidade de Rochester e republicado no DIW com permissão. Leia também: • Q&A: É o início de uma rebelião robótica uma nova plataforma de mídia social AI? • Quanto o viés dos chatbots influencia os usuários? Muito, ao que parece.