No Facebook, um post não precisa de muito tempo para causar impacto. Dentro de algumas horas, muitas vezes já fez a maior parte do que veio fazer. Portanto, quando a moderação de conteúdo entra tarde, seu efeito tende a parecer mais um controle de danos do que uma prevenção. Um estudo abrangente da Universidade Northeastern deixa isso claro, rastreando mais de 2,6 milhões de postagens nos ecossistemas de notícias em inglês, ucraniano e russo para avaliar o quanto a moderação realmente impede a propagação de conteúdo prejudicial. O estudo apresenta uma nova lente – disseminação evitada – para avaliar a eficácia da moderação. Em vez de medir quantas postagens foram retiradas, os pesquisadores queriam saber o que não aconteceu: quanto de interação dos usuários uma postagem removida foi poupada. A resposta, como se constatou, não é muito. Em todos os três grupos de idiomas, a interação das postagens aconteceu rapidamente e furiosamente. No prazo de 48 horas, mais de 83% das interações totais de uma postagem – curtidas, comentários, compartilhamentos – já haviam ocorrido. E metade desse volume geralmente acontecia em apenas 3 horas. Isso significa que no momento em que a maioria das remoções ocorre, a maioria das interações já ocorreu. O ritmo da interação também não era distribuído de forma uniforme. Uma pequena fatia de postagens dominava a atenção do usuário: em cada conjunto de idiomas, o 1% superior de postagens representava cerca de metade de todas as interações dos usuários. Essas postagens de primeira linha poderiam atrair dezenas ou até centenas de milhares de interações, enquanto a maioria das postagens mal fazia diferença. Apesar de sua influência desproporcional, essas postagens virais raramente eram alvo de remoção. Entre as postagens em inglês sinalizadas no estudo, apenas 0,5% pertenciam a esse 1% superior de conteúdo pesado de interação. A grande maioria das remoções – cerca de 70% – atingiu postagens com baixa previsão de engajamento. Isso sugere que os esforços de moderação se concentraram mais na quantidade do que no impacto. O tempo, também, parecia desalinhado com o momento viral. O tempo médio antes que uma postagem removida desaparecesse era superior a 21 horas. Mas para o conteúdo de alto engajamento, a janela crucial de exposição já havia passado. Algumas das postagens mais interativas estavam alcançando 10.000 envolvimentos em apenas 16 horas. Moderá-las um dia inteiro depois, os pesquisadores descobriram, teve pouco efeito. Para quantificar a lacuna, o modelo do estudo previu que as remoções do Facebook evitaram apenas 24% a 30% do engajamento potencial. No conteúdo em russo, onde as remoções ocorreram ainda mais tarde em média, o impacto foi próximo de zero. Mesmo levando em conta declínios naturais no engajamento ao longo do tempo, as perdas devido à moderação lenta foram substanciais. Os pesquisadores não examinaram a natureza exata do conteúdo removido, mas observaram que muitas remoções estavam alinhadas com spam e material de baixa qualidade – clickbait, golpes e problemas semelhantes. Este não é o tipo de postagens que costumam despertar debates públicos sobre desinformação ou discurso de ódio, mas ainda dominam os canais de moderação. O que emerge das descobertas é um descompasso estrutural. O algoritmo de recomendação do Facebook move o conteúdo rapidamente – exibindo postagens aos usuários com velocidade quase instantânea. Mas seus mecanismos de moderação avançam em comparação. Esta desconexão significa que, quando a fiscalização chega, o conteúdo já percorreu a maioria dos feeds dos usuários. Curiosamente, o estudo também revelou que alguns fatores de engajamento – como o número de inscritos em uma página ou o status verificado – se correlacionam modestamente com a viralidade da postagem. No entanto, o timing da postagem (hora ou dia da semana) não influenciou significativamente o engajamento em todos os idiomas. Isso mina a suposição de que a postagem estratégica por si só impulsiona a visibilidade e destaca a importância de interações precoces e alcance impulsionado pela plataforma. Para dar sentido às futuras estratégias de moderação, os pesquisadores desenvolveram um modelo de aprendizado de máquina que prevê o engajamento de longo prazo de uma postagem com base no desempenho inicial. Dentro de uma hora após uma postagem ir ao ar, o modelo poderia classificar corretamente 86% do volume de engajamento futuro. Esse nível de precisão sugere que as plataformas poderiam agir com mais rapidez se optassem por priorizar a previsão e revisão viral. Em última análise, o estudo argumenta que a velocidade – não apenas a escala – é fundamental para a moderação eficaz. Remover conteúdo importa menos se acontecer depois que os usuários já o viram e compartilharam. E até que os prazos de moderação alcancem os algoritmos, as plataformas podem ter dificuldade em limitar o alcance do conteúdo que visam suprimir.