Quando Mark Zuckerberg anunciou que a Meta iria eliminar a verificação profissional de fatos nos EUA, uma grande perturbação na Força foi sentida, como se milhões de vozes de verificadores de repente clamassem em terror e fossem subitamente silenciadas.
A empresa aposta num modelo parecido com o Community Notes da X (ex-Twitter), onde usuários adicionam contexto às postagens. A mudança, segundo Zuck, torna a moderação mais “democrática” e remove regras impostas pela administração anterior. Mas especialistas alertam: sem supervisão adequada, fake news e discursos de ódio podem se espalhar sem controle.
A experiência da X mostra que moderação comunitária tem limitações. Notas podem demorar a aparecer, viés político pode afetar avaliações e temas complexos podem passar despercebidos. Além disso, moderadores voluntários da Meta podem acabar expostos a conteúdos perturbadores sem o suporte adequado. O Facebook já foi criticado por falhas graves de moderação — de censura indevida a negligência em crises humanitárias, como o genocídio dos rohingya em Mianmar.
A decisão da Meta não vem isolada: regras contra discurso de ódio também estão sendo flexibilizadas, enfraquecendo ainda mais a segurança na plataforma. A dúvida não é se a desinformação aumentará, mas o quão rápido e em que escala.
Você acabou de acompanhar uma nota rápida by The BRIEF! Siga mais informações clicando aqui