A decisão da Meta de encerrar parcerias com agências de checagem de fatos e usar um modelo de moderação colaborativa acabou gerando muitas discussões, principalmente entre especialistas.
Inspirada no programa Notas da Comunidade do X (antigo Twitter), a nova abordagem passa para os usuários a tarefa de indicar informações duvidosas. Críticos temem que essa mudança facilite a disseminação de desinformação, aumentando riscos de discurso de ódio e violência no mundo real.
Leia também:
Zuckerberg fala em combate à censura, irrita governo Lula e acaba com checagem de fatos; entenda
Qual a diferença entre checagem de fatos e notas da comunidade nas plataformas digitais?
Como funcionava o programa de checagem de fatos
Desde 2016, a Meta colaborava com agências independentes para verificar e limitar a propagação de informações falsas em suas plataformas. A PolitiFact, de propriedade do Poynter, era uma das principais parceiras nesse esforço nos Estados Unidos.
Angie Drobnic Holan, ex-editora-chefe da PolitiFact e atual diretora da International Fact-Checking Network (IFCN), descreveu o programa como um “freio” contra desinformação, que atuava colocando avisos em postagens duvidosas. “Ele funciona como um obstáculo no caminho da informação falsa”, explicou Holan.
Esse processo abrangia desde boatos sobre a morte de celebridades até alegadas curas milagrosas. A origem do programa mostra as preocupações crescentes com o papel das redes sociais na disseminação de rumores não verificados, como as falsas notícias sobre o papa Francisco ter apoiado Donald Trump nas eleições de 2016.
A justificativa de Zuckerberg e as reações
Mark Zuckerberg defendeu a mudança alegando que a checagem de fatos poderia ser tendenciosa e que o novo modelo oferece uma maior liberdade de expressão. Segundo o CEO da Meta, “houve casos em que removemos conteúdos que, ao olhar novamente, não violavam nossas políticas”.
Porém, para críticos, essa decisão é vista como uma estratégia para agradar ao presidente eleito Donald Trump. A Meta também anunciou Joel Kaplan, lobista republicano, como novo diretor global de assuntos públicos, e adicionou Dana White, CEO do UFC e amigo próximo de Trump, ao conselho da empresa. Trump chegou a afirmar que as mudanças na Meta provavelmente foram uma reação às suas ameaças.
Especialistas alertam sobre riscos
Para muitos especialistas, essa mudança representa um retrocesso na segurança digital. A própria Angie Drobnic Holan, criticou duramente a decisão. Segundo ela, o programa anterior “funcionava bem para reduzir a viralidade de conteúdo enganoso e teorias da conspiração” e deixou claro que “a maioria das pessoas não quer ter que navegar por uma enxurrada de desinformação nas redes sociais e checar tudo sozinha. Os perdedores aqui são os usuários que querem usar as redes sociais sem serem inundados por informações falsas”.
Holan também criticou o vídeo divulgado por Zuckerberg, classificando-o como “incrivelmente injusto” com os verificadores de fatos. “Esses profissionais seguiram princípios rigorosos e ajudaram a Meta por quase uma década”, afirmou.
Nina Jankowicz, CEO da American Sunlight Project, foi ainda mais contundente: “O anúncio de Zuck é uma completa submissão a Trump e uma tentativa de alcançar [Elon] Musk em sua corrida para o fundo do poço. As implicações serão amplas”. Ela alertou que essa mudança representa um risco significativo, abrindo espaço para discursos de ódio e desinformação descontrolada nas plataformas.
Imran Ahmed, fundador e CEO do Center for Countering Digital Hate, também expressou preocupação: “Meta está dizendo que cabe a você identificar as mentiras em suas plataformas, e que não é problema dela se você não conseguir distinguir o que é verdade. Isso representa um enorme retrocesso para a segurança online, transparência e responsabilidade”.
Nicole Sugerman, da organização Kairos, destacou o impacto em comunidades vulneráveis: “Ao abandonar a checagem de fatos, a Meta está abrindo as portas para desinformação odiosa e sem controle sobre comunidades já alvo de ataques, como pessoas negras, pardas, imigrantes e trans, o que muitas vezes leva à violência fora do ambiente online”.
Preocupação na comunidade científica
A decisão também gerou reação negativa na comunidade científica. Kate Cell, da Union of Concerned Scientists, afirmou que a mudança permitirá a proliferação de desinformação anticientífica.
Michael Khoo, do Friends of the Earth, comparou o modelo Notas da Comunidade às estratégias da indústria de combustíveis fósseis que promovem a reciclagem como solução para o lixo plástico, enquanto a responsabilidade real é desviada para os consumidores. “As empresas de tecnologia precisam assumir a responsabilidade pelo problema de desinformação que seus algoritmos criam”, disse Khoo.
Ele apontou o aumento de ataques a projetos de energia renovável como um reflexo direto da desinformação. Khoo reforçou que, assim como a reciclagem tem impacto limitado na redução do lixo plástico, o modelo de moderação colaborativa da Meta provavelmente terá resultados modestos na contenção de desinformação.
Reflexos e o futuro da moderação de conteúdo
A estratégia da Meta reflete o caminho trilhado pelo X sob a liderança de Elon Musk, que reduziu suas equipes de moderação e ampliou o uso do Community Notes. Pesquisas mostram que, desde que Musk assumiu o controle do X, houve aumento significativo de discurso de ódio e desinformação na plataforma.
Com as redes sociais exercendo um papel vital na formação de opinião, a mudança na Meta levanta questões críticas sobre o futuro da moderação de conteúdo e a responsabilidade das plataformas na garantia de um ambiente digital seguro e confiável.
fonte: theverge