A Meta, empresa controladora do Facebook, Instagram, WhatsApp e Threads, anunciou uma mudança significativa em sua abordagem de moderação de conteúdo nos Estados Unidos. Mark Zuckerberg, CEO da empresa, revelou na última terça-feira (7) que o sistema de checagem de fatos realizado por terceiros será descontinuado, sendo substituído por uma abordagem baseada na comunidade.
Essa mudança representa uma transformação fundamental na forma como essas plataformas lidam com a verificação de informações, com a Meta adotando um modelo similar ao sistema de “notas da comunidade” já utilizado no X (antigo Twitter). A empresa continuará com operações de checagem apenas para casos considerados graves, marcando um afastamento de sua estratégia anterior, que era mais abrangente.
Desafios Regulatórios e Implicações Globais
Embora as mudanças estejam, por enquanto, limitadas aos Estados Unidos, há preocupações sobre a possibilidade de implementação global, o que já gerou reações de órgãos reguladores em várias partes do mundo.
No Brasil, o Ministério Público Federal (MPF) já solicitou esclarecimentos da Meta sobre o possível encerramento do sistema de checagem de fatos no país.
O sistema anterior da empresa operava em mais de 26 idiomas, em parceria com diversas organizações especializadas para combater a desinformação, especialmente em relação a conteúdos políticos. Declarações recentes de Zuckerberg, criticando a censura governamental na Europa e na América Latina, sugerem que essas mudanças podem eventualmente ser aplicadas fora dos Estados Unidos.
Evolução na Moderação de Conteúdo
Com o novo sistema, a moderação de conteúdo da Meta passará a se concentrar principalmente em violações de alta gravidade, como terrorismo, exploração sexual infantil, drogas, fraudes e golpes. A equipe de “confiança, segurança e moderação de conteúdo” da empresa terá como foco exclusivo esses tipos de infrações graves.
Em casos de menor gravidade, as plataformas implementarão o recurso de notas da comunidade, permitindo que os próprios usuários adicionem contexto ou alertas a conteúdos potencialmente problemáticos. Essa mudança representa uma transição de um modelo profissional de checagem de fatos para uma abordagem orientada pela comunidade. Além disso, as plataformas da Meta voltarão a recomendar conteúdos relacionados à política, algo que havia sido restringido anteriormente.
Risco de banimento?
O anúncio gerou fortes reações de autoridades legais, especialmente no Brasil. O ministro do Supremo Tribunal Federal (STF), Alexandre de Moraes, declarou enfaticamente que as redes sociais “só continuarão a operar se respeitarem a legislação brasileira”.
A declaração foi feita após comentários polêmicos de Zuckerberg sobre “tribunais secretos” em países da América Latina, que poderiam ordenar a remoção de conteúdos das plataformas. A crescente tensão entre empresas de tecnologia e sistemas legais nacionais ficou evidente, com Moraes criticando executivos de big techs que “acham que podem mandar no mundo porque têm dinheiro”. O ministro enfatizou que as redes sociais não são territórios sem lei e que devem cumprir as normas brasileiras, independentemente de declarações feitas por seus dirigentes.
Um segmento do STF acredita que as mudanças da Meta estão, neste momento, limitadas às operações nos Estados Unidos, mas sugere que o bloqueio recente do X no Brasil pode ter influenciado a abordagem cautelosa da Meta no país. O tribunal já indicou que está preparado para adotar medidas semelhantes contra a Meta caso a empresa implemente mudanças que conflitem com as regulamentações brasileiras no controle da desinformação.