Notas da comunidade substituem verificação de fatos por moderação de conteúdo
A Meta está prestes a iniciar um novo teste de funcionalidades em sua plataforma, com o objetivo de aprimorar a experiência do usuário. A partir da próxima terça-feira (18), as ‘notas da comunidade’ serão testadas no Facebook, Instagram e Threads, permitindo que os usuários tenham mais controle sobre o conteúdo que veem. A Meta está trabalhando arduamente para garantir que essas mudanças sejam benéficas para todos os usuários.
A empresa está investindo pesado na melhoria da sua plataforma, com o objetivo de torná-la mais segura e confiável. A rede social é um espaço onde as pessoas se conectam e compartilham informações, e a Meta está comprometida em garantir que essas interações sejam positivas e produtivas. Com a implementação das ‘notas da comunidade’, a Meta está substituindo o programa de verificação de fatos feito por terceiros, o que _pode ser um grande passo_ para a melhoria da qualidade do conteúdo. _Além disso_, a Meta está trabalhando para garantir que as _regras da comunidade_ sejam claras e fáceis de entender, o que _é fundamental_ para o sucesso da plataforma. A Meta está no caminho certo para se tornar uma _referência_ em termos de _segurança e confiabilidade_ na _rede social_.
Introdução à Nova Abordagem da Meta
A Meta, empresa líder em tecnologia, está implementando uma nova abordagem para a moderação de conteúdo em sua plataforma, permitindo que os usuários corrijam informações publicadas de forma semelhante ao modelo implementado pelo X, de Elon Musk. Essa mudança foi anunciada por Mark Zuckerberg, dono da Meta, em um vídeo de 5 minutos publicado no Instagram, uma rede social popular, no início de janeiro. Zuckerberg afirmou que os verificadores ‘tem sido muito tendenciosos politicamente e destruíram mais confiança do que criaram’, destacando a importância da Meta em encontrar uma solução mais eficaz.
A Meta afirma que, nos EUA, cerca de 200 mil pessoas já se inscreveram para testar as ferramentas nesta primeira fase, e as inscrições seguem abertas, segundo a empresa. No entanto, as observações feitas pelos usuários não estarão visíveis para todos imediatamente, pois a Meta começará a disponibilizá-las de forma gradual e aleatória para pessoas fora da lista de espera, levando um tempo para testar o sistema de redação e classificação antes que qualquer nota seja publicada publicamente.
Notas da Comunidade e Verificação de Fatos
A Meta não informou quando lançará oficialmente as ‘notas da comunidade’, mas disse que pretende disponibilizá-las para todos nos EUA assim que o teste beta demonstrar estar funcionando de maneira eficaz. Além disso, a empresa afirmou que, assim que as Notas começarem a aparecer publicamente, nenhum novo rótulo de verificação de fatos de checadores terceiros aparecerá nos Estados Unidos, embora eles sejam livres para se tornarem colaboradores das Notas da Comunidade junto com outros usuários de nossa plataforma. Isso destaca a importância da Meta em encontrar uma solução que permita a expressão de opiniões e ideias de forma mais aberta e inclusiva.
Para Zuckerberg, verificadores estavam calando pessoas, e o programa de verificação começou como um movimento para ser mais inclusivo, mas que tem sido cada vez mais usado para calar opiniões e excluir pessoas com ideias diferentes. ‘Isso foi longe demais’, disse. Em comunicado, a Meta afirmou que as mudanças permitirão que as pessoas se expressem mais, com um novo foco na moderação de conteúdo em postagens ilegais e violações de alta severidade, eliminando restrições sobre alguns assuntos que são parte de discussões na sociedade.
Impacto na Moderação de Conteúdo
A nova política anunciada pela Meta surpreendeu alguns parceiros de verificação de fatos que colaboravam com a empresa na moderação de conteúdo, segundo a agência Reuters. Especialistas consultados alertam que a alteração na moderação de conteúdo permitirá que posts considerados problemáticos apareçam com mais frequência e permaneçam no ar sem a verificação da empresa, como desinformação sobre vacinas, Covid e eleições. Para Yasmin Curzi, da Universidade de Virgínia (EUA), todos os conteúdos que não podem ser compreendidos como ‘explicitamente ilegais e violações de alta severidade’ poderão aparecer, ‘compreendendo não só desinformação, mas também racismo e homotransfobia’. Além disso, a Meta está trabalhando em um programa de verificação para garantir que as notas da comunidade sejam precisas e confiáveis, o que é fundamental para a plataforma e a rede social.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo