Mark Zuckerberg, CEO da Meta, culpou os parceiros de verificação de fatos da empresa por alguns dos problemas de moderação do Facebook: ele diz no filme que “os verificadores de fatos eram muito tendenciosos politicamente” e “destruíram mais confiança do que criaram”.

Os grupos de verificação de fatos que trabalharam com a Meta discordam dessa caracterização, dizendo que não têm nenhum papel na decisão do que a empresa fará com o conteúdo que foi verificado.

“Não creio que tenhamos feito nada, de qualquer forma, com preconceito”, disse Neil Brown, presidente da empresa Instituto Poynteruma organização sem fins lucrativos global que trabalha Fato políticoum dos parceiros de verificação de fatos da Meta. “Há muito para verificar e pegamos o que pudemos.”

O Sr. Brown disse que o grupo Eu usei ferramentas Meta para enviar informações de verificação de fatos e seguiu as regras Meta que impediam o grupo de verificar os fatos de políticos. A meta finalmente decidiu como responder à verificação de fatos adicionando rótulos de aviso, limitando o alcance de determinados conteúdos e até mesmo removendo postagens.

“Não removemos e não podemos remover o conteúdo”, escreveu Lori Robertson, editora-chefe do FactCheck.org, que está na Meta desde 2016. em uma postagem de blog. “Qualquer decisão nesse sentido foi da Meta.”

Em vez disso, a Meta está migrando para um programa chamado Community Notes, onde contará com seus próprios usuários para redigir verificações de fatos, em vez de organizações externas. Os pesquisadores descobriram que o programa pode ser eficaz quando combinado com outras estratégias de moderação.

Source link