O Conselho de Supervisão independente da Meta Platforms Inc disse que o Facebook não deveria ter retirado uma reportagem de jornal sobre o Talibã que considerasse positiva, apoiando a liberdade de expressão dos usuários e dizendo que a empresa de tecnologia confiava demais sobre moderação automatizada.
Meta encontrou o post no Talibã anunciando que escolas e faculdades no Afeganistão para mulheres e meninas reabririam em março violava as políticas do Facebook porque”elogia”entidades consideradas”envolvidas em sérios danos offline”.
>
A empresa limitou o acesso do jornal a alguns recursos do Facebook após remover a postagem.
Leia também
O jornal recorreu da decisão após a qual a postagem foi encaminhada para um especial fila de moderação, mas nunca foi revisada, de acordo com o Conselho de Supervisão.
O Conselho de Supervisão disse que a decisão da Meta de remover a postagem era inconsistente com as políticas do Facebook, pois elas permitem relatando sobre tais organizações, e a empresa reverteu sua decisão depois que o conselho selecionou o caso.
“O conselho considerou que o Meta deveria proteger melhor a liberdade de expressão dos usuários quando se trata de reportar sobre regimes terroristas”, o disse o Conselho de Supervisão. (https://bit.ly/3U8aUnP)
“Ao usar sistemas automatizados para remover conteúdo, os bancos do Media Matching Service podem amplificar o impacto de decisões incorretas de revisores humanos individuais”, acrescentou.
O Conselho de Supervisão da Meta, que inclui acadêmicos, especialistas em direitos e advogados, foi criado pela empresa para decidir sobre uma pequena fatia de recursos espinhosos de moderação de conteúdo, mas também pode aconselhar sobre as políticas do site.
FacebookTwitterLinkedin