O Conselho de Supervisão independente da Meta Platforms Inc disse que o Facebook não deveria ter retirado uma reportagem de jornal sobre o Talibã que considerasse positiva, apoiando a liberdade de expressão dos usuários e dizendo que a empresa de tecnologia confiava demais sobre moderação automatizada.

Meta encontrou o post no Talibã anunciando que escolas e faculdades no Afeganistão para mulheres e meninas reabririam em março violava as políticas do Facebook porque”elogia”entidades consideradas”envolvidas em sérios danos offline”.
>

A empresa limitou o acesso do jornal a alguns recursos do Facebook após remover a postagem.

Leia também

O jornal recorreu da decisão após a qual a postagem foi encaminhada para um especial fila de moderação, mas nunca foi revisada, de acordo com o Conselho de Supervisão.

O Conselho de Supervisão disse que a decisão da Meta de remover a postagem era inconsistente com as políticas do Facebook, pois elas permitem relatando sobre tais organizações, e a empresa reverteu sua decisão depois que o conselho selecionou o caso.

“O conselho considerou que o Meta deveria proteger melhor a liberdade de expressão dos usuários quando se trata de reportar sobre regimes terroristas”, o disse o Conselho de Supervisão. (https://bit.ly/3U8aUnP)

“Ao usar sistemas automatizados para remover conteúdo, os bancos do Media Matching Service podem amplificar o impacto de decisões incorretas de revisores humanos individuais”, acrescentou.

O Conselho de Supervisão da Meta, que inclui acadêmicos, especialistas em direitos e advogados, foi criado pela empresa para decidir sobre uma pequena fatia de recursos espinhosos de moderação de conteúdo, mas também pode aconselhar sobre as políticas do site.

FacebookTwitterLinkedin

Categories: IT Info