New Delhi, le géant des médias sociaux Meta a déclaré lundi que plus de 26,9 millions de contenus ont été « traités » sur Facebook dans 10 catégories de violation de manière proactive en Inde au cours du mois de Septembre. Sa plateforme de partage de photos Instagram a pris des mesures proactives contre plus de 3,2 millions de pièces dans neuf catégories au cours de la même période, selon les données partagées dans un rapport de conformité.
En vertu des règles informatiques entrées en vigueur au début de l’année, les grandes plateformes numériques (avec plus de 5 millions d’utilisateurs) doivent publier des rapports de conformité périodiques chaque mois, mentionnant les détails des plaintes reçues et les mesures prises à leur sujet. Il comprend également des détails sur le contenu supprimé ou désactivé via une surveillance proactive à l’aide d’outils automatisés.
Facebook avait « agi » sur environ 31,7 millions d’articles de contenu de manière proactive en août, tandis qu’Instagram a pris des mesures contre environ 2,2 millions d’articles dans neuf catégories au cours de la même période de manière proactive.
Lundi, Meta a déclaré que 708 rapports d’utilisateurs avaient été reçus par Facebook via son mécanisme de réclamation indien entre le 1er et le 30 septembre.
“Sur ces rapports entrants, nous avons fourni des outils aux utilisateurs pour résoudre leurs problèmes dans 589 cas”, indique le rapport.
Ceux-ci incluent des canaux préétablis pour signaler du contenu pour des violations spécifiques, des flux d’auto-correction où ils peuvent télécharger leurs données, des moyens de résoudre les problèmes de piratage de compte, entre autres, a-t-il ajouté.
Entre le 1er et le 30 septembre, Instagram a reçu 418 signalements via le mécanisme de réclamation indien.
“Au fil des ans, nous avons constamment investi dans la technologie, les personnes et les processus pour faire avancer notre programme visant à assurer la sécurité de nos utilisateurs en ligne et leur permettre de s’exprimer librement sur notre plate-forme.
p>”Nous utilisons une combinaison d’intelligence artificielle, de rapports de notre communauté et d’examens par nos équipes pour identifier et examiner le contenu par rapport à nos politiques”, a déclaré un porte-parole de Meta.
La semaine dernière, la société mère de Facebook a modifié son nom à Meta. Les applications sous Meta incluent Facebook, WhatsApp, Instagram, Messenger et Oculus.
Selon le rapport publié lundi, les plus de 26,9 millions de pièces de contenu actionnées par Facebook en septembre comprenaient du contenu lié au spam ( 20,3 millions), le contenu violent et graphique (3,4 millions), la nudité et l’activité sexuelle d’adultes (2,4 millions) et le discours de haine (182 200).
Les autres catégories dans lesquelles le contenu a fait l’objet d’une action comprennent l’intimidation et le harcèlement (89 500 ), suicide et automutilation (394 100), organisatio dangereux ns et individus: propagande terroriste (135 400) et organisations et individus dangereux: haine organisée (19 600).
Le contenu « traité » fait référence au nombre d’éléments de contenu (tels que des publications, des photos, des vidéos ou des commentaires) pour lesquels des mesures ont été prises pour violation des normes. Prendre des mesures peut inclure la suppression d’un élément de contenu de Facebook ou Instagram ou la couverture de photos ou de vidéos pouvant déranger certains publics avec un avertissement.
Le taux proactif, qui indique le pourcentage de tous les contenus ou comptes sur lesquels Facebook a trouvé et signalé à l’aide de la technologie avant que les utilisateurs ne les signalent, variait dans la plupart de ces cas entre 78,6 et 99,9 %.
Le taux proactif de suppression de contenu lié à l’intimidation et au harcèlement était de 48,7 %, car ce contenu est contextuel et de nature très personnelle. Dans de nombreux cas, les gens doivent signaler ce comportement à Facebook avant qu’il puisse identifier ou supprimer un tel contenu.
Pour Instagram, environ 3,2 millions de contenus ont été traités dans neuf catégories en septembre 2021.
Cela inclut le contenu lié au suicide et à l’automutilation (702 600), le contenu violent et graphique (1,7 million), la nudité et l’activité sexuelle des adultes (516 800) et l’intimidation et le harcèlement (307 000).
Les autres catégories dans lesquelles le contenu a fait l’objet d’une action incluent le discours de haine (33 600), les organisations et individus dangereux : la propagande terroriste (6 400) et les organisations et individus dangereux : la haine organisée (8 000). PTI SR ABM ABM
FacebookTwitterLinkedin