mardi. La plate-forme de partage de photos de Facebook, Instagram a pris des mesures proactives contre environ 2,8 millions de pièces dans neuf catégories au cours de la même période.
La société a déclaré avoir reçu 1 504 rapports d’utilisateurs pour Facebook et 265 rapports pour Instagram via son mécanisme de réclamation indien entre le 16 juin et le 31 juillet, et la société de médias sociaux avait répondu à tous.
Un porte-parole de Facebook a déclaré qu’au fil des ans, la société a constamment investi dans la technologie, les personnes et les processus pour assurer la sécurité des utilisateurs en ligne et leur permettre de s’exprimer librement sur sa plate-forme.
“Nous utilisons une combinaison d’intelligence artificielle, de rapports de notre communauté et d’examens par nos équipes pour identifier et examiner le contenu par rapport à nos politiques. Conformément aux règles informatiques, nous avons publié notre deuxième rapport de conformité mensuel pour la période de 46 jours-du 16 juin au 31 juillet”, a déclaré le porte-parole dans une déclaration au PTI.
Ce rapport contient des détails sur le contenu qui a été supprimé de manière proactive à l’aide d’outils automatisés et des détails sur les plaintes des utilisateurs reçues et les mesures prises, a noté le porte-parole.
Dans son rapport, Facebook a déclaré avoir”agi”sur plus de 33,3 millions de contenus dans dix catégories du 16 juin au 31 juillet 2021.
Cela inclut le contenu lié au spam ( 25,6 millions), le contenu violent et graphique (3,5 millions), la nudité adulte et l’activité sexuelle (2,6 millions) et le discours de haine (3 24 300).
Les autres catégories dans lesquelles le contenu a fait l’objet d’une action incluent l’intimidation et le harcèlement (1 23 400), le suicide et l’automutilation (9 45 600), les organisations et individus dangereux : la propagande terroriste (1 21 200) et dangereux organisations et individus: haine organisée (94 500).
Le contenu « Actionné » fait référence au nombre d’éléments de contenu (tels que des publications, des photos, des vidéos ou des commentaires) pour lesquels des mesures ont été prises pour violation des normes. Prendre des mesures peut inclure la suppression d’un élément de contenu de Facebook ou Instagram ou la couverture de photos ou de vidéos pouvant déranger certains publics avec un avertissement.
Le taux proactif, qui indique le pourcentage de tous les contenus ou comptes sur lesquels Facebook a trouvé et signalé à l’aide de la technologie avant que les utilisateurs ne les signalent, variait dans la plupart de ces cas entre 86,8 et 99,9 %.
Le taux proactif de suppression de contenu lié à l’intimidation et au harcèlement était de 42,3 %, car ce contenu est contextuel et de nature très personnelle. Dans de nombreux cas, les gens doivent signaler ce comportement à Facebook avant qu’il puisse identifier ou supprimer un tel contenu.
En vertu des nouvelles règles informatiques, les grandes plateformes numériques (avec plus de 5 millions d’utilisateurs) devront publier chaque mois des rapports de conformité périodiques, mentionnant les détails des plaintes reçues et les mesures prises à leur égard. Le rapport doit également inclure le nombre de liens de communication spécifiques ou de parties d’informations auxquelles l’intermédiaire a supprimé ou désactivé l’accès dans le cadre d’une surveillance proactive effectuée à l’aide d’outils automatisés.
Au cours de la période du 15 mai au 15 juin, Facebook a « agi » sur plus de 30 millions d’articles de contenu dans dix catégories de violation tandis qu’Instagram a pris des mesures contre environ deux millions d’articles dans neuf catégories au cours de la même période.
Pour Instagram, 2,8 millions de contenus ont été traités dans neuf catégories entre le 16 juin et le 31 juillet. Cela comprend le contenu lié au suicide et à l’automutilation (8 11 000), le contenu violent et graphique (1,1 million), la nudité et l’activité sexuelle d’adultes (6 76 100) et l’intimidation et le harcèlement (1 95 100).
Les autres catégories dans lesquelles le contenu a fait l’objet d’une action incluent les discours haineux (56 200), les organisations et individus dangereux : la propagande terroriste (9 100) et les organisations et individus dangereux : la haine organisée (5 500).
Entre le 16 juin et le 31 juillet, Facebook a reçu 1 504 signalements via son mécanisme de réclamation indien. « Sur ces rapports entrants, nous avons fourni aux utilisateurs des outils pour résoudre leurs problèmes dans 1 326 cas. Il s’agit notamment de canaux préétablis pour signaler du contenu pour des violations spécifiques, des flux d’auto-correction où ils peuvent télécharger leurs données, des moyens de résoudre les problèmes de compte piraté, etc. ,”Ça disait.
Au cours de la même période, Instagram a reçu 265 rapports via le mécanisme de réclamation indien et a fourni des outils aux utilisateurs pour résoudre leurs problèmes dans 181 cas, a-t-il ajouté.
Plus tôt dans la journée, Google a déclaré avoir reçu 36 934 plaintes d’utilisateurs et supprimé 95 680 éléments de contenu sur la base de ces plaintes, et supprimé 5 76 892 éléments de contenu en juillet à la suite d’une détection automatisée dans le mois de juillet.
FacebookTwitterLinkedin