Google a reçu 31 497 plaintes d’utilisateurs et a supprimé 94 173 éléments de contenu sur la base de ces plaintes en décembre, a déclaré le géant de la technologie dans son rapport mensuel sur la transparence. En plus des rapports des utilisateurs, Google a également supprimé 4 05 911 éléments de contenu en décembre à la suite d’une détection automatisée.
Google a reçu 26 087 plaintes d’utilisateurs et a supprimé 61 114 éléments de contenu sur la base de ces plaintes en novembre, tandis que 3 75 468 éléments de contenu ont été supprimés à la suite d’une détection automatisée.
La société basée aux États-Unis a fait ces divulgations dans le cadre du respect des règles informatiques indiennes entrées en vigueur en mai de l’année dernière.
Google, dans son dernier rapport, a déclaré avoir reçu 31 497 plaintes au cours du mois de décembre (du 1er au 31 décembre 2021) de la part d’utilisateurs individuels situés en Inde via des mécanismes désignés, et le nombre d’actions de suppression résultant de l’utilisateur les plaintes s’élevaient à 94 173.
Ces plaintes concernent des contenus de tiers qui sont soupçonnés d’enfreindre les lois locales ou les droits de la personne sur les principales plateformes d’intermédiaires de médias sociaux (SSMI) de Google, selon le rapport.
“Certaines demandes peuvent alléguer une violation des droits de propriété intellectuelle, tandis que d’autres prétendent une violation des lois locales interdisant les types de contenu pour des motifs tels que la diffamation. Lorsque nous recevons des plaintes concernant le contenu sur nos plateformes, nous les évaluons attentivement,”a-t-il ajouté.
La suppression de contenu a été effectuée dans plusieurs catégories, y compris le droit d’auteur (93 693), la marque (438), l’ordonnance du tribunal (37), le contenu graphique à caractère sexuel (3), le contournement (1) et la contrefaçon (1).
Google a expliqué qu’une seule plainte peut spécifier plusieurs éléments potentiellement liés au même contenu ou à des éléments de contenu différents, et chaque URL unique dans une plainte spécifique est considérée comme un”élément”individuel qui est supprimé.
Pour les plaintes des utilisateurs, le nombre”d’actions de suppression”représente le nombre d’éléments pour lesquels un élément de contenu a été supprimé ou restreint au cours de la période de rapport d’un mois à la suite d’une plainte spécifique, tandis que pour la détection automatisée , le nombre”d’actions de suppression”représente le nombre de cas où Google a supprimé du contenu ou empêché l’acteur malveillant d’accéder au service Google à la suite de processus de détection automatisés.
Google a déclaré qu’en plus des rapports des utilisateurs, la société investit massivement dans la lutte contre les contenus préjudiciables en ligne et utilise la technologie pour les détecter et les supprimer de ses plateformes.
“Cela inclut l’utilisation de processus de détection automatisés pour certains de nos produits afin d’empêcher la diffusion de contenus préjudiciables tels que des contenus pédopornographiques et des contenus extrémistes violents.
“Nous équilibrons la confidentialité et l’utilisateur protection pour : supprimer rapidement le contenu qui enfreint nos directives communautaires et nos politiques de contenu ; restreindre le contenu (par exemple, un contenu soumis à une limite d’âge qui peut ne pas convenir à tous les publics) ; ou laissez le contenu en direct lorsqu’il ne viole pas nos directives ou politiques”, a-t-il ajouté.
Google a déclaré que la détection automatisée lui permet d’agir plus rapidement et plus précisément pour appliquer ses directives et politiques.
Ces actions de suppression peuvent entraîner la suppression du contenu ou la résiliation de l’accès d’un acteur malveillant au service Google, a-t-il ajouté.
En vertu des règles informatiques, les grandes plateformes numériques-avec plus de 5 millions d’utilisateurs-doivent publier des rapports de conformité périodiques chaque mois, mentionnant les détails des plaintes reçues et les mesures prises.
Le rapport doit également inclure le nombre de liens de communication spécifiques ou de parties d’informations que l’intermédiaire a supprimés ou dont l’accès a été désactivé conformément à toute surveillance proactive effectuée à l’aide d’outils automatisés.
FacebookTwitterLinkedin