New Delhi : Google a reçu 26 087 plaintes d’utilisateurs et a supprimé 61 114 éléments de contenu sur la base de ces plaintes en novembre, a déclaré le géant de la technologie dans son rapport mensuel de transparence. En plus des rapports des utilisateurs, Google a également supprimé 3 75 468 éléments de contenu en novembre à la suite d’une détection automatisée.
Google a reçu 24 569 plaintes d’utilisateurs et supprimé 48 594 éléments de contenu sur la base de ces plaintes en octobre, tandis que 3 84 509 éléments de contenu ont été supprimés à la suite d’une détection automatisée.
La société basée aux États-Unis a fait ces divulgations dans le cadre de la conformité avec les règles informatiques de l’Inde qui sont entrées en vigueur en mai de cette année.
Google, dans son dernier rapport, a déclaré avoir reçu 26 087 plaintes au cours du mois de novembre (1er-30 novembre 2021) d’utilisateurs individuels situés en Inde via des mécanismes désignés, et le nombre de mesures de suppression à la suite de l’utilisateur les plaintes s’élevaient à 61 114.
Ces plaintes concernent du contenu tiers qui violerait les lois locales ou les droits personnels sur les principales plateformes d’intermédiaires de médias sociaux (SSMI) de Google, selon le rapport.
“Certaines demandes peuvent alléguer une violation des droits de propriété intellectuelle, tandis que d’autres invoquent une violation des lois locales interdisant les types de contenu pour des motifs tels que la diffamation. Lorsque nous recevons des plaintes concernant le contenu sur nos plateformes, nous les évaluons attentivement,”a-t-il ajouté.
La suppression du contenu a été effectuée dans plusieurs catégories, notamment le droit d’auteur (60 387), la marque (535), le contournement (131), l’ordonnance du tribunal (56) et le contenu sexuel graphique (5).
Google a expliqué qu’une seule réclamation peut spécifier plusieurs éléments potentiellement liés au même contenu ou à des éléments différents, et chaque URL unique dans une réclamation spécifique est considérée comme un”élément”individuel qui est supprimé.
Pour les réclamations des utilisateurs, le nombre”actions de suppression”représente le nombre d’éléments pour lesquels un élément de contenu a été supprimé ou restreint au cours de la période de rapport d’un mois à la suite d’une réclamation spécifique, tandis que pour la détection automatique , le nombre « actions de suppression » représente le nombre de cas où Google a supprimé du contenu ou empêché le mauvais acteur d’accéder au service Google à la suite de processus de détection automatisés.
Google a déclaré qu’en plus des rapports des utilisateurs, la société investit massivement dans la lutte contre le contenu préjudiciable en ligne et utilise la technologie pour le détecter et le supprimer de ses plateformes.
“Cela inclut l’utilisation de processus de détection automatisés pour certains de nos produits afin d’empêcher la diffusion de contenu préjudiciable tel que du matériel pédopornographique et du contenu extrémiste violent.
“Nous équilibrons la confidentialité et l’utilisateur protection pour: supprimer rapidement le contenu qui enfreint nos règles de la communauté et nos politiques de contenu ; restreindre le contenu (par exemple, un contenu soumis à une limite d’âge qui peut ne pas convenir à tous les publics) ; ou laisser le contenu en ligne s’il n’enfreint pas nos consignes ou politiques”, a-t-il ajouté.
Google a déclaré que la détection automatisée lui permet d’agir plus rapidement et avec plus de précision pour appliquer ses consignes et politiques. Ces actions de suppression peuvent entraîner la suppression du contenu ou la fin de l’accès d’un acteur malveillant au service Google, a-t-il ajouté.
En vertu des règles informatiques, les grandes plates-formes numériques-avec plus de 5 millions d’utilisateurs-doivent publier des rapports de conformité périodiques chaque mois, mentionnant les détails des plaintes reçues et les mesures prises à ce sujet.
Le rapport doit également inclure le nombre de liens de communication spécifiques ou de parties des informations que l’intermédiaire a supprimées ou auxquelles l’accès a été désactivé dans le cadre d’une surveillance proactive effectuée à l’aide d’outils automatisés.
FacebookTwitterLinkedin