Dans le cadre de ses efforts pour créer une plate-forme sécurisée pour tous les utilisateurs, en particulier les plus jeunes, TikTok est lance une nouvelle version de son modèle suggestif borderline. Ce modèle identifiera automatiquement le contenu sexuellement explicite, suggestif ou limite. Par conséquent, aider TikTok à identifier les vidéos qui ne violent pas nécessairement les directives de sa communauté mais qui peuvent ne pas convenir à un public plus jeune.
Le nouveau modèle vise à créer un environnement plus sûr pour les jeunes utilisateurs
Selon TikTok, le modèle mis à jour est plus précis et efficace pour identifier le contenu qui peut ne pas convenir à tous les téléspectateurs. Ceci est particulièrement important compte tenu de la popularité de la plateforme auprès des adolescents. En identifiant et en supprimant plus efficacement ce type de contenu, TikTok vise à créer un environnement plus sûr et plus familial pour son public plus jeune.
“Nous faisons des progrès pour réduire la prévalence des contenus limites ou suggestifs recommandations globales et lancent maintenant la prochaine itération de notre modèle suggestif limite qui, selon nous, améliorera la détection de ce contenu, créant ainsi une expérience plus appropriée et confortable pour les titulaires de compte adolescents », a déclaré TikTok dans un article de blog.
Défis dans la détection et la suppression du contenu limite
Alors que d’autres plateformes comme Instagram ont également essayé de filtrer le contenu limite des recommandations, il a toujours été difficile pour les systèmes automatisés d’être cohérents détecter les contenus avec des thèmes plus « matures » qui ne contiennent pas de nudité explicite. En effet, la frontière entre un contenu”à la limite de la suggestion”et un contenu acceptable peut être subjective. L’entreprise devra s’assurer que le nouveau modèle est équitable et ne supprime pas injustement le contenu que certains utilisateurs pourraient trouver acceptable.
TikTok n’a pas fourni de détails spécifiques sur la précision du nouveau système, mais la société a déclaré avoir”empêché les comptes d’adolescents de visionner plus d’un million de vidéos ouvertement sexuellement suggestives”au cours des 30 derniers jours.