Facebook „zareagował” na ponad 33,3 miliona elementów treści w dziesięciu kategoriach naruszeń proaktywnie w okresie od 16 czerwca do 31 lipca w Indiach, poinformował gigant mediów społecznościowych w swoim raporcie zgodności we wtorek. Platforma do udostępniania zdjęć Facebooka, Instagram, aktywnie działała przeciwko około 2,8 miliona elementów w dziewięciu kategoriach w tym samym okresie.
Firma poinformowała, że w okresie od 16 czerwca do 31 lipca otrzymała 1504 zgłoszeń użytkowników na Facebooku i 265 zgłoszeń na Instagram za pośrednictwem indyjskiego mechanizmu składania skarg, a firma zajmująca się mediami społecznościowymi odpowiedziała na wszystkie z nich.
Rzecznik Facebooka powiedział, że przez lata firma konsekwentnie inwestowała w technologię, ludzi i procesy, aby zapewnić użytkownikom bezpieczeństwo w Internecie i umożliwić im swobodne wyrażanie się na swojej platformie.
„Korzystamy z kombinacji sztucznej inteligencji, raportów od naszej społeczności i weryfikacji przez nasze zespoły w celu identyfikacji i przeglądu treści pod kątem naszych zasad. Zgodnie z przepisami IT opublikowaliśmy nasz drugi miesięczny raport o zgodności za okres 46 dni-16 czerwca do 31 lipca-poinformował rzecznik w oświadczeniu dla PTI.
Ten raport zawiera szczegółowe informacje na temat treści, które zostały usunięte proaktywnie za pomocą automatycznych narzędzi, a także szczegółowe informacje o otrzymanych skargach użytkowników i podjętych działaniach, zauważył rzecznik.
W swoim raporcie Facebook powiedział, że „działał” ponad 33,3 miliona treści w dziesięciu kategoriach w okresie od 16 czerwca do 31 lipca 2021 r.
Obejmuje to treści związane ze spamem ( 25,6 mln), treści przemocowe i drastyczne (3,5 mln), nagość dorosłych i aktywność seksualna (2,6 mln) oraz mowa nienawiści (324 300).
Inne kategorie, w ramach których podejmowano działania, to zastraszanie i nękanie (1 23 400), samobójstwa i samookaleczenia (9 45 600), niebezpieczne organizacje i osoby: propaganda terrorystyczna (1 21 200) i niebezpieczne organizacje i osoby prywatne: zorganizowana nienawiść (94 500).
Treść „podjęta działania” odnosi się do liczby fragmentów treści (takich jak posty, zdjęcia, filmy lub komentarze), w przypadku których podjęto działania mające na celu naruszenie standardów. Podejmowanie działań może obejmować usunięcie fragmentu treści z Facebooka lub Instagrama lub zasłanianie ostrzeżeniem zdjęć lub filmów, które mogą przeszkadzać niektórym odbiorcom.
Wskaźnik proaktywności, który wskazuje procent wszystkich treści lub kont, na których działał Facebook, które znalazły i oznaczyły za pomocą technologii, zanim użytkownicy je zgłosili, w większości tych przypadków wahały się od 86,8 do 99,9 procent.
Proaktywny wskaźnik usuwania treści związanych z nękaniem i nękaniem wyniósł 42,3 procent, ponieważ te treści mają charakter kontekstowy i mają bardzo osobisty charakter. W wielu przypadkach ludzie muszą zgłosić to zachowanie Facebookowi, zanim będzie mógł zidentyfikować lub usunąć takie treści.
Zgodnie z nowymi przepisami IT duże platformy cyfrowe (z ponad 5 milionami użytkowników) będą musiały co miesiąc publikować okresowe raporty zgodności, zawierające szczegóły otrzymanych skarg i podjętych w związku z nimi działań. Raport powinien również zawierać liczbę konkretnych łączy komunikacyjnych lub części informacji, do których pośrednik usunął lub do których dostęp zablokował w ramach proaktywnego monitoringu prowadzonego za pomocą zautomatyzowanych narzędzi.
W okresie od 15 maja do 15 czerwca Facebook „zareagował” na ponad 30 milionów elementów treści w dziesięciu kategoriach naruszeń, podczas gdy Instagram podjął działania przeciwko około dwóm milionom elementów w dziewięciu kategoriach w tym samym okresie.
W przypadku Instagrama w okresie od 16 czerwca do 31 lipca uwzględniono 2,8 miliona treści w dziewięciu kategoriach. Obejmuje to treści związane z samobójstwami i samookaleczeniami (8 11 000), treści związane z przemocą i drastyczne (1,1 mln), nagość i aktywność seksualną dla dorosłych (6 76 100) oraz zastraszanie i nękanie (1 95 100).
Inne kategorie, w ramach których prowadzono działania, to mowa nienawiści (56 200), niebezpieczne organizacje i osoby: propaganda terrorystyczna (9100) oraz niebezpieczne organizacje i osoby: zorganizowana nienawiść (5500).
Między 16 czerwca a 31 lipca Facebook otrzymał 1504 zgłoszenia za pośrednictwem swojego indyjskiego mechanizmu skarg. „Spośród tych przychodzących zgłoszeń udostępniliśmy użytkownikom narzędzia do rozwiązywania ich problemów w 1326 przypadkach. Obejmują one wstępnie ustalone kanały zgłaszania treści pod kątem określonych naruszeń, przepływy samonaprawcze, w których mogą pobrać swoje dane, sposoby rozwiązywania problemów związanych z włamaniem na konto itp. ,”powiedziało.
W tym samym czasie Instagram otrzymał 265 zgłoszeń za pośrednictwem indyjskiego mechanizmu skarg i udostępnił użytkownikom narzędzia do rozwiązywania ich problemów w 181 przypadkach, dodał.
Wcześniej tego dnia firma Google poinformowała, że otrzymała 36 934 skargi od użytkowników i usunęła 95 680 fragmentów treści na podstawie tych skarg, a w lipcu usunęła 5 76892 fragmenty treści w wyniku automatycznego wykrywania w miesiąc lipiec.
FacebookTwitterLinkedin