Gisteren, The Verge meldde dat er in de afgelopen zes maanden een”enorme fout in de rangschikking”was in het algoritme van Facebook, wat potentiële”integriteitsrisico’s”veroorzaakte voor de helft van alle nieuwsfeedweergaven.
De informatie is afkomstig van een groep ingenieurs, die afgelopen oktober de algoritmefout ontdekten. Ze zeiden dat wanneer een reeks verkeerde informatie via de nieuwsfeed stroomde, in plaats van de verspreiding te blokkeren, het systeem ze promootte. In feite kreeg verkeerde informatie die in de nieuwsfeed verscheen 30% meer views. Wat vreemd is, Facebook kon de oorzaak niet vinden. Ze hielden alleen in de gaten hoe dergelijke berichten werkten. Interessant is dat dergelijk nieuws niet zoveel views kreeg na een paar weken aan de top te hebben gestaan. Facebook-technici konden de bug op 11 maart oplossen.
Intern onderzoek van Facebook toonde aan dat het algoritme van Facebook niet kon voorkomen dat berichten werden weergegeven, zelfs als ze bestonden uit naaktheid, geweld, enz. intern kreeg de bug een SEV-niveau. SEV staat voor site event. Dit is echter niet het ergste dat met het systeem kan gebeuren. Hoewel het een bug van niveau één is, wordt er ook een SEV van niveau nul gebruikt voor de meest dramatische noodsituaties.
Facebook heeft al officieel toegegeven dat er een bug was. Meta-woordvoerder Joe Osborne zei dat het bedrijf”vijf verschillende gelegenheden inconsistenties in de verlaging ontdekte, die correleerden met kleine, tijdelijke verhogingen van interne statistieken.”
Volgens de interne documenten werd dit technische probleem voor het eerst geïntroduceerd in 2019. Op dat moment had het echter geen merkbare impact tot oktober 2021.”We hebben de hoofdoorzaak getraceerd naar een softwarefout en hebben de nodige fixes aangebracht”, aldus Osborne.”De bug heeft geen betekenisvolle, lange termijn impact gehad op onze statistieken.”
Downranking als de beste manier om inhoud weer te geven die je nodig hebt
Facebook heeft voorlopig geen t legde uit wat voor impact het heeft op de weergegeven inhoud in de nieuwsfeed. We weten alleen dat downranking de manier is waarop het Facebook-algoritme de kwaliteit van de nieuwsfeed verbetert. Bovendien heeft Facebook actief aan deze aanpak gewerkt, waardoor het de primaire manier is om inhoud weer te geven.
In zekere zin is dit een logische benadering. We bedoelen dat berichten over oorlogen en controversiële politieke verhalen een hoge ranking kunnen hebben. Maar in de meeste gevallen voldoen ze niet aan de voorwaarden van Facebook en kunnen ze worden verbannen. Met andere woorden, zoals Mark Zuckerberg in 2018 uitlegde: neerwaartse strijd tegen het instinct van geobsedeerd te zijn met”meer sensationele en provocerende”inhoud.”Ons onderzoek suggereert dat, ongeacht waar we de grens trekken voor wat is toegestaan, als een stuk inhoud in de buurt komt van die lijn, mensen er gemiddeld meer mee bezig zullen zijn-zelfs als ze ons achteraf vertellen dat ze de inhoud niet leuk vinden ”.
Downranking “werkt” ook voor de zogenaamde “borderline” inhoud. Facebook toont dus niet alleen inhoud die de regels bijna overtreedt, maar ook inhoud die als in strijd wordt beschouwd. Het AI-systeem van Facebook controleert alle berichten. Later controleren corresponderende medewerkers echter zelf de”schendende”inhoud.
Afgelopen september deelde Facebook een lijst met lager gerangschikte inhoud. Maar het gaf geen informatie over de invloed van degradatie op de distributie van de betreffende inhoud. We hopen dat Facebook in de toekomst transparanter zal zijn als het gaat om lager gerangschikte inhoud in de nieuwsfeed.
Geeft uw nieuwsfeed inhoud die u leuk vindt?
Tegelijkertijd, Facebook laat geen kans onbenut om te laten zien hoe zijn AI-systeem werkt. Ze bewijzen dat het algoritme elk jaar beter wordt en met succes vecht tegen inhoud, waaronder haatspraak en dergelijke. Facebook is er zeker van dat technologie de beste manier is om de inhoud in die mate te modereren. In 2021 kondigde het bijvoorbeeld officieel aan om alle politieke inhoud in de nieuwsfeed te verlagen.
Velen zouden bevestigen dat er geen kwade bedoelingen achter deze recente rangschikking zaten. Maar het rapport van Facebook laat zien dat elk webgebaseerd platform en de algoritmen die ze gebruiken zo transparant mogelijk moeten zijn.
“In een groot complex systeem als dit zijn bugs onvermijdelijk en begrijpelijk”, zegt Sahar Massachi, een voormalig lid van het Civic Integrity-team van Facebook. “Maar wat gebeurt er als een krachtig sociaal platform een van deze toevallige fouten heeft? Hoe zouden we het eigenlijk weten? We hebben echte transparantie nodig om een duurzaam verantwoordingssysteem op te bouwen, zodat we ze kunnen helpen deze problemen snel op te lossen.”
Source/VIA: