Eilen, The Verge raportoi, että viimeisen kuuden kuukauden aikana Facebookin algoritmissa oli”massiivinen sijoitusvirhe”, mikä aiheutti mahdollisia”eheysriskejä”puoleen kaikista uutissyötteiden näyttökerroista.

Tiedot ovat peräisin ryhmältä insinöörejä, jotka löysivät algoritmin vian viime lokakuussa. He sanoivat, että kun joukko väärää tietoa virtasi uutissyötteen kautta, leviämisen estämisen sijaan järjestelmä mainosti heitä. Itse asiassa uutissyötteessä esiintynyt väärä tieto sai 30 % enemmän katselukertoja. Mikä outoa, Facebook ei löytänyt perimmäistä syytä. He vain seurasivat, kuinka tällaiset viestit toimivat. Mielenkiintoista on, että tällaiset uutiset eivät saaneet niin paljon katselua muutaman viikon huipulla olon jälkeen. Facebookin insinöörit saattoivat korjata virheen 11. maaliskuuta.

Facebookin sisäinen tutkinta osoitti, että Facebookin algoritmi ei voinut estää julkaisujen näyttämistä, vaikka ne sisälsivät alastomuutta, väkivaltaa jne. sisäisesti virhe sai SEV-taso. SEV tarkoittaa sivustotapahtumaa. Tämä ei kuitenkaan ole pahin, mitä järjestelmälle voi tapahtua. Vaikka kyseessä on ykköstason bugi, on olemassa myös nollatason SEV, jota käytetään dramaattisimpiin hätätilanteisiin.

Facebook on jo virallisesti myöntänyt, että vika on ollut. Metan tiedottaja Joe Osborne sanoi, että yritys”havaitsi epäjohdonmukaisuuksia alentamisessa viidessä eri yhteydessä, mikä korreloi pienten, tilapäisten sisäisten mittareiden korotusten kanssa.”

Sisäisten asiakirjojen mukaan tämä tekninen ongelma esiteltiin ensimmäisen kerran vuonna 2019. Tuolloin sillä ei kuitenkaan ollut havaittavissa olevaa vaikutusta ennen lokakuuta 2021.”Jäljitimme perimmäisen syyn ohjelmistovirheeseen ja teimme tarvittavat korjaukset”, Osborne sanoi.”Virheellä ei ole ollut merkityksellistä, pitkäaikaista vaikutusta mittareihimme.”

Aleneminen parhaana tapana näyttää tarvitsemaasi sisältöä

Facebook ei ole toistaiseksi t selitti, millainen vaikutus sillä on uutissyötteen sisältöön. Tiedämme vain, että Facebook-algoritmi parantaa uutissyötteen laatua alempana. Lisäksi Facebook on työskennellyt aktiivisesti tämän lähestymistavan parissa, ja se on tehnyt siitä ensisijaisen tavan näyttää sisältöä.

Jossain mielessä tämä on looginen lähestymistapa. Tarkoitamme, että sodista ja kiistanalaisista poliittisista tarinoista kertovat viestit voivat saada korkeat sijoitukset. Mutta useimmissa tapauksissa ne eivät vastaa Facebookin ehtoja, ja ne voidaan kieltää. Toisin sanoen, kuten Mark Zuckerberg selitti vuonna 2018, alentaa kamppailuja pakkomiellettä vastaan.”sensaatiohakuisemman ja provosoivan”sisällön kanssa.”Tutkimuksemme viittaa siihen, että riippumatta siitä, mihin vedämme rajan sallitulle sisällölle, kun sisältö tulee lähelle tätä linjaa, ihmiset sitoutuvat siihen keskimäärin enemmän-vaikka he kertoisivat meille jälkeenpäin, etteivät pidä sisällöstä..

Alennus”toimii”myös niin kutsutun”rajaviivan”sisällön kohdalla. Näin ollen Facebook ei näytä vain sisältöä, joka on lähellä sen sääntöjä, vaan myös sisältöä, joka on todettu rikkovan. Facebookin tekoälyjärjestelmä tarkistaa kaikki viestit. Myöhemmin vastaavat työntekijät kuitenkin tarkistavat”loukkaavan”sisällön itse.

Viime syyskuussa Facebook jakoi luettelon alennetusta sisällöstä. Se ei kuitenkaan antanut mitään tietoa siitä, kuinka alentaminen vaikuttaa vaikutuksen alaisen sisällön jakeluun. Toivomme, että Facebook on jatkossa läpinäkyvämpi, kun on kyse uutissyötteen alennetusta sisällöstä.

Näyttääkö uutissyötteessäsi sisältöä, josta pidät?

Samaan aikaan, Facebook ei missaa mahdollisuutta esitellä, kuinka sen tekoälyjärjestelmä toimii. He todistavat, että algoritmi paranee vuosi vuodelta ja taistelee menestyksekkäästi sisältöä, mukaan lukien vihapuhe ja tykkäykset, vastaan. Facebook on varma, että tekniikka on paras tapa moderoida sisältöä tässä laajuudessa. Esimerkiksi vuonna 2021 se ilmoitti virallisesti alentavansa uutissyötteen kaiken poliittisen sisällön.

Monet vahvistavat, että tämän viimeaikaisen sijoituksen takana ei ole ollut ilkeä tarkoitus. Mutta Facebookin raportti osoittaa, että minkä tahansa verkkopohjaisen alustan ja niiden käyttämien algoritmien tulee olla mahdollisimman läpinäkyviä.

“Tällaisessa suuressa monimutkaisessa järjestelmässä virheet ovat väistämättömiä ja ymmärrettäviä”, sanoi Sahar Massachi. Facebookin Civic Integrity-tiimin entinen jäsen.”Mutta mitä tapahtuu, kun tehokkaalla sosiaalisella alustalla on yksi näistä vahingossa olevista vioista? Mistä me edes tietäisimme? Tarvitsemme todellista avoimuutta rakentaaksemme kestävän vastuujärjestelmän, jotta voimme auttaa heitä havaitsemaan nämä ongelmat nopeasti.”

Lähde/VIA:

Categories: IT Info