Facebook je letos odstranil 14 milijonov kosov terorističnih vsebin, številke pa naraščajo – TechCrunch


Facebook mora stalno nadzorovati, da ne bi prevzela njene platforme z ne'er-do-wells, ampak kako natančno to počne samo resnično. Danes pa nam je podjetje zbralo nekaj podatkov o orodjih, ki jih uporabljajo, in o rezultatih, ki jih dobivajo – na primer, več kot 14 milijonov kosov »terorističnih vsebin«, ki so bili odstranjeni letos.

Več kot polovica teh 14 milijonov je bila stara vsebina, objavljena pred letom 2018, nekateri pa so sedeli okoli leta. Toda, kot opozarja Facebook, je lahko ta vsebina zelo ves čas pregledana. Težko si je zamisliti, da se v terorističnem delovnem mestu neprijavljeno 970 dni (srednja starost za vsebino v prvem četrtletju), če bi se videl kakšen promet.

Morda je še bolj pomembno, da se zdi, da se število novih vsebin, ki so bili odstranjeni (s Facebook-jevim kreditom, hitro krčenje zamude) stalno narašča. V prvem četrtletju je bilo odstranjenih 1,2 milijona točk; v drugem četrtletju 2,2 milijona; v tretjem četrtletju 2,3 ​​milijona. Naraščajo tudi selitve vsebine, o katerih so poročali uporabniki, čeprav so manjše število – v tretjem četrtletju okoli 16.000. Dejansko jih 99 odstotkov, ponosno poroča Facebook, odstrani "proaktivno".

Nekaj, ki ga je treba omeniti: Facebook se pazljivo izogiba pozitivnim ali aditivnim glagolom, ko govorimo o tej vsebini, na primer ne bo rekel, da so "teroristi objavili 2,3 milijona kosov vsebin", temveč da je bilo število "takedownsov" ali vsebin " "Ta vrsta fraziranja je bolj konzervativna in tehnično pravilna, saj lahko resnično samo prepričani v svoja dejanja, vendar tudi pripomore k zmernemu dejstvu, da teroristi mesečno objavljajo več sto tisoč predmetov.

Številke je težko kontekstualizirati. Ali je to veliko ali malo? Oboje, res. Količina vsebine, objavljene na Facebooku, je tako velika, da skoraj vsaka številka izgleda zraven majhne, ​​celo zastrašujoče kot 14 milijonov kosov teroristične propagande.

Zanimivo pa je, da je Facebook močno razširil obseg svojih avtomatiziranih orodij za odkrivanje:

Naši poskusi za algoritemsko prepoznavanje kršitev tekstovnih objav (kar imenujemo "razumevanje jezika") zdaj delujejo v 19 jezikih.

In odpravil je napako, ki je močno upočasnila odstranjevanje vsebine:

V drugem četrtletju leta 2018 je mediana časa na platformi za novo naloženo vsebino, ki je bila navznoter z našimi standardnimi orodji, približno 14 ur, kar je znatno povečalo od Q1 2018, ko je bil čas mediana krajši od 1 minute. Povečanje je spodbudilo več dejavnikov, vključno z določitvijo buga, ki nas je preprečila, da bi odstranili nekaj vsebin, ki so kršile naše politike, in uvedli nove sisteme odkrivanja in uveljavljanja.

Številka Q3 je dve minuti. To je delo v teku.

Nedvomno si vsi želimo, da je podjetje nekoliko prej uporabilo to stopnjo strogosti, vendar je dobro vedeti, da je delo opravljeno. Pomembno je, da veliko teh naprav ni osredotočeno le na odstranjevanje vsebin, ampak na postavitev pred nenehno rastočo ekipo za moderiranje. Torej, najpomembnejši del je še vedno, hvaležno in junaško, ki ga izvajajo ljudje.