Miért törölték a posztomat? Hogyan tudom töröltetni mások posztját? Miért nem veszi már le a Facebook ezt a hazugságot?! Hogy működik ez a rendszer?!! Sokszor dühöngenek a felhasználók, sokszor joggal, nem mindig egyértelmű, hogy egy adott bejegyzésnek van-e helye a közösségi oldalon. Elég csak Lázár János bécsi videójának kálváriájára gondolni, amelynek hátterét korábban mi is részletesen taglaltuk. A Facebook rendszerének működése sokak számára homályos, de a dolgozók történetei alapján egyre több minden derül ki a moderátorok háttérmunkájáról, mindennapjairól. A közösségi oldalra feltöltött bődületes mennyiségű tartalmat első körben mesterségesintelligencia-algoritmusok fésülik át, amelyek képesek felismerni, ha egy adott videó vagy poszt erőszakos, véres vagy pornográf jellegű – már ilyenkor sok olyan bejegyzés kihullik, ami nem való a felhasználók szeme elé, ám sok átmegy a rostán, és a felhasználóknak kell jelenteniük, megindokolva, miért találják sértőnek. Az algoritmusok legtöbbet a videókkal és mozgóképekkel szenvednek, sok esetben nem tudják meghatározni, mi történik az adott felvételen. Így fordulhattak elő olyan esetek, hogy több órán át maradtak megtekinthetők öngyilkosságról, gyilkosságokról szóló felvételek az oldalon. A Facebook már a Lázár-videó előtt szólt, mit töröl és mit nem A Lázár-videó esetében nem történt cenzúra, a helyzet viszont egy összetettebb problémára világít rá. A második lépcsőfok az ember: a világ legnagyobb közösségi oldalára feltöltött szemetet irtani az egyik legfontosabb feladat, és moderátorok nézik át mindazokat a borzalmas dolgokat, amik többé nem kerülhetnek mások szeme elé. A gyűlöletbeszéd, a zaklatás és a kamuhírek mellett rengeteg olyan tartalom kerül a Facebookra, ami erőszakot és pornográfiát ábrázol. Forrás: ThinkStock HIRDETÉS Zuckerbergék cégének tavaly 4500 moderátor dolgozott, az álhírekkel való küzdelem jegyében további 3000 emberrel bővítették a csapatot az idén. Ennyi szemre szükség is van, hiszen hetente átlagosan 6,5 millió posztot jelentenek a felhasználók világszerte. Ezek sorsáról pedig 24 óra alatt dönteni kell. MÁR A GYEREKPORNÓ SEM HATJA MEG Legutóbb a közösségi oldal berlini központjában járt Sarah Katz, volt Facebook-moderátor mesélt a BBC-nek arról, hogy milyen mentális terhelés érte egykori munkakörében, amit nyolc hónapig tudott végezni. Feladata a Facebook-felhasználók által jelentett tartalmak elbírálása volt, és főleg azért beszélt nyilvánosan munkájáról, mert szerinte a cég nem tesz eleget azért, hogy megóvja dolgozóit a látott erőszakos tartalmak által okozott pszichológiai terheléstől, miközben alulfizetik a munkakörben dolgozókat. Katz szerint a moderálást külön szakmává kéne tenni, nem átmeneti feladattá, mert a jövőben is kiemelten fontos szerepe lesz ennek a tevékenységnek Zuckerbergék birodalmában. Legfeljebb egy percet tölthettünk azzal, hogy egy posztról eldöntsük, spamnek, vagy eltávolítandó tartalomnak minősül-e. Néha az egész fiókot is töröltetni kellett. Átlagosan napi 8000 posztot vizsgáltunk át a menedzsmenttel, összesen együtt óránként durván ezer darabot. Géppé válsz, aki kattint, dönt és kattint – mesélte a munkáról. „Fel kell készülnöd arra, hogy egy kattintással később bármi szembejöhet, figyelmeztetés nélkül ömlenek rád a dolgok. Én jellemzően gyerekpornót láttam. Például hogy két kisgyerek – egy 12 év körüli kisfiú és egy 8 év körüli kislány – meztelenül simogatják egymást. A kamera mögött vélhetően egy felnőtt állt, aki instrukciókat adott nekik. Nagyon zavaró volt, főleg azért, mert tudtam, hogy valódi.” Forrás: ThinkStock HIRDETÉS Azt is megosztotta, hogy a legzavaróbb tartalom amit látott, egy olyan videó volt, amin egy hat hónapos babát erőszakoltak meg. Elmondása szerint idővel egyre érzéketlenebbé vált, saját fogalmazásában: „nem lesz könnyebb idővel, de valamennyire hozzászoksz, mert muszáj.” A pornón túl sok feltöltött videó és fotó jelenít meg testi erőszakot, főleg lefejezéseket, kivégzéseket, szakadt testrészeket, de a pornóval kapcsolatban szigorúbbak a Facebook szabályai. Katz a látott képek hatására egy visszatérő rémálommal is küzdött, a napi munkát nem tudta éjszaka sem felejteni. Ezt így mesélte el: Azt álmodtam, hogy emberek ugranak le épületekről, a többiek pedig nem segítenek nekik, csak fotózzák és videózzák őket. Mindent vér borít, de az emberek továbbra is csak mobiloznak. Sarah elmondása szerint a cég nem veszi komolyan a munkahelyi mentális segítségnyújtást, bár a Facebook ennek ellenkezőjét állítja. Monika Bickert, a Facebook globális politikáért felelős munkatársának reakciója szerint ez egy kemény munka, ami nem való mindenkinek, de a cég szakembereivel bármikor lehet beszélgetni, a dolgozók kérésükre pedig átkérethetik magukat olyan részlegre, ahol másféle tartalomtípusokat kell kiszűrniük, például gyerekpornó helyett szélsőségesek posztjait. Egyébként a vizuálisan megjelenített erőszaknak is csak töredékével találkozhatnak a moderátorok, mert az algoritmusok azok nagy részét már feltöltéskor kiszűrik – mondta Bricket. Forrás: ThinkStock A moderátorok dolgát nehezíti, hogy egy-egy poszt nagyobb körben is elterjed a hálózaton és alkalmanként visszatér, újra feltöltik, az eredeti forrás felderítése pedig nem egyszerű. Az egykori dolgozó elmesélése szerint ha egy fiók 30 napnál nem régebbi, akkor kamufióknak minősítik és felfüggesztik, de ha már több mint egy hónapja aktív, akkor csak a tartalmat távolítják el, más következménye nem lesz, ez azért aggasztó, mert így továbbra is tevékenykedhetnek pedofilok a közösségi oldalon. HIRDETÉS Hány jelentés kell egy poszthoz? Lázár János bécsi videója kapcsán Berkes Ákos közösségimédia-szakértőt kérdeztük ezzel kapcsolatban, aki elmondta, hogy nem egy meghatározott értékű bejelentés szükséges, inkább egy arányszámról van szó (hogy pontosan mennyi, azt nem tudni). A közösségi oldal szabályzatában is ez olvasható: nem az számít, hányan jelentik a posztot (nincs olyan meghatározott szám, hogy például érje el az ezret, vagy százat). Sokkal inkább valószínűbb, hogy az elérés arányában határozzák meg a szükséges mennyiséget. A moderátorok kiválasztásában az anyanyelvük is szerepet játszik, a legtöbb nyelvre van dedikált specialista, aki kontextusában is képes értelmezni adott nyelvű posztot, akad például magyar nyelvű alkalmazott is a Facebooknál. A munka a hét minden napján zajlik annak érdekében, hogy sikerüljön 24 óra alatt felülvizsgálni egy posztot. Forrás: ThinkStock Tavaly májusban egy olyan moderátor mesélt a Süddeutsche Zeitungnak, aki főleg terrorista tartalmakat vizsgált, három hónapig bírta: Semmi élvezetes nem volt a munkában. Bementél kilencre, benyomtad a gépet, és nézted, hogy vágják le valakinek a fejét. Minden nap, minden percben, ezt láttad. Vágják le a fejeket. A férfi elmondása szerint óránként 15 dollárt (körülbelül 4000 forintot) kapott fizetésként, amit meglehetősen kevésnek talált ennél a munkakörnél. Hozzátette: az alulfizetettség és az őket érő pszichológiai nyomás mellett az is nehezítette a helyzetet, hogy a központokban a különböző nyelvterületek miatt sok migránst alkalmaz a cég, akik jellemzően félnek attól, hogy elveszíthetik munkájukat, ha nem teljesítenek jól. Hozzá kell tenni, a toborzást külsős cégek végzik, akik nem minden esetben vizsgálják meg alaposan a jelentkező alkalmasságát, de az alkalmazottaknak a munka kezdetekor alá kell írniuk egy nyilatkozatot, miszerint tudatában vannak annak, milyen tartalmakat láthatnak – elkerülve a későbbi pereskedést a lelki károk miatt. DE KI MONDJA MEG, MIT? A Facebooknál csak 60 ember dolgozik folyamatosan az irányelveken, amik alapján bírálni tudnak a moderátorok, ők felelnek továbbá a közösségi irányelvekért is. Ezek az iránymutatások rendkívül aprólékosak, annak érdekében, hogy elfogulatlanul lehessen megítélni a tartalmakat. Ha a Facebook egy ország, itt az új alkotmánya Az új közösségi szabályzat pontosan megszabja, hogy a közösségi oldal polgárainak mit szabad és mit nem. HIRDETÉS A közösségi oldal irányelveit idén áprilisban bővítette ki, és tette közzé egy külön felületen mindenki számára, korábban nagy rejtély övezte a dokumentumot, és csak néha szivárogtak ki belőle részletek. Mint Siobhan Cummiskey, a Facebook régiós tartalmi menedzsere a 24.hu-nak elmondta: bár egyszerűen hangzik, meghatározni, mégis milyen elvek mentén lehet posztolni, ez rendkívül bonyolult és összetett feladat, hiszen 2,2 milliárd, különböző kultúrákból származó emberek érdekeit kell képviselni. AZ EMBEREKKEL VAN A BAJ Egy másik berlini moderátor gondolatai szerint a moderátornak egyetlen fegyver van a kezében, a törlés, legfeljebb egy értesítést küldhet a felhasználónak. A probléma magukkal az emberekkel van, és érdekes az a kérdés is, hogy miért érzik szükségét a posztolók, hogy ezeket a dolgokat megosszák a neten. A moderátorok csak gyomlálni tudnak. Azt mondta: „Sokszor kívántam, hogy bárcsak tudnék beszélgetni a bejegyzés mögötti emberrel. De erre nincs idő. Edukálnunk kell a társadalmat, ami kollektív erőfeszítést igényel. A moderátorok is csak akkor tudnak védelmet nyújtani, ha valaki már jelentette a tartalmat. A felelősség súlya pedig nem terhelheti csak a techcégeket, ám ők támogathatják az online közösségek fejlesztését.” Moderátorokra pedig úgy tűnik, hogy mindig szükség lesz, így valószínűleg idővel a Facebooknak is lépnie kell valamit, hogy a dolgozók számára vonzóbb és hosszabb távon elviselhető legyen ez a fontos munkakör. A gépi tanulásos technológiák jelenleg nem eléggé fejlettek ahhoz, hogy a posztok kontextusát értelmezni tudják. Sok területen segítik a technikai eszközök elvégezni a munkánkat. De amikor gyűlöletbeszédet, zaklatást vizsgálunk, kell egy személy, aki értelmezni tudja, mi történik az offline világban, ami online nyilvánul meg. – magyarázta Monika Bickert. (Kiemelt illusztráció: ThinkStock)