Facebook va angaja încă 3.000 de persoane pentru a verifica conținutul neadecvat pe rețeaua socială. Cu toate acestea, el refuză să vorbească despre modul în care evaluează postările necorespunzătoare.
Ce se întâmplă atunci când raportați la Facebook că o postare pe care o considerați nepotrivită și ar trebui ștearsă? Va evalua doar raportul dvs. algoritmul computerului? Nu.
Sunt astfel de rapoarte luate în considerare doar de unii administratori undeva în India? Nu.
Vă va ajuta dacă convingeți mai mulți oameni să raporteze și postarea? Nu.
A schimbat Facebook ceva ce Kotlebovci a pierdut în aprilie pentru o mare parte din paginile lor de Facebook? Nu.
Putem fi absolut siguri de răspunsurile de mai sus? Nu.
Angajații Facebook au refuzat de mult să dezvăluie modul în care rețeaua lor socială evaluează conținutul problematic de pe site-urile lor. Răspunsurile lor sunt vagi și evazive. Cu toate acestea, din diferite indicii și indicii care au ajuns la public în ultimele luni, am încercat să descriem modul în care Facebook decide, cum să facă față postărilor de ură și de ce copiază greșelile.
Numărul de rapoarte nu contează
Când Denník N a cartografiat 140 de pagini de Facebook controlate de familia Kotleb în februarie, nimeni nu știa că în câteva săptămâni o mare parte din arsenalul lor media se va destrăma - pe 4 aprilie, Facebook a blocat temporar site-ul recesionist Zomri, care ridiculiza adesea fasciștii slovaci, iar fanii săi au început represalii. Site-ul web NSSNS a scăzut treptat și astăzi nu mai este disponibil.
Dacă adăugăm numărul de fani pe care Kotlebovci le-a avut pe site-urile blocate, ajungem la un număr total de peste 313.000. Nu este numărul de persoane unice, ci doar numărul total de fani, suprapunerea dintre aceste pagini poate fi destul de mare. Cu toate acestea, este un număr imens și o lovitură mare pentru marketingul partidului parlamentar. A pierdut mai mult de jumătate din fani într-o lună.
Facebook a blocat pagina recesionistă a lui Zomri, iar fanii au lansat o represiune împotriva cazanelor
A ajutat faptul că foarte mulți oameni au raportat contribuțiile lui Kotlebovci la un moment dat, așa că erau mai mult în ochii administratorilor? Reprezentanții Facebook nu au răspuns direct. Cu toate acestea, în februarie au susținut în continuare ONG-urilor europene că numărul de rapoarte ale unui profil, pagină sau postare nu a avut niciun impact real.
"Fiecare raport trece printr-o evaluare și nu contează dacă cinci persoane sau o persoană raportează același lucru, decizia nu se schimbă", a spus Mirka Grófová de la Fundația pentru o Societate Deschisă, care a fost la o întâlnire a ONG-urilor cu Facebook. El adaugă că dacă același conținut este raportat de mai multe ori și administratorii decid în mod repetat că este OK, atunci raportarea ulterioară a postării nu va ajunge la angajații Facebook. „El primește automat un răspuns negativ”.
Grófová, în numele Fundației pentru o Societate Deschisă, a participat la instruire împreună cu alte cincizeci de persoane din organizații non-profit din toată Europa. Instruirea s-a concentrat în principal pe subiectul campaniilor eficiente și al comunicării eficiente pe Facebook, dar participanții au aflat și ceva despre modul în care are loc procesul de evaluare a contribuțiilor raportate.
Bloggerul Ján Benčík primește o serie de amenințări și mesaje agresive. Facebook nu vede o problemă în ele.
Raportarea paginilor și profilurilor este ineficientă
Informațiile publicate de Facebook până acum arată că este mult mai eficient să raportezi postări problematice (stări, imagini, videoclipuri, linkuri) decât întregul profil de utilizator sau pagina de Facebook. „Oamenii care evaluează rapoartele au timp într-un raport doar în unități de secunde. Deci nu au timp să se ocupe de un context mai profund ", spune Grófová. „Dacă este raportat un site sau un profil, în principiu, acestea evaluează doar dacă titlul, fotografia de profil, descrierea profilului și fotografia de copertă conțin ceva care le încalcă standardele. Dar nu mai au acces la conținutul în sine, nu au capacitatea de a face acest lucru. "
Administratorii pot revizui anumite postări mai repede și, dacă mai multe profiluri sunt copiate sub un profil, administratorii îl pot anula în totalitate.
Acest lucru i s-a întâmplat probabil lui Kotlebovec în aprilie. Când mulți oameni au început să-și raporteze postările, au alertat administratorii și despre conținut cu adevărat problematic, care a fost aparent trecut cu vederea mult timp. Când Facebook a șters o pagină pentru o încălcare într-un timp scurt, a blocat întreaga pagină imediat.
Este doar o ipoteză și nu știm sigur dacă este cu adevărat corectă. Facebook este absolut netransparent cu privire la aceste probleme. În iunie anul trecut, de exemplu, a blocat zilnic mai multe pagini ale IMM-urilor. Deși toate au fost restaurate, editorii încă nu știu motivul blocadei. „Facebook nu ne-a dat niciodată vreo părere și habar nu avem ce ar fi putut fi în spatele blocului”, spune Tomáš Czwitkovics, redactor șef al site-ului sme.sk.
„Am reușit să rezolvăm întreaga situație doar pentru că am fost ajutați de o agenție de publicitate care are un contact de afaceri pe Facebook”, explică Czwitkovics. „Considerăm procedura Facebook cu atât mai incorectă, deoarece am comunicat direct cu reprezentanții Facebook și cu reprezentantul PR, care ne-au promis că vor rezolva problema”.
Facebook a blocat contul activistului Juraj Smatan timp de trei zile pentru comentarii critice despre Kotlebovci.
Slovacii sunt, de asemenea, printre administratori, dar nu judecă tot conținutul slovac
Deciziile Facebook dau adesea impresia că compania nu are nici măcar administratori care vorbesc slovacă și înțeleg contextul local. Cu toate acestea, Facebook susține că angajează și oameni care pot evalua postările scrise în limba slovacă. „Lucrăm din greu pentru a ne asigura că contextul întregului conținut raportat este atent luat în considerare, motiv pentru care avem mii de oameni care lucrează în întreaga lume 24 de ore pe zi, șapte zile pe săptămână. Sunt gata să ajute oamenii care au nevoie de ajutorul nostru în peste 30 de limbi, inclusiv persoanele care vorbesc slovacă ", a declarat un purtător de cuvânt al Facebook pentru Europa Centrală și de Est.
Câți oameni din Slovacia evaluează conținutul raportat? Unde sunt situate? Evaluează toate postările în slovacă? Este posibil să îi cunoști personal? Acestea sunt întrebări la care compania nu a mai răspuns și a trimis doar răspunsuri evazive sau fraze vagi când li s-a reamintit.
La întâlnirile cu organizații non-profit, reprezentanții Facebook au spus că administratorii slovaci ar trebui să aibă sediul la Dublin. „Lucrările slovace sunt judecate de moderatorii slovaci. Potrivit acestora, ei au algoritmi care sortează toate postările și determină cine va fi atribuit. Ei decid pe baza mai multor factori, cum ar fi țara pe care o aveți în profilul dvs., limba pe care ați enumerat-o, limba profilului raportat ... Acest lucru va fi evaluat și apoi postul va fi atribuit persoanei care ar trebui înțelegeți limba ", a spus Grófová.
Administratorii slovaci nu evaluează întregul conținut în limba slovacă, ci doar postările pentru care limba lucrării este esențială. Violența reprezentată grafic sau imaginile cu conținut sexual nu sunt sortate după limbă. După toate probabilitățile, administratorii slovaci nici măcar nu evaluează realitatea unor conturi.
În timp ce în Franța, de exemplu, Facebook a anulat recent 30.000 de conturi false care răspândesc mesaje false, dezinformare și spam, în țara noastră trece cu vederea și conturile în mod evident false, care apar sub nume precum Ficovolič Prašivý sau Soudružka Hodvábna. Când raportează astfel de conturi, Facebook va scrie doar că profilurile nu încalcă standardele comunitare.
Dar, în același timp, Facebook cauzează probleme persoanelor care apar sub numele lor reale. „Într-o zi, Facebook a decis să lupte pentru ca oamenii să aibă propriile lor nume. Unul dintre criteriile conform cărora aparatul va judeca că este un nume fictiv a fost să verifice caracterele folosite în nume. Evident, au stabilit o regulă simplă conform căreia, dacă utilizatorul este dintr-un stat, atunci numele său trebuie să conțină numai caractere din alfabetul limbii oficiale în acel stat ", explică Rado Ondřejíček, autorul Monstrului cinic. „Așadar, când au găsit„ ř ”în numele meu și au aflat că nu era„ ř ”în slovacă, l-au evaluat ca fiind un profil fals.”
Ondřejíček a trebuit să-și schimbe numele și să respecte regula conform căreia personajele străine nu sunt permise. Așa că astăzi apare pe Facebook sub cuvinte care nu au nicio legătură cu numele său. „Dar, deoarece nu conțin caractere„ străine ”sau caractere străine, Facebook a acceptat-o cu bucurie”.
Bloggerul Samo Marec are o experiență similară. „Într-o zi mi-a trecut prin minte că am fost raportat că numele meu nu era real și că trebuia să-l editez plus să furnizez dovada identității.” Prin urmare, Samo a trebuit să-și schimbe numele în Samuel pe Facebook și a trebuit să trimită un carte de identitate scanată pe Facebook.
Facebook ne-a scris săptămâna trecută că contul numit Macko Uško nu a încălcat regulile.
Evident, conturi false. Administratorii Facebook nu au găsit nicio încălcare.
Administratorii din Berlin au vorbit
Facebook ar fi angajat 4.500 de persoane care urmăresc conținutul și îl elimină atunci când politica este încălcată. În această săptămână, compania a anunțat că va angaja încă 3.000 de oameni la nivel mondial.
Compania este sub presiune din ce în ce mai mare. De exemplu, Ministerul Justiției din Germania propune o lege care ar putea impune o amendă de până la 50 de milioane de euro companiilor online dacă acestea nu combat suficient discursul de ură. Cu toate acestea, Facebook nu oferă publicului și jurnaliștilor germani mai multe informații despre cum să ia decizii atunci când se ia în considerare conținutul problematic. De asemenea, el nu comentează modul în care administratorii sunt calificați pentru munca lor.
În decembrie 2016, Süddeutsche Zeitung a primit informații despre modul în care funcționează administratorii Facebook din Berlin. Cotidianul german respectat a scris că acolo lucrează aproximativ 600 de persoane. Nu lucrează direct pentru Facebook, sunt angajați de Arvato. Salariul lor ar trebui să fie ușor peste minimul legal. Majoritatea angajaților nu vorbesc limba germană, iar administratorii din Berlin evaluează contribuțiile în arabă, turcă, italiană și franceză, printre altele. Oamenii care au fugit înainte de războiul din Siria trebuie să lucreze și ei în echipă.
Administratorii care sunt cei mai mici din ierarhie trebuie să evalueze aproximativ 2.000 de postări pe zi. Alții care examinează conținutul videoclipurilor au la dispoziție aproximativ opt secunde pentru a decide dacă păstrează sau șterge postarea.
Jurnaliștii germani au raportat, de asemenea, că administratorii din Berlin s-au plâns de suprasolicitare, stres și vorbesc despre problemele mentale care îi fac să fie expuși zilnic la conținut extrem și șocant pe internet, inclusiv tortură, crimă și abuz asupra copiilor. Compania nu le oferă niciun ajutor profesional și lasă la latitudinea lor să se ocupe de consecințele psihologice ale muncii lor.
Rezervări similare nu sunt noi. În 2014, revista Wired a publicat un raport despre cum arată munca moderatorilor de rețele sociale din Filipine. „Toată lumea este complet epuizată în trei până la cinci luni”, a spus fostul moderator YouTube. Un psiholog care a oferit sfaturi companiilor filipineze a spus că experiența administratorilor este similară cu tulburarea de stres post-traumatic pe care o experimentează soldații după întoarcerea din război.
Wired a descris că în Filipine multe companii au găsit forță de muncă ieftină pentru a face față conținutului problematic. Țara a fost odată o colonie americană, apropiată cultural de americani, astfel încât personalul local să poată estima ceea ce americanii consideră ofensator.
Facebook susține că nu tolerează atacurile asupra anumitor persoane. Cu toate acestea, administratorii au decis să nu încalce astfel de reguli.
Categorii protejate
Facebook are propria definiție a libertății de exprimare, regulile sale interne spun exact ce poate fi șters și ce poate rămâne online. „Facebook refuză categoric să comenteze cum au apărut aceste reguli”, a scris Süddeutsche Zeitung.
Cotidianul german a primit părți din documente interne pe baza cărora administratorii Facebook trebuie să ia decizii. Compania a definit așa-numitul categorie protejată. Dacă postarea conține o categorie protejată și un atac, este un discurs de ură care trebuie eliminat.
Facebook definește categorii protejate în funcție de sex, religie, naționalitate, identitate de gen, rasă, etnie sau orientare sexuală. Prin urmare, documentele afirmă că grupurile religioase ar trebui protejate, dar nu și religiile în sine. Același lucru este valabil și pentru naționalități. "Vorbirea sinceră despre Franța sau Germania este permisă în general, nu este permisă condamnarea oamenilor pe baza naționalității lor."
Regulile prevăd, de asemenea, că, dacă combinați o categorie protejată cu o altă categorie protejată, categoria protejată (de exemplu, femeile irlandeze) va fi recreată și atacurile asupra acesteia ar trebui eliminate. Cu toate acestea, dacă combinați o categorie protejată cu o categorie neprotejată, va fi creată o categorie neprotejată. De exemplu, „adolescenții” sunt o categorie neprotejată; prin urmare, dacă cineva scrie că adolescenții irlandezi sunt proști, postul nu trebuie șters.
Documentul intern mai precizează că nu este permis să scrie „nenorocite de musulmani” pentru că este un atac asupra unui grup religios, dar Facebook nu mai vede problema cu expresia „dracului de migranți”, deoarece migranții sunt doar un „cvasiprotejat” categorie".
Toți administratorii intervievați de reporterii Süddeutsche Zeitung au confirmat că regulile pe care și-au luat deciziile erau stricte, neclare și adesea modificate. „Este practic imposibil să înțelegem regulile. I-am spus șefului meu: „Este o nebunie! Imaginea este plină de sânge și brutalitate, nimeni nu ar trebui să o vadă. ”Dar el a spus:„ Este doar părerea ta. Trebuie să încercați să vă gândiți la ceea ce dorește Facebook. Se așteaptă să gândim ca mașini.
Administratorii Facebook au scris înapoi săptămâna trecută că o imagine care a trimis o doză de mitralieră către romi nu a încălcat regulile.
Inteligența artificială mă poate ajuta
În martie, BBC-ul britanic a dezvăluit că și Facebook are o problemă la eliminarea imaginilor sexuale ale copiilor. Din cele 100 de postări raportate, Facebook a eliminat doar 18. În același timp, au fost raportate cinci conturi pedofile, dintre care niciunul nu a fost anulat.
A venit un moment bizar când Facebook a raportat ulterior poliției jurnaliștilor BBC, deoarece i-au trimis direct exemple de imagini care nu au fost șterse. Vizualizarea și partajarea imaginilor pedofile este ilegală în Marea Britanie, iar Facebook a urmat liniile directoare ale Agenției Naționale Criminale Britanice (NCA). Reporterii ar fi trebuit să trimită companiilor linkuri către conținut ilegal pe care Facebook nu le-a eliminat, nu conținutul în sine.
Facebook spune din ce în ce mai mult că dezvoltă și îmbunătățește inteligența artificială, ceea ce ar trebui să-l ajute să elimine conținutul problematic. Mark Zuckerberg a identificat, de asemenea, aceasta drept una dintre principalele sale priorități într-o scrisoare deschisă. Oamenii nu pot controla totul. Facebook are 1,94 miliarde de utilizatori activi lunar, în Slovacia numărul acestora fiind estimat la peste 2,3 milioane. În fiecare minut, 400.000 de postări noi și 180 de milioane de comentarii sunt postate în rețea sub postări publice de la celebrități și mărci.
Joaquin Candela, șeful învățării automate aplicate la Facebook în mai 2016, a declarat pentru TechCrunch că Facebook avea deja mai multe imagini nepotrivite descoperite de software decât oamenii de atunci.
Candela i-a explicat lui Mashable că încearcă să dezvolte un algoritm care să poată detecta și descărca postări nepotrivite chiar înainte ca cineva să le vadă. „Avem o mulțime de imagini jignitoare sau dezgustătoare. În ultimii ani, am lucrat din greu pentru a ieși dintr-un mod în care ne bazăm pe oameni pentru a ne raporta imaginile de atac și apoi pentru a le evalua pe rând, într-un mod în care avem un sistem computerizat care elimină astfel de imagini înainte ca cineva să le vadă. "
El vede o problemă în sistemul original, deoarece până când imaginea problematică este descărcată de moderatori, daunele sunt deja cauzate, deoarece mii de oameni au putut să o vadă între timp.
În ultimele luni, se vor concentra și asupra dezvoltării inteligenței artificiale, care va putea căuta videoclipuri live neadecvate. Facebook începe, de asemenea, să aibă probleme cu ei, deoarece difuzările în direct de la auto-vătămare, viol sau chiar sinucidere se răspândesc. Cu toate acestea, Candela a declarat în decembrie 2016 că această inteligență artificială este încă în faza de cercetare.
Adăugat 22.5.2017: Ziarul Guardian a obținut zeci de documente pe care Facebook le urmărește atunci când șterge conținut. Regulile vorbesc despre violență, ură, pornografie, rasism și auto-vătămare.
- 11 sfaturi despre cum să nu înnebunești dacă copiii au o cameră împreună Mama Articole MAMA și Eu
- Cum să pilotezi o dronă în scopuri private - reguli în Slovacia
- 20 de întrebări la care umaniștii au o mare problemă de răspuns - Marcel Burkert ()
- Știri - Anunț de publicare a cererii de cerere pentru o contribuție financiară nerambursabilă la
- 30 de secunde care au suflat Germania