RUSSELLTATE dot COM/Getty Images

Nu poți lăsa totul la îndemâna unui calculator: moderarea de conținut pe Facebook27 min read

De Radu Stochița 22.03.2022

Moderarea de conținut nu este o sarcină simplă, în care treci totul printr-un algoritm și apoi elimini ce nu este corespunzător. Trebuie să ții cont de contextul local, de persoana care a făcut postarea și de regulile statului.

În urmă cu 15 ani, rețelele de social media de-abia vedeau lumina zilei, iar în mare parte erau destinate doar interacțiunilor dintre prieteni. La început, Facebook a fost destinat doar studenților din universitățile americane, iar Twitter era utilizat pentru a trimite SMS-uri prietenilor și grupurilor de prieteni.Twitter launches”, history.com Inițial, moderarea conținutului de pe platforme era într-un stadiu infantil, în care nu era definit precis ce este sau nu permis.Why the history of content moderation matters”, techdirt.com Pe măsură ce platformele de social media continuă să se dezvolte, moderarea conținutului devine mult mai dificilă. Aceste site-uri nu mai sunt de mult comunități online în care se distribuie poze cu nepoții rudelor aflate la muncă în străinătate. Facebook, Twitter, TikTok sunt câmpuri de lupte politice, principalele căi de distribuire a știrilor, ba chiar și spații de muncă. 

Cu cât platformele generează mai mult conținut, cu atât politicienii, cercetătorii și societatea civilă atrag atenția asupra nevoii moderării conținutului, dar și a riscurilor asociate cu această activitate. Cei 17 ani de existență a Facebook arată că nu există o soluție miraculoasă care să rezolve toate problemele cu moderarea conținutului. De exemplu, soluția tehnocentrică, de-a filtra totul prin ochii unui algoritm, s-a dovedit a fi ineficientă, mai ales în perioada pandemică, când postări academice care chestionau eficiența măsurilor de limitare a răspândirii virusuluiHow Covid-19 lockdowns weakened Facebook’s content moderation algorithms”, qz.com erau cenzurate.

https://mindcraftstories.ro/images/2022/03/Mindcraftstories_Facebook-Moderare-Retele-sociale-AI_NurPhoto-via-Getty-Images.jpg

NurPhoto/via Getty Images

Evoluția politicilor de moderare

În ultimii ani, politicile de moderare a conținutului puse în practică de platformele de social media au atras atenția presei, dar și a politicienilor. Mai ales că și politicienii le-au căzut victime. În aprilie 2021, Donald Trump era suspendat de Facebook pentru doi ani,„Trump suspended from Facebook for two years”, npr.org și de Twitter, pe o perioadă nelimitată.

În 2018, sute de pagini politice au fost scoase de pe Facebook,Facebook increasingly suppresses political movements it deems dangerous”, wsj.com acțiune care a atras asupra companiei acuzații dure din partea autorităților britanice de cenzurare a libertății de exprimare. Activiști din cadrul mișcării Black Lives Matter și-au exprimat public dezamăgirea„Facebook doesn’t care: Activists say accounts removed despite Zuckerberg’s free speech stance”, nbcnews.com față de modul în care platforma își reglementează conținutul. 

Platformele cu care aproape toată lumea interacționează în viața de zi cu zi, fie că este vorba de Facebook, TikTok, Twitter, Instagram sau YouTube, au politici diferite de moderare a conținutului care există în spațiul digital, politici care s-au multiplicat în timp. La începuturile Facebook, când compania avea un număr redus de utilizatori, exclusiv din mediul universitar american, nu existau reguli clare față de ce își are locul pe platformă și ce. După 2010,„The Evolution of Content Moderation Rules Throughout The Years”, medium.com platformele de social media au început să introducă reguli standardizate ale comunității. Dacă utilizatorii nu le respectau, aveau de suferit. 

Totuși, standardizarea bunelor practici nu a funcționat chiar așa cum și-ar fi imaginat giganții din domeniul social media, mai ales din cauza algoritmilor folosiți de respectivele platforme pentru a prioritiza conținutul considerat popular. YouTube a fost acuzat„How YouTube helps flat-earthers organize”, theverge.com că promovează puternic conținut extremist, de genul celui care afirmă că pământul este plat, în timp ce lui Jack Dorsey, fondatorul Twitter, i s-a reproșat„How misinformation spreads on Twitter”, brookings.edu că știrile false ajung mai repede la oameni decât cele adevărate. Facebook, un promotor al libertății de exprimare, a spus în nenumărate rânduri că dorește să aducă lumea împreună, doar că în același timp a reușit să contribuie la mobilizarea populației majoritare pentru comiterea genocidului Rohingya din Myanmar.„Rohingya sue Facebook for $150bn over Myanmar genocide”, theguardian.com

CITEȘTE ȘI: Consultant ONU: Refugiații au nevoie de bani și internet, nu de corturi

Referitor la masacrul populației Rohingya, Facebook a recunoscut ulterior„Facebook says it did not do enough to halt the spread of hate speech and violence in Myanmar”, businessinsider.com că nu a făcut îndeajuns pentru a limita diseminarea informațiilor și postărilor care incitau la ură. Chiar dacă platformele își recunosc ulterior greșelile, nu înseamnă că problemele moderării de conținut nu au afectat viețile oamenilor, nu i-au împins pe unii dintre aceștia într-o zonă extremistă sau conspiraționistă sau nu i-au îndemnat la ură rasială. 

Cum funcționează moderarea pe Facebook?

Când te gândești la problemele pe care platformele le întâmpină în moderarea conținutului, nu trebuie să uiți de mărimea acestora și de nivelul de date care este procesat doar în timp ce citești acest articol. Facebook găzduiește aproximativ trei miliarde de utilizatori care sunt activi lunar, iar o persoană care frecventează zilnic platforma postează, în medie, cel puțin o dată pe zi.„47 Facebook Stats That Matter to Marketers in 2021”, blog.hootsuite.com 

Pe YouTube,YouTube: hours of video uploaded every minute as of February 2020”, statista.com în 2020, erau încărcate în fiecare minut cel puțin 500 de ore de conținut video, iar pe Twitter„The number of tweets per day in 2020”, dsayce.com sunt postate peste 500 de milioane de mesaje în fiecare zi.

Dacă te raportezi la volumul masiv de informații, te-ai putea gândi că platformele de social media au niște algoritmi performanți, care gestionează toate operațiunile. Parțial este adevărat, există algoritmi puși la punct care detectează anumite cuvinte, structuri, elemente în imagini și le sancționează corespunzător. Algoritmii nu sunt perfecți, ci din contră, pot fi alimentați de prejudecăți care duc la interzicerea conținutului legitim, care nu este analizat în funcție de contextul în care este publicat.„Beyond a technical bug: Biased algorithms and moderation are censoring activists on social media”, theconversation.com De exemplu, Facebook a fost acuzată de angajații companiei„Facebook’s race-blind practices around hate speech came at the expense of Black users, new documents show”, washingtonpost.com că algoritmul de moderare, cât și practicile moderatorilor umani, ar fi defavorizat activiștii de culoare de pe platformă.

Companiile de social media nu se bazează doar pe algoritmi pentru moderarea conținutului, ci angajează mii de persoane care se ocupă exclusiv cu vizionarea și gestionarea postărilor, fotografiilor și videoclipurilor existente pe platforme. În 2021, Facebook lucra cu aproximativ 15.000 de moderatori de conținut.„Facebook content moderator who quit reportedly wrote a blistering letter citing ‘stress induced insomnia’ among other ‘trauma’”, businessinsider.com Unii munceau direct în cadrul companiei, în timp ce alții erau contratacți prin firme terțe. 

Însă nu toți moderatorii de conținut proveneau sau locuiau în țara al cărei conținut trebuia monitorizat. Moderatorii de conținut pentru Statele Unite pot fi contractați și din India, iar Facebook implementează o ierarhie a țărilor, de care se ține cont când vine vorba de nivelul de moderare și moderatorii responsabili.„Facebook’s tier system decides which countries it prioritizes for content moderation”, nypost.com În țări precum Brazilia, India și SUA, care sunt plasate pe locul principal al ierarhiei, Facebook a creat „camere de război”, în care există consultări și dialoguri permanente legate de postările existente de pe platformă.„The tier list: How Facebook decides which countries need protection”, platformer.news 

Cu cât nivelul țării în ierarhia Facebook scade, cu atât și nivelul de resurse oferite moderării conținutului este micșorat, iar resursele sunt mult limitate. Dacă în țări precum Italia, Israel, Brazilia și Statele Unite, Facebook a organizat comitete care se ocupă cu informarea aleșilor locali în legătură cu posibile dezinformări, în țări precum Etiopia sau România, aceste lucruri încă nu există.

Ierarhia moderării conținutului prezintă importanța pe care Facebook o acordă contextelor politice din anumite state, în timp ce le ignoră complet pe restul. Și, chiar dacă Statele Unite au prioritate în ierarhia moderării, Facebook nu a reușit să prevină insurecția Capitolului din 6 ianuarie 2021.„Inside Facebook, Jan. 6 violence fueled anger, regret over missed warning signs”, washingtonpost.com Eșecul moderării Facebook a fost văzut și în 2021, în timpul loviturii de stat din Myanmar – țară unde compania de social media a avut probleme anterior –, când Facebook a reușit să mențină conținut pe platformă care a dus la legitimarea insurgenței militare.„A year ago, Facebook contributed to a military coup in Myanmar. Its response has been an appalling failure”, mediamatters.org

Viața moderatorilor este în joc. Există alternative?

Dacă în situația actuală Facebook și alte platforme nu reușesc să facă față moderării conținutului, în condițiile în care se folosesc atât de algoritimi, cât și de oameni, atunci care ar fi soluția? Ai putea argumenta că este nevoie de mai mulți oameni care să vizioneze conținutul, să se asigure că ceea ce ajunge pe rețelele de socializare nu încalcă regulile comunității și că nu pune viața nimănui în pericol. 

Însă viața moderatorilor de conținut nu este deloc ușoară, deoarece, dacă un algoritm este impersonal atunci când elimină de pe platforme un videoclip în care o persoană este decapitată, o persoana umană se confruntă cu sentimente puternice atunci când vede acel videoclip.„The secret lives of Facebook moderators in America”, theverge.com De asemenea, moderatorii de conținut nu văd doar un singur videoclip care violează termenii comunității, ci trec printr-o mulțime. Un moderator are la dispoziție aproximativ două minute și treizeci de secunde pentru a lua decizia dacă postarea a încălcat una dintre regulile comunității, în timp ce de-abia procesează gravitatea a ceea ce a văzut pe ecran.„Report: Facebook Makes 300,000 Content Moderation Mistakes Every Day”, forbes.com Din cauza stresului și conținutului grafic, moderatorii de conținut dezvoltă diverse afecțiuni psihice, iar unii ajung să sufere de sindrom post-traumatic (PTSD).„Facebook to pay $52m to content moderators over PTSD”, bbc.com

Condițiile de muncă pentru moderatori nu reflectă deloc imaginea pe care Facebook dorește să o portretizeze în videoclipurile care arată cultura companiei, unde angajații se bucură de salarii atrăgătoare, de mese gratuite, de săli de fitness și de programe de relaxare. Dacă sunt norocoși să se afle în SUA, moderatorii de conținut câștigă în medie 28.800 de dolari pe an, în timp ce un lucrător la Facebook câștigă în medie 240.000 pe an. În India, situația este și mai dificilă. Aici, moderatorii au fost forțați să se întoarcă la lucru în persoană în perioada pandemică, când cazurile se multiplicau agresiv.„Disturbing visuals, workplace abuse and stress: A day in the life of a Facebook content moderator in India”, moneycontrol.com 

Situația de la locul de muncă este doar una dintre părțile problemei. Cert este că angajarea exclusivă a moderatorilor de conținut, fără un algoritm care să ajute, nu este o soluție viabilă. Platformele generează mult prea mult conținut, iar fără existența unui algoritm, imaginează-ți câte decapitări, mutilări, abuzuri sexuale va trebui un moderator să vadă; imagini care pot fi detectate și scoase de către algoritmi. Un raport MIT Technology Review recomandă companiei Facebook următoarele practici pentru o mai bună moderare a platformei:„Facebook needs 30,000 of its own content moderators, says a new report”, technologyreview.com

  1. Oprirea externalizării moderării conținutului și creșterea nivelului de pregătire a moderatorilor la locul de muncă;
  2. Dublarea numărul de moderatori pentru a îmbunătăți calitatea revizuirii conținutului;
  3. Angajarea unei persoane care să supravegheze conținutul și să verifice faptele, care raportează direct CEO-ului sau COO-ului;
  4. Extinderea în continuare a moderării în țările expuse riscului din Asia, Africa și alte zone geografice;
  5. Oferirea de asistență medicală înalt calitativă tuturor moderatorilor, inclusiv acces la psihiatri;
  6. Sponsorizarea cercetărilor privind riscurile pentru sănătate ale moderării conținutului, în special riscul de PTSD;
  7. Explorarea reglementărilor guvernamentale adaptate strict pentru conținutul dăunător;
  8. Extinderea în mod semnificativ a verificării faptelor pentru a demonta informațiile false.

Nimeni nu deține cheia succesului când vine vorba de moderarea platformelor, dar momentan este cert că, indiferent de formula aleasă pentru moderarea conținutului, întotdeauna va exista loc de mai bine. Reddit folosește o metodă alternativă, care poate fi numită „moderare de jos în sus”: fiecare comunitate (subreddit) de pe rețeaua de socializare este responsabilă de utilizatorii săi.„Four approaches to content moderation and their risks and benefits”, medium.com Fiecare comunitate își poate impune propriile reguli în funcție de interesele specifice ale grupului, dar în final trebuie să respecte regulile generale ale rețelei de socializare. În fiecare grup, există moderatori, atât umani cât și virtuali (boți creați de propriile comunități) care se ocupă de gestionarea conținutului, care pot sancționa utilizatorii atunci când nu respectă regulile. Evan Hamilton, director of Community & Customer Experience Reddit spunea:„How a screenshot started a fight that took over Reddit”, protocol.com

„Există reguli pe care toată lumea trebuie să le respecte pentru a asigura siguranța și consecvența… [modul în care este gestionat conținutul] permite oamenilor să construiască și să organizeze cu adevărat experiența pe care doresc să o aibă pe platformă și să aibă o anumită proprietate, nu?”

Avantajele gestionării de conținut „de jos în sus” permit o contextualizare a postărilor care urmează să fie sau nu sancționate de pe platforme. Postările nu mai sunt scoase din contextul local ca mai apoi să fie analizate de un bot care poate nici nu înțelege bine limba locului, și nici contextul politic în care a fost postată acea fotografie.„Everything in moderation: Case Study: Reddit”, newamerica.org De asemenea, utilizatorii platformei sunt mai precauți când vine vorba de postările pe care le fac, deoarece trebuie să accepte și să înțeleagă bine regulile comunității la care se alătură.„How Reddit’s Dublin office plans to tackle evil on the front page of the internet”, siliconrepublic.com

Chair dacă abordarea Reddit oferă mai multă putere în mâinile moderatorilor comunităților, soluția este destul de greu de utilizat pe Facebook sau Twitter. Ambele rețele de socializare oferă grupuri, ceea ce ar fi echivalentul comunităților Reddit, unde moderatorii au dreptul să impună noi reguli și ei se ocupă de gestionarea conținutului. Totuși, aceste două platforme au un newsfeed general, unde fiecare utilizator poate interacționa cu oricare altul, indiferent de grupul din care fac parte. Regulile newsfeed-ului sunt regulile generale ale platformei, iar pentru o mai bună contextualizare, ar trebui să luăm în considerare cazul individual al fiecărui utilizator și al bulei acestuia. Până atunci, Facebook continuă să rămână sub lupa autorităților, iar scandalul legat de moderarea conținutului nu pare să se termine prea curând.



Text de:

Radu Stochița

Radu Stochița este jurnalist freelancer și a scris despre tech, economie și lumea muncii pentru Hotnews, Libertatea, Jacobin, Nation, Al Jazeera. În paralel, face cercetare economică pentru Cartel ALFA. Radu a absolvit Bowdoin College, din SUA, și este Watson Fellow.

TEHNOLOGIE|MS TALKS

O platformă de accesorii tech pentru mobile? E unul din pariurile HMD, pe lângă Barbie Phone

De
Rebranduit de curând ca Human Mobile Devices, HMD se concentrează pe parteneriate și pe o platformă mobilă deschisă, dar nu renunță la Nokia.
SPAȚIU|OVERVIEW

Cometele, vizitatori de departe. Anul acesta, ai putea vedea două

De
Ai văzut vreodată o cometă cu ochiul liber? Nu? Ei bine, anul ăsta ai putea avea două astfel de ocazii. Dintre acestea două, una ar putea fi mai interesantă. Spre sfârșitul anului, o cometă care vine de la marginea Sistemului Solar ar putea fi o priveliște foarte frumoasă. 
TEHNOLOGIE|SOLUȚII

Platformele online care nu îți fură datele personale

De
Dintr-o preocupare pentru securitatea cibernetică, unii utilizatori preferă să migreze către platforme online mai sigure. Există astfel de alternative pentru Facebook, Twitter, Gmail și chiar Youtube. 
TEHNOLOGIE|FYI

Slow Forward: Mai multă putere procesare pentru roboți umanoizi cu AI?

De
Plus: Nvidia promite mai multă putere de procesare, Apple se ceartă cu UE și se împrietenește cu Google, TikTok e aproape de a fi interzis în SUA.