fbpx

Social: la vita stressante dei “content moderator”, tra algoritmi e censura

Spesso malpagati, i "moderatori di contenuti" sul web hanno grandi responsabilità ma autonomia molto limitata e la loro salute è a rischio. L'imperativo è rispettare le linee guida, e non sono ammessi errori

Sappiamo che esistono, ma nessuno può comunicare direttamente con loro. Sono oltre 150mila persone in tutto il mondo dotate di un potere di sorveglianza e censura su ciò che viene pubblicato in rete, o di identificare gli avvertimenti dei software di riconoscimento automatico di immagini e video “vietati” dalle policy. Li chiamano “Community Manager”, “Contractors”, “Legal Removals Associate” sono i “sorveglianti del web”, “moderatori di contenuti”, lavoratori per i social.

Anonimi esecutori

Tutti noi siamo soggetti al loro personalizzato e sorvegliatissimo news feed, anche quando non abbiamo fatto nulla di male; sappiamo della loro esistenza ma non possiamo identificarli né tantomeno riuscire a distinguerli dall’algoritmo per cui operano. I moderatori sono persone comuni, uomini e donne di qualsiasi età, spesso alle prime armi, non dispongono di particolari conoscenze in materia legale, a loro viene richiesto di applicare alla lettera quelle che sono le regole richieste dal cliente.

Pulizie online per pochi dollari

Di estrazione sociale bassa, assunti con contratti temporanei e per lo più in outsourcing, i moderatori nel momento dell’assunzione hanno firmato un contratto di non divulgazione. La paga va da uno a tre dollari all’ora per otto, dieci ore al giorno, un salario che non è così buono neppure per gli standard del posto. Il compito dei moderatori è quello di fare pulizia all’interno della piattaforma social (Facebook ma anche YouTube, TikTok), spetta loro decidere, spesso in maniera affrettata, se rimuovere o mantenere online i contenuti segnalati e, non importa che una fotografia di nudo sia un segno di libertà, di provocazione o di felicità. Indipendentemente dalla circostanza in cui si ripropone, il moderatore sa che dovrà comunque rimuoverla.

la dittatura delle linee guida

Poco o nessuno spazio viene lasciato all’interpretazione personale: esistono una serie di linee guida alle quali i moderatori devono attenersi, anche per rispettare gli altissimi ritmi di lavoro richiesti dalla mole di segnalazioni in arrivo dagli utenti del web. In caso di dubbi è sempre possibile consultare un altro documento, ad uso esclusivo interno, o rifarsi alla community. Se commettono errori, se sbagliano a selezionare i contenuti, rischiano di essere licenziati. Spetterà ai supervisor il compito di esprimere, sui content moderator, un giudizio sull’attività di sorveglianza e censura su ciò che viene pubblicato in rete.

Selezione e comprensione

I moderatori di contenuti non sarebbero diventati così numerosi e importanti, infatti, se gli algoritmi non fossero diventati così potenti e pervasivi: sono gli algoritmi che distribuiscono e rendono virale ciò che i moderatori devono revisionare, in una corsa senza fine tra un algoritmo che seleziona i contenuti senza essere in grado di comprenderli e un essere umano che deve avere il tempo di comprenderli prima di poterli selezionare (per rimuovere il contenuto segnalato, o per decidere di mantenerlo online). Il tutto organizzato da ulteriori algoritmi che compongono la coda di revisione e sorvegliano le performance dei singoli moderatori.

L’importanza dei moderatori

La pandemia di Coronavirus ha fornito una dimostrazione decisiva della loro importanza nel contesto dell’informazione online globale. Tra il 16 e il 18 marzo 2020 migliaia di articoli sul Covid19 sono stati rimossi da Facebook senza ragione: l’assenza dei censori del web, costretti a rimanere a casa per ragioni di sicurezza sanitaria legata alla pandemia, ha costretto alcune aziende ad affidarsi, per la pulizia on-line, a strumenti di moderazione automatici, rivelatisi fin da subito inadeguati allo scopo.

I rischi per la salute

Ore e ore seduti a una scrivania spesso avendo a che fare con quanto di peggio l’umanità può condividere in rete. Come si può rimanere e dichiararsi neutrali rispetto a un’immagine di violenza o di abusi sessuali?  E, allo stesso modo, quali sono le conseguenze di questa continua e silente opera di censura, ai danni delle donne, dei bambini, delle vittime di violenza, di chi vorrebbe esprimere liberamente la propria sessualità in contesti repressivi e dominati dal fanatismo religioso? La moderazione online è cruciale e ha costi umani elevatissimi. E non sarebbe nemmeno la prima volta che questa professione, finisce sotto la lente d’ingrandimento per le possibili conseguenze sulla sua salute mentale.

Incubi e attacchi di panico

Si parla di attacchi di panico, incubi e distorsione della realtà, stress post-traumatico, probabilmente in seguito all’osservazione continua durante i turni di lavoro di traumi vissuti da altri. Il tutto per uno stipendio irrisorio (in media 4 dollari l’ora) rispetto alla mole di lavoro e ai rischi per la salute cui incorrono. Un Legal Removals Associate in India guadagna approssimativamente 75 centesimi l’ora, per esaminare 2000 post al giorno. Un lavoro difficile quello dei moderator che può far ammalare. Tutti i moderatori sono costretti a visionari contenuti forti e spesso, se non si ammalano, finiscono per diventare cinici e insensibili.

Ritmi frenetici

Il lavoro attuale di sorveglianza del web impone ai lavoratori incaricati di revisionare migliaia di contenuti in maniera superficiale, analizzando solo pochi “frame” dei video segnalati, in ragione dell’estrema rapidità con cui questi ultimi possono diventare virali.  I moderatori rischiano di subire danni permanenti non solo alla vista, dato il lavoro di attenzione maniacale che impedisce di staccare gli occhi dallo schermo, ma anche sul piano mentale.

Prevenzione o censura?

Tra prevenzione e censura il confine non è mai semplice da tracciare, e non rassicura il fatto che a deciderlo siano quelle stesse persone che per contratto devono limitarsi a obbedire fedelmente alle regole, il che può essere letto sia come l’espressione di una strategia di sopravvivenza, sia espressione implicita di un codice di condotta fortemente ambiguo.

Tiziana Ramaci
Professore Associato di Psicologia del lavoro e delle organizzazioni presso l'Università degli Studi di Enna "Kore". I suoi interessi di ricerca si concentrano prevalentemente sulla Psicologia della salute occupazionale e promozione della sicurezza negli ambienti di lavoro. Lavora costantemente sui temi dell’orientamento professionale e delle carriere internazionali. È membro dell’International Commission on Occupatinal Health - ICOH; Commission Internationale de la Slaute au Travail – CIST;

Dello stesso autore

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Iscriviti alla newsletter

Social

18,249FansMi piace
313FollowerSegui
250FollowerSegui
- Pubblicità -spot_img

Della stessa rubrica