L’hub di moderazione dei contenuti dell’Africa orientale di Meta sta chiudendo mentre l’appaltatore di terze parti del gigante dei social media si allontana dalla polizia sui contenuti dannosi, tagliando circa 200 dipendenti e lasciando diversi dipendenti senza permessi di lavoro.

Il proprietario di Facebook, WhatsApp e Instagram ha assunto per la prima volta Sama nel 2017 per assistere con l’etichettatura dei dati e addestrare la sua intelligenza artificiale, assumendo circa 1.500 dipendenti.

Ma nel giro di due anni, l’ufficio di Nairobi stava moderando alcuni dei materiali più espliciti e dannosi sulle piattaforme di Meta, tra cui decapitazioni e abusi sui minori.

Martedì mattina allo staff di Sama è stato detto che la società si sarebbe concentrata esclusivamente sul lavoro di etichettatura, noto anche come “annotazione dei dati di visione artificiale”, che include il posizionamento delle animazioni nei filtri di realtà aumentata, come le orecchie da coniglio.

“L’attuale clima economico richiede operazioni commerciali più efficienti e snelle”, ha affermato Sama in una dichiarazione che incoraggia i dipendenti a candidarsi per posti vacanti presso i suoi uffici in Kenya o Uganda. Alcuni membri del personale Sama fanno affidamento sui permessi di lavoro per rimanere nella regione.

I servizi di moderazione dei contenuti di Sama termineranno a marzo, consentendo un periodo di transizione per il nuovo appaltatore di terze parti di Meta. Meta continuerà ad impiegare 1.500 dipendenti Sama per l’etichettatura dei dati.

La notizia arriva due mesi dopo che Meta ha annunciato che avrebbe ridotto il suo organico globale del 13%, ovvero circa 11.000 dipendenti, poiché la società di social media soffre di un calo delle entrate, un crollo della pubblicità digitale e una forte concorrenza da parte di rivali tra cui TikTok.

Una persona che ha familiarità con le operazioni ha affermato che Meta non voleva una lacuna nei servizi e ha utilizzato la sua posizione per spingere Sama a offrire servizi di moderazione più a lungo di quanto desiderasse l’appaltatore.

L’ufficio di Nairobi si è concentrato sui contenuti generati nella regione, incluso il conflitto civile in Etiopia, per il quale Meta è attualmente citato in giudizio per aver affermato che i post incitavano alla violenza. Le politiche di Meta vietano l’incitamento all’odio e l’incitamento alla violenza.

Il gruppo di social media, che impiega oltre 15.000 moderatori di contenuti in tutto il mondo, ha affermato di avere un nuovo partner e che le sue capacità di moderazione erano le stesse.

Si dice che Majorel, con sede in Lussemburgo, che ha già guidato i servizi di moderazione in Africa per l’app di video in formato breve TikTok, stia assumendo il contratto, secondo due persone a conoscenza dei cambiamenti.

“Rispettiamo la decisione di Sama di abbandonare i servizi di revisione dei contenuti che fornisce alle piattaforme dei social media. Lavoreremo con i nostri partner durante questa transizione per garantire che non vi sia alcun impatto sulla nostra capacità di rivedere i contenuti”, ha aggiunto Meta.

Sama offre supporto per la salute mentale al personale colpito dai tagli per 12 mesi dopo la cessazione del rapporto di lavoro e paga pacchetti di fine rapporto non divulgati. Circa il 3% del personale Sama ne è affetto.

I tagli arrivano quando sia Sama che Meta sono stati citati in giudizio da un ex dipendente Daniel Motaung, che ha accusato le società di trascurare di fornire un adeguato supporto per la salute mentale ai moderatori o di informarli pienamente della natura del contenuto che avrebbero esaminato.

Motaung afferma inoltre che le società hanno trasportato lavoratori dalle regioni più povere dell’Africa, dove non avevano altra scelta che restare al loro posto di lavoro.

Meta ha precedentemente rifiutato di commentare direttamente la causa.

“Abbiamo visto le conseguenze della moderazione al taglio nella guerra in Etiopia – e proprio questa settimana nell’attacco alla democrazia brasiliana. Queste crisi sono state alimentate dai social media “, ha affermato Cori Crider, direttore di Foxglove, che ha supportato Sama e altri moderatori di Facebook nell’azione legale contro le due società.