La crescita della retorica fuorviante dei candidati al Congresso degli Stati Uniti su argomenti come l’integrità elettorale ha esercitato una rinnovata pressione sulle piattaforme dei social media prima del voto di novembre. E la percezione che le aziende tecnologiche stiano facendo poco per combattere la disinformazione solleva interrogativi sui loro obblighi democratici e pone rischi commerciali. Ma, forse sorprendentemente, iniziative recenti suggeriscono che le piattaforme potrebbero essere in grado di incanalare motivazioni di parte per democratizzare la moderazione.

Una spiegazione per la risposta apparentemente tiepida delle piattaforme è la pressione contrastante che le aziende devono affrontare da parte dei critici. Sette adulti statunitensi su 10 – e la maggior parte degli esperti – vedono la disinformazione come un “problema grave” e credono che le società Internet dovrebbero fare di più per frenarne la diffusione. Eppure eminenti politici repubblicani hanno chiamato la moderazione “censura” e hanno minacciato di approvare leggi che limitano la capacità delle piattaforme di autoregolarsi. La regolamentazione pone serie sfide al modello di business delle società di social media, così come la perdita di utenti che sono disillusi dalla sensazione che la disinformazione o il pregiudizio politico stiano dilagando.

Come possono le società di social media infilare l’ago per impegnarsi in una moderazione significativa mentre sfuggono alle accuse di pregiudizio e censura di parte? Una potenziale soluzione che le piattaforme hanno iniziato a testare è quella di democratizzare la moderazione attraverso il controllo dei fatti in crowdsourcing. Invece di fare affidamento esclusivamente su fact-checker professionali e algoritmi di intelligenza artificiale, si rivolgono ai loro utenti per aiutare a recuperare il gioco.

Questa strategia ha molti vantaggi. In primo luogo, l’utilizzo di non addetti ai lavori per la verifica dei contenuti è scalabile in un modo che non è la verifica professionale dei fatti, che si basa su un piccolo gruppo di esperti altamente qualificati. In secondo luogo, è conveniente, soprattutto se gli utenti sono disposti a segnalare contenuti imprecisi senza essere pagati. Infine, poiché la moderazione viene effettuata dai membri della comunità, le aziende possono evitare le accuse di pregiudizio dall’alto verso il basso nelle loro decisioni di moderazione.

Ma perché qualcuno dovrebbe fidarsi della folla per valutare i contenuti in modo ragionevole? La ricerca condotta dalla mia collega Jennifer Allen fa luce su quando le valutazioni in crowdsourcing potrebbero essere una buona soluzione e quando potrebbero non esserlo.

Innanzitutto, la buona notizia. Uno scenario che abbiamo studiato è stato quando i profani vengono assegnati in modo casuale a valutare contenuti specifici e i loro giudizi vengono combinati. La nostra ricerca ha scoperto che la media dei giudizi di piccole folle politicamente equilibrate di laici corrisponde all’accuratezza valutata dagli esperti, nella stessa misura in cui gli esperti si confrontano tra loro.

Questo potrebbe sembrare sorprendente, dal momento che i giudizi di ogni singolo laico non sono molto affidabili. Ma più di un secolo di ricerca sulla “saggezza delle folle” ha mostrato come combinare le risposte di molti non esperti possa eguagliare o superare i giudizi degli esperti. Tale strategia è stata utilizzata, ad esempio, da Facebook nella sua Community Review, che ha assunto appaltatori senza una formazione specifica per scalare il fact-checking.

Tuttavia, i risultati sono più contrastanti quando gli utenti possono verificare i fatti qualunque sia il contenuto che scelgono. All’inizio del 2021, Twitter ha rilasciato un programma di moderazione in crowdsourcing chiamato Birdwatch, in cui gli utenti regolari possono contrassegnare i tweet come fuorvianti e scrivere verifiche dei fatti a risposta libera che “aggiungono contesto”. Altri membri della community di Birdwatch possono votare in positivo o in negativo queste note, per fornire un feedback sulla loro qualità. Dopo aver aggregato i voti, Twitter mette in evidenza le note più “utili” e le mostra ad altri utenti di Birdwatch e non solo.

Nonostante le alte intenzioni, un nuovo studio del nostro team ha rilevato che il partigiano politico è uno dei principali fattori di coinvolgimento degli utenti su Birdwatch. Segnalano in modo schiacciante e controllano i tweet scritti da persone con opinioni politiche opposte. Principalmente votano a favore delle verifiche dei fatti scritte dai loro co-partigiani e classificano quelle dei contropartigiani come inutili. Questa pratica ha reso i punteggi medi di disponibilità di Birdwatchers quasi privi di significato come un modo per selezionare buoni verificatori di fatti, poiché i punteggi erano guidati principalmente da chi ha votato piuttosto che dal contenuto effettivo della nota.

Ecco la piacevole sorpresa, però: sebbene la nostra ricerca suggerisca che la politica sia una delle principali motivazioni, la maggior parte dei tweet segnalati da Birdwatchers erano effettivamente problematici. I fact-checker professionisti hanno giudicato fuorviante l’86% dei tweet segnalati, suggerendo che le motivazioni di parte che spingono le persone a partecipare non stanno inducendole a segnalare indiscriminatamente contenuti contropartigiani. Invece, stanno principalmente cercando post fuorvianti dall’altra parte del corridoio. Le due parti si stanno in qualche modo controllando efficacemente a vicenda.

Queste indagini lasciano le piattaforme con diversi importanti spunti. In primo luogo, il controllo dei fatti in crowdsourcing può essere una parte potenzialmente potente della soluzione ai problemi di moderazione sui social media se implementato correttamente.

In secondo luogo, incanalare motivazioni di parte per essere produttivi, piuttosto che distruttivi, è fondamentale per le piattaforme che vogliono utilizzare la moderazione crowdsourcing. Il partigiano sembra motivare le persone a fare volontariato per programmi di verifica dei fatti, che è fondamentale per il loro successo. Piuttosto che cercare di reclutare solo i pochi rari che sono imparziali, la chiave è escludere la piccola frazione di fanatici che mettono la partigianeria al di sopra della verità.

Infine, sono necessarie strategie più sofisticate per identificare i fact-check utili. A causa del pregiudizio partigiano mostrato dalle valutazioni, non è sufficiente fare semplicemente la media dei punteggi di disponibilità. Lo sviluppo di tali strategie è attualmente un obiettivo primario del team di Birdwatch.

Professor David Rand

Le aziende probabilmente preferirebbero evitare del tutto la spinosa pratica della moderazione dei contenuti. Tuttavia, Truth Social, la nuova piattaforma di social media “senza censura” di Donald Trump, ha mostrato i rischi di schivare il problema. La disinformazione e le minacce di terrorismo interno sono abbondate, causando il blocco dell’app da parte del Google Play Store. La moderazione è necessaria affinché le piattaforme sopravvivano, per evitare che vengano invase da voci pericolose e richiami alla violenza. Ma coinvolgere gli utenti in quel processo di moderazione può aiutare le piattaforme a soddisfare i critici di entrambe le parti, identificando la disinformazione su larga scala, evitando le affermazioni di pregiudizi dall’alto verso il basso. Pertanto, esiste un forte business case per le piattaforme che investono nel controllo dei fatti in crowdsourcing.

La lotta alla disinformazione è una sfida che richiede un’ampia gamma di approcci. Il nostro lavoro suggerisce che un percorso importante per le società di social media per salvare la democrazia dalla disinformazione è democratizzare il processo di moderazione stesso.