Sab. Set 14th, 2024
L'ente di controllo dei media del Regno Unito avvia una serie di assunzioni nel mezzo della pressione per frenare la disinformazione

Sblocca gratuitamente l'Editor's Digest

L'Ofcom sta aumentando le assunzioni per il personale addetto alla sicurezza online, poiché aumentano i timori che l'organismo di regolamentazione non abbia poteri sufficienti per frenare il tipo di disinformazione che ha scatenato i recenti violenti disordini nel Regno Unito.

L'ente di regolamentazione dei media ha dichiarato al MagicTech di avere più di 460 persone al lavoro sull'Online Safety Act, con l'intenzione di espandersi del 20 percento a più di 550 entro il prossimo marzo. Ciò equivarrebbe a un terzo dei 1.500 dipendenti totali di Ofcom.

L'ondata di assunzioni arriva nel bel mezzo di un dibattito più ampio, in seguito ai violenti disordini verificatisi in tutto il Paese questo mese, sulla capacità del governo di contrastare efficacemente l'aumento delle false informazioni online.

Le rivolte sono state inizialmente innescate da un accoltellamento di massa a Southport il 29 luglio, in cui sono state uccise tre ragazze e altri otto bambini e due adulti sono rimasti feriti. La violenza è stata alimentata dalla condivisione di informazioni errate e disinformazioni sulle piattaforme dei social media in seguito all'attacco.

I recenti post del proprietario di X, Elon Musk, tra cui i riferimenti alla “polizia a due livelli” del primo ministro britannico Sir Keir Starmer e un retweet del fondatore dell'estrema destra English Defence League Tommy Robinson, hanno evidenziato preoccupazioni circa il potere dello Stato di chiamare a rispondere il miliardario della tecnologia.

L'Online Safety Act del Regno Unito è stato approvato l'anno scorso, ma non entrerà pienamente in vigore prima della fine del 2025 o del 2026.

La legislazione contiene una disposizione per affrontare la disinformazione, rendendo illegale inviare un messaggio contenente informazioni che un individuo sa essere false con l'intenzione di causare “danni psicologici o fisici non banali a un probabile pubblico”.

Oltre a ciò, la legge obbligherà anche le aziende a rispettare i propri termini di servizio, attualmente in fase di stesura.

“Se sei più propenso alla libertà di parola, potresti non includere 'repressione della diffusione di disinformazione' nei tuoi termini di servizio”, ha affermato una persona coinvolta nella stesura della legislazione.

Diversi politici, avvocati e legislatori sostengono che l'Online Safety Act nella sua forma attuale non è sufficiente a ritenere responsabili le aziende tecnologiche e i loro dirigenti per aver permesso a false verità di proliferare sulle loro piattaforme.

Il sindaco di Londra Sadiq Khan ha sostenuto, in seguito alle rivolte, che la legge “non era adatta allo scopo”, mentre Starmer ha indicato che avrebbe preso in considerazione dei modi per “inasprire” la legislazione.

“Anche se applicato, l'Online Safety Act probabilmente risolverebbe solo una frazione dei problemi verificatisi online prima e durante la violenza”, ha affermato Josh Simons, nuovo parlamentare laburista di Makerfield che in passato ha lavorato sull'intelligenza artificiale responsabile presso Meta.

“Se pensiamo che sia tossico e corrosivo per la nostra sfera pubblica avere bugie che circolano a gran velocità, dobbiamo avere l'interesse pubblico nella mente delle persone che sviluppano quegli algoritmi”, ha aggiunto.

Simons, che fino al mese scorso ha diretto il think tank Labour Together, affiliato al partito laburista, è tra i numerosi avvocati e politici che ritengono che il governo dovrebbe elaborare una nuova legge per contrastare gli algoritmi che contribuiscono a diffondere disinformazione.

Josh Simons
Josh Simons, il nuovo parlamentare laburista di Makerfield, lavorava all'intelligenza artificiale responsabile presso Meta © Charlie Bibby/FT

Altri sostengono che estendere la legislazione potrebbe comportare eccessive responsabilità per l'autorità di regolamentazione, che sta già lottando per definire le regole che disciplinano i reati previsti dalla legge.

Ofcom è preoccupata di garantire che gli sforzi per ritenere le aziende tecnologiche responsabili, emettendo multe ai sensi della legge, siano inattaccabili. L'ente regolatore prevede che le sanzioni affronteranno sfide legali da parte di alcuni dei gruppi più ricchi e potenti.

Perdere i casi può essere dannoso sia finanziariamente che reputazionalmente. La scorsa settimana, il governo tedesco ha subito un duro colpo quando i tribunali hanno ribaltato la sua decisione di vietare la rivista di estrema destra Compact.

La decisione fu vista come un regalo al periodico nazionalista, che si vantava della “vittoria di Davide su Golia” e dell’aumento dei lettori in seguito alla sentenza.

Un avvocato che ha chiesto di rimanere anonimo ha detto che non riusciva a immaginare un regolatore “meglio equipaggiato per implementare questa legge” di Ofcom, data la sua competenza e la sua manodopera. Ma ha detto di credere che al regolatore fosse stato assegnato un “compito impossibile”.

Hanno aggiunto che estendendo la legislazione per includere la disinformazione, “aumenterebbe il rischio che vengano prese decisioni arbitrarie” da parte di governi e piattaforme a cui viene chiesto di diventare “arbitri della verità”.

Questo mese i ministri hanno preso in considerazione l'idea di introdurre poteri per obbligare le aziende Internet a rimuovere i contenuti “legali ma dannosi”, originariamente parte dell'Online Safety Act, che è stato rimosso dopo mesi di discussioni e resistenze da parte dei sostenitori della libertà di parola.

Molti esperti sono scettici sul fatto che la reintroduzione della clausola possa risolvere il problema, dato che potrebbe aumentare le responsabilità dell'Ofcom, costringendo l'ente regolatore a pronunciarsi sulla complessa questione di cosa sia considerato “dannoso”.