Sblocca gratuitamente il Digest dell'editore
Questa settimana Ofcom ha pubblicato la sua bozza di Codice di condotta sulla sicurezza dei bambini, un elemento centrale della legge sulla sicurezza online recentemente approvata. Per molti si è trattato di una vittoria tanto attesa nella lotta per la sicurezza online dei bambini. Ma per alcuni si è trattato di un futile tentativo di tenere a freno un settore tecnologico arrogante e irresponsabile e per altri, troppo poco e troppo tardi.
Il 19° secolo vide non uno ma più di 10 Factory Acts, ciascuno dei quali affrontava aspetti di salute e sicurezza per i lavoratori nelle nuove industrie, così come leggi che introducevano l’illuminazione stradale, le fogne, la sicurezza alimentare e persino il fine settimana. L’impatto dell’industrializzazione ha richiesto cambiamenti epocali, non solo per proteggere coloro che lavoravano sui telai, ma anche coloro che vivevano nelle città che ne seguirono la scia. Allo stesso modo, l’Online Safety Act e il codice per i bambini sono una risposta agli enormi cambiamenti portati dalla rapida adozione di prodotti digitali inaffidabili alimentati dalla pubblicità.
Il fatto stesso che alle aziende che ospitano contenuti generati dagli utenti a cui possono accedere i bambini venga richiesto di sapere che hanno a che fare con un bambino è una vittoria. Per almeno due decenni, il settore tecnologico ha volontariamente ignorato i bambini. Se sapevi per certo che il tuo cliente aveva 13 anni, ti chiedevi perché gli hai inviato del porno hardcore o un messaggio progettato per incoraggiare l'autolesionismo: era più facile chiudere un occhio sulla loro età. Quindi, mentre alcuni suggeriscono che identificare i bambini sia la fine di Internet come lo conoscono, un consenso crescente non solo nel Regno Unito ma in tutto il mondo ritiene che un approccio conosci il tuo cliente sia roba standard.
Altrettanto popolare è impedire ai bambini l’accesso alla pornografia, che sta normalizzando sempre più la sessualizzazione della prima infanzia. L’introduzione del controllo dell’età è attesa da tempo. Un enorme 27% dei bambini ha visto materiale pornografico prima degli 11 anni, in gran parte senza che fosse richiesto. E di recente, la Internet Watch Foundation, che identifica i contenuti di abusi sessuali su minori, ha scoperto un nuovo minimo: oltre 100.000 pagine web che presentano abusi sessuali su minori autoprodotti su bambini sotto i 10 anni. Anche la pornografia ha contribuito alla normalizzazione della cultura dello stupro.
La ricerca dietro il codice dei bambini è piuttosto affascinante. È emerso che il 20% dei bambini di età compresa tra 8 e 12 anni si era iscritto a un’app quando aveva 18 anni. I giovani segnalano incontri multipli e regolari con contenuti che promuovono il suicidio, l’autolesionismo e i disturbi alimentari. I bambini esposti a violenza esplicita non si preoccupano di denunciarlo perché non credono che i servizi faranno qualcosa al riguardo e non si fidano di loro per mantenere riservata la segnalazione.
Tuttavia, il codice è debole in termini di caratteristiche di progettazione. Anche se la ricerca mostra che il live streaming e la messaggistica diretta sono ad alto rischio, sono previste poche misure di mitigazione obbligatorie per affrontarli. Allo stesso modo, il requisito che le misure dispongano di una base di prove esistente non riesce a incentivare nuovi approcci alla sicurezza, compresi quelli rivelati dagli informatori. Frances Haugen e Arturo Béjar hanno entrambi lasciato il loro lavoro presso Meta con una ricerca interna su modi più sicuri di progettare i suoi servizi che Mark Zuckerberg aveva rifiutato. Come puoi dimostrare che qualcosa non funziona se non lo provi?
Il codice per l'infanzia potrebbe essere molto più ambizioso e deve affrontare tutti i rischi che identifica. La sua enfasi è nel chiedere ai bambini di scegliere strumenti di protezione piuttosto che la sicurezza in base alla progettazione e all’impostazione predefinita. Ciò potrebbe essere utile alle aziende tecnologiche poiché si stima che oltre il 90% delle persone non modifichi mai le impostazioni predefinite. E poi c'è la velocità glaciale con cui viaggia il codice e le 1.300 pagine che lo rendono impenetrabile a qualsiasi genitore, insegnante o bambino. In pratica le misure sono comprese e regolamentate solo dal regolatore: questo non è salutare.
Molti di questi problemi non sono imputabili a Ofcom. Il governo ha bloccato la legislazione, concedendo eccezioni e limitando i poteri. Un argomento è che iniziare in modo restrittivo e poi aggiungere al codice è il modo per proteggersi da conseguenze indesiderate. Ci sono due problemi con questo.
Un numero crescente di genitori chiede un divieto diretto degli smartphone. Sono – legittimamente – furiosi e frustrati perché loro (e i loro figli) non possono competere con il potere dei miliardi investiti in un design persuasivo. I genitori vogliono che succeda qualcosa adesso, prima che i loro figli perdano tutta la loro infanzia aspettando solo un altro messaggio, post, emoji, commento o mi piace. E poi c’è lo spettro incombente dell’intelligenza artificiale, che aumenterà ogni danno che i bambini già sperimentano.
Mentre celebriamo l’arrivo della bozza del codice, dovremmo già chiedere che i buchi in esso contenuti siano colmati, che le eccezioni siano riconsiderate e che i lobbisti siano contenuti. Dobbiamo muoverci verso una legislazione più rapida basata sui principi esistenti su come trattiamo i bambini e, ovviamente, dovremmo avere una legge sull’IA. Questa è una nuova rivoluzione industriale; sappiamo dall'ultimo cosa è necessario.