La condivisione del cosiddetto “porno deepfake” dovrebbe essere resa illegale nel Regno Unito, secondo una revisione sostenuta dal governo che avverte che le leggi attuali non vanno abbastanza lontano da coprire “nuovi comportamenti inquietanti e offensivi nati nell’era degli smartphone”.

Giovedì la Law Commission ha presentato una serie di raccomandazioni relative al deepfake porn, in cui i computer generano immagini o contenuti video realistici ma falsi di un individuo senza il suo consenso.

L’organismo indipendente, che esamina se la legislazione debba essere rivista, dal 2019 ha riesaminato le leggi esistenti sulla presa, la creazione e la condivisione non consensuali di immagini intime.

Attualmente non esiste un singolo reato penale in Inghilterra e Galles che si applichi alle immagini intime non consensuali. Il rapporto propone di ampliare le motivazioni alla base di questi crimini per includere cose come il guadagno finanziario, oltre a estendere l’anonimato automatico a tutte le vittime di abusi d’immagine intimi.

Solo alle vittime del voyeurismo e dell’upskirting vengono fornite queste protezioni ai sensi della legge esistente e i pubblici ministeri devono provare che gli autori hanno agito per causare angoscia o gratificazione sessuale.

La recensione arriva quando i progressi nel deep learning hanno fatto sì che i deepfake siano sempre più disponibili online ed economici da usare, con video falsi di politici e celebrità che proliferano su Internet.

L’uso di questi strumenti nel porno, in cui spesso il volto di una persona è sovrapposto al corpo di un attore porno in un video, ha portato il comitato ristretto del Dipartimento per il digitale, la cultura, i media e lo sport, nonché i gruppi della campagna a chiedere che fosse criminalizzato.

“Le immagini intime alterate sono quasi sempre condivise senza consenso”, ha affermato il professor Penney Lewis, commissario per il diritto penale. “[They] spesso causano lo stesso danno delle immagini intime inalterate condivise senza consenso”.

Il fenomeno ha una “drammatica sotto-segnalazione” in quanto le vittime non hanno l’anonimato secondo le leggi attuali, che “non vanno abbastanza lontano da coprire i nuovi comportamenti inquietanti e offensivi nati nell’era degli smartphone”, ha aggiunto.

La revisione arriva mentre il tanto atteso disegno di legge sulla sicurezza online si fa strada in parlamento. Molte delle precedenti raccomandazioni delle Law Commissions sono già state aggiunte alla legislazione, inclusa la criminalizzazione del revenge porn e del cyberflashing, in cui un’immagine indecente viene condivisa senza il consenso del destinatario.

Il governo ha affermato che il disegno di legge sulla sicurezza online “costringerà le aziende Internet a proteggere meglio le persone da una serie di abusi basati sulle immagini, inclusi i deepfake” e prenderà in considerazione le proposte.

Aziende come Twitter, Reddit e PornHub hanno già vietato il porno deepfake generato senza il consenso della persona. Negli Stati Uniti, Virginia e California hanno anche reso illegale, mentre la Scozia ha anche reso illegale la distribuzione di porno deepfake.

Il mese scorso l’Unione Europea ha anche rafforzato le sue regole di disinformazione includendo i deepfake. In base a un nuovo codice di condotta dell’UE, le autorità di regolamentazione possono multare le aziende tecnologiche fino al 6% del loro fatturato globale se non reprimono i deepfake.