Promuovere ai bambini contenuti che inneggiano al suicidio, algoritmi che suggeriscono materiale terroristico, clickbait che inaspriscono la divisione: i problemi attribuiti alle aziende Big Tech sono facilmente comprensibili. Ciò che è meno semplice è sapere come ridurre questi danni alla società senza calpestare la libertà di parola. Su entrambe le sponde dell’Atlantico, i legislatori sono alle prese con i modi migliori per rendere Big Tech più responsabile. Il modo in cui lo stanno facendo sarà inevitabilmente imperfetto. È importante che ci provino ancora.

Il tanto atteso disegno di legge sulla sicurezza online, che promette di rendere il Regno Unito il “posto più sicuro al mondo per essere online”, è stato modificato questa settimana dopo che i parlamentari ribelli conservatori hanno spinto affinché i vertici delle aziende Big Tech finiscano in prigione se falliscono per proteggere i minori di 18 anni da contenuti dannosi. I ribelli indicano responsabilità simili per i capi ai sensi della legislazione sulla salute e sicurezza e per quelli della finanza. Aggiungono che se i senior manager che lavorano in settori che possono causare danni più ampi devono affrontare sanzioni penali, allora dovrebbero farlo anche quelli ai vertici della Big Tech. Ma più che creare condizioni di parità, si tratta di migliorare il comportamento.

Quasi certamente – e correttamente – qualsiasi procedimento penale avrà ostacoli significativi per iniziare, figuriamoci per convincere una giuria: si arriverà all’accusa solo dopo che gli avvertimenti incrementali non saranno stati ascoltati. Ma la semplice minaccia dovrebbe concentrare le menti. Tale è l’esperienza nel settore bancario: nel 2016 è stato introdotto un reato penale di cattiva gestione sconsiderata di una banca che fallisce, insieme a misure normative per migliorare la responsabilità. Il reato deve ancora essere attivato – nessuna banca è fallita da allora – e c’è stata una scarsa applicazione delle sanzioni regolamentari. Tuttavia, secondo i cani da guardia, la paura di perdere i propri mezzi di sussistenza, o la libertà, è sufficiente per innalzare gli standard.

Il disegno di legge cambierà man mano che passerà attraverso la Camera dei Lord. Non è una brutta cosa: il disegno di legge è ampio, imperfetto ed è già cambiato sostanzialmente dal 2019. L’attuale iterazione ha sensibilmente rimosso la necessità per le aziende di rimuovere non solo i contenuti illegali, ma dannosi (a meno che non si applichi ai bambini, dove legale ma i contenuti dannosi devono ancora essere frenati) — una determinazione molto più spinosa. Anche quando alla fine verrà approvato, i politici dovrebbero rivedere frequentemente la legislazione, in particolare per quanto riguarda i poteri concessi al regolatore Ofcom per decidere dove le società di social media stanno fallendo.

Ma l’affermazione che il Regno Unito sarà un valore anomalo è sbagliata. L’emendamento criminale promosso dai ribelli è modellato sulla legislazione irlandese esistente. Nel frattempo, anche il Digital Services Act dell’UE impone requisiti simili a Big Tech per rimuovere i contenuti illegali.

Negli Stati Uniti, i legislatori sono stati più lenti nel cogliere l’ortica, anche se i politici su entrambi i lati della navata vogliono frenare Big Tech (anche se per motivi diversi). Il presidente Joe Biden ha chiesto uno sforzo bipartisan per proteggere meglio la privacy e ridurre lo “scudo di responsabilità” della sezione 230 del Communications Decency Act del 1996, che ha concesso alle piattaforme tecnologiche l’immunità per i contenuti che altri pubblicano sui loro siti.

È probabile che i tribunali arrivino per primi: la Corte Suprema esaminerà due casi che riguardano la sezione 230, comprese le affermazioni secondo cui YouTube di Google ha infranto le leggi antiterrorismo con i suoi algoritmi consigliare i video dell’Isis. Il registro completo della corte, insieme agli sforzi di Elon Musk su Twitter per annullare la moderazione dei contenuti in nome della libertà di parola, significa che legislatori, giudici e regolatori su entrambe le sponde dell’Atlantico saranno impegnati a determinare esattamente dove si trova il confine tra libertà di parola e dannoso il contenuto mente. La loro determinazione può essere imperfetta. Probabilmente dovrà essere rivisitato. Ma è in ritardo.