In che misura possiedi la tua stessa faccia? O le impronte digitali? O DNA? Fino a che punto ti fideresti che gli altri utilizzino dati biometrici così sensibili? Porre queste domande significa evidenziare l’incertezza e la complessità che circondano il loro utilizzo. La risposta breve, anche se disordinata, è: tutto dipende dal contesto.

Molte persone, me compreso, permetterebbero volentieri a ricercatori medici fidati che combattono malattie genetiche di studiare il loro DNA. Pochi si oppongono al fatto che la polizia utilizzi selettivamente i dati biometrici per catturare i criminali. Sorprendentemente, iNel 2012 gli investigatori tedeschi hanno risolto 96 furti con scasso identificando le impronte di un uomo che aveva premuto l’orecchio contro le porte per controllare che non ci fosse nessuno in casa. La verifica dell’identità sul dispositivo tramite l’impronta digitale o la tecnologia di riconoscimento facciale per uno smartphone può aumentare la sicurezza e la comodità.

Ma la portata e la frequenza dell’uso della biometria stanno esplodendo mentre il confine tra ciò che è accettabile e inaccettabile diventa sempre più sfocato. Già si possono indicare usi sconsiderati o maligni della biometria. Le aziende che utilizzano la tecnologia e le autorità di regolamentazione che le controllano hanno l’urgente responsabilità di tracciare una linea di demarcazione più chiara. Altrimenti, cresceranno le preoccupazioni sul fatto che stiamo camminando nel sonno verso uno stato di sorveglianza.

La preoccupazione più evidente sull’uso di tali dati è il modo in cui rafforza le capacità di sorveglianza in modi senza responsabilità, in particolare in Cina che monitora rigorosamente la propria popolazione ed esporta “autoritarismo digitale”. È stato trovato un rapporto del 2019 del Carnegie Endowment for International Peace Tecnologia di sorveglianza abilitata all’intelligenza artificiale veniva utilizzato in almeno 75 dei 176 paesi studiati. La Cina è stato il principale fornitore di tale tecnologia, vendendo in 63 paesi, mentre le società statunitensi hanno venduto in 32 paesi.

Ma l’uso dei dati biometrici viene adottato con entusiasmo anche dal settore privato nei luoghi di lavoro, nei negozi e nelle scuole di tutto il mondo. Viene utilizzato per verificare l’identità dei tassisti, assumere dipendenti, monitorare gli operai delle fabbriche, segnalare i ladri e velocizzare le code per i pasti scolastici.

L’avvocato Matthew Ryder, in un rapporto indipendente pubblicato questa settimana, ha presentato una potente argomentazione sul perché i politici debbano agire ora per creare un quadro giuridico più forte per le tecnologie biometriche. (Per la divulgazione: il rapporto è stato commissionato dall’Ada Lovelace Institute e io sono nel consiglio di amministrazione dell’ente di beneficenza.) Fino a quando non entrerà in vigore, Ryder ha chiesto una moratoria sull’uso della tecnologia di riconoscimento facciale dal vivo. Appelli simili sono stati fatti da parlamentari britannici e legislatori statunitensi senza suscitare molta risposta da parte dei governi nazionali.

Sul motivo per cui i politici non hanno ancora agito vengono avanzate tre argomentazioni: è troppo presto; è troppo tardi; e al pubblico non importa. Tutti e tre suonano vuoti.

In primo luogo, c’è un caso in cui una legislazione prematura e proscrittiva ucciderà l’innovazione. Ma le stesse grandi aziende statunitensi stanno diventando sempre più preoccupate per la proliferazione indiscriminata della tecnologia biometrica e sembrano temere di essere citate in giudizio se le cose vanno terribilmente storte. Diversi — tra cui Microsoft, Facebook e IBM hanno smesso di distribuire o vendere alcuni servizi di riconoscimento facciale e chiedono una legislazione più severa. “La regolamentazione aziendale aiuta l’innovazione”, afferma Ryder. “Puoi innovare con fiducia.”

L’argomento successivo è che la biometria si sta sviluppando così velocemente che le autorità di regolamentazione non potranno mai mettersi al passo con gli usi di frontiera. È inevitabile che i tecnologi superino i regolatori. Ma come Stephanie Hare, l’autrice di La tecnologia non è neutrale, sostiene, le società possono cambiare idea sul fatto che le tecnologie siano vantaggiose. Prendi l’amianto, che è stato ampiamente utilizzato per la prevenzione degli incendi prima che i suoi pericoli per la salute fossero conosciuti. “L’abbiamo usato con gioia prima di strapparlo tutto. Dovremmo essere in grado di innovare e correggere la rotta”, afferma.

L’argomento finale è che il pubblico non si preoccupa dei dati biometrici e che i politici hanno priorità più alte. Questo può essere vero fino a quando non lo è più. quando consigli cittadini hanno studiato e dibattuto l’uso dei dati biometrici hanno espresso preoccupazione per la sua affidabilità, proporzionalità e pregiudizi e allarme per il fatto che venga utilizzata come tecnologia discriminatoria “razzista”. La ricerca ha dimostrato che il riconoscimento facciale funziona in modo meno accurato su femmine nere di età compresa tra 18 e 30 anni. “Quando si vede la tecnologia utilizzata in modo nefasto, diventa difficile per le persone accettarla in modi più utili”, ha affermato un partecipante a un consiglio cittadino.

Tutti coloro che sono coinvolti nella promozione degli usi positivi dei dati biometrici dovrebbero contribuire a creare un regime legale affidabile. Siamo a un gigantesco scandalo di distanza da una spaventosa reazione pubblica.