I nuovi strumenti tecnologici spesso consentono nuove scoperte scientifiche. Prendiamo il caso di Antonie van Leeuwenhoek, lo scienziato dilettante olandese del 17° secolo e microscopista pioniere, che costruì almeno 25 microscopi a lente singola con i quali studiò pulci, punteruoli, globuli rossi, batteri e i suoi stessi spermatozoi, tra le altre cose.

In centinaia di lettere alla Royal Society e ad altre istituzioni scientifiche, van Leeuwenhoek registrò meticolosamente le sue osservazioni e scoperte, non sempre per un pubblico ricettivo. Ma da allora è stato riconosciuto come il padre della microbiologia, avendoci aiutato a comprendere e combattere ogni sorta di malattie.

Secoli dopo, nuovi strumenti tecnologici stanno consentendo a una comunità globale di biologi e scienziati dilettanti di esplorare il mondo naturale del suono con dettagli più ricchi e su scala più ampia che mai. Proprio come i microscopi hanno aiutato gli esseri umani a osservare cose non visibili ad occhio nudo, così i microfoni onnipresenti e i modelli di apprendimento automatico ci consentono di ascoltare suoni che altrimenti non potremmo sentire. Possiamo origliare uno stupefacente paesaggio sonoro di “conversazioni” planetarie tra pipistrelli, balene, api mellifere, elefanti, piante e barriere coralline. “Sonics è la nuova ottica”, mi dice Karen Bakker, professore all’Università della British Columbia.

Miliardi di dollari si stanno riversando nella cosiddetta intelligenza artificiale generativa, come ChatGPT di OpenAI, con il lancio di decine di start-up per commercializzare questi modelli di base. Ma in un certo senso, l’IA generativa è un termine improprio: questi modelli sono usati principalmente per rielaborare la conoscenza umana esistente in nuove combinazioni piuttosto che per generare qualcosa di veramente nuovo.

Ciò che può avere un maggiore impatto scientifico e sociale è l'”intelligenza artificiale additiva”, che utilizza l’apprendimento automatico per esplorare set di dati specifici e di nuova creazione — derivati, ad esempio, da immagini satellitari, sequenziamento del genoma, rilevamento quantistico o registrazioni bioacustiche — ed estendere il frontiere della conoscenza umana. Quando si tratta di dati sonori, Bakker solleva persino l’allettante possibilità nei prossimi due decenni di comunicazione tra specie mentre gli umani usano le macchine per tradurre e replicare i suoni degli animali, creando una sorta di Google Translate per lo zoo. “Non possediamo ancora un dizionario di Sperm Whalish, ma ora abbiamo gli ingredienti grezzi per crearne uno”, scrive Bakker nel suo libro I suoni della vita.

Questa rivoluzione sonora è stata innescata dai progressi dell’hardware e del software. Microfoni e sensori economici, durevoli e di lunga durata possono essere attaccati agli alberi in Amazzonia, alle rocce nell’Artico o al dorso dei delfini, consentendo il monitoraggio in tempo reale. Quel flusso di dati bioacustici viene quindi elaborato da algoritmi di apprendimento automatico, che possono rilevare modelli in suoni naturali infrasonici (bassa frequenza) o ultrasonici (alta frequenza), non udibili dall’orecchio umano.

Ma, sottolinea Bakker, questi dati hanno senso solo se combinati con le osservazioni umane sui comportamenti naturali ottenute da un scrupoloso lavoro sul campo da parte di biologi o da analisi di crowdsourcing da parte di dilettanti. Per esempio, Zooniverso, l’iniziativa di ricerca scientifica dei cittadini che può mobilitare più di 1 milione di volontari, ha contribuito a raccogliere tutti i tipi di dati e set di formazione per i modelli di apprendimento automatico. “La gente pensa che l’intelligenza artificiale sia come una magica polvere fatata che puoi cospargere su tutto, ma non è proprio così che funziona”, dice Bakker. “Stiamo utilizzando l’apprendimento automatico per automatizzare e accelerare ciò che gli esseri umani stavano già facendo”.

Questi progetti di ricerca hanno portato anche ad alcune ricadute pratiche e commerciali. Gli studi sulla comunicazione delle api hanno ispirato gli scienziati della Georgia Tech a creare un algoritmo di “mente alveare” per ottimizzare l’efficienza dei server nei centri di hosting Internet. I crittografi hanno studiato i ronzii, i clic, gli scricchiolii e gli squittii delle balene per capire se il loro “codice Morse bionico” potesse essere imitato per crittografare le comunicazioni.

Bakker sostiene anche la protezione in tempo reale della biodiversità delle regioni a rischio. I sistemi di apprendimento automatico che monitorano i microfoni della foresta pluviale possono segnalare i suoni delle seghe circolari e le grida degli animali in preda al panico.

È difficile conciliare questo campo emergente di dati bioacustici con l’argomento secondo cui la ricerca scientifica non è più dirompente. Bakker sostiene che il nostro attuale paradigma di comprensione scientifica potrebbe essere esaurito, ma ciò significa che dobbiamo svilupparne uno nuovo. “È solo un fallimento della nostra immaginazione”, dice. Siamo solo all’inizio dell’indagine sul nostro universo sonoro. Chissà cosa potremmo trovare?