Sab. Mar 21st, 2026
La gara per trasformare le onde cerebrali in un discorso fluente

Sblocca gratuitamente il digest dell'editore

I neuroscienziati si stanno sforzando di dare una voce alle persone che non sono in grado di parlare in una ricerca in rapido vantaggio per sfruttare le onde cerebrali per ripristinare o migliorare le capacità fisiche.

I ricercatori delle università della California e delle aziende, come le neuroscienze di precisione con sede a New York, sono tra quelli che fanno progressi verso la generazione di discorsi naturalistici attraverso una combinazione di impianti cerebrali e intelligenza artificiale.

Gli investimenti e l'attenzione sono stati a lungo focalizzati sugli impianti che consentono alle persone gravemente disabili di gestire tastiere di computer, controllare i bracci robotici o riguadagnare un certo uso dei propri arti paralizzati. Ma alcuni laboratori stanno facendo passi da gigante concentrandosi sulla tecnologia che converte i modelli di pensiero in linguaggio.

“Stiamo facendo grandi progressi-e fare una voce da cervello a sintetica fluente come la chat tra due persone parlanti è un obiettivo importante”, ha affermato Edward Chang, un neurochirurgo presso l'Università della California, San Francisco. “Gli algoritmi di AI che stiamo usando stanno diventando più veloci e stiamo imparando con ogni nuovo partecipante ai nostri studi.”

Chang e colleghi, tra cui l'Università della California, Berkeley il mese scorso hanno pubblicato un documento in Neuroscienze della natura in dettaglio il loro lavoro con una donna con quadriplegia o paralisi degli arti e del busto, che non erano stati in grado di parlare per 18 anni dopo aver subito un ictus.

Ha addestrato una rete neurale di apprendimento profondo tentando silenziosamente di dire frasi composte usando 1.024 parole diverse. L'audio della sua voce è stato creato trasmettendo in streaming i suoi dati neurali in una sintesi vocale congiunta e un modello di decodifica del testo.

La tecnica ha ridotto il ritardo tra i segnali cerebrali del paziente e l'audio risultante dagli otto secondi che il gruppo aveva raggiunto in precedenza a un secondo. Questo è molto più vicino al divario temporale di 100-200 millisecondi nel linguaggio normale. La velocità di decodifica mediana del sistema era di 47,5 parole al minuto, o circa un terzo il tasso di conversazione normale.

Molte migliaia di persone all'anno potrebbero beneficiare della cosiddetta protesi vocale. Le loro funzioni cognitive rimangono più o meno intatte, ma hanno subito perdita di linguaggio a causa dell'ictus, del disturbo neurodegenerativo della SLA e di altre condizioni cerebrali. In caso di successo, i ricercatori sperano che la tecnica possa essere estesa per aiutare le persone che hanno difficoltà a vocalizzare a causa di condizioni come la paralisi cerebrale o l'autismo.

Il potenziale della neuroprotesi vocale sta iniziando a innescare l'interesse tra le imprese. Le neuroscienze di precisione afferma di catturare segnali cerebrali a risoluzione più elevata rispetto ai ricercatori accademici, poiché gli elettrodi dei suoi impianti sono più densamente imballati.

La società ha lavorato presto con 31 pazienti e piani per raccogliere dati da più, fornendo un potenziale percorso alla commercializzazione.

La precisione ha ricevuto l'autorizzazione normativa il 17 aprile per lasciare i suoi sensori impiantati per un massimo di 30 giorni alla volta. Ciò consentirebbe ai suoi scienziati di formare il loro sistema con quello che potrebbe essere il “più grande deposito di dati neurali ad alta risoluzione che esiste sul pianeta Terra”, ha affermato l'amministratore delegato Michael Mager.

Il prossimo passo sarebbe “miniaturizzare i componenti e metterli in pacchetti ermeticamente sigillati che sono biocompatibili in modo che possano essere piantati per sempre nel corpo”, ha detto Mager.

Neuralink di Elon Musk, la società BIRTH-CALLEPER Interface (BCI) più conosciuta, si è concentrata sul consentire alle persone con la paralisi di controllare i computer piuttosto che dare loro una voce sintetica.

Un ostacolo importante allo sviluppo della tecnologia da cervello a vocale è il momento in cui i pazienti impiegano per imparare a utilizzare il sistema.

Una domanda chiave senza risposta è quanto i modelli di risposta nella corteccia motoria – la parte del cervello che controlla le azioni volontarie, incluso il linguaggio – variano tra le persone. Se sono rimasti molto simili, i modelli di apprendimento automatico addestrati su persone precedenti potrebbero essere utilizzati per nuovi pazienti, ha affermato Nick Ramsey, ricercatore BCI presso l'Università Medical Center Utrecht.

Ciò accelererebbe un processo che oggi richiede “decine o centinaia di ore generando dati sufficienti mostrando un testo dei partecipanti e chiedendo loro di provare a parlarlo”.

Ramsey ha affermato che tutte le ricerche sul cervello a vocale si sono concentrate sulla corteccia motoria in cui i neuroni attivano i muscoli coinvolti nel parlare, senza alcuna prova che il discorso possa essere generato da altre aree cerebrali o decodificando pensieri interiori.

“Anche se potessi, non vorresti che le persone ascoltino il tuo discorso interiore”, ha aggiunto. “Ci sono molte cose che non dico ad alta voce perché non sarebbero a mio vantaggio o potrebbero ferire le persone.”

Lo sviluppo di una voce sintetica buona come un discorso sano potrebbe ancora essere “un bel modo di distanza”, ha affermato Sergey Stavisky, co-direttore del Neuroprophetics Lab dell'Università della California, Davis.

Il suo laboratorio aveva dimostrato che poteva decodificare ciò che qualcuno stava cercando di dire con una precisione di circa il 98 %, ha detto. Ma la produzione vocale non è istantanea e non cattura importanti qualità del linguaggio come il tono. Non era chiaro se l'hardware di registrazione – elettrodi – utilizzato potesse consentire alla sintesi di abbinare una voce umana sana, ha aggiunto.

Gli scienziati dovevano sviluppare una comprensione più profonda di come il cervello codifica la produzione vocale e migliori algoritmi per tradurre l'attività neurale in risultati vocali, ha aggiunto Stavisky.

Ha detto: “Alla fine una neuroprotesi vocale dovrebbe fornire l'intera gamma espressiva della voce umana, in modo che ad esempio possano controllare con precisione il loro tono e tempi e fare cose come cantare”.