Sab. Set 14th, 2024
Siamo ancora molto lontani da un'intelligenza artificiale veramente open source

Sblocca gratuitamente l'Editor's Digest

L'intelligenza artificiale open source è stata una delle storie tecnologiche più sorprendenti dell'anno scorso. Mentre aziende come OpenAI e Google hanno investito miliardi di dollari nella creazione di un'intelligenza artificiale sempre più potente, i modelli “open” liberamente disponibili per gli sviluppatori da utilizzare e adattare hanno colmato il divario di prestazioni.

C'è solo un inconveniente: la maggior parte di questi sistemi open source non sono molto aperti. I critici accusano i loro sostenitori di “open washing”, ovvero di cercare di trarre vantaggio dall'effetto alone dell'open source, con la sua libertà dai vincoli dei normali prodotti software commerciali, ma non all'altezza del nome.

Lo sforzo per creare una versione veramente open source dell'IA sta finalmente prendendo piede. Ma non c'è garanzia che il suo progresso sarà pari a quello del software open source, che ha assunto un ruolo fondamentale nel mondo della tecnologia negli ultimi 20 anni. Con il software open source tradizionale, come il sistema operativo Linux, il codice è liberamente disponibile per gli sviluppatori che possono ispezionarlo, utilizzarlo e adattarlo. La cosiddetta IA open source è stata molto diversa, non da ultimo perché la maggior parte dei moderni sistemi di IA impara dai dati anziché avere la propria logica programmata nel codice.

Prendiamo il Llama di Meta. Vengono divulgati solo i “pesi” che determinano come il modello risponde alle query. Gli utenti possono prenderlo e adattarlo, ma non possono vedere i dati sottostanti su cui è stato addestrato e non hanno informazioni sufficienti per riprodurre il modello da zero.

Per molti sviluppatori, questo ha ancora alcuni chiari vantaggi. Possono adattare e addestrare modelli quasi aperti sulle proprie informazioni senza dover consegnare i dati interni sensibili a un'altra azienda.

Ma non essere completamente aperti ha i suoi costi. Secondo Ayah Bdeir, consulente senior della Mozilla Foundation, solo una vera tecnologia open source darebbe alle persone una comprensione completa dei sistemi che stanno iniziando a influenzare tutti gli aspetti delle nostre vite, garantendo al contempo che innovazione e competizione non possano essere schiacciate da una manciata di aziende AI dominanti.

Una risposta è arrivata dall'Open Source Initiative, che ha definito la definizione di software open source più di 20 anni fa. Questa settimana, ha prodotto una definizione quasi definitiva che potrebbero contribuire a dare forma allo sviluppo del settore.

Ciò richiederebbe non solo i pesi per un modello da rilasciare, ma anche informazioni sufficienti sui dati su cui è stato addestrato per consentire a qualcun altro di riprodurlo, nonché tutto il codice dietro il sistema. Altri gruppi, come Mozilla e la Linux Foundation, stanno spingendo iniziative simili.

Mosse come queste stanno già portando a una maggiore segmentazione nel mondo dell'IA. Molte aziende stanno prestando maggiore attenzione alla loro terminologia, forse consapevoli che l'OSI detiene il marchio registrato del termine “open source” e potrebbe intentare causa per impedirne l'uso su modelli di IA che esulano dalla sua definizione. Mistral, ad esempio, definisce il suo Nemo un modello “open weights”.

Accanto ai sistemi parzialmente aperti, stanno iniziando ad apparire modelli completamente open source, come il modello di linguaggio di grandi dimensioni Olmo sviluppato dall'Allen Institute for AI. Tuttavia, è tutt'altro che chiaro che questa versione avrà un impatto così grande nel mondo dell'AI come ha avuto nel software tradizionale. Perché ciò accada, sarebbero necessarie due cose.

Uno è che la tecnologia dovrà soddisfare un'esigenza abbastanza grande da attrarre una massa critica di utenti e sviluppatori. Con il software tradizionale, il sistema operativo per server Linux ha rappresentato una chiara alternativa a Windows di Microsoft, guadagnandosi una vasta base di utenti e un forte sostegno dai rivali di Microsoft, tra cui IBM e Oracle. Linux non ha equivalenti nel mondo dell'intelligenza artificiale. Il mercato è già più frammentato e molti utenti troveranno adeguati LLM quasi aperti come Llama.

I sostenitori dell'intelligenza artificiale open source devono anche sostenere meglio la sua sicurezza. La prospettiva che una tecnologia così potente e di uso generale venga rilasciata affinché chiunque possa utilizzarla correttamente suscita una preoccupazione diffusa.

Oren Etzioni, ex direttore dell'Allen Institute, afferma che molti timori sono esagerati. Quando si tratta di andare online per cercare come realizzare una bomba o un'arma biologica: “Non si riesce a ottenere di più da queste [AI models] di quanto si possa ottenere da Google. Ce n'è parecchio in giro, solo che è confezionato in modo diverso”. Ammette che ci sono alcune aree in cui rendere l'IA più liberamente disponibile potrebbe causare danni, come l'automazione della creazione di più disinformazione online.

L'intelligenza artificiale “chiusa” comporta anche dei rischi. Ma finché il rischio marginale aggiuntivo di rendere open source la tecnologia non sarà stato studiato più a fondo, insieme ai potenziali benefici, i timori rimarranno.

[email protected]