Rimani informato con aggiornamenti gratuiti
Le aziende di intelligenza artificiale che hanno speso miliardi di dollari per costruire i cosiddetti modelli linguistici di grandi dimensioni per alimentare i prodotti di intelligenza artificiale generativa stanno ora puntando su un nuovo modo per generare entrate: modelli linguistici di piccole dimensioni.
Apple, Microsoft, Meta e Google hanno recentemente rilasciato nuovi modelli di intelligenza artificiale con meno “parametri” – il numero di variabili utilizzate per addestrare un sistema di intelligenza artificiale e modellare il suo output – ma comunque con potenti capacità.
Le mosse sono uno sforzo da parte di gruppi tecnologici per incoraggiare l’adozione dell’intelligenza artificiale da parte delle aziende che hanno preoccupazioni sui costi e sulla potenza di calcolo necessari per eseguire modelli linguistici di grandi dimensioni, il tipo di tecnologia alla base di chatbot popolari come ChatGPT di OpenAI.
In generale, maggiore è il numero di parametri, migliori sono le prestazioni del software di intelligenza artificiale e più complessi e sfumati possono essere i suoi compiti. Si stima che l'ultimo modello GPT-4o di OpenAI e Gemini 1.5 Pro di Google, entrambi annunciati questa settimana, abbiano più di 1 trilione di parametri, e Meta sta addestrando una versione da 400 miliardi di parametri del suo modello open source Llama.
Oltre a lottare per convincere alcuni clienti aziendali a pagare le ingenti somme necessarie per eseguire prodotti di intelligenza artificiale generativa, ci sono anche preoccupazioni sulla responsabilità dei dati e sul copyright che ne frenano l’adozione.
Ciò ha portato gruppi tecnologici come Meta e Google a proporre piccoli modelli linguistici con solo pochi miliardi di parametri come alternative più economiche, efficienti dal punto di vista energetico e personalizzabili che richiedono meno energia per l’addestramento e il funzionamento, il che può anche proteggere i dati sensibili.
“Avendo così tanta qualità a un costo inferiore, si abilitano così tante altre applicazioni per i clienti a fare cose che in modo proibitivo non c'era abbastanza ritorno sull'investimento da giustificare il fatto di farlo”, ha affermato Eric Boyd , vicepresidente aziendale della piattaforma Azure AI di Microsoft, che vende modelli di intelligenza artificiale alle aziende.
Anche Google, Meta, Microsoft e la start-up francese Mistral hanno rilasciato piccoli modelli linguistici che mostrano capacità di avanzamento e possono essere meglio focalizzati su applicazioni specifiche.
Nick Clegg, presidente degli affari globali di Meta, ha affermato che il nuovo modello di parametri da 8 miliardi di Llama 3 è paragonabile a GPT-4. “Penso che praticamente da ogni misurazione a cui potresti pensare, vedi prestazioni superiori”, ha detto. Microsoft ha affermato che il suo modello Phi-3-small, con 7 miliardi di parametri, ha sovraperformato GPT-3.5, una versione precedente del modello OpenAI.
I piccoli modelli possono elaborare attività localmente su un dispositivo, anziché inviare informazioni al cloud, il che potrebbe attrarre i clienti attenti alla privacy che desiderano garantire che le informazioni siano conservate all’interno delle reti interne.
Charlotte Marshall, socio dirigente di Addleshaw Goddard, uno studio legale che fornisce consulenza alle banche, ha affermato che “una delle sfide che penso che molti dei nostri clienti abbiano dovuto affrontare” nell'adottare prodotti di intelligenza artificiale generativa è stata l'adesione ai requisiti normativi sulla gestione e il trasferimento dei dati. Ha affermato che i modelli più piccoli offrono “un’opportunità per le aziende di superare” le preoccupazioni legali e di costo.
I modelli più piccoli consentono inoltre l’esecuzione di funzionalità di intelligenza artificiale su dispositivi come i telefoni cellulari. Il modello “Gemini Nano” di Google è incorporato nel suo ultimo telefono Pixel e nell'ultimo smartphone S24 di Samsung.
Apple ha lasciato intendere che sta anche sviluppando modelli di intelligenza artificiale da eseguire sul suo iPhone più venduto. Il mese scorso, il colosso della Silicon Valley ha rilasciato il suo modello OpenELM, un piccolo modello progettato per eseguire attività basate su testo.
Boyd di Microsoft ha affermato che i modelli più piccoli porteranno a “applicazioni interessanti, fino ai telefoni e ai laptop”.
Il capo di OpenAI, Sam Altman, ha dichiarato a novembre che la start-up con sede a San Francisco offriva ai clienti modelli di intelligenza artificiale di diverse dimensioni che “servono a scopi separati” e che avrebbe continuato a costruire e vendere queste opzioni.
“Ci sono alcune cose in cui i modelli più piccoli funzioneranno davvero bene”, ha aggiunto. “Sono entusiasta per questo.”
Tuttavia, Altman ha aggiunto che OpenAI rimarrà focalizzata sulla costruzione di modelli di intelligenza artificiale più ampi con capacità ampliate, inclusa la capacità di ragionare, pianificare ed eseguire attività e infine raggiungere un’intelligenza a livello umano.
“Ci sono molte volte in cui penso che le persone vogliano solo il modello migliore”, ha detto. “Penso che sia ciò che la maggior parte delle persone desidera.”