Mer. Ott 16th, 2024

Sblocca gratuitamente il Digest dell’editore

L’ultima ricerca di Apple sull’esecuzione di grandi modelli linguistici sugli smartphone offre il segnale più chiaro che il produttore di iPhone intende raggiungere i suoi rivali della Silicon Valley nel campo dell’intelligenza artificiale generativa.

Il documento, intitolato “LLM in un lampo“, offre una “soluzione all’attuale collo di bottiglia computazionale”, scrivono i suoi ricercatori.

Il suo approccio “apre la strada a un’efficace inferenza degli LLM su dispositivi con memoria limitata”, hanno affermato. L’inferenza si riferisce al modo in cui i modelli linguistici di grandi dimensioni, i grandi repository di dati che alimentano app come ChatGPT, rispondono alle query degli utenti. Chatbot e LLM vengono normalmente eseguiti in vasti data center con una potenza di calcolo molto maggiore di un iPhone.

L’articolo è stato pubblicato il 12 dicembre ma ha attirato l’attenzione più ampia dopo che Hugging Face, un popolare sito in cui i ricercatori dell’intelligenza artificiale hanno mostrato il proprio lavoro, lo ha evidenziato mercoledì tardi. Si tratta del secondo articolo di Apple sull’intelligenza artificiale generativa di questo mese e segue le iniziative precedenti per consentire l’esecuzione di modelli di generazione di immagini come Stable Diffusion sui suoi chip personalizzati.

I produttori di dispositivi e chip sperano che le nuove funzionalità di intelligenza artificiale contribuiscano a rilanciare il mercato degli smartphone, che ha avuto il suo anno peggiore degli ultimi dieci anni, con spedizioni in calo di circa il 5%, secondo Counterpoint Research.

Nonostante abbia lanciato uno dei primi assistenti virtuali, Siri, nel 2011, Apple è stata in gran parte lasciata fuori dall’ondata di entusiasmo per l’intelligenza artificiale generativa che ha travolto la Silicon Valley nell’anno da quando OpenAI ha lanciato il suo rivoluzionario chatbot ChatGPT. Apple è stata vista da molti nella comunità dell’intelligenza artificiale come in ritardo rispetto ai suoi rivali Big Tech, nonostante abbia assunto il massimo dirigente dell’intelligenza artificiale di Google, John Giannandrea, nel 2018.

Mentre Microsoft e Google si sono concentrati principalmente sulla fornitura di chatbot e altri servizi di intelligenza artificiale generativa su Internet dalle loro vaste piattaforme di cloud computing, la ricerca di Apple suggerisce che si concentrerà invece sull’intelligenza artificiale che può essere eseguita direttamente su un iPhone.

I rivali di Apple, come Samsung, si stanno preparando a lanciare un nuovo tipo di “smartphone AI” il prossimo anno. Counterpoint stima che nel 2024 verranno spediti oltre 100 milioni di smartphone focalizzati sull’intelligenza artificiale, con il 40% dei nuovi dispositivi che offriranno tali funzionalità entro il 2027.

Il capo del più grande produttore di chip mobili al mondo, l’amministratore delegato di Qualcomm Cristiano Amon, prevede che portare l’intelligenza artificiale sugli smartphone creerebbe un’esperienza completamente nuova per i consumatori e invertirebbe il calo delle vendite mobili.

“Vedrete il lancio di dispositivi all’inizio del 2024 con una serie di casi d’uso dell’intelligenza artificiale generativa”, ha detto al MagicTech in una recente intervista. “Man mano che queste cose vengono ampliate, iniziano a apportare un cambiamento significativo nell’esperienza dell’utente e consentono nuove innovazioni che hanno il potenziale per creare un nuovo ciclo di aggiornamento negli smartphone.”

Assistenti virtuali più sofisticati saranno in grado di anticipare le azioni degli utenti come mandare SMS o programmare una riunione, ha detto, mentre i dispositivi saranno anche capaci di nuovi tipi di tecniche di fotoritocco.

Google questo mese ha presentato una versione del suo nuovo Gemini LLM che funzionerà “nativamente” sui suoi smartphone Pixel.

L’esecuzione del tipo di modello di intelligenza artificiale di grandi dimensioni che alimenta ChatGPT o Bard di Google su un dispositivo personale comporta sfide tecniche formidabili, perché agli smartphone mancano le enormi risorse di calcolo e l’energia disponibili in un data center. Risolvere questo problema potrebbe significare che gli assistenti IA rispondano più rapidamente rispetto al cloud e lavorino anche offline.

Garantire che le domande ricevano risposta sul proprio dispositivo senza inviare dati al cloud porterà probabilmente anche vantaggi in termini di privacy, un elemento chiave di differenziazione per Apple negli ultimi anni.

“Il nostro esperimento è progettato per ottimizzare l’efficienza dell’inferenza sui dispositivi personali”, hanno affermato i ricercatori. Apple ha testato il suo approccio su modelli tra cui Falcon 7B, una versione più piccola di un LLM open source originariamente sviluppato dal Technology Innovation Institute di Abu Dhabi.

L’ottimizzazione degli LLM per l’esecuzione su dispositivi alimentati a batteria è stata un obiettivo crescente per i ricercatori sull’intelligenza artificiale. I documenti accademici non sono un indicatore diretto di come Apple intenda aggiungere nuove funzionalità ai suoi prodotti, ma offrono uno sguardo raro sui suoi laboratori di ricerca segreti e sulle ultime scoperte tecniche dell’azienda.

“Il nostro lavoro non solo fornisce una soluzione all’attuale collo di bottiglia computazionale, ma crea anche un precedente per la ricerca futura”, hanno scritto i ricercatori di Apple nella conclusione del loro articolo. “Crediamo che, poiché gli LLM continuano a crescere in dimensioni e complessità, approcci come questo saranno essenziali per sfruttare il loro pieno potenziale in un’ampia gamma di dispositivi e applicazioni”.

Apple non ha risposto immediatamente a una richiesta di commento.