ARM ha recentemente annunciato l'arrivo della sua piattaforma Lumex CSS, che secondo lui è progettato per supportare le funzionalità di intelligenza artificiale di prossima generazione sui dispositivi di consumo. Ciò in mente, la nuova piattaforma combina potenti CPU, GPU e IP di sistema con uno stack di software ottimizzato.
LEGGI: Qualcomm team con BMW per un sistema di guida automatizzato abilitato agli AI
Uno dei componenti principali di Lumex è l'estensione della matrice scalabile versione 2 (SME2), che ARM afferma che migliora le prestazioni di intelligenza artificiale consentendo a nuove CPU abilitate a SME2 di ottenere un aumento fino a 5X delle prestazioni di AI. Sulla carta, questo essenzialmente si traduce in compiti più rapidi in tempo reale come la traduzione vocale e la generazione audio, per esempio. Chris Bergey, SVP e GM della linea di business dei clienti di ARM:
L'intelligenza artificiale non è più una caratteristica, è la base della tecnologia mobile e di consumo di prossima generazione. Gli utenti ora si aspettano assistenza in tempo reale, comunicazione senza soluzione di continuità o contenuti personalizzati che sono istantanei, privati e disponibili sul dispositivo, senza compromessi. Soddisfare queste aspettative richiede più che aggiornamenti incrementali, richiede un cambio di passo che unisce prestazioni, privacy ed efficienza in modo scalabile.
Spostando l'elaborazione dell'IA dal cloud al dispositivo, ARM afferma che Lumex è in grado di fornire agli utenti un'esperienza più veloce, più privata e più affidabile. Supporta anche il miglioramento della grafica e il gioco con la nuova GPU Mali G1-Ultra, con un 2x sollevamento nelle prestazioni di tracciamento dei raggi e fino a un aumento del 20% delle prestazioni di inferenza di intelligenza artificiale.
Per gli sviluppatori, la libreria di software Kleidiai è integrata nei principali sistemi operativi mobili e framework AI, consentendo loro di accedere facilmente all'accelerazione SME2. Arm afferma che questa tecnologia aggiungerà oltre 10 miliardi di cime di calcolo su oltre 3 miliardi di dispositivi nel prossimo mezzo decennio.
