Dom. Lug 13th, 2025
The Microsoft logo

Sblocca gratuitamente il digest dell'editore

Microsoft inizierà a classificare i modelli di intelligenza artificiale in base alle loro prestazioni di sicurezza, poiché il gruppo di software cerca di creare fiducia con i clienti cloud mentre vende loro offerte di intelligenza artificiale da artisti del calibro di Openi e Xai di Elon Musk.

Sarah Bird, responsabile dell'IA responsabile di Microsoft, ha affermato che la società avrebbe presto aggiunto una categoria di “sicurezza” alla sua “classifica modello”, una caratteristica che ha lanciato per gli sviluppatori questo mese per classificare le iterazioni da una serie di fornitori tra cui la Cina Deepseek e la Francia.

La classifica, che è accessibile da decine di migliaia di clienti che utilizzano la piattaforma di sviluppatori di fonderia di Azure, dovrebbe influenzare che i modelli e le applicazioni AI vengono acquistati tramite Microsoft.

Microsoft attualmente classifica tre metriche: qualità, costo e throughput, che è la velocità con cui un modello può generare un output. Bird ha detto al MagicTech che la nuova classifica di sicurezza garantirebbe “le persone possono semplicemente fare acquisti e comprendere direttamente” le capacità dei modelli di intelligenza artificiale mentre decidono quale acquistare.

La decisione di includere parametri di riferimento di sicurezza arriva quando i clienti di Microsoft affrontano i potenziali rischi posti da nuovi modelli di intelligenza artificiale ai dati e alle protezioni della privacy, in particolare se distribuiti come “agenti” autonomi che possono funzionare senza supervisione umana.

La nuova metrica di sicurezza di Microsoft si baserà sul proprio punto di riferimento Tossigen, che misura il discorso di odio implicito e il centro di riferimento per le armi di distruzione di massa di AI Safety. Quest'ultimo valuta se un modello può essere utilizzato per scopi dannosi come la costruzione di un'arma biochimica.

Le classifiche consentono agli utenti di avere accesso a metriche oggettive quando si selezionano da un catalogo di oltre 1.900 modelli AI, in modo che possano fare una scelta informata di cui utilizzare.

“Le classifiche di sicurezza possono aiutare le aziende a tagliare il rumore e le opzioni ristrette”, ha affermato Cassie Kozirkov, consulente ed ex scienziato decisionale di Google. “La vera sfida è la comprensione dei compromessi: prestazioni più elevate a quale costo? Costo inferiore a quale rischio?”

Oltre a Amazon e Google, il gruppo con sede a Seattle è considerato uno dei più grandi “iperscaler” che insieme dominano il mercato del cloud.

Microsoft si sta inoltre posizionando come una piattaforma agnostica per l'intelligenza artificiale generativa, firmando accordi per vendere modelli di XAI e antropici, rivali per start-up Openi che ha sostenuto con circa 14 miliardi di dollari di investimenti.

Il mese scorso, Microsoft ha dichiarato di iniziare a offrire la famiglia di modelli Grok di Xai agli stessi termini commerciali di OpenAI.

La mossa è arrivata nonostante una versione di Grok che ha sollevato allarme quando una “modifica non autorizzata” del suo codice ha portato ad essa a fare riferimento ripetutamente al “genocidio bianco” in Sudafrica quando ha risposto alle domande sul sito di social media X. Xai ha affermato di aver introdotto una nuova politica di monitoraggio per evitare incidenti futuri.

“I modelli sono disponibili in una piattaforma, c'è un certo grado di revisione interna e quindi spetta al cliente utilizzare i parametri di riferimento per capirlo”, ha detto Bird.

Non esiste uno standard globale per i test di sicurezza dell'intelligenza artificiale, ma la legge AI dell'UE entrerà in forza entro la fine dell'anno e costringerebbe le aziende a condurre test di sicurezza.

Alcuni costruttori di modelli tra cui Openi stanno dedicando meno tempo e denaro per identificare e mitigare i rischi, il FT ha precedentemente riferito di citare diverse persone che hanno familiarità con i processi di sicurezza dell'avvio. La start-up ha dichiarato di aver identificato l'efficienza senza compromettere la sicurezza.

Bird ha rifiutato di commentare i test di sicurezza di Openi, ma ha affermato che era impossibile spedire un modello di alta qualità senza investire una “quantità enorme” nella valutazione e che i processi venivano automatizzati.

Microsoft in aprile ha anche lanciato un “agente di squadra di lettura di intelligenza artificiale” che automatizza il processo di programma di stress test per il lancio di attacchi per identificare le vulnerabilità. “Specifichi il rischio, specifichi la difficoltà dell'attacco … E poi è fuori di attaccare il tuo sistema”, ha detto Bird.

Vi sono preoccupazioni per il fatto che senza adeguati agenti AI di supervisione potrebbero intraprendere azioni non autorizzate aprendo i proprietari fino a passività.

“Il rischio è che le classifiche possano cullare i decisori in un falso senso di sicurezza”, ha affermato Kozirkov. “Le metriche di sicurezza sono un punto di partenza, non una luce verde.”