L’intelligenza artificiale generativa potrebbe produrre magia nel cielo, afferma Sam Altman, fondatore della pionieristica start-up OpenAI. Gli imprenditori di successo hanno il diritto di fare dichiarazioni visionarie. Ma gli investitori dovrebbero mantenere la calma. Le aspettative per il GAI stanno andando ben oltre le limitazioni intrinseche attualmente applicabili ad esso.
Man mano che crescono gli investimenti nella GAI, aumenta anche la pressione per creare nuovi casi d’uso. Entro il 2027, il gruppo di dati IDC prevede che la spesa aziendale per GAI raggiungerà i 143 miliardi di dollari, rispetto ai circa 16 miliardi di dollari di quest’anno.
L’entusiasmo per l’intelligenza artificiale ha già contribuito a far salire l’indice Nasdaq Composite incentrato sulla tecnologia del 36% quest’anno. Parte di questo aumento si basa su una sopravvalutazione delle sue capacità.
OpenAI stessa spera in maggiori finanziamenti per perseguire il suo obiettivo di raggiungere livelli di intelligenza artificiale simili a quelli umani. Vale la pena ricordarlo quando si esamina il piano di Altman per costruire una “superintelligenza”. Questo è generalmente definito come una capacità di pensiero superiore a quella umana.
I modelli prevedono, non comprendono. Questa limitazione mette in dubbio la possibilità che l’IA raggiunga un’intelligenza generale simile a quella umana.
La generazione del testo prodotto da modelli linguistici di grandi dimensioni dipende per il momento dai dati utilizzati per addestrare tali modelli. I LLM producono risultati migliori quando riflettono concetti ricorrenti. Lottano con nuovi scenari e compiti al di fuori di tale ambito.
Ciò aiuta a spiegare perché il modello di previsione meteorologica AI di Google DeepMind ha recentemente superato i modelli di previsione esistenti. Nella maggior parte dei casi, i modelli meteorologici sono ricorrenti. In particolare, DeepMind non è riuscito a superare i modelli precedenti nel tentativo di individuare eventi insoliti ed estremi.
Gli LLM nel frattempo faticano a identificare i propri errori. La richiesta di una correzione non produce una risposta più accurata. In uno studio sui LLM, Originality. L’intelligenza artificiale ha scoperto che ognuno di essi produceva errori. ChatGPT-4 di OpenAI ha mostrato inesattezze in quasi un terzo delle risposte.
I direttori finanziari hanno in mente obiettivi più prosaici mentre cercano modi per implementare i suoi strumenti. Questi vanno dall’analisi delle revisioni delle prestazioni dei dipendenti alla pianificazione dei tempi di raccolta dei rifiuti.
Finora i risultati sono stati discontinui. Uno studio sull’assistenza dei chatbot basati sull’intelligenza artificiale sul posto di lavoro, condotto dal National Bureau of Economic Research, ha mostrato un incoraggiante miglioramento della produttività del 14%. Ma per gli agenti dell’assistenza clienti che hanno preso parte, i guadagni sono stati limitati ai lavoratori nuovi e poco qualificati. Quelli con esperienza hanno mostrato miglioramenti minimi o nulli.
Queste limitazioni diventeranno più evidenti con il lancio degli strumenti di intelligenza artificiale generativa nel 2024. Ciò eserciterà pressioni sui fornitori affinché affrontino l’ultima domanda senza risposta: i costi.
Secondo McKinsey, una società di consulenza con un debole per le previsioni accattivanti, l’intelligenza artificiale potrebbe aggiungere più di 4 trilioni di dollari ai profitti aziendali. Ma manca la chiarezza sui prezzi. Senza di essa, le aziende non possono prevedere quali guadagni finanziari l’intelligenza artificiale può ottenere.
L’intelligenza artificiale non può prevedere neanche questo, per quanto accuratamente preveda il tempo.