Sblocca gratuitamente il Digest dell'editore
Il defunto Byron Wien, un importante stratega dei mercati degli anni ’90, definì la migliore ricerca come una raccomandazione non consensuale che si rivelò corretta. L'intelligenza artificiale potrebbe superare il test di Vienna sull'utilità della ricerca e rendere superfluo il lavoro dell'analista? O per lo meno aumentare la probabilità che una raccomandazione sia giusta più del 50% delle volte?
Bene, è importante capire che la maggior parte dei rapporti degli analisti sono dedicati all'interpretazione di rendiconti finanziari e notizie. Si tratta di facilitare il lavoro degli investitori. In questo caso, i moderni modelli linguistici di grandi dimensioni semplificano o sostituiscono questa funzione dell’analista.
Successivamente, viene dedicato un notevole impegno alla previsione degli utili. Dato che nella maggior parte dei casi i profitti tendono a seguire uno schema, poiché gli anni buoni seguono gli anni buoni e viceversa, è logico che un motore basato su regole funzioni. E poiché i modelli non hanno bisogno di “farsi ascoltare” distinguendosi dalla massa con proiezioni stravaganti, il loro bias e il loro rumore inferiori possono sovraperformare le stime della maggior parte degli analisti in periodi in cui l’incertezza è limitata. Gli accademici ne hanno scritto decenni fa, ma la pratica non è decollata nella ricerca tradizionale. Per scalare, richiedeva una buona dose di statistiche o la costruzione di una rete neurale. Raramente con le competenze di un analista.
Il cambiamento è in corso. Accademici dell'Università di Chicago addestrato lampi modelli linguistici per stimare la varianza dei guadagni. Queste hanno sovraperformato le stime mediane se confrontate con quelle degli analisti. I risultati sono affascinanti perché gli LLM generano approfondimenti comprendendo la narrativa della pubblicazione degli utili, poiché non hanno quello che potremmo chiamare ragionamento numerico, il limite di un algoritmo ristretto. E le loro previsioni migliorano quando viene loro chiesto di rispecchiare i passaggi compiuti da un analista senior. Come un bravo junior, se lo desideri.
Ma gli analisti faticano a quantificare il rischio. Parte di questo problema è dovuto al fatto che gli investitori sono così fissati nell’ottenere guadagni sicuri da spingere gli analisti a esprimere certezza quando non ce n’è. La scorciatoia è flettere leggermente le stime o i multipli verso l’alto o verso il basso. Nella migliore delle ipotesi, prendendo in considerazione una serie di situazioni simili, i LLM possono aiutare.
Giocando con la “temperatura” del modello, che è un proxy della casualità dei risultati, possiamo fare un’approssimazione statistica delle fasce di rischio e rendimento. Inoltre, possiamo richiedere che il modello ci fornisca una stima della fiducia che ha nelle sue proiezioni. Forse, controintuitivamente, questa è la domanda sbagliata da porre alla maggior parte degli esseri umani. Tendiamo ad essere troppo sicuri della nostra capacità di prevedere il futuro. E quando le nostre proiezioni iniziano a sbagliare, non è insolito aumentare il nostro impegno. In termini pratici, quando un’azienda produce una “lista di condanne”, potrebbe essere meglio pensarci due volte prima di seguire ciecamente il consiglio.
Ma prima di buttare via il proverbiale analista con l’acqua sporca, dobbiamo riconoscere i limiti significativi dell’intelligenza artificiale. Mentre i modelli cercano di dare la risposta più plausibile, non dovremmo aspettarci che scoprano la prossima Nvidia – o prevedano un’altra crisi finanziaria globale. Questi titoli o eventi contrastano qualsiasi tendenza. Né i LLM possono suggerire qualcosa che “vale la pena esaminare” nella richiesta degli utili poiché il management sembra evitare di discutere informazioni rilevanti in termini di valore. Né possono anticipare le oscillazioni del dollaro, per esempio, a causa di dispute politiche. Il mercato non è stazionario e le opinioni al riguardo cambiano continuamente. Abbiamo bisogno di intuizione e flessibilità per incorporare nuove informazioni nelle nostre opinioni. Queste sono le qualità di un ottimo analista.
L’intelligenza artificiale potrebbe aumentare la nostra intuizione? Forse. I ricercatori più avventurosi possono utilizzare le tanto diffamate allucinazioni dei LLM a proprio favore aumentando la casualità delle risposte del modello. Questo farà emergere molte idee da verificare. Oppure costruisci scenari geopolitici “what if” traendo dalla storia più lezioni alternative di quelle che un esercito di esperti potrebbe fornire.
I primi studi suggeriscono il potenziale in entrambi gli approcci. Questa è una buona cosa, poiché chiunque abbia fatto parte di un comitato di investimento apprezza quanto sia difficile portare sul tavolo prospettive alternative. Attenzione però: difficilmente vedremo una “scintilla di genio” e ci saranno un sacco di sciocchezze da estirpare.
Ha senso avere un vero e proprio dipartimento di ricerca o seguire un analista di punta? Lo fa. Ma dobbiamo presupporre che alcuni processi possano essere automatizzati, che altri possano essere migliorati e che l’intuizione strategica sia come un ago in un pagliaio. È difficile trovare raccomandazioni non consensuali che si rivelino giuste. E c'è una certa serendipità nella ricerca.