15. L’evoluzione delle teorie sulla costruzione del portafoglio

Disclaimer: i contenuti hanno finalità informativa generale e non costituiscono raccomandazioni e/o consigli personalizzati. Investire comporta rischi di perdita.

11–17 minuti

Non hai voglia di leggere? Nessun problema, è ora disponibile la versione podcast dell’articolo (disclaimer: si tratta di un tool in versione beta):

  1. Introduzione
  2. La Modern Portfolio Theory
  3. Sharpe e il CAPM
  4. Limiti delle teorie classiche
  5. L’Efficient Market Hypothesis e i fattori di investimento
  6. Le successive evoluzioni: Goal Based Investing
  7. Conclusione

Introduzione

Oggi più che mai, in un mondo dove la finanza è interessata da un drastico processo di democratizzazione, è importante conoscere le basi teoriche dell’asset allocation. L’idea di costruire un portafoglio finanziario in modo razionale nasce tempo fa da un’esigenza strutturale, avvertita sia da singoli risparmiatori sia da più sofisticati investitori istituzionali. Osservando il mercato, si notano comportamenti che a volte paiono imprevedibili. Altre volte, invece, emergono schemi ripetitivi, frutto di dinamiche cicliche o di sentiment collettivi. In questo contesto, la ricerca accademica e i professionisti del settore elaborano teorie e modelli per la selezione e la combinazione di asset con l’obiettivo di equilibrare il binomio rischio-rendimento in modo ottimale.

Il tema, spesso considerato ostico, può in realtà rivelarsi decisamente avvincente: ogni modello, infatti, riflette il tentativo di imbrigliare un complesso di variabili di diversa natura, economiche, psicologiche e sociali. Si susseguono analisi che partono dall’individuazione di correlazioni inattese, per arrivare poi a costruire formule più complesse, in un continuo passaggio di testimone tra generazioni di studiosi.

La Modern Portfolio Theory

Le basi metodologiche della costruzione del portafoglio moderno si rintracciano in un celebre lavoro di Harry Markowitz, pubblicato nel 1952 sulla rivista “The Journal of Finance”. Il suo articolo, intitolato “Portfolio Selection”, stabilisce i princìpi dell’asset allocation, suggerendo di concentrarsi non solo sui rendimenti attesi dei singoli titoli, ma anche sulla loro correlazione. L’intuizione che la varianza di un portafoglio dipende dai movimenti congiunti dei vari asset – e non dalla semplice somma dei rischi individuali – cambia radicalmente il modo di impostare la strategia di investimento.

Markowitz pone al centro il concetto di frontiera efficiente, definita come l’insieme di portafogli ottimali capaci di massimizzare il rendimento atteso per un dato livello di rischio. Questo passaggio, sul piano teorico, risulta rivoluzionario perché costringe a ragionamenti nuovi. Prima di tutto, non si guardia più esclusivamente (o, comunque, principalmente) al guadagno generato, ma si rapporta lo stesso al livello di rischio assunto. Quest’ultimo, in particolare, viene misurato attraverso la varianza (la cui radice quadrata dà la deviazione standard), che esprime l’oscillazione di valore attorno alla media (vedi articolo 8 per maggiori informazioni).

Per intenderci, è differente ottenere un guadagno del 10 % con una varianza del 10% piuttosto che del 20%. Rapportando il rendimento con il rischio otteniamo un valore di 1 (migliore) nel primo caso e di 0,5 (peggiore) nel secondo. Ciò vuol dire che, a parità di risultato, è tutt’altro che indifferente il livello di rischio assunto per raggiungerlo.

La rivoluzione di Markowitz, poi, ha inciso profondamente sul concetto di diversificazione. Non basta acquistare un numero elevato di titoli (o, più in generale, di strumenti); occorre selezionarli in modo tale che i loro rendimenti siano decorrelati.

Nel corso degli anni, gli studi successivi affinano il modello, introducendo ipotesi semplificative che ne agevolano l’adozione pratica. L’influenza di Markowitz, tuttavia, rimane rilevante. Ancora oggi, in molte università e case d’investimento, si spiega come costruire la frontiera efficiente, illustrando al contempo i limiti imposti dalla realtà dei mercati. Una delle sue conquiste più interessanti consiste proprio nell’aver spostato l’attenzione dal singolo titolo al complesso di asset nel portafoglio. Si va oltre la mera selezione dell’azione che potrà rendere di più, ma si cerca di combinare diverse tipologie di strumenti finanziari per ottenere un compromesso equilibrato tra rischio e rendimento.

Un secondo aspetto, spesso sottolineato, è il valore dell’analisi quantitativa. Markowitz, matematico di formazione, introduce un modello rigoroso, fatto di formule e calcoli delle covarianze, che – secondo i sostenitori – riducono la componente emotiva nelle decisioni d’investimento. Questo approccio diventa nel tempo una pietra miliare, influenzando generazioni di gestori e ricercatori, dai laboratori universitari ai desk di trading delle più grandi banche d’affari.

Sharpe e il CAPM

L’eredità di Markowitz trova un suo successore ideale in William F. Sharpe, che nel 1964 formula il noto Capital Asset Pricing Model (CAPM). Pubblicato anch’esso sul “The Journal of Finance”, questo modello cerca di spiegare il rendimento di un singolo asset in funzione del rischio sistematico, catturato da un parametro chiamato Beta. Più un titolo è correlato con i movimenti del mercato, più è elevata la sua esposizione al rischio comune.

Il CAPM parte dall’assunto di un mercato efficiente, dove tutti gli investitori dispongono delle stesse informazioni e la selezione del portafoglio avviene in maniera ottimale, rispettando i princìpi della Modern Portfolio Theory. In questo scenario, il Beta diventa la chiave per stimare il rendimento atteso di un titolo. Se il mercato nel suo complesso sale e scende, un titolo con Beta alto tenderà a moltiplicare queste oscillazioni, mentre un titolo con Beta basso ne ridurrà la portata.

Sharpe utilizza questa teoria per dimostrare che il premio per il rischio esiste solo per la porzione di rischio non diversificabile (il rischio sistematico, appunto). La conclusione, in parole semplici, è che se un investitore sceglie di detenere un portafoglio ben diversificato, subirà ancora le oscillazioni del mercato, ma non dovrà patire eventuali rischi specifici legati a una singola società o a uno specifico settore. L’intuizione, per l’epoca, appare illuminante e fornisce il quadro di un mercato quasi “perfetto” nella formazione dei prezzi.

Questa procedura, ancora oggi, è presente in molti libri di testo e riveste un ruolo di primo piano nelle decisioni di investment banking. Un esempio concreto è l’uso del CAPM nella valutazione delle aziende, quando si prova a determinare il tasso di sconto con cui attualizzare i flussi di cassa futuri; oppure ancora per calcolare il costo del capitale e per determinare se un titolo è sopravvalutato o sottovalutato rispetto alla propria esposizione al rischio di mercato.

Come sempre accade in finanza, l’adozione di un modello non ne implica l’accettazione incondizionata. Lo stesso Sharpe si mostra ben consapevole dei limiti intrinseci della sua teoria. Tuttavia, il CAPM segna un’epoca e diventa un riferimento costante, al punto che premi Nobel come Eugene Fama e Kenneth French lo useranno come base di partenza per proporre i loro correttivi e sviluppi, introducendo i famosi modelli a tre, cinque e anche più fattori.

Limiti delle teorie classiche

La Modern Portfolio Theory e il CAPM offrono una cornice di riferimento. Tuttavia, con il passare del tempo, ci si accorge che alcune ipotesi alla base di questi modelli appaiono troppo semplificate rispetto alla complessità reale dei mercati. Una critica spesso mossa riguarda la distribuzione dei rendimenti, che non sempre segue una normale standardizzata come previsto dai modelli. Esistono code grasse e asimmetrie che rendono il rischio più complicato da misurare. Come abbiamo visto nell’articolo 13, secondo studiosi come Nassim Nicholas Taleb, autore di “The Black Swan”, gli eventi estremi sono molto più frequenti di quanto suggerirebbe la curva gaussiana.

Un altro limite emerge dal comportamento degli investitori, che agiscono anche in modo irrazionale. Le scienze comportamentali – e, in particolare, la finanza comportamentale – svelano una serie di bias che influiscono sulle scelte finanziarie. Gli studi di Daniel Kahneman e Amos Tversky, poi approfonditi da numerosi altri ricercatori, dimostrano come la percezione del rischio e la propensione alle perdite possano deviare dalle ipotesi di massimizzazione dell’utilità marginale.

Quest’ultima, in particolare, teorizza il fatto che il piacere dato da un’unità aggiuntiva di un determinato bene è progressivamente minore. Ovvero: incrementare il proprio patrimonio da 50.000 € a 1.000.000 € è mediamente molto più soddisfacente, che farlo da 50.000.000 € a 100.000.000 €. Si tratta insomma di un modello che contempla una funzione decrescente, il cui cambiamento tuttavia è progressivo e uniforme. E ciò non sempre rispecchia la realtà: 10.000 € aggiuntivi ottenuti grazie a diverse ore di lavoro straordinario potrebbero avere un valore – emotivo – maggiore rispetto agli stessi 10.000 € derivanti da una vincita. In teoria, il denaro è un bene perfettamente fungibile e in questa prospettiva non ci possono essere differenze. Ma, come detto, noi essere umani spesso incorriamo in bias irrazionali che deviano le nostre azioni dal modello ideale.

Anche l’ipotesi di poter prendere in prestito e prestare denaro a un tasso privo di rischio illimitatamente, su cui si basa il CAPM, mostra evidenti difficoltà di applicazione pratica. In condizioni di mercato reali, i tassi di interesse e la disponibilità di credito variano in base ai fattori macroeconomici e alle caratteristiche del singolo investitore. Esistono, inoltre, costi di transazione e vincoli di liquidità che influenzano la costruzione di un portafoglio.

È doveroso poi citare le limitazioni tecnologiche delle passate generazioni. Soprattutto quando Markowitz e Sharpe formavano le loro teorie, i computer non erano così potenti da permettere un’analisi su grandi dataset. Oggi, con la possibilità di accumulare e processare dati su vasta scala, i ricercatori ottengono risultati più precisi e talvolta contrari alle ipotesi classiche. Diventa, quindi, più frequente introdurre modelli stocastici complessi o tecniche di apprendimento automatico per individuare pattern di mercato e strategie di investimento algoritmico.

Nonostante questi limiti, le teorie classiche rimangono il fondamento su cui si fondano le elaborazioni più recenti. Il loro valore consiste nell’aver creato un linguaggio comune e un metodo di analisi che ancora oggi rappresenta il punto di partenza per chiunque si avvicini allo studio dell’asset allocation.

L’Efficient Market Hypothesis e i fattori di investimento

Negli stessi anni in cui Sharpe elaborava il CAPM, prendeva forma la cosiddetta Efficient Market Hypothesis (EMH), grazie soprattutto ai lavori di Eugene Fama. In un paper del 1970, Fama descrive i mercati finanziari come ambienti in cui i prezzi riflettono in ogni istante tutte le informazioni disponibili. In una simile cornice, risulta difficile ottenere rendimenti superiori alla media senza esporsi a rischi più elevati.

Tale ipotesi assume diverse forme: nella versione “debole” si sostiene che i prezzi riflettano tutte le informazioni pubbliche, mentre nella versione “forte” si ritiene che i prezzi incorporino anche le informazioni private, rendendo impossibile battere il mercato.

La EMH, almeno nella sua formulazione più restrittiva, non convince tutti. Alcune anomalie di mercato – come l’effetto gennaio o l’effetto momentum – sembrano mettere in dubbio la totale efficienza dei prezzi.

Si fanno strada, allora, studi empirici che segnalano come alcuni fattori sistematici – valore, dimensione e slancio, tra gli altri – possano spiegare parte dei rendimenti nel lungo periodo. Fama e French, in particolare, introducono un modello a più fattori negli anni Novanta, in cui spiegano come i titoli di aziende piccole (small-cap) o quelli a basso rapporto prezzo/valore contabile (value) sovraperformino il mercato, con rendimenti aggiuntivi non spiegati dal Beta tradizionale. Successivamente, propongono un modello a cinque fattori, ampliando ulteriormente la spiegazione di ciò che determina i rendimenti azionari.

Questi studi hanno conseguenze non trascurabili sulla costruzione del portafoglio. In un mercato dove alcuni fattori di investimento sembrano in grado di generare extra-rendimento, si possono costruire strategie factor-based, selezionando titoli con determinate caratteristiche. Alcuni gestori passivi creano fondi indicizzati “smart beta”, che replicano panieri di titoli accomunati dallo stesso fattore. Questo approccio si distacca dalla classica diversificazione per settori o aree geografiche, prediligendo parametri fondamentali o di mercato.

Molte analisi indicano che i fattori si comportano in modo differente a seconda del regime di mercato. In alcune fasi, ad esempio, il fattore value vive periodi di sovraperformance, mentre in altre a emergere è il fattore momentum. Rimane aperta la questione di capire se questi vantaggi derivino da rischi aggiuntivi o da inefficienze temporanee.

Le discussioni su EMH e fattori di investimento mostrano come la teoria della costruzione del portafoglio si stia evolvendo. Si passa da un approccio che cerca un solo parametro (il Beta) a uno che include molteplici variabili, fino ad arrivare a considerazioni di natura comportamentale. Ai confini di questa ricerca c’è persino chi integra dati non convenzionali, come i social media sentiment data, per catturare segnali che sfuggono ai modelli tradizionali.

Le successive evoluzioni: Goal Based Investing

Se da un lato i modelli di frontiera efficiente e i vari fattori di rischio rimangono centrali per i professionisti della finanza, dall’altro si osserva una tendenza a ripensare l’asset allocation in chiave più personalizzata. Nasce, quindi, la prospettiva del Goal Based Investing, che pone al centro gli obiettivi specifici dell’investitore anziché una generica massimizzazione del rendimento. In questa filosofia, non si ricerca un portafoglio “unico” per tutti, ma si definiscono portafogli distinti per ogni finalità, come l’acquisto di una casa, l’istruzione dei figli o la pianificazione pensionistica.

La spinta a questo cambiamento arriva, in parte, dalla finanza comportamentale, che evidenzia come gli investitori non pensino sempre in termini di ottimizzazione matematica, ma spesso segmentino i propri risparmi in diverse “cassette mentali”. Un approccio di tipo goal based asseconda tale inclinazione, offrendo un modello che permette di associare a ogni obiettivo un profilo di rischio specifico. In genere, chi pianifica di acquistare una casa nel breve termine accetta un rischio inferiore rispetto a chi investe in un orizzonte temporale di vent’anni per la pensione.

Uno studio condotto da Vanguard indica che gli investitori che adottano strategie goal based mostrano maggiore disciplina e aderenza al piano nel tempo, riducendo la propensione a reagire in modo impulsivo alle fluttuazioni di mercato. Questo approccio, infatti, consente di suddividere il portafoglio in “pilastri” che rispondono a logiche differenti, ciascuno con le proprie metriche di rendimento e la propria volatilità. In questo modo, chi investe ottiene una maggiore consapevolezza del perché un certo capitale sia allocato in un determinato modo e, di conseguenza, risulta più disposto a mantenere la rotta nei momenti di turbolenza.

Il Goal Based Investing affonda le radici nei princìpi della Modern Portfolio Theory, ma si colloca in un’ottica più ampia, in cui la massimizzazione del rendimento atteso non rappresenta l’unica variabile di interesse. La diversificazione rimane cruciale, così come l’analisi dei fattori di mercato. Tuttavia, ogni componente del portafoglio risponde a un obiettivo preciso, e l’evoluzione della strategia si collega a eventuali modifiche nelle necessità personali o negli eventi di vita.

In definitiva, si passa da un modello “standard” di asset allocation a uno in cui le preferenze dell’investitore – e non solo i parametri di mercato – guidano la scelta degli strumenti. È una tendenza che coinvolge grandi player internazionali e simboleggia il tentativo di rendere più “umana” la finanza, pur mantenendo un ancoraggio solido alle evidenze quantitative e alle teorie consolidate.

Conclusione

Si potrebbe dire che la storia della costruzione del portafoglio somigli a un continuo processo di affinamento, sospeso tra rigore matematico e flessibilità strategica. La Modern Portfolio Theory di Markowitz apre la strada a un nuovo modo di pensare alla diversificazione. Il CAPM di Sharpe tenta di quantificare con precisione il rendimento atteso in funzione del rischio di mercato. Poi, Fama e French, che svelano l’importanza di fattori come valore e dimensione, seguiti da studi sempre più elaborati che scandagliano le inefficienze e le anomalie dei mercati.

Allo stesso tempo, si sviluppa un filone parallelo, che sottolinea i limiti della razionalità umana e introduce le scoperte della finanza comportamentale. L’Efficient Market Hypothesis, nella sua forma più pura, trova il suo contrappunto in chi dimostra l’esistenza di bolle speculative e crolli inaspettati, o in chi identifica strategie factor-based in grado di offrire rendimenti superiori.

Nel frattempo, la tecnologia consente di elaborare dataset enormi e l’industria finanziaria si orienta verso soluzioni più personalizzate, come il Goal Based Investing, che interpreta le esigenze del singolo investitore e traduce la costruzione del portafoglio in un percorso di vita, piuttosto che in una semplice equazione. La massima ambizione resta sempre la stessa: trovare un equilibrio tra rischio e rendimento, tenendo sempre ben a mente il fatto che nessuno può prevedere cosa succederà in futuro.

Chi investe con attenzione non cerca un singolo modello per risolvere ogni dubbio, ma una bussola in grado di guidare attraverso le mutevoli condizioni di mercato. È qui che le teorie classiche mostrano la loro intramontabile utilità, purché si sappiano applicare con spirito critico e senso della realtà. L’evoluzione non si ferma. Ogni anno, nuove ricerche e nuovi dati arricchiscono il panorama teorico, introducendo prospettive inedite. Alcuni guardano ai big data e all’intelligenza artificiale per identificare pattern nascosti, altri preferiscono la solidità dei criteri fondamentali. Ci si trova, insomma, dinanzi a una varietà di approcci che testimonia la vitalità del settore e, soprattutto, l’importanza di combinare rigore e creatività.

Stay tuned!

Grazie per aver letto questo articolo. Se hai domande o desideri condividere le tue esperienze, lascia un commento qui sotto. La tua opinione è importante!

Invia la tua richiesta

Se ti serve supporto per impostare strategie solide, scrivimi. Partiamo da obiettivi, vincoli e rischio; poi applichiamo metodo quantitativo e una cornice comportamentale per ridurre errori ricorrenti e rendere le decisioni più disciplinate.

Nota: le informazioni condivise sono di natura generale; eventuali valutazioni operative richiedono le verifiche e la documentazione previste.

← Precedente

Grazie per la risposta. ✨