international analysis and commentary

Le previsioni sbagliate dell’economia dell’equilibrio

536

Nel novembre del 2008 la regina Elisabetta II, durante una visita presso la London School of Economics (LSE), chiese alla platea gremita d’insigni professori come mai nessuno di loro avesse previsto la devastante crisi appena scoppiata. La domanda della Regina è stata una cartina di tornasole dell’irreale dibattito in campo economico. È stata una delle prime volte in cui gli economisti, e in particolare quelli appartenenti alla scuola mainstream, la cosiddetta scuola neoclassica, sono stati chiamati a spiegare le loro posizioni e le ragioni del fallimento delle previsioni di fronte all’opinione pubblica. In questo modo il dibattito ha smesso di essere relegato all’interno della comunità accademica o, peggio ancora, all’interno della stessa scuola mainstream (di cui, peraltro, quasi tutti i docenti della LSE fanno parte).

Le critiche da parte delle altre scuole di pensiero economico non erano mancate fino a quel momento, ma la discussione era stata troppo tecnica per raggiungere un ampio pubblico. All’interno della scuola neoclassica l’analisi sulla causa del fallimento delle previsioni rispetto alla più grande crisi economica degli ultimi ottanta anni è stata completamente autoreferenziale e auto-assolutoria. 

La crisi finanziaria degli ultimi anni, effettivamente, è stata un vero disastro delle previsioni economiche sotto tanti punti di vista. Uno degli errori più discusso è quello delle tre agenzie di rating per eccellenza (Standard & Poors’s, Moody’s e Fich Ratings): queste avevano assegnato la classe di rischio più bassa, generalmente riservata ai governi più solventi del mondo e alle migliori aziende, a complessi strumenti finanziari la cui probabilità di default si è rivelata essere centinaia di volte maggiore di quella prevista. Così miliardi di dollari d’investimenti che erano stati valutati del tutto sicuri si sono rivelati essere del tutto insicuri. Ma la responsabilità del fallimento delle previsioni non è solo delle agenzie di rating, ed è necessario andare alla radice del problema. Perché queste previsioni sono fallite in maniera così catastrofica?

Si tratta di una discussione che deve essere portata davanti al maggior numero possibile di persone, perché le decisioni di politica economica di molti paesi e delle principali istituzioni internazionali (Fondo, OCSE, Banca Mondiale, WTO, Banca Centrale Europea, ecc.) sono suggerite o addirittura tratte direttamente da modelli ispirati a proprio a quella teoria economica che si è rivelata fallace (ad esempio i cosiddetti modelli DSGE – “Dynamic Stochastic General Equilibrium”). Inoltre, le decisioni economiche riguardano tutti i cittadini, poiché tutti ne subiscono le conseguenze: è dunque cruciale che i fondamenti teorici di questi modelli siano discussi di fronte all’opinione pubblica. D’altronde, non trattandosi di gravità quantistica o della teoria delle stringhe, non è neppure molto complicato spiegare in termini semplificati (ma comunque accurati dal punto di vista logico) di cosa si tratta, in modo che tutti possano farsene un’opinione.

Il nucleo dell’analisi economica standard è la teoria dell’equilibrio competitivo generale. La sua formulazione moderna è dovuta all’economista francese Leon Walras e in seguito è stata sviluppata da diversi autori a cominciare dal contributo fondamentale di Gerard Debreu e Kenneth Arrow. Dal lavoro di Walras in poi gli economisti neoclassici concettualizzano gli agenti, che possono essere le famiglie, le imprese, ecc., come entità razionali che ricercano i «migliori» risultati, cioè i massimi guadagni possibili, situazione che da un punto di vista matematico equivale a trovare il massimo di un’opportuna funzione di utilità.

Arrow e Debreu, grazie a una serie di assunti teorici (del tutto irrealistici però), furono in grado di provare l’esistenza dell’equilibrio nel mercato. Tale situazione di equilibrio corrisponderebbe a ciò che gli economisti chiamano «l’ottimale di Pareto», cioè una situazione in cui nessun arrangiamento concepibile dei prezzi o delle quantità di prodotti, persino gestite da un pianificatore centrale infinitamente intelligente, porterebbe a un miglior esito senza perdite per almeno un produttore o un’impresa. La dimostrazione dell’esistenza di un equilibrio competitivo dovrebbe permettere di comprendere la maniera in cui funziona un’economia di mercato, dove ognuno agisce indipendentemente dagli altri. Tuttavia, non è mai stato dimostrato, anche usando ipotesi che permettono di semplificare ulteriormente il problema, che un equilibrio concorrenziale esista, che sia unico e che, in più, sia stabile – le tre condizioni  fondamentali perché tutta questa costruzione abbia un senso.

I problemi concettuali di quest’approccio sono davvero enormi e sono stati dibattuti da moltissimi economisti le cui critiche sono state però lasciate senza risposta. La fisica moderna può aiutarci a comprendere questa perplessità concettuale, perché alle prese con una simile questione. Da più di cinquant’anni, infatti, si conoscono e si studiano sistemi fisici complessi per i quali, anche se uno stato di equilibrio stabile esiste in teoria, esso può essere totalmente irrilevante in pratica, perché il tempo per raggiungerlo è troppo lungo.

Inoltre, esistono sistemi intrinsecamente fragili rispetto all’azione di piccole perturbazioni: sistemi che evolvono in modo intermittente con un susseguirsi di epoche stabili intervallate da cambiamenti rapidi e imprevedibili. In altre parole, per molti sistemi fisici l’equilibrio stabile non è una condizione raggiunta in maniera naturale: in molti casi c’èuna meta-stabilità e non un vero e proprio equilibrio (come sarebbe invece quello di un gas in una stanza isolata o di una pallina in fondo a una valle). È dunque una situazione di temporanea stazionarietà ma di potenziale instabilità, tanto che è sufficiente una piccola perturbazione per causare grandi effetti.

Ciò accade, per esempio, nel caso dei terremoti. quando si accumula l’energia potenziale per effetto del moto relativo di due faglie tettoniche si accumula a lungo l’energia potenziale; superata una certa soglia critica, anche di pochissimo, questa energia sarà rilasciata sotto forma di onde sismiche e ci sarà un terremoto. La dinamica dei terremoti è quindi rappresentata da periodi di apparente quiete in cui il sistema si carica, e terremoti improvvisi (ciclici e non periodici) in cui l’energia accumulata è rilasciata.

Proseguendo in questa metafora ci possiamo chiedere quale sia la causa dell’accumulazione di energia potenziale nel sistema economico, che è rilasciata al momento di una crisi. A mio parere la causa è stata (ed è tutt’ora) proprio la fiducia cieca e immotivata nell’autoregolamentazione dei mercati. Da questa è conseguita e consegue, anche grazie a una progressiva deregolamentazione dei mercati, l’enorme sviluppo di strumenti finanziari  che secondo il credo teorico, avrebbero dovuto distribuire il rischio in maniera ottimale: il contrario di quello che è successo in realtà, come purtroppo abbiamo sperimentato.

 

Per approfondire

  • Francesco Sylos Labini, “Rischio e Previsioni cosa ci dice la scienza sulla crisi”, Laterza 2016.
  • Nate Silver, Il segnale e il rumore, Fandango book, 2012.  
  • Steve Keen, Predicting the ‘Global Financial Crisis’: Post-Keynesian Macroeconomics, Economic Record, vol. 89, no. 285, June 2013, 228–254.
  • Prakash Loungani, How accurate are private sector forecasts? Cross-country evidence from consensus forecasts of output growth, International Journal of Forecasting 17 (2001) 419–432.
  • David F. Hendry, Grayham E. Mizon, Why DSGEs crash during crises, Vox 18 June 2014. 
  • Hites Ahir, Prakash Loungani, “There will be growth in the spring”: How well do economists predict turning points?, Vox 14 April 2014.
  • Mark Buchanan, Forecast: What Physics, Meteorology, and the Natural Sciences Can Teach Us About Economics, Bloomsbury, London 2014 (trad. it. Previsioni. Cosa possono insegnarci la fisica, la meteorologia e le scienze naturali sull’economia, Malcor D’ Edizione, Palermo 2014).