Podcast: Play in new window | Download
I punti critici del processo decisionale: il problema dell’induzione, le relazioni non lineari, la trappola della causalità, la fallacia narrativa e le conseguenze non volute.
l problema dell’inferenza o dell’induzione, ossia di come utilizzare l’osservazione del mondo reale per compiere delle scelte, è una questione su cui i gli studiosi hanno discusso molto a lungo nel tentativo di comprendere se la storia sia un buon insegnante. Nel suo A Treatise of Human Nature, il filosofo scozzese David Hume affrontò questo tema con l’ormai celebre “problema del cigno nero”.
“Nessun numero di osservazioni di cigni bianchi ci può consentire di inferire che tutti i cigni sono bianchi, ma una singola osservazione di un cigno nero è sufficiente a confutare quell’ipotesi.” (David Hume)
Per molti secoli si era dato per scontato che i cigni potessero essere solo bianchi finchè alla fine del XVII secolo un navigatore olandese scoprì il cigno nero in Australia. Hume era preoccupato dal fatto che la scienza ai suoi tempi fosse passata da un approccio scolastico basato sul ragionamento deduttivo (che dava quindi poca importanza all’osservazione del mondo reale) ad un empirismo ingenuo e destrutturato.
Il tema dell’utilizzo delle osservazioni empiriche nei processi decisionali è ancora oggi molto controverso ed è stato riportato alla ribalta dal filosofo/trader N.N.Taleb nel suo libro non a caso intitolato The Black Swan. Per spiegare il problema dell’induzione Taleb prende a prestito un esempio del filosofo Bertrand Russell, raccontando la storia del tacchino prima della festa del ringraziamento.
“L’uomo che ha nutrito il pollo tutti i giorni della sua vita alla fine gli tira il collo, dimostrando che il pollo avrebbe dovuto sviluppare una teoria più raffinata sull’uniformità della natura.” (Bertrand Russell)
La parabola del tacchino
C’era una volta un tacchino, allevato da un macellaio molto gentile che lo nutriva ogni giorno. Ad ogni pasto il tacchino consolidava la sua convinzione che una regola generale della vita fosse di essere accuditi da membri amichevoli della razza umana che pensavano solo al suo bene. Poi però, il pomeriggio precedente il giorno del Ringraziamento, capitò un evento imprevisto, che lo costrinse a rivedere le sue convinzioni.
Nel caso del tacchino, l’esperienza ha paradossalmente un valore negativo. La sua fiducia si è rafforzata man mano che cresceva il numero di pasti e ha raggiunto l’apice proprio nel momento in cui il rischio era maggiore. Il grafico sottostante è utilizzato da Taleb per riassumere la parabola:
Figura 1: la parabola del tacchino, tratto da The Black Swan di N.N.Taleb.
Il concetto può essere generalizzato: si osserva una variabile per mille giorni, se ne ricavano delle regolarità e le si proiettano nel futuro, ignari che all’improvviso può arrivare un cambiamento che non era affatto prevedibile semplicemente riferendosi al passato.
Nel grafico sottostante abbiamo riportato l’andamento di un fondo di investimento, piuttosto conosciuto tra gli investitori europei (per ovvi motivi non riportiamo il nome). La similitudine con il grafico precedente è lampante.
Figura 2: l’analogia tra il fondo e il tacchino. Fonte: Fida
Focalizzandosi solo alle performance storiche, decisamente migliori rispetto alla gran parte dei fondi della stessa categoria, si sarebbe potuto inferire che il gestore fosse fenomenale e avesse una sorta di tocco magico, ed è proprio quello che hanno pensato gran parte degli investitori. Purtroppo ad inizio 2020, a causa della pandemia, i mercati finanziari hanno ricevuto uno scossone ed il fondo è letteralmente imploso, mettendo a nudo una strategia per nulla magica ma semplicemente incurante dei rischi. Purtroppo chi vi ha investito ha fatto la fine del tacchino.
La non linearità
Il tema dell’inferenza è particolarmente controverso anche perché nel mondo reale molte relazioni non sono lineari: ciò significa che i dati del passato possono confermare una teoria e il suo esatto contrario. In questi casi adottare un modello lineare, che è l’approccio mentale di default per prevedere il futuro sulla base dei dati passati, è molto spesso fuorviante.
Per capire la non linearità delle relazioni facciamo un esempio.
Negli ultimi anni lo stato X ha accumulato dei deficit importanti ed il Primo Ministro decide di riequilibrare il bilancio aumentando le tasse: il livello di partenza è basso rispetto agli altri paesi e i cittadini capiranno. La manovra funziona. Forte del successo iniziale, il ministro continua ad aumentare le tasse per eliminare completamente il deficit. La politica fiscale è efficace ancora per qualche tempo, poi all’improvviso, quando la tassazione aumenta oltre un certo livello, il trend si interrompe. Cosa è successo? Livelli di tassazione troppo alti riducono la propensione al lavoro: i cittadini abbassano la propria intensità lavorativa e di conseguenza gli introiti fiscali ne risentono. Supponiamo di portare la tassazione al 100%: nessun cittadino di quel paese avrebbe interesse a lavorare. Ad un certo livello quindi, la relazione tra ricavi fiscali si deve necessariamente invertire: il che significa che non è lineare! Il Primo Ministro ha appena scoperto l’ormai celebre curva di Laffer.
La leggenda della curva di Laffer, raccontata dal matematico Jordan Ellenberg nel libro How Not to Be Wrong, vuole che Arthur Laffer, allora professore di economia presso l’Università di Chicago, si trovasse una sera del 1974 a cena con Dick Cheney e Donald Rumsfeld. Parlando della politica fiscale del presidente Ford, ad un certo punto Laffer prese un tovagliolo e fece un disegno: il risultato è visibile nella figura 3.
La curva di Laffer ha rappresentato un punto centrale delle politiche economiche repubblicane per almeno 40 anni, con il suo picco di popolarità durante l’amministrazione Reagan.
Figura 3: la curva di Laffer.
Il messaggio della curva di Laffer è chiaro: se l’obiettivo è aumentare i ricavi fiscali, la decisione se aumentare o ridurre le tasse dipende dal posizionamento sulla curva.
Pensare in maniera non lineare significa prendere in considerazione il punto di partenza prima di decidere dove andare.
Esempi di relazioni non lineari sono quelle tra cibo e salute, tra numero di allenamenti e performance sportiva, tra numero di ore lavorate e risultato, tra numero di riunioni effettuate in una settimana e soddisfazione del team e potremmo continuare a lungo. In alcuni casi individuare il punto di partenza è semplice; in altri richiede analisi empiriche approfondite. Dal 1974 ad oggi, gli esperti non sono ancora riusciti a stabilire il posizionamento dell’economia USA sulla curva di Laffer.
La relazione non lineare tra informazione e decisione
Al contrario da quanto sembrerebbe in prima analisi, vari studi hanno dimostrato che la relazione tra informazione e accuratezza decisionale non sia lineare. In un famoso paper del 1973, lo psicologo Paul Slovic illustrò un esperimento con 8 bookmakers esperti di cavalli. Verificò l’efficacia delle loro puntate in presenza di set informativi differenti. I risultati della sua analisi sono riportati nella figura 4.
Figura 4: accuratezza e fiducia nelle decisioni dei bookmakers in funzione del set informativo. P. Slovic “Behavioral Problems Adhering to a Decision Policy”.
L’accuratezza decisionale delle scommesse risultò invariata all’aumentare del set informativo. A crescere invece era la fiducia dei bookmakers, che, in presenza di maggiori informazioni, si sentivano più sicuri delle loro puntate.
Lo strategist James Montier nel suo paper “The Illusion of Knowledge” descrive una serie di studi effettuati successivamente, che evidenziano chiaramente come all’aumentare delle informazioni disponibili, l’accuratezza decisionale peggiora, anche significativamente. Ciò è dovuto a due fattori: da un lato, oltre un certo livello si forma una sorta di surplus informativo (“information overload”) che ci fa confondere le informazioni rilevanti con quelle inutili (o come dicono gli anglosassoni, rende difficile separare il segnale dal rumore). Dall’altro un eccesso di informazione genera un mal riposto senso di fiducia (“illusion of knowledge”) che ci porta molto spesso a sottovalutare i rischi delle nostre decisioni.
“Non è quello che non sai a metterti nei guai. E’ quello che dai per certo ma che non è così.” (Mark Twain)
“Invece di ossessionarci con ogni informazione che appare sui nostri schermi, dovremmo dedicare del tempo per individuare ciò che dovremmo realmente monitorare.” (James Montier)
L’obiettivo per un corretto processo decisionale non dev’essere quello di accumulare tante informazioni, ma di focalizzarsi su quello che conta realmente: individuare il segnale nascosto in un mare di rumore.
Le conseguenze non volute
In sistemi complessi caratterizzati dall’interazione di molti fattori, molto spesso non siamo in grado di valutare le conseguenze delle nostre scelte; anzi spesso gli effetti sono il contrario di quello che speravamo di ottenere (“unintended consequences”).
“La strada per l’inferno è lastricata di buone intenzioni.” (Samuel Johnson)
“Il buon pensiero è meglio delle buone intenzioni.” (Peter Bevelin)
Peter Bevelin, nel suo libro Seeking Wisdom from Darwin to Munger considera il caso dell’azienda immaginaria TransCorp dove i manager, a fronte di un calo delle vendite, decidono di abbassare i prezzi: l’intenzione è quella di accrescere i volumi, guadagnare quote di mercato, più che compensando la riduzione dei prezzi ed incrementando così i profitti. Tuttavia dopo qualche tempo la strategia si rivela fallimentare: TransCorp perde quote di mercato e i profitti crollano: l’esatto opposto di quello che si intendeva ottenere. Cosa è successo? I manager hanno trascurato molti fattori interni: l’aumento dei volumi comporta anche un aumento dei costi e degli investimenti, per esempio. Ci possono essere stati dei problemi tecnici legati alla produzione di maggiori volumi o la riduzione dei prezzi potrebbe essersi rivelata insufficiente. Tuttavia si sarebbero dovuti considerare anche i fattori esterni: la reazione degli “altri”. Alcune aziende hanno deciso di reagire abbassando anche loro i prezzi, talune ancora più aggressivamente. Occorreva quindi valutare lo schema di reazione dei competitors: i loro vincoli, i loro interessi, le loro modalità di azione tenendo in considerazione anche possibili reazioni non razionali.
E’ necessario quindi sviluppare una visione d’insieme e pensare in termini di sistema per minimizzare le conseguenze non volute. Non ci si deve concentrare solo sulle conseguenze immediate delle proprie scelte (effetto di primo livello) ma occorre valutare anche gli effetti di secondo/terzo/n-esimo livello sugli altri attori del sistema in cui stiamo operando. Le aziende, i mercati finanziari, la politica, le società sono sistemi complessi e interattivi: anche il nostro pensiero e le nostre scelte devono tenerne conto.
La trappola della causalità
Il genere umano ha una naturale propensione a trovare dei nessi di causalità. Quando osserviamo con una certa regolarità che due eventi tendono a verificarsi contemporaneamente (eventi correlati), la nostra mente tende a stabilire quasi automaticamente un rapporto di causalità. Lo psicologo Richard Nisbett nel suo libro Mindware, Tools for Smart Thinking elenca una serie di correlazioni evidenziate nei principali mezzi di informazione statunitensi e si chiede se esista o meno un nesso di causalità. Ad esempio: i paesi con un elevato livello medio del test IQ tendono ad avere livelli di PIL pro capite più alti. Forse significa che essere intelligenti rende un paese più ricco? O ancora: negli anni ’50 il consumo di gelati e la poliomielite, allora una grave minaccia, avevano un grado di correlazione molto alto. Il consumo di gelato aveva qualche impatto sulla diffusione della malattia?
Quando osserviamo delle correlazioni dobbiamo fare attenzione e ragionare su più livelli. Molte delle correlazioni che osserviamo sono del tutto casuali. Il numero di relazioni che vengono testate dai ricercatori sono talmente elevate che trovarne alcune statisticamente significative è una certezza (problema definito come overtesting). Uno studio del 2008 pubblicato su The Proceedings of the Royal Society B sosteneva che le donne che mangiano cereali a colazione hanno più probabilità di avere figli maschi. Il paper generò molta attenzione da parte degli organi di informazione. Alcuni statistici che successivamente controllarono il metodo di analisi utilizzato, rilevarono come i risultati erano in realtà frutto del caso. La ricerca analizzava 132 tipi di cibo su 2 orizzonti temporali: su 264 relazioni analizzate era praticamente impossibile non trovarne qualcuna significativa. L’industria farmaceutica e dell’alimentazione sono classici esempi di settori dove il rischio di riscontrare correlazioni illusorie è molto elevato, come risultato degli interessi coinvolti e della numerosità dei test effettuati al fine di individuare nessi di causalità tra trattamenti e patologie.
Inoltre: se notiamo una correlazione tra A e B, questo non significa che sia A a causare B, ma potrebbe essere il contrario. Oppure che la correlazione tra A e B dipenda da una terza variabile C e che quindi non ci sia alcun nesso di causalità tra A e B. Ritornando agli esempi all’inizio del paragrafo: è possibile che i paesi più ricchi abbiamo sistemi educativi migliori e più organizzati e che persone più preparate abbiano dei risultati migliori nei test di intelligenza. In questo caso è la ricchezza che genera intelligenza e non il contrario. Allo stesso modo, negli anni ’50 la poliomielite era facilmente trasmessa in piscina. E il consumo di gelato e la frequentazione delle piscine diventano più frequenti nei periodi estivi.
La fallacia narrativa
I collegamenti causali sono quindi molto più frequenti nella mente umana che nella realtà. N.N.Taleb spiega questo problema con il termine di “fallacia narrativa”: ci piacciono le storie, ci piace riassumere e semplificare, ossia ridurre le dimensioni delle questioni. La fallacia narrativa sottolinea la nostra limitata capacità di osservare sequenze di fatti senza aggiungervi una spiegazione.
La generazione di nessi di causalità è una funzione automatica del cervello derivante dal nostro bisogno innato di trovare un ordine in quello che vediamo, e ciò avviene a livello inconscio, è la nostra procedura di default. L’assenza di teorizzazione comporta un dispendio energetico ed un controllo superiore alla teorizzazione.
Inoltre l’informazione è onerosa da memorizzare: la narrazione ci consente di ridurre le dimensioni delle questioni, di riassumerle in modo da poterle catalogare più facilmente nel nostro cervello.
Per questa ragione siamo in generale attratti da quelle persone (strategist, previsori, guru etc) che sanno raccontare delle storie che offrono una versione “interessante” dei fatti, indipendentemente dalla loro veridicità.
“Più intelligente è la persona, più le spiegazioni sembreranno credibili.” (Nassim N.Taleb)
La narratività intacca però il ricordo degli eventi passati, perché tendiamo a conservare solo i fatti che si inseriscono in maniera fluida nella storia mentre dimentichiamo quelli che non sembrano avere un ruolo causale nella narrazione.
La razionalizzazione ex post (senno del poi o hindsight bias), ci fa apparire gli eventi passati come molto più prevedibili di quanto siano stati in realtà, portandoci a giudicare quanto avvenuto come ovvio ed inevitabile. In realtà quello che abbiamo osservato, è stato solo uno dei possibili percorsi.
Una strategia per non cadere nella trappola della “fallacia narrativa” e del “senno del poi” è il pensiero controfattuale (“counterfactual thinking”) che mette sulla stessa bilancia quello che è accaduto e quello che sarebbe potuto accadere (“what if scenarios”). E’ palese che il pensiero controfattuale sia una strategia evoluta che richiede disciplina perché l’atteggiamento mentale di default è quello di trovare la spiegazione che ci sembra immediatamente la più plausibile.
“E’ salutare mantenere un certo equilibrio tra metodi fattuali e controfattuali per inquadrare i nostri interrogativi su quello che doveva e sarebbe potuto succedere.” (Philip Tetlock)
Il punto di vista
Quando prendiamo una decisione, tendiamo quasi sempre a basarci sulle nostre conoscenze e sulle informazioni che abbiamo a disposizione: siamo focalizzati sulla nostra situazione particolare, quella che gli anglosassoni definiscono “internal view”. Un altro approccio potrebbe essere quello di incorporare anche la visione esterna (“outside view”) cercando di capire se ci siano situazioni simili alla nostra che possano costituire una base statistica per prendere decisioni; come altre persone abbiano affrontato lo stesso tipo di problema e con quali conseguenze.
La visione esterna ci consente di calcolare quello che in termini tecnici viene definito “base rate” o “probabilità a priori”. Se le statistiche ci dicono che le probabilità di successo di un’azienda in un determinato settore sono del 10%, non possiamo non tenerne conto quando stiamo pianificando di lanciare la nostra start-up, per quanto possiamo essere fiduciosi sulla bontà del nostro progetto e pensare che le nostre probabilità di successo siano elevate. La probabilità a priori, concetto introdotto dal matematico inglese Thomas Bayes nel famoso teorema di Bayes, deve rappresentare il nostro punto di partenza (la condizione iniziale) a cui dobbiamo applicare poi i correttivi basati sulla nostra visione interna.
La tendenza a prendere in considerazione solo la visione interna è piuttosto diffusa ed è riconducibile ad alcuni bias psicologici. Il primo è quello che viene definito overconfidence o “illusione di superiorità” che evidenzia come le persone abbiano una visione eccessivamente positiva di sé stessi. Numerosi studi hanno evidenziato quello che gli psicologici hanno definito come “better than average effect” cioè la tendenza delle persone a considerarsi sistematicamente superiori alla media. Ad esso si aggiunge l’”illusione del controllo” cioè la tendenza a pensare di poter controllare la probabilità degli eventi e quindi a sovrastimare le possibilità di successo.
Un esempio classico è l’industria globale delle fusioni e acquisizioni (M&A). Nonostante i manager delle società siano a conoscenza che il track record di creazione di valore delle operazioni di acquisizione sia piuttosto scarso, tendono comunque a procedere, pensando di poter fare molto meglio di quanto incorporato dalle statistiche di mercato (“beat the odds”).
Trascurare la visione esterna porta a quello che gli psicologi Daniel Kahneman e Amos Tversky hanno definito “planning fallacy”: quando stiamo valutando un progetto, tendiamo generalmente a sottovalutare i tempi di realizzazione e i costi totali. Questo perché siamo focalizzati solo sul nostro punto di vista e pensiamo di avere la situazione sotto controllo: le nostre stime si avvicinano quasi sempre allo scenario ideale e sottovalutano tutti i possibili imprevisti che invece sono destinati ad accadere. La visione esterna è un richiamo alla realtà. Nel libro Thinking, Fast and Slow D.Kahneman, facendo riferimento ad una sua esperienza professionale, afferma che in presenza di probabilità a priori non molto confortanti, alcune volte manifestiamo una sorta di perseveranza irrazionale: posti di fronte ad una scelta rinunciamo alla razionalità anziché all’impresa.
La “fallacia della pianificazione” è presente quando stimiamo i tempi di sviluppo di un nuovo prodotto, le probabilità di successo di un’acquisizione o di una start-up, i tempi e i costi di ristrutturazione della casa, e anche le probabilità che nostro figlio di 7 anni diventi un calciatore di serie A.
Il processo decisionale
Prendere le giuste decisioni non è un processo semplice: la realtà è complessa, le relazioni non sono lineari e la storia non è sempre un buon insegnante. Anche i nostri modelli mentali di default non sono sempre di aiuto: vediamo nessi di causalità che non esistono e tendiamo a sopravvalutare le nostre conoscenze e a sottovalutare l’incertezza.
Tuttavia i grandi pensatori, di ieri e di oggi, hanno già sviluppato strategie, idee e modelli di pensiero per aggirare gran parte degli ostacoli. Lo studio di queste idee è il modo più efficace per migliorare il nostro processo di scelta.
Bibliografia:
Bevelin, Peter. Seeking Wisdom: From Darwin to Munger. PCA Publications, 2007.
Ellenberg, Jordan. How Not to Be Wrong: The Power of Mathematical Thinking. Penguin Books, 2014.
Kahneman, Daniel. Thinking, Fast and Slow. FSG, 2011.
Mauboussin, Michael J. Think Twice: Harnessing the Power of Counterintuition. Harvard Business Review Press, 2013.
Montier, James. Seven Sins of Fund Management. DrKW Macro Research, November 2005.
Nisbett, Richard. Mindware: Tools For Smart Thinking. Penguin Books, 2015.
Taleb, Nassim Nicholas. Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets. Penguin Books, 2007.
Taleb, Nassim Nicholas. The Black Swan: The Impact of the Highly Improbable. Random House, 2010.