Esiste domanda più imbarazzante per uno scienziato di quella tesa a minare la presunzione della scientificità del suo campo di studi? E non c’è che dire: l’economia offre un vasto campo di illazioni e dubbi in questo senso.

Come visto nel precedente articolo, le relazioni economiche sono complesse, complicate, eterogenee e variabili nello spazio e nel tempo, nonchè potenzialmente non lineari: un modello che voglia coniugare realismo delle ipotesi e complessità rischia di diventare non maneggiabile e troppo presto inutilizzabile, proprio perchè – sosteneva D.Hume – non si può presumere a cuor leggero che il futuro si presenterà sostanzialmente simile al passato. Mark Twain sosteneva che:

La storia non si ripete, ma compone rime

Il problema era noto anche a Robert Lucas, famoso per la sua critica ai modelli econometrici i cui parametri sono suscettibili di modificarsi in reazione alle diverse azioni dei policymakers. Il problema posto da Lucas in economia enorme: possiamo affermare che i fenomeni economici siano veramente indipendenti dai modelli di rappresentazione che noi ci diamo? Pensiamo per esempio a come muterebbero i comportamenti se un giorno qualcuno pubblicasse gratuitamente un modello esatto di determinazione dei prezzi azionari… In astronomia invece, le stelle continuerebbero a tracciare nel cielo le loro orbite, indipendentemente dalle nostre migliori conoscenze dei loro moti.

Inoltre le scienze sociali, cui l’economia appartiene, trattando dei comportamenti degli esseri umani devono per forza di cose confrontarsi con il filosofico problema se la volontà umana sia libera (e quindi potenzialmente imprevedibile o caotica) oppure se in quel particolare campo di ricerche che è l’economia essa possa dirsi assoggettabile a determinate ricorrenze o leggi cui farla dipendere (vds nota 1).

La stessa regola del coeteris paribus sfida la realtà: la politica si è mai sospesa per lasciare che gli andamenti dei tassi fossero l’unica variabile a influenzare, per esempio, i flussi finanziari? Non si potrebbe obiettare che scelte politiche influenzino, in determinate circostanze, gli spread e quindi la nostra variabile oggetto? È insomma lecito epistemiologicamente assumere questa regola, come fece Mill due secoli fa, e che ancora noi conserviamo gelosamente nei nostri modelli economici?

Coniugato al problema della impossibilità di condurre esperimenti “in vitro” e alla sirena dello strumentalismo, questi sono i principali motivi per cui si obietta che economia e scienze sociali in generale non possano ambire ad una vera “scientificità”.

L’economia, vista da questa angolazione, sarebbe un esercizio cognitivo su una materia vastissima e simile ad un blob. Non mi sorprende che un indirizzo teorico la classifichi fra la narrativa a livello del giornalismo: l’economista ci racconta una sua storia, come la vede, come la vive, se la gradisce o meno. Se non fosse che riguarda milioni, miliardi di individui, potremmo ritenerla un’opera innocua, una forma d’arte.

La bravura, e quindi il grado di adesione alla visione di uno piuttosto che di un altro economista, consisterebbe nella qualità della scrittura, nella affabulazione, nel metodo romanzesco. Mi riesce difficile affermare che questo non sia vero, considerando le folle che certi agitatori populisti riescono a trascinare con visioni autonomiste e autarchiche, persone da cui ci separa un abisso quanto a visione dell’economia, ma che riescono “a parlare alla pancia con uno stile comprensibile a tutti”.

Nel precedente articolo potrei aver spiazzato, irritato oppure per nulla convinto alcuni lettori nel momento che scrissi che gli economisti teorici formulano i propri modelli anche basandosi su pre-giudizi. Voglio dare allora la parola alla filosofia della scienza, partendo da un peso massimo: Karl Popper.

Popper era determinato a individuare un criterio di demarcazione fra vera scienza e falsa scienza. Secondo lui una teoria è veramente scientifica solo se è falsificabile, cioè sia permesso agli analisti di sottoporla a verifica sperimentale e confrontarla con i dati: qualora le previsioni teoriche (che devono per forza essere precise e non ambigue, e riguardare tanto il fenomeno studiato quanto le assunzioni fatte) si rivelassero errate, la teoria è incompleta o addirittura sbagliata e tramite questo processo iterato di congettura e confutazione gli scienziati giungono di volta in volta a una comprensione piu profonda e “vera”.

Stando a questa definizione, non solo alcune teorie, ma addirittura intere branche di sapere mancano di scientificità. Prendiamo per esempio la psicoanalisi e la politica. Se un paziente rammenta episodi di attaccamento e/o gelosia infantile per la madre e di conflitto col padre, l’analista ne dedude un elemento edipico; però se non accadesse, allora l’analista obietta che c’è una rimozione o un transfer nei suoi confronti. La teoria è sufficentemente ambigua da non essere mai verificabile e falsificabile.

Le teorie socialiste dal canto loro negano la possibilità che in uno stato comunista possano avvenire rivolte popolari, e quando la storia si è impegnata a mostrare il contrario, allora si è sempre opposto l’elemento reazionario borghese oppure quello imperialista, “agitatori” esterni di un imperturbabile ordine interno.

Entrambe le teorie trovano sempre il modo di “cadere in piedi”, ma questo non è un valido argomento per la scientificità di una teoria.

L’economia e le scienze sociali erano invece per Popper un vero dilemma pieno di tranelli: erano branche di studi che si stavano armando di metodi matematici rigorosissimi e si basavano su ipotesi chiare, eppure prestavano il fianco al suo metodo falsificazionista. Si ponevano insomma in un fastidioso limbo fra scienza e pseudo-scienza senza decidersi a fare il salto di qua o di là.

La storia stessa inoltre mostrava che il metodo falsificazionista non corrispondesse al reale comportamento degli scienziati, in primis degli economisti: anche quando una teoria cozza contro dati difformi, essa non viene subito abbandonata e rimpiazzata, anzi viene ancor piu difesa. O gli economisti sono pessimi scienziati oppure la faccenda è più complicata.

Col tempo anche il metodo falsificazionista di Popper cominciò a mostrare i suoi limiti. Intanto non riesce a dare una chiara metodologia di ricerca scientifica: dice come si possono eliminare le teorie false, ma non come scegliere la teoria giusta fra le varie possibili. Popper è conscio di questo limite quando dice che “prima di tutto vengono le teorie” che cercano di dare un senso al caos percettivo dei nostri sensi. Però Popper non è in grado di dare un motivo per cui il singolo scienziato, fra la moltitudine di teorie che possono spiegare il fenomeno studiato, ne scelga una o al massimo un paio e le porti avanti anni e anni, addirittura difendendole strenuamente per una vita intera. Popper parla di “creatività” del teorico, e così cade nella sua stessa trappola.

“Il falsificazionismo nasce falsificato”, sostiene amaramente un suo successore, Imre Lakatos, il quale però ebbe un’intuizione illuminante: seguendo T.Khun accettò l’idea che gli scienziati in genere continuano il programma di ricerche, teorie e modelli che hanno studiato e su cui si sono formati quando erano studenti (Mankiw, negli ultimi paragrafi di in un paper di alcuni anni fa sembra sostenere una tesi analoga, e ancor più recentemente lo fa Noah Smith).

Perciò contemporaneamente convivono piu teorie concorrenti ognuna delle quali deve confrontarsi con un “mare di anomalie”, eppure vengono strenuamente difese e migliorate per ragioni “extra scientifiche”: l’orgoglio personale, l’affezione, la difficoltà di capire e imparare un nuovo modello che rivoluzioni idee e congetture già sedimentate nella nostra testa.

Ma non dimentichiamo che scienziati e accademici sono anche (e specialmente) restii a dare in pasto ai propri eventuali finanziatori i propri errori, riconoscendo il lavoro di altri che potrebbero scavalcarlo e prendersi i fondi. Le rivoluzioni scientifiche avverrebbero allora come vere e proprie rotture rispetto al passato, piuttosto che in maniera lineare come Popper lascerebbe intendere. Il che non può non ricordarmi Keynes, Friedman o il neokeynesismo.

Questo “pizzico di induttività”, per usare le parole di Lakatos, sostiene in pratica che accettare una teoria o un’altra, oppure fare alcune assunzioni piuttosto che altre, dipende anche da fattori extra scientifici. Non è un caso che Lakatos stesso dica che la sua idea prende spunti sia dal Falsificazionismo sia dal Convenzionalismo.

Vale la pena che tutti ce ne rendiamo conto e ne traiamo le conseguenze del caso quando le brandiamo nelle discussioni.

Un altro problema del metodo falsificazionista consiste nella sua stessa presunta capacità di individuare dove esattamente stia l’errore congetturale falsificato dall’osservazione.

Spieghiamoci con un esempio: molte teorie, anche nel campo degli studi fisici, comportano la necessità di prevedere un” termine di errore”: se mettiamo delle pentole d’acqua a bollire per misurare la temperatura di ebollizione, non troveremo quasi mai che essa corrisponde esattamente a 100gradi celsius. Troveremo 99,8 poi 100,1 e ancora 99,9 e 100,3 e cosi via. Le differenze possono essere causate dall’altitudine, dal grado di purezza dell’acqua eccetera, tutti fenomeni casuali e particolari.

Per questo motivo gli scienziati formulano modelli con un termine di errore stocastico, cioè un “numerino” con una certa distribuzione di probabilità che renda conto delle minime e casuali variazioni dal dato “vero”. Per esempio: Y=aX +bZ + & dove X e Z sono le variabili ed & il termine di errore.

Ma cosa succede se la teoria, posta alla verifica dei dati, risulta falsificata? Dobbiamo rigettare tutta la prima parte del modello (Y=aX + bZ), oppure dobbiamo imputare l’errore ad una sbagliata formulazione della distribuzione di probabilità di & (c.d. Tesi di Duhem)?(vds nota 2)

In genere gli analisti risolvono questo dubbio decidendo che le osservazioni devono stare all’interno di una certo intervallo di confidenza, cioè (generalmente) il 95% o il 99% delle osservazioni devono cadere nell’intervallo centrale del termine di errore, tecnica detta di “tagliare le code”. Ma anche questo non salva il falsificazionismo, perchè non da nessuna indicazione di quale sia un oggettivo e inoppugnabile intervallo di confidenza.

La presunta deduttività logica del metodo popperiano si scontra con la necessita di operare una scelta arbitraria o comunque convenzionale a livello metodologico, che ne mina alla base il carattere supremamente oggettivo e “vero”.

A questo punto però voglio insierire un mio parere personale: a me tutta questa enfasi sulla ricerca del “vero” mi fa storcere il naso. Non assomiglia questa ricerca a quella eterna e inarrivabile per “l’essenza” di metafisica memoria? Per fortuna viviamo tempi in cui è stato dimostrato che anche la matematica, scienza per eccellenza, si basa anche su assunti convenzionali. Parlare del “vero” mi fa pensare al sesso degli angeli, e forse abbiamo rivolto le nostri migliori menti a incapponirsi su un problema in disuso.

E già che siamo a parlare di statistica e quindi di “vera scienza”, vedremo nel prossimo articolo i progressi che questa materia ha fatto per determinare la falsificabilità delle teorie e parleremo quindi di econometria, e proveremo a dare una nostra risposta alla vexata questio: ma l’economia è una scienza o no?

.

Biblografia: Oltre a quanto esplicitamente citato, per iniziarsi all’argomento, il sito di Stanford dedica una pagina con ricca bibliografia sulla epistemologia in economia. Utilissimo è anche il libro di F.Guala Filosofia dell’economia.

——

(nota 1) noi siamo portati a credere fideisticamente nella massimizzazione dell’utilità personale quale metrica di scelta dell’“homo oeconomicus”, perchè così ci viene insegnato a scuola. Eppure il problema esiste e è molto variegata la risposta. Basti pensare che per essere veramente massimizzante l’assunto deve riposare sull’ipotesi di perfetta razionalità e attese perfette, eppure intere branche di ricerca affrontano oggi informazioni parziali e asimmetriche e comportamenti non razionali (behavioural economics), mentre la vecchia Scuola Austriaca negava la validità dell’ assunto di massimizzazione dell’utilità, preferendovi l’incertezza e la fondamentale importanza della soggettività individuale che impedisce di basarsi sul concetto di agente rappresentativo.

(nota 2) analogamente il problema sollevato da Duhem può riguardare “semplicemente” la scelta sbagliata della variabile x o z, oppure della relazione che le lega (additiva o no?). Alla stessa maniera lo scienziato si trova spiazzato nell’individuare con precisione l’errore. Ma nel proseguo continuerò con l’esempio del termine di errore.