Ci siamo spesso occupati in questo blog degli effetti delle politiche neo-liberiste sulla vita quotidiana dei cittadini e sui rapporti di forza tra Stati. Il questo articolo piuttosto “tecnico”, Jacques Sapir ci offre una trattazione rigorosa e densa delle origini e delle incongruenze teoriche della teoria economica alla base del neoliberismo dal punto di vista puramente teorico. Il prestigioso economista, più volte ospitato sul nostro sito, smonta con assoluta lucidità e rigore scientifico i dogmi rigidi ed irrealistici su cui si basa la teoria economica dominante, rivelandone tutti i paradossi e le debolezze. Viene da chiedersi come sia stato possibile che una tale teoria, che sistematicamente contraddice ogni requisito di scientificità, intrisa di vizi ideologici, sia riuscita ad affermarsi con una forza quasi-religiosa, e continui ad essere brandita come il modello di più alta perfezione scientifica raggiunto dalla scienza economica, quando invece è proprio l’opposto.

 

 

 

 

Di Jacques Sapir · 21 LUGLIO 2017

 

 

 

La teoria classica, o teoria dell’equilibrio generale, continua a dominare gran parte degli studi ed interpretazioni economiche, in particolare quelli riguardanti il “mercato” del lavoro, e la volontà dell’attuale governo di far passare, se necessario “con la forza”, tutta una serie di misure che costringano i lavoratori ad una situazione d’isolamento, esattamente come auspicato dalla teoria neoclassica. Essa infatti non prende in considerazione le istituzioni, o cerca di ridurle a dei semplici accordi, quando invece sono ben altra cosa.

 

Sembra dunque utile ritornare su questo paradigma di equilibrio, e più in particolare su quella che viene definita coma la Teoria dell’Equilibrio Generale o TEG. Chiaramente non è una teoria facilmente confutabile, o comunque non è generalmente ritenuta tale dalla professione. Eppure la sua mancanza di realismo ontologico è un problema reale. Pur essendo stata basata sulla descrizione di un mondo immaginario, è vista comunque da molti come una guida per comprendere la realtà. In tal modo si rivela essere nient’altro che un’ideologia (una “rappresentazione del mondo”), e oltre tutto un’ideologia al servizio di interessi particolari, e non una teoria scientifica.

 

 

Origini della teoria neoclassica

 

Vale la pena ricordare che la TEG nasce da una forzatura teorica di Léon Walras, che decise di considerare l’economia come un insieme di mercati interdipendenti ad esclusione di qualsiasi altra ipotesi.[1] Questa forzatura si mascherava inoltre dietro un formalismo matematico che le conferiva un’apparente solidità teorica.[2] Ma ciò che più di ogni altra cosa ha convinto un numero sempre maggiore di economisti ad adottare questo approccio, nonostante le evidenti incongruenze e la mancanza di concretezza, è il suo carattere rivoluzionario. Per la prima volta esisteva un sistema in grado di fornire una spiegazione esauriente e coerente dell’economia che non facesse riferimento a nessun fattore estraneo a sé.[3] Mentre il marxismo, pur presentandosi come una critica all’economia politica classica, conserva legami importanti con la tradizione emersa nel XVIII secolo, la TEG rappresenta in questo senso una cesura radicale. Questo spiega il suo fascino per gli economisti, un potere che si è rafforzato grazie all’elaborazione della formulazione moderna della sua assiomatica da parte di Arrow e Debreu.[4]

 

Tuttavia il suo fascino non è mai riuscito a conquistare tutti.[5] Non sono mancate controversie, ed è stato messo in discussione persino il “nocciolo duro” della TEG, ossia l’ipotesi che esistano preferenze individuali indipendenti di ciascun agente. Per reggere sempre nuove sfide, tra cui ad esempio quella delle istituzioni, la TEG ha finito con il diversificarsi al punto di correre il rischio di perdere in coerenza.[6] Entrando più nello specifico, sono i dubbi circa la sua capacità di spiegare l’autonomia degli agenti e delle decisioni a minare oggi le fondamenta del suo predominio. Questo processo accelera la sua tendenza latente a trasformarsi in puro sistema normativo a scapito delle sue caratteristiche descrittive, predittive o investigative; si assiste dunque all’affermazione di una TEG ortodossa, con tutto l’irrigidimento ideologico e politico che ciò comporta.

 

Ciò che poi colpisce non è tanto il suo fascino più o meno generalizzato, quanto piuttosto la sua presenza stabile nel tempo. Nonostante le molteplici critiche, di diversa provenienza, la TEG sembra sempre emergere nei dibattiti come la posizione naturale della maggior parte degli economisti. Che in tutto ciò vi siano motivazioni politiche è abbastanza evidente. Per rendersene conto basta considerare quali autori abbiano ricevuto il premio Nobel per l’economia. A ciò C. Johnson, uno dei maggiori specialisti dell’economia giapponese, ha perfidamente aggiunto che la percentuale di economisti americani insigniti di tale riconoscimento è direttamente proporzionale al declino dell’economia americana.[7] Dietro questo spunto polemico si nasconde un innegabile problema. L’importanza della TEG si basa ormai più sulla sua capacità socialmente prescrittiva data dalla sua preponderanza nelle istituzioni accademiche che sulla sua capacità di rispondere o di integrare le critiche ad essa mosse.

 

 

Una teoria dei mercati senza il mercato

 

 

L’approccio di Walras consiste nell’equilibrare un sistema di mercati interdipendenti. Per ottenere ciò, si doveva sacrificare una teorizzazione del mercato stesso. È facile rendersene conto cercando una definizione di “mercato” nelle opere moderne ispirate dalla TEG. Sicuramente si troveranno molte definizioni a sostegno di quello che si suppone che il mercato realizzi, ossia l’equilibrio tra domanda e offerta. Ma dire ciò che un sistema produce non ci dice nulla sulle modalità,[8] né sulla sua natura.[9]

 

La TEG offre soltanto un metodo empirico per raggiungere l’equilibrio. Si tratta di un processo di confronto tra domanda e offerta che dovrebbe portare all’equilibrio, e che sta al centro della teoria dell’equilibrio.[10] In effetti, si può considerare come un “gioco”, nel senso di un’attività disciplinata da norme rigide e formali. Ciò finisce con l’eliminare la nozione di rapporti di forza tra i partecipanti in uno scambio, che è la prima deviazione della TEG dalla realtà.

 

Nel caso del modello Walrasiano, la regola di base è che nessuno scambio dovrebbe avvenire prima che i prezzi di equilibrio siano stati stabiliti. Ora, se è possibile stabilire a quali condizioni si raggiunge l’equilibrio, non è chiaro come questa condizione, una matrice certa dei prezzi relativi, possa emergere. Possiamo quindi fare l’ipotesi di un esempio empirico non walrasiano, nella misura in cui si accetta l’ipotesi che gli scambi possano avvenire prima che tali prezzi siano stati determinati.[11] Ma in questo caso bisognerebbe esplicitare quali istituzioni portino gli agenti ad avvicinarsi ai prezzi “giusti” e dimostrare che il processo converge naturalmente. Oppure bisognerebbe spiegare quali configurazioni dei rapporti di forza possono incoraggiare le parti di uno scambio ad accettare tale scambio, se alcuni ne derivano maggiori profitti rispetto ad altri. E in questo modo, si ricade subito sulla spiegazione marxiana del monopolio sociale dei mezzi di produzione di una classe…

 

Se poi si considerano le condizioni empiriche walrasiane, si nota come si tratti di: [12]

 

– una struttura di comunicazione tra agenti (con l’importante presupposto che ogni segnale osservabile sia vero e intelligibile senza trattamento).

– una struttura di regolazione dei segnali, che avvenga gratuitamente e altruisticamente.

– l’impossibilità di qualsiasi operazione se un risultato non sia empiricamente dimostrabile.

– diverse ipotesi molto importanti circa le relazioni di prezzo degli agenti (poiché essi sono dei price-taker), sul loro comportamento e sulla semplicità delle informazioni necessarie.

– una struttura di supervisione e sanzione, in grado di eliminare le devianze e prevenire che consumo e produzione avvengano prima della determinazione dell’equilibrio.

 

Per poter funzionare, infatti, il meccanismo empirico necessita che nessuna delle parti interessate sia in grado di influenzare i prezzi, che ogni agente abbia una perfetta conoscenza delle offerte e domande di altri agenti, che il processo avvenga simultaneamente, e infine che sia assolutamente vietato a chiunque di interagire prima che il “prezzo reale” sia stabilito empiricamente, il che implica un controllo centralizzato di tutti i flussi. Tutto questo, in realtà, somiglia molto ad un’Unione Sovietica ideale, completa di un alto livello di coercizione.

 

Molti autori che si richiamano alla TEG erano coscienti di questo paradosso. Hanno quindi cercato stratagemmi per aggirare il problema, che permettessero di ottenere gli stessi risultati in termini di equilibrio, ma senza dover presupporre una pesante struttura implicita che garantisca l’equilibrio ex ante. Esiste dunque tutta una scuola che ha cercato di riformulare l’assunto centrale walrasiano all’interno della realtà. La questione è quindi dimostrare che esistono delle condizioni capaci di garantire automaticamente il risultato che, nel mercato azionario, richiederebbero un’azione diretta e ben visibile.

 

 

Una teoria che nega il ruolo della moneta

 

Alla base stessa del ragionamento neoclassico vi è la possibilità per gli agenti (che siano imprenditori, investitori o lavoratori) di assegnare valori monetari all’intero ambiente circostante. Nel contempo, però, la moneta è ritenuta dall’economia neoclassica perfettamente neutrale, e viene dunque esclusa dalla discussione in base alla legge di Walras.

 

Ma uno scambio monetario non è paragonabile al baratto per un motivo fondamentale: l’esistenza di asimmetrie d’informazione tra il produttore-venditore e l’acquirente. Si ritiene che la valutazione in termini monetari del valore di un bene risolva almeno in parte questo problema di asimmetria. [13] Poiché esiste una differenziazione delle merci, e non è possibile pensare che tutti gli agenti abbiano precedente conoscenza di tutti i beni e servizi disponibili, è ragionevole considerare che la moneta sia indispensabile. Secondo Max Weber, la moneta è un’importante causa dei conflitti che caratterizzano le nostre società:

 

“I prezzi derivano da compromessi e conflitti di interessi; sotto questo aspetto sono accomunati alla distribuzione del potere. Il denaro non è un mero “diritto su beni non specificati” da poter essere utilizzato a piacimento, senza che ciò abbia conseguenze fondamentali sulle caratteristiche del sistema dei prezzi percepito come una lotta tra uomini. Il denaro è principalmente un’arma in questa lotta; si tratta di uno strumento di calcolo solo se si considerano le opportunità di successo in questa lotta.”[14]

 

Prima di scrivere la sua Teoria Generale, anche Keynes la pensava allo stesso modo. In un testo nel quale faceva il punto della tempesta monetaria successiva alla fine della prima guerra mondiale, scrisse queste righe che ancora oggi risultano di grande attualità: “Dal 1920, i paesi che hanno rimesso in sesto la condizione delle loro finanze, non soddisfatti di fermare l’inflazione, hanno contratto la massa monetaria e hanno sperimentato gli effetti della deflazione. Altri hanno seguito traiettorie inflazionistiche ancora più anarchiche di prima. Entrambi gli approcci hanno avuto come effetto una redistribuzione della ricchezza tra le diverse classi sociali, ma l’inflazione sotto questo aspetto è il peggiore dei mali. Ognuno ha anche l’effetto di inibire o frenare la produzione di ricchezza, anche se, in questo caso, la deflazione è la più nociva.[15] Keynes non si ferma qui, e collega esplicitamente l’inflazione, vale a dire la perdita di valore della moneta, al movimento storico che vede nuovi gruppi sociali affrancarsi dal controllo dei dominatori: “Tali movimenti secolari, che in passato hanno sempre coinciso con una svalutazione della moneta, hanno quindi aiutato degli “uomini nuovi” a liberarsi della mano morta; hanno favorito i nuovi ricchi a scapito dei vecchi e hanno armato lo spirito imprenditoriale contro l’accumulo di privilegi acquisiti.[16]

 

La moneta presenta dunque due opposte caratteristiche, analiticamente distinte e collegate in modo sistemico. È il mezzo essenziale di calcolo intertemporale che permette di superare gli ostacoli posti al commercio dall’eterogeneità. Quest’ultimo punto sottolinea la necessità di uno strumento specifico che funzioni come standard di omogeneizzazione di una realtà disomogenea. Non è sorprendente che la TEG, postulando l’omogeneità, possa fare a meno della moneta.

 

 

TEG e moneta, continuazione…

 

L’introduzione della moneta in questo scenario non è tuttavia priva di rischi.
J.M. Grandmont solleva seri dubbi su questa interpretazione.[17] In particolare, sottolinea che il rifiuto di prendere in considerazione la possibilità di stati di squilibrio stabili, rifiuto giustificato in base all’effetto ricchezza,[18] implica una forma di stabilità diretta o una regolazione immediata e completamente prevedibile, che porta ad escludere qualsiasi incertezza nel campo dell’economia.[19] Questa è la direzione presa da Robert Lucas nel dichiarare che l’incertezza porta più risparmio, introducendo così una seconda deviazione tra teoria neoclassica e realismo. L’introduzione di meccanismi di apprendimento fra i potenziali partecipanti ad uno scambio dimostra che l’equilibrio non si raggiunge neanche in una situazione di prezzi perfettamente flessibili. Grandmont, tuttavia, rimane saldamente situato all’interno della TEG e ipotizza sempre un ambiente in cui gli agenti agiscono in modo completamente probabilistico. [20]

 

La neutralità della moneta, ipotesi centrale della TEG, è tutt’altro che coerente. È incompatibile con il principio di dicotomia (ossia, i prezzi relativi sono stabiliti nel settore reale e sono immuni alle fluttuazioni valutarie) nell’ambito di un ragionamento di introiti reali e sotto la legge di Walras [21]. La neutralità della moneta, nel senso dato a questo concetto dalla scuola delle aspettative razionali, non tiene neanche davanti ad ipotesi moderatamente realistiche di comportamento degli agenti.

 

Gli equilibri, anche subottimali, possono essere controllati solo mediante un sistema inter-temporale di redistribuzione delle risorse. Ma qui ci si trova di fronte a un nuovo ostacolo, ossia fino a che punto questa ipotesi sia realistica.
L’esistenza di mercati completi è teoricamente impossibile dal punto di vista logico, salvo presupporre un universo stazionario. Inoltre Grandmont, per dimostrare una soluzione di equilibrio, è obbligato ad ipotizzare che le aspettative siano sempre costanti (esclusi gli effetti a sorpresa e cambi di preferenze) e che gli agenti credano nella neutralità della moneta.[22] La convergenza delle aspettative necessarie per ottenere l’equilibrio non deriverebbe dunque dal mercato, ma da un’istituzione legislativa in grado di produrre effetti cognitivi prevedibili e coerenti.

 

Ciò significa che la moneta non è solo un mezzo di scambio e di investimento, ma è anche – e forse soprattutto – uno strumento chiave di governo. Questo punto è ben dimostrato dall’Euro, che costringe gli agenti dei paesi in cui è stato adottato in una camicia di forza cognitiva che impedisce loro di vedere la realtà – tragica – dello stato delle loro società e delle loro economie.

 

 

Moneta, baratto, e TEG

 

Ci si trova quindi di fronte alla seguente alternativa. Se si postula un’economia con un’offerta di prodotti e servizi semplice e non progressiva, è possibile fare a meno della moneta. Se invece si introduce una dinamica di trasformazione perpetua dell’approvvigionamento, la moneta diventa indispensabile. Ma in questo caso, le condizioni di equilibrio walrasiano non possono più essere soddisfatte.

 

Aggiungiamo adesso un nuovo paradosso. Se la maggior parte degli scambi sono di natura monetaria per via del problema della summenzionata asimmetria di informazioni, la moneta diviene un bene detenuto da tutti gli agenti. Tuttavia, a meno di supporre che l’entità del patrimonio di tutti gli agenti sia esattamente lo stesso, alcuni disporranno di più moneta rispetto ad altri. Questi potranno quindi più facilmente ritirarsi dagli scambi, considerando ora che l’economia non è una sequenza produzione-scambio-consumo, ma una successione di sequenze nel tempo. La moneta intesa come mezzo per ridurre l’asimmetria delle informazioni sulla natura di un bene scambiato si manifesta dunque come elemento di una nuova asimmetria, quella della maggiore o minore capacità degli agenti di ritardare le loro transazioni nel tempo. E, a meno di non postulare che gli agenti siano identici, poiché non possono a priori sapere che cosa pensa la controparte, l’agente più vulnerabile a una potenziale defezione del suo partner sarà portato a temerla maggiormente. Sarà quindi spinto richiedere una garanzia per la transazione, che può essere ridotta se gli agenti decidono di tornare al baratto. Joseph Stiglitz giunge ad un risultato simile quando muove critiche alle ipotesi di efficienza informativa e la completezza dei mercati.[23] Egli giunge dunque alla conclusione che i prezzi sono solo una delle informazioni come le altre che agenti devono ottenere. Ma il relativismo del ruolo dei prezzi implica anche quello della moneta. perché queste informazioni passano necessariamente da una personalizzazione dei rapporti di scambio che la monetizzazione avrebbe dovuto evitare.

 

Ne consegue allora che né l’assimilazione dell’economia ad un baratto monetizzato né la sua assimilazione ad un’attività tendente alla monetizzazione perfetta sono sostenibili, per motivi paralleli. Portata alle estreme conseguenze, la monetizzazione crea le condizioni per la rinascita del baratto, e il baratto, se diffuso, porta alla consapevolezza della necessità della moneta. L’irriducibile diversità dei rapporti di scambio annulla la possibilità dell’esistenza di meccanismi di equilibrio walrasiano.

 

 

Realismo del primo e del secondo tipo

 

La contemporanea assenza di mercato e di moneta in una teoria economica che si prefigge di stabilire le leggi di funzionamento di un’economia di mercato monetarizzata provoca perplessità riguardo il realismo dei fondamenti dell’economia dominante. Le perplessità hanno molteplici aspetti e le risposte fornite dagli autori negli ultimi quarant’anni sono spesso state differenti. Bisogna infatti notare il fatto che esistono due distinti livelli di irrealismo nella TEG, anche se i loro effetti nella produzione di un’auto-giustificazione sono complementari. In primo luogo, vi è il rifiuto dichiarato e argomentato del realismo, che ha origine nel strumentalismo di Friedman.[24] Questo si traduce in un dogmatismo tanto più rigoroso quanto più rifugga consapevolmente qualsiasi tentativo di rapportare i propri presupposti con la realtà. Ma esiste anche un’altra forma di realismo che semplicemente deriva dal desiderio di presentare come fatti verificabili concreti ipotesi metafisiche. L’irrealismo qui scaturisce da una confusione tra livelli di ragionamento.

 

È facile portare in questa fase alcuni esempi delle conseguenze della mancanza di realismo del primo tipo. Il più conosciuto, perché ha portato a faide memorabili tra gli allievi di Keynes e gli economisti più fedeli tradizione neoclassica, riguarda la funzione della produzione come postulata nella TEG. Quest’ultima si basa fondamentalmente sulla duplice ipotesi di omogeneità del capitale e dei rendimenti decrescenti, come dimostrata dall’aspra critica di Joan Robinson e le diverse risposte di Robert Solow.[25]

 

Gli economisti fedeli alla TEG sono, in ultima analisi, costretti ad ammettere che le funzioni di produzione impiegate nei loro modelli non rappresentano l’effettivo processo di produzione, e non possono essere utilizzate per analizzarlo. Ma, dice Samuelson, ciò non è importante: queste funzioni consentono di stabilire un rapporto diretto e statisticamente misurabile tra mezzi di produzione e il risultato della stessa. Sono quindi approssimazioni accettabili, che sostituiscono una conoscenza accettata come mancante. [26] Il problema che allora si pone è che, al fine di ipotizzare l’efficacia di tale approssimazione, dobbiamo immaginare l’economia come un sistema deterministico che obbedisce a leggi non determinabili. Da qui scaturisce l’ipotesi ergodica. È sufficiente notare, di passaggio, che l’uso di questa metafora presa in prestito dalla fisica è metodologicamente molto discutibile, e tradisce una vera debolezza concettuale.[27]

 

Un secondo esempio può essere trovato nella teoria dell’utilità e del comportamento dei consumatori. La TEG ipotizza che i consumi siano sostituibili e non complementari, con conseguenze significative per la forma delle curve di indifferenza del consumatore.[28] Da tali curve si deduce poi un modello di comportamento degli agenti economici, sulla base delle variazioni dei prezzi relativi di ciascun bene. Lo stesso modello di comportamento, inizialmente costruito per rappresentare un consumatore, viene poi applicato a tutti i comportamenti economici. Si arriva così al dogma per cui le variazioni dei prezzi relativi costituiscono il segnale fondamentale per tutte le decisioni. Questo dogma ha conseguenze significative non tanto sul piano teorico, ma su quello prescrittivo. Se infatti si accetta che i prezzi relativi abbiano effettivamente questo potere, allora adottare una politica dei prezzi sbagliata può portare a conseguenze economiche catastrofiche. Ne consegue che la strategia più efficace per ridurre il rischio un’iniqua distribuzione delle risorse sia l’adozione di prezzi relativi a livello mondiale, anche se questi non dovessero essere i più giusti. Bisogna quindi abolire tutti gli ostacoli che impediscano ai prezzi relativi nazionali di allinearsi a quelli globali, il che giustifica l’abolizione di tutti i dazi doganali, tecnici, sociali e norme sanitarie che possano ostacolare questo allineamento. Il problema è che gli economisti neoclassici non sono mai stati in grado di dimostrare l’esistenza di una tale funzione di utilità [29], né se le condizioni di una tale verifica esistano davvero. [30] Tutte le ipotesi sottostanti la teoria neoclassica dell’utilità e delle preferenze individuali possono essere ritenute falsificate sperimentalmente. È il caso, in particolare, per la teoria delle preferenze individuali.[31]

 

 

La teoria delle preferenze

 

La teoria delle preferenze riguarda solo apparentemente un ambito molto limitato. Si tratta in effetti di una teoria più complessa di quanto sembri. Generalmente viene spiegata solo attraverso una serie di ipotesi che giustificano il comportamento dei singoli agenti. Sarebbe quindi perfettamente comprensibile considerarla un elemento secondario. Eppure, l’ipotesi di razionalità degli agenti economici, che è più di una razionalità definita come la massimizzazione del profitto, di un’utilità o di un godimento, è centrale. Questa ipotesi di razionalità è la spina dorsale non solo della teoria, ma anche della divulgazione dei suoi apologeti.

 

Essa si basa su una precisa teoria delle preferenze individuali. Al di là delle ovvietà e dei luoghi comuni si scorgono costruzioni teoriche, più o meno coerenti, ma tutte ancorate a questa definizione di razionalità e, di conseguenza, su questa teoria delle preferenze.

 

Come si spiega allora che gli economisti mainstream o ortodossi[32] tendano a preferire procedure in cui le scelte individuali sono determinate in maniera involontaria (come il mercato e la concorrenza), piuttosto che procedure deliberate e organizzazioni senza cadere subito nel processo alle intenzioni? Questa questione illustra il contrasto tra gli approcci teorico, normativo e prescrittivo che si ritrovano in economia. Nonostante la sua formulazione astratta, essa ha conseguenze dirette nella vita di tutti i giorni.

 

Al cuore del problema è il postulato della razionalità degli agenti. Come sottolineato da Herbert Simon, gli economisti hanno in realtà una definizione molto più restrittiva della razionalità, come ricerca della massimizzazione dell’utilità o del profitto.[33] Adottare questo concetto comporta una serie di ipotesi sul comportamento umano. Queste speculazioni teoriche si basano sul principi fondante dell’economia dominante dalla fine del XVIII secolo, ovvero la teoria delle preferenze individuali. Questa teoria è alla base non solo della teoria neoclassica nella sua forma tradizionale,[34], ma anche le sue varianti più realistiche, o – per utilizzare una tipologia ideata da Olivier Favereau – della Teoria Standard e della Teoria Standard Allargata.[35 ]

 

Nei testi di riferimento come i manuali si trova una serie di assiomi che stabiliscono la funzione di utilità e di garantire le condizioni della sua massimizzazione. Secondo Gérard Debreu [36], per determinare una funzione di utilità si ipotizza che preferenze soddisfino i seguenti assiomi:

 

Le preferenze soddisfano un ordine preliminare completo delle scelte possibili, il che implica una relazione transitiva (se preferisco z a y e y a z allora preferisco x a z) e riflessiva. L’agente può quindi classificare i diversi elementi tra i quali scegliere.

 

Le preferenze sono continuative (cioè se x> y> z, allora esiste un insieme di possibilità tra x z che è indifferente rispetto a y).

 

Tali preferenze sono caratterizzate dall’assioma della non saturazione (se il consumo di una quantità di X1 x genera un utilità u1, allora se X2> X1, il valore u2> u1).

 

Si ritiene generalmente che la curva della funzione di utilità sia convessa, una generalizzazione dell’ipotesi dei rendimenti decrescenti mutuati in economia da Ricardo dalla produzione agricola come dimostrazione della teoria della rendita. Questa ipotesi è tecnicamente importante perché giustifica perché le curve di indifferenza, tradizionalmente usate per rappresentare le preferenze, sono convesse.[37] In mancanza di corrispondenze realistiche, la convessità svolge un ruolo importante nelle spiegazioni. Per passare dall’utilità al concetto di utilità attesa, concetto coniato da Bernoulli e i suoi lavori del XVIII secolo sulle lotterie e che costituisce un passaggio cruciale tra un universo di certezze ad uno probabilistico[38], è necessario, secondo i lavori di von Neumann e Morgenstern[39], ipotizzare l’assioma di indipendenza delle preferenze. Le preferenze sono indipendenti se, essendo le possibilità x, y e z dove x> y, una combinazione di x e z sarà preferita alla stessa combinazione di y e z. Spesso si aggiunge anche che le preferenze sono monotone nel tempo (la qualità di un ulteriore periodo determina se l’esperienza più lunga è più o meno utile della più breve). Questa monotonia deve essere unita, dal punto di vista dell’agente, ad un’integrazione temporale (l’utilità tratta dall’esperienza corrisponde all’insieme di utilità di ciascun momento di tale esperienza). La monotonia temporale e l’integrazione temporale hanno un ruolo se si cerca di espandere la teoria standard ad inclusione del tempo, ma non sono prese considerate nella sua forma originale è a-temporale. Tuttavia, volendo passare da una serie di osservazioni o di scelte ad una proposizione generale, l’integrazione temporale e monotonia temporale diventano necessarie.

 

Questa assiomatica della struttura delle preferenze è alla base della definizione di comportamento razionale concepito come massimizzazione dell’utilità (in un universo stabile o certo) o dell’utilità attesa (in un universo probabilistico). Il concetto è stato rigorosamente dimostrato per la prima volta da Vilfredo Pareto[40], anche se è implicito negli scritti di autori precedenti come Jevons o Cournot. Ha passato il vaglio matematico poi divenuto standard con von Neumann e Morgenstern oltre che con Arrow.[41]

 

 

 

Assiomi e ipotesi confutate

 

 

Alcuni assiomi ed ipotesi sono chiaramente discutibili. La presunta convessità delle curve di indifferenza porta alla conclusione, apparentemente intuitiva, che la domanda di un bene sia inversamente proporzionale al suo prezzo. Ma in realtà studi recenti hanno dimostrato che tale convessità rappresenta piuttosto un caso speciale, certamente possibile, ma non obbligatorio né generale.[42] Come sottolinea da Bernard Guerrien, diventa allora impossibile dedurre “leggi” da comportamenti individuali, come proposto da Arrow e Debreu.[43]
L’ipotesi della convessità è necessaria per dimostrare che sia possibile ottenere un equilibrio al tempo stesso univoco e stabile. Se però è applicabile soltanto a un caso particolare, allora la forza normativa e prescrittiva della teoria standard è seriamente compromessa. Ma critiche altrettanto radicali sono state indirizzate ad una delle ipotesi più centrali, quella dell’indipendenza. Questa ipotesi, necessaria per passare dal concetto di utilità a quello utilità attesa è stata infatti contestata fin dagli inizi, soprattutto da Maurice Allais.[44]

 

Due dei principali sostenitori dell’ipotesi di utilità attesa, Savage e Ellsberg, sono addirittura stati tentati di seguire Maurice Allais ed accettare la confutazione di questa teoria.[45] Ma si sono subito affrettati a recuperare le loro posizioni, optando per considerare l’ipotesi di indipendenza come un’ipotesi inevitabile.[46] Nonostante ciò, sia il paradosso di Allais che le prove empiriche suffraganti la sistematica falsificazione dell’assioma di indipendenza hanno prodotto importanti ricerche. Alcuni economisti della scuola neoclassica hanno progressivamente preso le distanze dalle formulazioni originali.

 

Gli economisti neoclassici sono stati quindi consapevoli fin dagli inizi dei problemi sollevati dalla teoria classica delle preferenze. L’elaborazione di formulazioni classiche tra la fine degli anni Quaranta e i primi anni Cinquanta non ha fatto altro che accelerare questa realizzazione. Ne è scaturito un dibattito che avrebbe potuto portare ad una generale evoluzione di questa teoria. Ma questa è rimasta ancorata al suo punto di partenza.

 

Un primo indizio riguardo i problemi che si riscontrano con le ipotesi comunemente in discussione è dato da un fenomeno divenuto noto in letteratura con il nome di effetto Hawtorne. [47] Successive ricerche in contesti molto diversi offrono altre prospettive, e aiutano a isolare quello che si potrebbe definire come effetto Pigmalione.[48] L’analisi dell’effetto Hawtorne e dell’effetto Pigmalione fornisce interessanti spunti analitici e prescrittivi. Il ruolo del contesto è essenziale per comprendere la dinamica di gerarchizzazione delle preferenze. La gerarchia non è dunque una variabile preesistente alla scelta. Questi effetti sono stati confermati da ricerche più recenti.

 

 

Il contributo della psicologia sperimentale

 

Alla fine degli anni Sessanta Paul Slovic e Sarah Lichtenstein, psicologi ed economisti, condussero uno studio rigoroso sulla stabilità delle preferenze. Slovic e Lichtenstein riscontrarono delle inversioni di preferenza e cambiamenti da una strategia ad un’altra.[49] Questi risultati si sono riprodotti in diversi contesti, inclusi quelli in cui i partecipanti erano giocatori d’azzardo, che facevano puntate con i propri soldi in un casinò di Las Vegas.[50] Sono risultati coerenti con l’ipotesi sviluppata da Slovic e Lichtenstein, secondo la quale i processi cognitivi variano in base alle nostre valutazioni (di un’utilità o un prezzo) e scelte.[51] La stabilità di questi risultati, il fatto che esperimenti ripetuti non producono una diminuzione significativa dei cambi di preferenza, provano che sitratta di una vera e propria struttura comportamentale. Ciò è in contrasto con una serie di assiomi fondamentali, in particolare quelli della transitività e continuità. L’interpretazione di questi risultati suggerisce che si debba tener conto di effetti più ampi, come gli effetti Hawtorne e Pigmalione. Una rigorosa presentazione di questi effetti è stata fornita da Amos Tversky, Daniel Kahneman ed alcuni loro collaboratori.

 

Si possono distinguere due effetti principali. Il primo, chiamato da Amos Tversky “effetto framing”, indica che il modo in cui i termini di una scelta sono presentati determina i risultati.[52] Questo effetto dato dal contesto è chiaramente una violazione dell’ipotesi di indipendenza delle preferenze dalle condizioni di scelta. Ancora più problematica per la teoria prevalente è che la manifestazione esplicita delle preferenze dipenda anch’essa dal modo in cui sono posti i problemi. Siamo così in grado di spiegare il fenomeno, oramai ben noto, delle variazioni di preferenze in base alle condizioni di presentazione di scelta.[53] Si scopre che è possibile dimostrare sperimentalmente che le preferenze dipendono direttamente dal contesto, e che le gerarchie di preferenza sono costruite attraverso il processo di scelta, piuttosto che essere pre-esistenti come sostenuto dalla Teoria Standard.[54]

 

Questo risultato conferma le conclusioni tratte dall’effetto Hawtorne e dall’effetto Pigmalione.

 

Il secondo effetto è denominato da Daniel Kahneman come endowment effect o effetto dotazione.[55] In base a questo effetto, si manifesta una variazione di preferenze sulla base del fatto che i soggetti dello studio si reputino o meno in grado di possedere un determinato bene. Così, a seconda se ad un gruppo campione venga proposto di scegliere tra una somma di denaro e una tazza di caffè, o di dire per quale somma sarebbero disposti alla stessa tazza di caffè che era sta loro precedentemente offerta, il prezzo implicito della stessa tazza varia fino a raddoppiare.[56] Eppure sostanzialmente si tratta della stella scelta, quella tra una somma di denaro e un bene. Più in generale, risulta apparente che gli agenti individuali reagiscono in modo diverso alla stessa scelta a seconda se si sentano o meno in possesso di un potere decisionale o di influenza sul loro futuro. Ancora una volta, questo sembra concordare con i risultati osservati a seguito dell’effetto Hawtorne o Pigmalione. Ma le ipotesi di coerenza sono centrali. In mancanza, la teoria standard delle scelte non può più essere generalizzata dal livello individuale a quello della collettività semplicemente come aggregazione dalle preferenze o delle funzioni di utilità. Questi esperimenti confermano peraltro come sia enormemente difficile per gli agenti predire la futura struttura delle loro preferenze.[57] Ciò può potenzialmente minare le basi di qualsiasi teoria che postuli modalità spontanee di accordo o convergenza di vedute sulla base di esperimenti ripetuti.

 

Questi risultati smentiscono le ipotesi utilizzate per generalizzare la teoria della razionale massimizzazione e che costituiscono le fondamenta della teoria utilitaristica moderna. Analogamente, gli assunti dell’integrazione e della monotonia temporale delle preferenze, necessari per una generalizzazione dinamica, non vengono confermati.[58]

 

Questi studi mostrano anche che le ipotesi che devono necessariamente essere poste per garantire perfetta spontaneità di comprensione, così come quelle che presuppongono una natura individuale di questo processo, sono infondate. In questo senso gli studi di psicologia sperimentali sopracitati hanno un impatto che va oltre la semplice critica del modello neoclassico della razionalità di massimizzazione. Viene infatti rimessa in discussione l’intera teoria utilitaristica basata sul presupposto che esista una transizione lineare tra comportamenti individuali e comportamenti collettivi. Al di là degli assiomi neoclassici, vengono così sollevati dubbi sugli stessi assiomi dell’individualismo metodologico, imprescindibili per qualsiasi teoria che coinvolga un qualche tipo di mano invisibile.

 

 

Strategia di elusione e negazione del mondo reale

 

Gli economisti fedeli alla TEG cercheranno allora di eludere il problema ipotizzando che non sia necessario un metaforico banditore di mercato, né un’istituzione iper-centralizzata che ne faccia le veci, perché tutti gli agenti sono in realtà razionali e agiscono “come se” il banditore o istituzione fosse presente. [59] Siamo quindi in presenza di ciò che O. Favereau chiama Teoria Standard Sperimentale [60]. Resta quindi il problema di capire quale sia l’origine di questo comportamento razionale. Se fosse innata, ci sarebbe bisogno di ipotizzare una conoscenza immanente il funzionamento della TEG da parte di tutti gli agenti. Se acquisita, il che è ovviamente più realistico, ciò richiederebbe una mano di ferro in grado di controllare strettamente tutti gli individui oppure di un processo di selezione permanente che assicuri la censura o correzione di comportamenti devianti. Si arriva così al problema degli incentivi, al ruolo dell’informazione, in particolare delle asimmetrie di informazione. Questa è, in base alla nomenclatura di O. Favereau, la Teoria Standard Estesa. [61] Eccetto che, in questo contesto, l’ipotesi di una selezione non consegue altro che moltiplicare i problemi. Non vi è nulla che spieghi come funzioni, né quali sono i suoi principi. Per capire una tale selezione, sarebbe in realtà necessaria una teoria delle istituzioni, che è proprio ciò che manca alla TEG.

 

Un tale tentativo è stato fatto dalla corrente che viene descritta come neo-istituzionalista, ben rappresentata dai lavori di Oliver Williamson. [62] Gli agenti decidono di ricorrere al mercato, o alle istituzioni, in funzione dei costi di transazione che gravano ogni volta che i conclude un contratto. Nel primo caso i contratti conclusi sono immediati e infinitamente ripetibili, nell’altro si tratta di contratti validi durante un determinato periodo, con i quali si accetta la potenziale perdita di utilità che si potrebbe eventualmente subire nel caso si presenti un contratto migliore contro la garanzia data dal non dover ripeterlo. Si riconosce quindi la necessità di un sistema istituzionale per il funzionamento del mercato, ma nel primo caso esso viene scomposto in una serie di contratti individuali. Questo approccio, tuttavia, si scontra con diversi problemi. Innanzi tutto, l’ipotesi che un contratto si applichi per le istituzioni equivale a ritenere che le difficoltà di contrattazione che hanno spinto gli agenti a scostarsi dal mercato siano improvvisamente scomparse. Se il futuro è incerto, come si può essere sicuri che un contratto concluso nel quadro di un’istituzione non diverrà obsoleto domani? Si dovrebbe essere sicuri che nulla domani possa mai invalidare il contratto di oggi. Ma questo tipo di conoscenza è la stessa di quella di cui avrebbe bisogno un pianificatore.

 

In realtà, è nell’interesse della collettività e delle istituzioni che queste tipologie siano qualcosa di più che dei semplici insiemi di contratti. Sono condivisioni di conoscenze, esperienze, di reciprocità. Solo così diventa possibile formulare una teoria dell’apprendimento di “buoni” comportamenti, ma questi sono sempre contingenti alle istituzioni e alla natura dell’ambiente. Scopriamo che non esistono comportamenti “buoni” in sé, ma solo comportamenti coerenti in un determinato contesto. Nulla garantisce dunque che tali comportamenti siano quelli che bisogna concordare perché l’ipotesi del “come se” sia vera, e perché si possa raggiungere un equilibrio senza bisogno di coercizione o di un’ingombrante istituzione pre-esistente. Si inciampa quindi sulle ipotesi di individualismo che sono alla base di questi approcci.

 

Il “ritorno” al realismo è caratterizzato dalle contraddizioni che la realtà genera all’interno del paradigma neoclassico.

 

Inoltre, riconoscere che esista una selezione di comportamenti acquisiti implicherebbe che lo stato iniziale non è perfetto. In questo caso non è chiaro come funzioni l’economia prima di raggiungere il “paradiso” promesso dal meccanismo di selezione. Per capire come funziona un’economia basata su comportamenti acquisiti, è necessario essere in grado di dire come si comportava l’economia prima che questi comportamenti lo siano, altrimenti l’idea di acquisizione è priva di significato.

 

Infine, dobbiamo aggiungere che il cosiddetto approccio realistico, apparentemente perseguito dagli economisti che hanno preso coscienza della situazione di stallo della TEG nella sua versione originale, non fornisce neanche alcuna spiegazione sul meccanismo che consentirebbe agli agenti di capire se l’equilibrio è raggiunto o meno. Dal momento in cui si ammette, per realismo, che gli agenti sono diversi l’un l’altro e non sono soggetti ad una struttura dispotica di omogeneizzazione, si pone il problema di come percepire con certezza il raggiungimento dell’equilibrio. [63] La teoria neoclassica offre indicatori oggettivi, come i prezzi o le quantità nel processo non walrasiana per tentativi, ma questi devono essere valutati a livello soggettivo, in base alle preferenze e al confronto tra le aspettative e la percezione della realtà. Ciò pone il problema del profitto come segnale rilevante per l’interpretazione “realistica” dei tentativi. I capitalisti fanno più attenzione alla differenza tra il tasso di profitto di ogni settore o alla differenza tra il tasso di profitto effettivo e il tasso di profitto naturale? Se si accettiamo il primo criterio, e si suppone che gli agenti reagiscano alle apparenze, l’economia può giungere ad equilibri multipli. Se si opta per il secondo, ossia che gli agenti reagiscono alle differenze tra “apparenze” e “realtà”, si può ottenere un unico equilibrio. Ma si dovrebbe presumere la conoscenza da parte di agenti delle leggi segrete del sistema a cui appartengono, oltre che delle conseguenti capacità di gestione delle informazioni. Questo è il significato della critica di Ellis Hayek nel 1934 esposta nel primo capitolo. Ipotizzare che il prezzo di lungo periodo sia uguale al prezzo naturale implica un’ulteriore forzatura teorica, perché si dovrebbe innanzi tutto dimostrare la fattibilità e la stabilità di un equilibrio per poter concludere che i movimenti ciclici sono solo fluttuazioni di un trend naturale.[64]

 

Questa contraddizione tra criteri soggettivi e oggettivi può portare a scivolare verso il soggettivismo. Pertanto, non sono i prezzi o le quantità ad essere indicativi, ma piuttosto la maggiore o minore convergenza tra percezioni e rappresentazioni. Il problema allora è che questi possono perfettamente convergere verso risultati aberranti, come nei casi di panico dei mercati.[65] Inoltre, la scelta tra mercato o istituzione, scelta fondamentale per la teoria neo-istituzionalista (make or buy), non è indifferente alle rappresentazioni, perché ogni istituzione è un sistema collettivo che implica una trasformazione, per quanto minima o inconsapevole, delle rappresentazioni di ogni singolo individuo una volta che questi decida di aderirvi.

 

Il cosiddetto realismo del Neo-Istituzionalismo è quindi una forma ancora più grossolana dell’irrealismo standard. Invece di rifugiarsi esplicitamente negli assiomi, si finisce col simulare una sorta di realismo sulla base di ipotesi non verificabili e non verificabile, che altro non sono se non visioni metafisiche del singolo. Per completezza bisogna aggiungere che O.E. Williamson aveva, in un certo senso, vuotato il sacco, adottando in una delle suoi prime opere una prospettiva esplicitamente strumentista, molto vicina a quella di M. Friedman.[66]

 

 

L’ipotesi ergodica o la fuga nella metafora

 

Sembrerebbe dunque che gli economisti tradizionali abbiano non solo violato l’ obbligo del realismo, ma anche quello della coerenza. Poiché una posizione esplicitamente non realistica è sempre più difficile da mantenere nei confronti del mondo reale, che si aspetta dagli economisti qualcosa di più di modelli matematicamente eleganti, si sono illusi che con delle modifiche marginali al loro programma di ricerca si sarebbero potuti conciliare il rispetto degli assiomi iniziali con una capacità descrittiva ed esplicativa. Il risultato, in realtà, è un corpus teorico sempre più incoerente. A queste condizioni, si comprende perché solo una minoranza della professione abbia preferito attenersi all’irrealismo formale, pur sostenendo il potere esplicativo dei suoi modelli. Per fare ciò, è stato necessario invocare l’ipotesi di ergodicità.

 

Di fronte a varie obiezioni sia dalla scuola istituzionalista, i sostenitori della TEG hanno tentato una nuova forzatura per concepire l’economia come scienza dello stregua delle scienze naturali. Per rompere il collegamento con le scienze sociali, si è fatto ricorso all’ipotesi ergodica.[67]

 

L’impiego di una metafora presa in prestito dalla meccanica e della fisica è stato perfettamente consapevole. Si trattava di rafforzare la dimensione meccanicistica della rappresentazione dell’economia. L’ipotesi ergodica è stata formulata alla fine del XX secolo come soluzione ai problemi attinenti alla fisica dei gas. Nel senso della definizione data H. Poincaré, essa implica che, in un dato sistema, si sia in presenza di uno perfettamente ripetitivo. Viene dunque postulata l’eguaglianza delle medie di distribuzione laddove non sia possibile misurare un numero sufficiente di micro-fenomeni. Nella definizione di von Neumann, implica una forte convergenza di risultati. [68] In economia, quest’ipotesi permette di presupporre che, se le osservazioni statistiche disponibili provengono da processi stocastici, ciò implica una convergenza verso l’infinito. Questo dà un’elegante giustificazione matematica all’ipotesi delle aspettative razionali. [69] In un ambiente ergodico, è possibile prevedere il futuro sulla base della proiezione di statistiche raccolte in passato. [70] Si presume pertanto che esistano leggi economiche, nel senso che si dà al termine legge in fisica. Nonostante queste non siano direttamente accessibili, è possibile dedurne l’andamento mediante osservazioni statistiche, per quanto imperfette.

 

Nella sua forma originale, l’ipotesi ergodica in economia porta a postulare un completo determinismo. Per la TEG, per di più, le leggi di determinazione sono, in definitiva, direttamente intelligibili. Ne consegue una particolare interpretazione dello stesso concetto di incertezza. Infatti, se esiste una determinazione degli andamenti dell’economia in base a leggi di portata e natura generale, esiste allora nella natura stessa dell’economia un ordine oggettivo delle probabilità di futuri diversi. L’incertezza circa il futuro è quindi sempre una questione di probabilità, che è nella sostanza la stessa prospettiva dei teorici dell’informazione imperfetta.[71] Quest’idea si è subito scontrata con un’altra concezione, sviluppata da F. Knight[72], per il quale c’è sempre una parte, talvolta marginale ma altre volte più consistente, di eventi il cui sopravvenire non può essere considerato in senso probabilistico. Questa nozione di incertezza, in contrasto a quella di rischio (che può essere misurato in forma probabilistica) rappresenta una rottura fondamentale con la TEG.

 

La TEG era considerata, e lo è ancora dai suoi difensori, una teoria dell’interesse comune per il tramite di azioni individuali, e un approccio materialista, basato sull’interessi materiale degli agenti, della produzione e della distribuzione di ricchezza . Nei fatti, la TEG si rivela essere o troppo idealistica, con ipotesi forzate circa l’immanenza di certi comportamenti e l’irrilevanza del fattore temporale, oppure totalmente centralistica. Essa implica quindi intervento divino, o quello di uno stato dispotico. Le critiche mosse alla pianificazione centralizzata, che si tratti di accuse di una presunta onniscienza del pianificatore o della sua dittatura, si applicano allora direttamente al modello dominante di economia di mercato. Un certo numero di economisti, particolarmente legati principi della TEG, pur riconoscendo che è di scarsa utilità in quanto modello descrittivo del mondo reale, obietteranno che ha il vantaggio di fornire un quadro teorico coerente, permettendo programmi di ricerca in grado di avvicinarsi gradualmente ad un maggiore realismo.[73] Ma non è affatto così che questa tendenza si è effettivamente manifestata. Oggi si potremmo invece affermare che la TEG sia affondata nel dogmatismo e nella rigidità.[74] Questo è stato riconosciuto anche dallo stesso F. Hahn, che in un articolo del 1991 sottolinea il peso degli irrigidimenti dogmatici nelle religioni in declino, rapportato all’evoluzione della TEG.[75]

 

Il modello dominante di economia di mercato, cui si appoggiano esplicitamente il lavoro teorico e, implicitamente come modello di riferimento, gli studi empirici di gran parte degli economisti contemporanei, è quindi un fallimento sul piano scientifico, e rivela essere una frode ideologica nelle sue varianti “esplicative” dell’economia reale. In sostanza, non è in grado di spiegare come e perché le azioni avviate separatamente da singoli o da agenti isolati possano portare ad un risultato complessivo più o meno soddisfacente. La TEG non riesce a fornire un modello del mondo reale. Non può dunque aver alcun valore normativo all’interno di una disciplina, né ambire a giustificare un corso prescrittivo pratico in materia di politica economica.

 

 

 

Note

 

[1] L. Walras, Éléménts d’économie politique pure ou théorie de la richesse sociale, Pichon et Durand-Auzias, Paris, 1900.

[2] M. Morishima, “The Good and Bad Use of Mathematics” in P. Viles & G. Routh, (edits.), Economics in Disarray , Basil Blackwell, Oxford, 1984

[3] A. Insel, “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94. Si veda anche G. Berthoud, “L’économie: Un ordre généralisé?”, in Revue Semestrielle du MAUSS, n°3, op.cit., pp. 42-58.

[4] La migliore presentazione è ad opera di G. Debreu, Theory of Value: an axiomatic analysis of economic equilibrium, Yale University Press, New Haven, 1959.

[5] Per una critica del meccanismo e del riduzionismo della teoria neoclassica e della TEG si vedano li seguenti opere ed articoli: N. Georgescu-Roegen, « Mechanistic Dogma in Economics », in Brittish Review of Economic Issues, n°2, 1978, maggio, pp.1-10; dello stesso auteur, Analytical economics, Harvard University Press, Cambridge, Mass., 1966. G. Seba, « The Development of the Concept of mechanism and Model in Physical Science and Economic Thought », in American Economic Review – Papers and Proceedings , vol.43, 1953, n°2, maggio, pp.259-268. G.L.S. Shackle, Epistemics and Economics : a Critique of Economic Doctrines, Cambridge University Press, Cambridge, 1972.

[6] O. Favereau, “Marchés internes, marchés externes”, in Revue Économique, vol. 40, n°2, marzo 1989, pp. 273-328.

[7] C. Johnson, Japan, Who Governs?, Norton, New York, 1995.

[8] B. Guerrien, “L’introuvable théorie du marché”, in Revue Semestrielle du MAUSS, n°3, op.cit., pp. 32-41.

[9] Si veda anche, M. de Vroey, “S’il te plaît, dessine moi…un marché”, in Économie Appliquée, tomo XLIII, 1990, n°3, pp. 67-87.

[10] A. D’Autume, Croissance, Monnaie et Déséquilibre, Economica, Paris, 1985.

[11] F. Hahn & T. Negishi, “ A theorem of non-tatonnement stability”, in F. Hahn, Money, Growth and Stability, Basil Blackwell, Oxford, 1985.

[12] M. de Vroey, “la possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général”, in Revue Économique, vol. 38, n°3, maggio 1987, pp. 773-805.

[13] A.V. Banerjee et E.S. Maskin, « A walrasian theory of money and barter », in Quarterly Journal of Economics , vol. CXI, n°4, 1996, novembre, pp. 955-1005. Voir aussi A. Alchian, « Why Money? », in Journal of Money, Credit and Banking, Vol. IX, n°1, 1977, pp. 133-140.

[14] M .Weber, Economy and Society: An Outline of Interpretative Sociology, University of California Press, Berkeley, 1948, p.108.

[15] J.M. Keynes, « A tract on Monetary reform », in J.M. Keynes, Essays in Persuasion, Rupert Hart-Davis, London, 1931. Citazione ripresa dalla traduzione francese, Essais sur la monnaie et l’économie, Payot, coll « Pettite Bibliothèque Payot », Paris, 1971, pp.16-17.

[16] Idem, p.21.

[17] J.M. Grandmont, Money and Value , Cambridge University Press et Éditions de la MSH, London-Paris, 1983.

[18] Su questo punto l’articolo principale è A.C. Pigou, “The Classical Stationary State” in Economic Journal , vol. 53, 1943, pp. 343-351. Una versione moderna della tesi si trova in D. Patinkin, Money, Interests and Prices, Harper & Row, New York, 1965, 2a edizione.

[19] Il più radicale difensore di questa tesi è R. Lucas, “An Equilibrium Model of Business cycle”, in Journal of Political Economy , vol. 83, 1975, pp. 1113-1124.

[20] J.M. Grandmont, “Temporary General Equilibrium Theory”, in Econometrica, vol. 45, 1977, pp. 535-572.

[21] J.M. Grandmont, Money and Value , op.cit., pp. 10-13.

[22] J.M. Grandmont, Money and Value , op.cit., pp. 38-45.

[23] J.E. Stiglitz, Wither Socialism ?, MIT Press, Cambridge, Mass., 1994.

[24] M. Friedman, « The Methodology of Positive Economics », in M. Friedman, Essays in Positive Economics, University of Chicago Press, Chicago, 1953, pp. 3-43.

[25] Si veda, J. Robinson, « The production function and the theory of capital », in Review of Economic Studies, vol. XXI, (1953-1954), pp. 81-106. R.M. Solow, « The production function and the theory of capital », in Review of Economic Studies, vol. XXIII, (1955-1956), pp. 101-108; Idem, « Substitution and Fixed Proportions in the theory of capital », in Review of Economic Studies, vol. XXX, (giugno 1962), pp. 207-218.

[26] P.A. Samuelson, « Parable and Realism in Capital Theory: The Surrogate Production Function », in Review of Economic Studies, vol. XXX, (giugno 1962), pp. 193-206.

[27] P. Mirowski, « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191.

[28] Per l’esposizione più classica e più utilizzata accademicament, si veda P.A. Samuelson, Foundations of Economic Analysis, Harvard University Press, Cambridge, mass., 1948.

[29] A. Eichner, « Why Economics is not yet a Science », in A. Eichner, (ed.), Why Economics is not yet a Science, M.E. Sharpe, Armonk, NY., 1983, pp. 205-241. D.M. Hausman, The Inexact and separate science of Economics, Cambridge University Press, Cambridge, 1992, cap. 1.

[30] M. Blaug, The Methodology of Economics, Cambridge University Press, Cambridge, 1980, pp. 159-169.

[31] J. Sapir, Quelle économie pour le XXIème siécle, Paris, Odile Jacob, 2005, cap. 1.

[32] Olivier Favereau offre un’ottima analisi dell’interpretazione teorica e storica del termine ortodossia economica. O. Favereau, « L’économie du sociologue ou : penser (l’orthodoxie) à partir de Pierre Bourdieu », in B. Lahire (edit.), Opera sociologica di Pierre Bourdieu, La Découverte, Paris, 2001, pp. 255-314.

[33] H.A. Simon, « Rationality as Process and as Product of Thought », in American Economic Review, vol. 68, n°2/1978, pp. 1-16.

[34] Per una discussione su questo punto: J. Sapir, Les trous noirs de la science économique, Albin Michel, Paris, 2000.

[35] Si veda O. Favereau, « Marchés internes, Marchés externes », in Revue Économique, vol.40, n°2/1989, marzo, pp. 273-328.

[36] G. Debreu, Théorie de la Valeur, Dunod, Paris, 1959.

[37] B. Guerrien, L’économie néo-classique, La Découverte, coll. Repères, Paris, 1989.

[38] La teoria dell’Utilità Attesa è collegata al « Paradoxe de Saint-Petersbourg », D. Bernoulli, « Specimen Theoria Novae de Mensura Sortis » in Commentarii Academiae Scientarum Imperiales Petrapolitane, 1738, vol. 5, pp. 175-192, San Pietroburgo.

[39] J. von Neumann et O. Morgenstern, Theory of Games and Economic Behavior, Princeton University Press, Princeton, NJ, 1947 (2a edizione).

[40] V. Pareto, Manuel d’économie politique, M. Giard, Paris, 1927.

[41] J. Von Neuman et O. Morgenstern, Theory of Games and Economic Behavior, Princeton University Press, Princeton, NJ, 1947, 1953; K. Arrow Social Choice and Individual Values, op.cit.

[42] H. Sonnenscheim, « Do Walras Identity and Continuity Characterize the Class of Excess Demand Fonctions » in Journal of Economic Theory, vol. 6, n°2/1973, pp. 345-354.

[43] B. Guerrien, L’économie néo-classique, op.cit., pp. 42-45.

[44] M. Allais, « Le comportement de l’homme rationnel devant le risque. Critique des postulats de l’école américaine » in Econométrica, vol. 21, 1953, pp. 503-546. Si veda anche M. Allais et O. Hagen (edit.) Expected Utility Hypotheses and the Allais Paradox, Reidel, Dordrecht, 1979.

[45] Si veda P. Slovic et A. Tversky, « Who Accept’s Savage Axioms? » in Behavioural Science, vol. 19/1974, pp. 368-373.

[46] Si veda L. Savage, The Foundations of Statistics, Wiley, New York, 1954; D. Ellsberg, « Risk, Ambiguity and the Savage Axioms » in Quarterly Journal of Economics, vol. 75, n°3/1961, pp. 643-669.

[47] F.J. Roethlisberger et W.J. Dickson, Management and the Worker, Harvard University Press, Cambridge, Mass., 1939.

[48] R. Rosenthal et L. Jakobson, Pygmalion à l’école – L’attente du maître et le développement intellectuel des élèves, trad. di S. Audebert et Y. Rickards, Casterman, Paris, 1971 (Pygmalion in the Classroom, Holt, Rinehart and Winston, NY, 1968).

[49] S. Lichtenstein et P. Slovic, « Reversals of Preference Between Bids and Choices in Gambling Decisions » in Journal of Experimental Psychology, n°86, 1971, pp. 46-55.

[50] S. Lichtenstein et P. Slovic, « Reponse induced reversals of Preference in Gambling: An Extended Replications in Las Vegas » in Journal of Experimental Psychology, n°101,/1973, pp. 16-20.

[51] P. Slovic et S. Lichtenstein, « Preference Reversals : A Broader Perspective », in American Economic Review, vol. 73, n°3/1983, pp. 596-605.

[52] A. Tversky, « Rational Theory and Constructive Choice », in K.J. Arrow, E. Colombatto, M. Perlman et C. Schmidt (edits.), The Rational Foundations of Economic Behaviour, Macmillan et St. Martin’s Press, Basingstoke – New York, 1996, pp. 185-197, p. 187.

[53] S. Lichtenstein et P. Slovic, « Reversals of Preference Between Bids and Choices in Gambling Decisions » in Journal of Experimental Psychology, vol. 89/ 1971, pp. 46-55. Idem, « Reponse-Induced Reversals of Preference in Gambling and Extendes Replication in Las Vegas », in Journal of Experimental Psychology, vol. 101/1973, pp. 16-20.

[54] Idem et A. Tversky, « Rational Theory and Constructive Choice », op.cit., p. 195.

[55] D. Kahneman, « New Challenges to the Rationality Assumption » op.cit..

[56] D. Kahneman, J. Knetsch et R. Thaler, « The Endowment Effect, Loss Aversion and StatuQuo Bias » in Journal of Economic Perspectives , vol. 5/1991, n°1, pp. 193-206.

[57] D. Kahneman et J. Snell, « Predicting a Changing Taste » in Journal of Behavioral Decision Making , vol. 5/1995, pp. 187-200. I Simonson, « The Effect of Purchase Quantity and Timing on Variety-Seeking Behavior » in Journal of Marketing Research, vol. 27, n°2/1990, pp. 150-162.

[58] D. Kahneman, D.L. Frederickson, C.A. Schreiber, D.A. Redelmeier, « When More Pain is Preferred to Less: Adding a Better End », in Psychological Review , n°4/1993, pp. 401-405.

[59] Un esempio di questo genere è: P.A. Chiappori, “Sélection naturelle et rationalité absolue des entreprises”, in Revue Économique, vol. 35, n°1/1984, pp. 87-106.

[60] O. Favereau, “Marchés internes, marchés externes..” op. cit., pp. 281-282.

[61] O. Favereau, “Marchés internes, marchés externes..” op. cit., p.280.

[62] O.E. Williamson, The Economics Institution of Capitalis: firms, markets, relational contracting, Macmillan & The Free Press, New York, 1975.

[63] M. de Vroey, “la possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général”, in Revue Économique, vol. 38, n°3, maggio 1987, pp. 773-805.

[64] M. de Vroey, “S’il te plaît, dessine moi…un marché”, in Économie Appliquée, tome XLIII, 1990, n°3, pp. 67-87, p. 75.

[65] C.P. Kindleberger, Manias, Panics and Krashes, Basic Books, New York, 1989, édition révisée.

[66] O.E. Williamson, The Economic Institutions of Capitalism, Firms, Market, Relational Contracting, Free Press, New York, 1985, pp. 391-2.

[67] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.), Monetary Theory, Penguin, Londra, 1969.

[68] Per von Neuman, se F è una funzione complessa su W di quadrato integrabile, il seguito delle funzioni:

n-1

1/n S f. qk converge in media quadratica verso una funzione F di quadrato integrabile e q-invariante.

k=0

Si veda, P.A. Meyer, “Théorie ergodique et potentiels”, in Annales Inst. Fourier , t. XV, fasc. 1, 1965.

[69] P. Billingsley, Ergodic Theory and Information, Kreiger Publishers, Huntington, 1978. Per un’applicazione diretta, R. Lucas e T.J. Sargent, Rational Expectations and Econometric Practices, University of Minnesota Press, Minneapolis, 1981, pp. XII – XIV.

[70] Si veda la discussione su questo punto in P. Davidson, “Some Misunderstanding on Uncertainty in Modern Classical Economics”, in C. Schmidt (ed.), Uncertainty and Economic Thought, Edward Elgar, Cheltenham, 1996, pp. 21-37.

[71] J. Machina, “Choice Under Uncertainty: Problems Solved and Unsolved”, in Journal of Economic Perspectives, vol. 1, n°1, 1987.

[72] F. Knight, Risk, Uncertainty and Profit , Houghton Mifflin, New York, 1921. Si veda in particolare pp. 19-20 et 232.

[73] K. Arrow et F. Hahn, General Competitive Analysis, Holden-Day, San Francisco, 1971, introduzione.

[74] Si veda D.M. Hausman, The Inexact and Separate Science of Economics, Cambridge University Press, Cambridge, 1992. S.C. Dow, “Mainstream Economic Methodology”, in Cambridge Journal of Economics, vol. 21, n°1/1997, pp. 73-93.

[75] F.H. Hahn, “The next hundred years”, in Economic Journal, vol. 101, n°404, numero speciale del centenario.