1.- Modelli Normativi e Politica Economica.
L’economia politica tratta fenomeni economici nel loro contenuto positivo (spiega i fenomeni), la politica economica invece tratta i fenomeni nel loro contenuto normativo (spiega le norme di comportamento). Nel caso dell’economia politica, quindi, si mira allo studio di ciò che è, mentre nel caso della politica economica, si misura allo studio di ciò che dovrebbe essere. Secondo la definizione classica di Robbins (o Bentman), definiamo politica economica l’insieme dei principi dell’azione (agenda) o dell’innovazione (non agenda) del governo rispetto all’attività economica. Secondo la definizione moderna di Caffè, invece definiamo politica economica quella disciplina che ricerca le regole di condotta tendenti ad influire sui fenomeni economici per orientarli nel senso desiderato.
Gli elementi costitutivi di un problema di politica economica son: il modello economico di riferimento e l’indicazione dell’obiettivo da conseguire. Quando si utilizza il modello economico di riferimento per spiegazioni analitiche (economia politica), si devono supporre come noti tutti gli elementi esterni (prelievo fiscale, tassi di interesse etc) e i comportamenti dei soggetti economici. In questo caso il modello viene risolto individuando gli aspetti fondamentali del sistema (reddito complessivo, occupazione etc). Per i fini di politica economica invece queste grandezze vengono considerate come obiettivi. Gli obiettivi di politica economica possono essere: Fissi e Flessibili.
Gli obiettivi fissi vengono trasmessi al policy maker tramite l’individuazione di un'unica alternativa da realizzare. Gli obiettivi flessibili prevedono invece l’indicazione di una funzione obiettivo che informi il policy maker delle preferenze del decisore (Timbergen). L’obiettivo fisso si concretizza sempre con l’indicazione di un valore da realizzare, mentre quello flessibile prevede l’esplicitazione di una funzione di preferenza che può essere una funzione da massimizzazione o minimizzazione.
OBIETTIVI FISSI E FLESSIBILI: IN UN INSIEME DI ALTERNATIVE POSSIBILI.
Supponiamo vi sia una frontiera delle possibilità produttive (curva di trasformazione) cc’ e due beni: A e B. il decisore esprimerà un obiettivo fisso scegliendo ad es. “E”. Se invece il decisore esprime una funzione continua di preferenze rappresentata tramite una famiglia di curve di indifferenza, allora il policy maker massimizzerà w (scegliendo E). Ma di fronte ad un progresso tecnologico che sposta verso Dx la FPP in DD’, il policy maker che ha ricevuto un obiettivo fisso non potrà mutare la soluzione E finchè non riceve una nuova preferenza dal decisore, anche se il vecchio programma è inefficiente. Il policy maker che ha ricevuto un obiettivo flessibile invece potrà passare alla soluzione P evitando inefficienze.
Le preferenze indicate dal decisore al policy maker sono un contratto il quale può essere completo o incompleto. I contratti completi sono quelli in cui è possibile specificare ogni possibile circostanza, mentre i contratti incompleti sono quelli in cui non è possibile prevedere tutte le circostanze che potrebbero emergere. Quando si imposta un problema di politica economica, si imposta un’impostazione ideologica che il politico fa propria. In questo caso si parla di ideologia esterna (nasce dal modello di riferimento). Nella politica economica agisce un altro importante condizionamento ideologico: la scelta dell’obiettivo, è poiché nasce direttamente dalla formazione del modello, viene chiamata ideologia interna.
La razionalità sostanziale è la razionalità classica della scienza economica per cui i risultati di una scelta discendono solo dalla funzione di preferenza dell’agente e dall’insieme dei vincoli che descrivono l’ambiente esterno. Ma nella realtà l’agente possiede informazioni limitate sulle alternative disponibili e risulta quasi impossibile supporre che conosca i risultati delle singole alternative. Inoltre non vi è alcuna evidenza empirica che di fronte a problemi di difficile soluzione l’individuo abbia le capacità adeguate. Di conseguenza, la teoria della razionalità sostanziale deve essere sostituita con la teoria della razionalità limitata, la quale tiene conto delle limitate capacità cognitive e di calcolo del decisor. Secondo questa teoria gli agenti economici sono incapaci di realizzare scelte ottime quando esse possiedono elevati livelli i complessità.
Nella realtà il movimento della razionalità limitata verso quella sostanziale è solo tendenziale, quindi occorre sviluppare un concetto che illustri l’interazione tra il decisore e i vincoli: la razionalità procedurale (Simon), cioè l’abilità nel trovare un comportamento adeguato per adattarsi all’ambiente esterno. Con questo concetto si sposta l’attenzione dalla capacità di scelta al processo di scelta, il quale non viene più assunto come un dato, ma è oggetto di ricerca. Nel processo di soluzione di un problema di politica economica intervengono due soggetti: il decisore pubblico (comitato), che detta gli obiettivi e seleziona il modello economico interpretativo, il policy maker che diviene il responsabile del modello di politica economica che gli è stato trasmesso (verifica la controllabilità del modello cioè se vi è almeno una soluzione). Tuttavia è opportuno inserire un terzo soggetto: il policy adviser. Quest’ultimo è interno come l’esperto capace di risolvere il modello (attenendo un programma unico se vi è una sola soluzione e un programma con più appendici se ve ne sono più di una).
La razionalità procedurale ha introdotto nell’economia le possibilità che i soggetti abbandonino l’approccio Optimizing per assumere comportamenti diversi: l’ottimizzazione approssimata e l’alternativa soddisfacente. La prima procedura consiste nell’introduzione di semplificazioni essenziali della situazione indicata dal modello. La seconda procedura, invece, comporta un cambiamento radicale del tipo di obiettivo: l’approccio optimizing viene sostituito con quello samsficing. In altri termini, ad un soggetto che ottimizza si sostituisce un soggetto che si accontenta.
In condizioni particolari, alcuni economisti si ispirano a semplici regole empiriche, cioè può essere accettabile quando il decisore si trova ad affrontare situazioni di routine che già conosce e che tendono a ripetersi. I comportamenti soddisfacenti e le regole empiriche sono ipotesi interessanti per spiegare molti aspetti dei programmi di politica economica e molte procedure di decentramento. Tuttavia essi non sono motivo sufficiente per abbandonare i modelli di razionalità che si esprimono per obiettivi fissi e flessibili. Le regole empiriche inoltre, riconducendosi a comportamenti di routine, divengono elementi di rigidità della politica economica. La risposta del programma infatti resta immutata di fronte a piccole alterazioni della realtà. Questo comportamento di rigidità può essere spiegato ricorrendo all’ipotesi di Quasi - Razionalità di Akerlof, basata sull’idea che un programma, sotto certe condizioni di condizioni di continuità della funzione obiettivo, possa deviare dall’ottimalità senza incontrare gravi perdite. Un comportamento non ottimizzante del policy maker può allora essere giustificato dall’accettazione di una piccola perdita che però consente di evitare i costi del ricalcolo del programma (Near Rationality).
IL COSTO DI UN COMPORTAMENTO QUASI RAZIONALE PER L’IMPRESA E PER LA SOCIETà
Supponiamo che il monopolio di tabacchi stimi la seguente funzione di domanda inversa P= a – bq. Uguagliando il Mr= a – 2bq al Mc= c, si ottiene la produzione ottimale di razionalità sostanziale Q0= (a – c) / 2b. Se interviene uno shock positivo di produttività che riduce il costo marginale del monopolio di una percentuale k Ɛ (0,1), abbiamo una nuova curva di costo c’= c(1-k). Il monopolista dovrebbe allora impostare un altro programma con soluzione Q1= (a – c’) / 2b. Il policy maker potrebbe preferire una soluzione quasi razionale per evitare i costi di configurazione e gestire di un nuovo programma. In questo caso egli conferma il vecchio programma di formazione Q0. Ciò comporta una minore produzione rispetto a quella ottimale pari a q1 – q0= ck/2b=h(k). Cosi facendo il monopolista incorre in una perdita di profitto che è pari all’area del triangolo g= jh, che è h(k) k/2. Il valore della perdita è gjk= c2k2/4b, in quanto l’abbandono di un comportamento razionale costa al monopolista una somma proporzionale ad un valore che dipende dal quadrato dello shock.
Se il comitato esprime una visione positiva del mando, nel programmare il proprio intervento cercherà di assumere il modello economico interpretativo che ritiene superiore a tutti gli altri in termini di verità. Tuttavia anche se il modello selezionato è superiore, non vi può essere certezza che non sia falso e che quindi non contempla errori. Per capire se nel caso in cui il modello risulti nel futuro errato come si modifica, a parità di obiettivo, il relativo programma di politica economica, dobbiamo analizzare la robustezza della politica economica. Naturalmente la visione positiva della scienza economica tende a provole giare i programmi robusti poiché non richiedono una modifica dei disegni di intervento anche se il modello in futuro si dimostrerà sbagliato.
LA ROBUSTEZZA DEL PROGRAMMA DI POLITICA ECONOMICA.
Assumiamo che una funzione di trasformazione (fpp) sia stimata come modello lineare (produttività marginale costanti), ma che questa stima si dimostri errata, assumendo una configurazione concava rispetto all’origine (produttività marginale decrescenti). Se il modello presenta un obiettivo fisso di piena occupazione E, allora il relativo programma è robusto. Ciò invece non accade per obiettivi diversi (e’, e’’). Infatti la soluzione e’ è un programma debole poiché richiede risorse che non sono disponibili, mentre la soluzione e’’ è debole poiché fallisce il requisito della piena occupazione.
Tra i modelli riguardanti i ruoli dell’imprenditore, i più importanti sono: il modello di Walras. Per Walras l’arte di farsi imprenditore deve essere riconnessa alle capacità di coordinare l’attività produttiva (formazione professionale); il modello di Knight l’arte di farsi imprenditore è da intendere come propensione della persona al rischio (migliorare il sistema informativo); il modello di Schumpeter l’arte di farsi imprenditore è nella capacità di creare (migliorare l’ambiente socio – economico); il modello di Kalecki la costituzione di una impresa è un’attività limitata dalla disponibilità di capitale proprio (migliorare il settore creditizio).
Per individuare gli obiettivi, un decisore deve selezionare azioni che conducono a situazioni diverse. Ad ogni situazione diamo il nome di stato del mondo. Quale situazione sia da considerare migliore, dipende da una valutazione sociale dei diversi stati del mondo e da questa quindi dipenderà il programma di politica economica del policy maker che deve distribuire i diritti di proprietà. Per la determinazione dell’obiettivo è necessario quindi introdurre un ordinamento sociale che fornisca una graduatoria dei diversi stati del mondo. Questa graduatoria può essere espressa tramite una lista che definisce la classifica dallo stato preferito a quello peggiore, oppure può essere espressa tramite una funzione che attribuisce ad ogni stato del mondo un valore definito nel campo dei numeri reali. Definita la graduatoria, se l’obiettivo è fisso sarà comunicato al policy maker, mentre se è flessibile il decisore comunicherà la funzione di benessere sociale. Il primo problema della politica economica è quello di determinare tale ordinamento, il quale può essere: Diretto, se la graduatoria degli stati del mondo è introdotta dall’estero; Indiretto, se la graduatoria è riferita esclusivamente alle preferenze degli individui. Se la società si organizza con un ordinamento diretto, le preferenze e gli obiettivi sono indicati da parte di elites. L’elitarismo implica che il potere pubblico non è stato pensabile alla richiesta del popolo quanto lo è verso gli interessi dell’elite. Se la società si organizza secondo i principi dell’ordinamento indiretto, bisogna aggregare le preferenze individuali. L’obiettivo del modello normativo viene poi trasmesso al policy maker tramite il funzionamento di istituzioni democratiche come i parlamentari e governatori etc.
AGREGAZIONE DELLE PREFERENZE DEGLI INTERESSI DEI GRUPPI E LE SOLUZIONI DI COMPROMESSO.
Supponiamo vi sia una società che sia chiamata ad esprimersi sui fini di un intervento ambientale. In essa vi sono due gruppi: gli inquinanti A i quali hanno interesse che il risanamento sia pagato tramite imposte; gli inquinanti B i quali chiedono una politica di risanamento ambientale finanziata con il principio paga chi inquina. Il policy maker dovrà assumere un obiettivo ci compromesso s, se le 2 forze si equivalgono o dovrà spostarsi verso quella che ha maggior peso relativo (s’). Tranne nel caso in cui il potere politico di un gruppo o persone sia tale da far coincidere l’obiettivo con le proprie preferenze in tutti gli altri casi l’ideologia interna sembra occuparsi dall’individuazione dell’obiettivo di politica economica.
2.- Le scelte pubbliche: la teoria delle votazioni.
Le scelte pubbliche nelle società democratiche si formano in organismi collegiali (comitati) composti dagli individui su cui l’esito delle scelte ricade (democrazia diretta) o da loro rappresentanti (democrazia indiretta). Un comitato è quindi un gruppo di persone che perviene ad una scelta tra più alternative tramite il voto. Quest’ultimo indica l’insieme delle procedure attraverso le quali si può pervenire ad una decisione. Le mozioni (proposte di azioni) vengono sottoposte al comitato stesso affinché le approvi o le respinge con una votazione. Possono essere seguite due modalità di votazione: votazione Multipla, in cui le alternative vengono votate simultaneamente secondo criteri che consentono di pesare ciascuna preferenza; e votazione Binaria, in cui le alternative vengono votate in coppia, scindendo il problema dei vari confronti. Una votazione multipla può essere condotta con almeno due procedure: Indicazione della sola Mozione preferita, ma che presenta la debolezza di fornire un risultato che tiene conto solo delle preferenze di primo livello trascurando le altre; e la Regola di Borda, con la quale si assegna un punteggio da attribuire ad ogni mozione e risulta vincente l’alternativa che raccoglie il punteggio maggiore. Tale metodo, però impone di misurare con un numero cardinale le preferenze ordinali, producendo cosi un risultato che potrebbe essere diverso a seconda del punteggio assegnato i vari posti della graduatoria. Per superare queste critiche della votazione multipla, si ricorre alla procedura binaria che, seguendo il criterio di Condorcet, scompone il confronto tra gli insieme in coppie e sceglie quella che sconfigge tutte le altre. Adottando questo criterio si aprono due alternative: Procedura completa o di Tàtonnement, in cui vengono confrontate tutte le possibili coppie; e procedura Ordinaria, in cui c’è un processo a eliminazione successiva. Si parte da una data coppia di alternative e la coppia vincente si confronterà con una delle escluse e così via. La scelta della procedura non è neutrale rispetto all’esito finale della delibera. Inoltre la procedura è da mettere in relazione anche con la scelta degli obiettivi fissi o flessibili: la procedura multipla con il criterio di Borda o quella Binaria completa sono condizione necessarie per gli obiettivi flessibili, mentre la procedura dell’alternativa migliore o quella Binaria ordinaria sono solo condizioni sufficienti per gli obiettivi fissi.
La regola dell’unanimità comporta che la selezione di una mozione avvenga soltanto se tutti i soggetti la preferiscono all’altra. L’unanimità in senso Pieno comporta che venga approvata la mozione se e solo se tutti gli agenti del comitato sono d’accordo nel preferirle (d1=d2=…..dn=1). In una versione meno stringente dell’unanimità l’iter è approvato se nessun agente vota contro (l’astensione e considerata come voto favorevole). La regola della Maggioranza comporta che una collettività di persone seleziona un obiettivo soltanto se la maggior parte dei soggetti la preferisce all’altro. La maggioranza Semplice è definita tramite la somma algebrica delle preferenza (x=1;y=-1). Se questa somma è positiva, X sarà preferita ad Y, se negativa Y sarà preferita a X. Una diversa regola della maggioranza è quella della maggioranza Assoluta. A tal fine dobbiamo introdurre un operatore matematico che conti le preferenze uguali: N+1 dato dalla somma delle preferenze strettamente positive (no astensione); e N-1 dato dalla somma delle preferenze strettamente negative. Se N+1 > N/2 passa X, se N-1 > N/2 passa Y. Le due regole di maggioranza differiscono per il modo con cui vengono contate le diverse posizioni degli agenti. Se non vi sono astensione le due regole coincidono.
B.- DIPENDENZA DEL SENTIERO NELLA PROCEDURA OTTIMALE DELL’UNANIMITà.
L’esito della scelta collettiva dipende sia dalla situazione iniziale che dalla successione delle alternative. Tale proprietà della procedura di decisione dell’unanimità è nota come Path Dependance (dipendenza del sentiero) della soluzione efficiente, cioè l’esito della procedura deliberativa dipende dalla scelta delle alternative proposte dal presidente. Il grafico sottostante mostra questa proprietà indesiderabile dell’unanimità. In ascissa e ordinata vi sono rispettivamente le utilità totali che ogni iter comporta per i due individui A e B, presi in considerazione.
A.- SOLUZIONI POSSIBILI CON LA REGOLA DELL’UNANIMITà.
Le proposte saranno approvate all’unanimità solamente se A e B voteranno entrambi si. Da ciò deriva che solo gli item contenuti nel semipiano ombreggiato potranno essere accettati da entrambi. Se il presidente propone nell’ordine del giorno le mozioni Mi, il sentiero percorso sarà Emi e sarà approvata Mb, se invece il presidente propone le mozioni Ni il sentiero sarà Eni e sarà approvato Nb. L’esempio mostra che fatto all’unanimità il primo passo su un sentiero non è più possibile tornare indietro in quanto l’altro sentiero sarà bloccato dai veti o di A o di B.
Questa procedura di voto permette la ricerca dei miglioramenti possibili all’interno del Core, una rende anche possibile che la selezione delle azioni efficienti si presti ad essere manipolata, sia da parte del presidente (tramite l’ordine del giorno), che da parte dei singoli partecipanti al comitato se decidono di votare in modo non sincero, adottando un comportamento strategico. Con l’espressione Manipolazione Strategica del voto si intende la possibilità di ottenere un risultato più favorevole votando in modo insincero. Quindi una procedura di votazione si dice manipolabile se, c’è almeno un votante che trae vantaggio dal dare una falsa rappresentazione delle proprie preferenze. Esiste una seconda interessante considerazione della votazione ordinaria dell’unanimità. La quantità di bene pubblico scelta attraverso questa procedura, pur appartenendo al Core, non corrisponde alla quantità ottimale desiderata da nessuno dei due membri del comitato. Tale problema può essere eliminato ricorrendo alla procedura completa o di Tàtonnement. Secondo questa procedura di voto, il presidente (banditore Walrasiano) annuncia una proposta di ripartizione del costo di acquisto e i membri votanti esplorano l’intero spettro delle possibili combinazioni. La quantità di spesa sarà approvata se solo se è unanimemente preferita ad ogni altra alternativa possibile (U’= MC). Se la ripartizione scelta non soddisfa tale condizione di ottimalità, il presidente aggiusta le aliquote aumentando quella dell’individuo per cui l’utilità marginale eccede il costo e riduce l’altra. Questa posizione ottimale che si raggiunge con la procedura completa dell’unanimità è detta Equilibrio di Lindahl.
LA PROCEDURA COMPLETA DELL’UNANIMITà
L’EQUILIBRIO DI LINDAHL.
L’equilibrio di Lindahl, poiché ottenuto come intersezione delle due curve di domanda individuali del bene pubblico verifica le medesime proprietà di ottimalità dell’equilibrio economico generale Walrasiano. L’equilibrio di Lindahl è unico e non dipende dal percorso di selezione delle alternative possibili ma solo dalle condizioni iniziali e dagli ordinamenti delle preferenze individuali. Ciò accade perché ciascun votante è in grado di esplorare l’intero spettro delle alternative possibili è potrà quindi scegliere quella che è preferita in assoluto.
ASPETTI NORMATIVI DELL’UNANIMITà.
Il principio dell’unanimità dei cittadini è una condizione necessaria per intraprendere un’azione collettiva. Ne segue che le sole azioni collettive possibili sono quelle per le quali il beneficio aggregato supera il costo aggregato, così che coloro che ne sono danneggiati possono essere compensati da coloro che ne traggono vantaggio. Dunque la regola di decisione unanime consente di esplorare le strategie migliorative e di giungere sulla frontiera delle allocazioni Pareto – Efficienti, ma non consente di risolvere i problemi puramente distribuiti (giochi a somma zero, ripartizione costi).
La regola delle decisioni all’unanimità, se è in grado di escludere qualsiasi possibilità di sopraffazione degli interessi individuali da parte della maggioranza, non è pero immune da un’altra forma di tirannia consistente nell’incapacità di assumere una decisione e, quindi, nella conservazione dello status quo. I comitati, infatti, dovendo scegliere una sola alternativa, si trovano spesso nell’impossibilità di decidere. In questi situazioni si impone lo status quo, ovvero il mantenimento della situazione preesistente. L’unanimità è molto difficile da raggiungere e si crea spesso un forte giudizio a favore dello status quo. Quindi la regola dell’unanimità non è immune da costi. Infatti, poiché la regola dell’unanimità incoraggia il comportamento strategico, i tempi di una delibera possono dilatarsi enormemente a causa di un comportamento non sincero degli agenti. Peraltro il tempo richiesto per un consenso unanime è di importanza cruciale per la politica economica. L’efficacia stessa di un provvedimento di politica economica dipende dal periodo di tempo (intervallo della politica economica), che intercorre la manifestazione del fenomeno che richiede l’intervento e l’inizio dell’attivazione della strategia. Quindi, l’intervallo della politica economica è la somma del Ritardo di Percezione, che intercorre tra la manifestazione del fenomeno e la sua percezione da parte del policy maker, e il Ritardo di Delibera, che dipende invece dal tempo richiesto per formare il consenso.
LA TEORIA DELLA MAGGIORANZA OTTIMA (COSTI INTERNI ED ESTERNI).
La teoria della maggioranza ottima (Buchaman e Tullock) afferma che in ogni decisione sociale sono presenti due tipi di costo: costi esterni e costi interni. I cosi esterni sono davanti alla coercizione, cioè la perdita di utilità connessa all’abbandono dell’unanimità (costo decrescente all’aumentare del quorum, costo è massimo in presenza di un dittatore). I costi interni si riferiscono al tempo e allo spazio richiesto per assicurare l’ottenimento dell’accordo. Tale costo è zero quando è sufficiente un solo individuo per prendere decisioni, mentre cresce con il numero di persone che si deve accordare (curva BB’). Volendo minimizzare i costi di una procedura decisionale occorre sommare i due costi e scegliere quella maggioranza associata al minor costo totale di decisione (x nella curva cc’). In corrispondenza di x si individua allora la maggioranza ottenuta che minimizza i costi della scelta sociale in questione.
L’impostazione di Buchaman – Tullock non è immune da critiche. Infatti esistono ovvi problemi di misurazione dei costi esterni e interni. Inoltre tale regola non identifica una soluzione valida per tutte le delibere, poiché i costi possono variare enormemente da delibera a delibera.
Secondo il teorema di May, una regola di scelta sociale f(.) è una regola di voto della maggioranza semplice se e solo se soddisfa i principi di: Dominio Universale, Anonimia, Neutralità e Condizione di risposta positiva. Dominio universale se la regola di scelta sociale ha per dominio tutti i possibili ordinamenti delle preferenze degli individui che compongono il comitato (cioè se la società può esprimersi per ogni insieme di preferenze individuali); Anonimia se tutti gli individui sono trattati allo stesso modo; Neutralità se invertendo le preferenze di tutti gli agenti anche la società le inverte; Condizione di Risposta Positiva se quando un individuo aumenta la propria preferenza per una mozione rispetto ad un’altra, anche la società rispecchia questa preferenza.
Se di assume che nessun membro del comitato conosce le future preferenze proprie e degli altri agenti e ci si chieda qual è per ciascuno la regola ottimale di delibera, data la condizione di incertezza, è naturale definire ottimale per l’individuo una regola che minimizzi il numero dei casi in cui egli può trovarsi in dissenso con al collettività. In particolare l’individuo preferirà la regola della maggioranza quando è favorevole ad una mozione ma la società la respinge, oppure quando è contro una mozione ma la società l’adotta.
Secondo il teorema Dell’elettore Mediano se le preferenze degli individui presentano una sola mansione rispetto ad un certo ordine condiviso, e se ogni individuo vota per l’alternativa più vicina alla posizione che preferisce maggiormente allora la regola della maggioranza produce sempre un risultato di equilibrio e la proposta vincente sarà quella collocata al centro cioè in posizione mediana rispetto alle altre. Il teorema dell’elettore mediano mostra anche i limiti fondamentali della regola della maggioranza, infatti essa è in grado di decidere sulle proposte che riguardano iter ordinabili secondo un unico criterio classificatorio ma è più debole di fronte a proposte che implicano una scelta tra più alternative, ossia proposte ordinabili secondo più criteri classificatori. In tutti questi casi la regola della maggioranza può incontrare difficoltà, come il paradosso del voto.
Condorcet osserva che le votazioni a maggioranza relativa, quando sia consentito a ciascun votante di indicare solamente l’alternativa preferita senza pronunciarsi su tutte le altre, possono dar luogo ad incongruenze e ad esiti irragionevoli. Infatti qualora vi siano più di due mozione tra cui scegliere, la maggioranza semplice può condurre a decisioni intransitive, cioè si possono formare esiti cilici di maggioranza (paradosso del voto).
Secondo il teorema di Black (se il numero dei votanti è dispari) e le preferenze individuali sono Single – Peaked, allora le maggioranze semplice esprime una preferenza collettiva degli iter ordinate in senso 1.-non decrescente o in senso 2.-crescente. La proprietà Single – Peaked è quindi sufficiente per escludere il paradosso del voto.
La procedura ordinaria di comitato (Managing Ordering), consente di restringere l’insieme delle alternative possibili votando semplicemente non u tutte le coppie di alternative, ma su un numero minore, in quanto l’alternativa che perde un confronto viene eliminata. L’ordine con cui le alternative vengono poste a confronto è detto Agenda (O.D.G). Questa procedura ha senso solo se, in ciascuno stadio, si riesce a definire un vincitore. In caso di indifferenza occorre prevedere delle procedure di Tie – Breaking (sorteggio). Il difetto principale della procedura ordinaria di comitato è che l’esito finale della votazione dipende dall’ordine in cui le alternative vengono sottoposte a votazione e non dalla configurazione delle preferenze individuali. Di conseguenza l’Agenda determina il risultato (O.D.G).
Definiamo come procedura Manipolabile una regole di voto che offre ad almeno un membro del comitato il vantaggio a non esprimere sinceramente le proprie preferenze. Definiamo invece come procedura Dittatoriale una regola di voto che per ciascun profilo di ordinamenti possibili produce una decisione di comitato che coincide con quella di un dato individuo.
Secondo il teorema di Gibbard – Satterthwaite, quando si deve scegliere almeno tra tre alternative non esiste alcuna procedura di voto non dittatoriale che sia resistente contro la manipolazione delle preferenze da parte dei votanti: ogni procedura è manipolabile o dittatoriale. Ma non esiste quindi alcun sistema di votazione che sia al tempo stesso razionale, decisivo ed egualitario, facile manipolazione tra loro.
4.- Le scelte pubbliche: gli obiettivi secondo la funzione del benessere sociale.
Un ordinamento di preferenze deve soddisfare alcune ipotesi di coerenza Completezza = per ogni coppia di alternative (x,y) deve essere vero che xRy o yRx oppure entrambi xIy; Transitività = se xRy o yRz = xRz; Quasi Transitività = xPy e yPz = xPz; Aciclicità = un ordinamento di preferenze è aciclico se date “n” alternative non genera mai cicli di preferenza collettiva. In letteratura vi sono più modi per intendere una funzione di utilità = Cardinale in scala assoluta, per cui la funzione u(.) è invariante e non ammette alcuna trasformazione; Cardinale in scala Relativa, per cui la funzione u(.) è invariante a meno di una trasformazione proporzionale positiva U°(.)=U(.) se U°=f(u) con f=ku e k>0; Cardinale per cui la funzione u(.) è invariante a meno di una trasformazione lineare affine positiva, a meno di una trasformazione monotona crescente, U°(.)=U(.) se U°=f(u) con f’>0.
Da notare che i modelli che assumono le ipotesi più forti giungono a conclusioni che sono per conseguenza meno robuste, mentre i modello che assumono le ipotesi più deboli giungono a conclusioni che devono essere accettate come più robuste. Le ipotesi sul confronto interpersonale delle utilità invece possono essere formalmente indipendente dall’ipotesi sulla misurabilità. Le tre alternative possibili sono: Confrontabilità piena (assoluta), quando tutte le informazioni sulle utilità degli individui sono confrontabili; Confrontabilità parziale (relativa), quando solo alcune informazioni sulle utilità degli individui sono confrontabili; Inconfrontabilità quando nessuna informazione e confrontabile. L’ultimo problema che sorge per la definizione di un ordinamento sociale indiretto è quello della regola per l’aggregazione delle preferenze individuali.
Quelle più usate sono: Il criterio di Pareto e quello di Kaldor.
CRITERIO DI PARETO - EFFICIENTE
Il criterio di Pareto si fonde su l’individualismo etico; la misura ordinale dell’utilità e l’inconfrontabilità personale delle utilità. Le condizioni logico – matematiche su cui si fonda il criterio di Pareto sono: Formula……….. con la prima si individua il principio di Pareto nella sua versione debole: esso sostiene che un insieme di persone migliora la propria soddisfazione passando da y a x se tutti gli individui hanno livelli più alti di utilità. Con la z si individua il principio di Pareto nella sua versione forte: esso sostiene che un insieme di persone migliora la propria soddisfazione passando da y a x se almeno un individuo sta meglio e nessuno sta peggio. Si definisce Ottimoparetiano uno status per cui non è possibile migliorare la soddisfazione di qualcuno senza peggiorare quella di un altro. Il criterio di Pareto consente un ordinamento parziale e non completo delle preferenze sociali sia tra allocazioni ottimali che sub ottimali (in quanto alcune allocazioni sono non confrontabili). La regola di aggregazione espressa dal criterio di Pareto è molto forte poiché utilizza le ipotesi più deboli riguardo la misura (ordinale) e il confronto interpersonale delle utilità. Inoltre essa non consente di risolvere tutti i problemi di ordinamento sociale degli stati dl mondo.
Il criterio di Kaldor tenta di allargare gli stati del mondo ordinabili dal punto di vista della società, mantenendo le premesse del criterio di Pareto riguardo all’impossibilità nei confronti interpersonali. Tale criterio introduce la possibilità di concedere un indennizzo per prendere posizione su alternative sulle quali Pareto non si saprebbe esprimere (principio di indennizzo). Tuttavia sono state mosse delle critiche anche a questo criterio. Infatti il principio di indennizzo si esaurisce solamente in un problema concettuale non a caso nulla dice sul modo con cui tale trasferimento possa concretizzarsi e su quale istituzione debba provvedersi.
Secondo la funzione del benessere di Berson – Sammuelson, la società preferisce lo stato x allo stato y = w(ua(x);ub(x)….;un(x)) > w(ua(y);ub(y)….;un(y)). Tuttavia pur considerando tutte le N funzioni di utilità u(.), rimane aperto il problema della scelta del tipo di funzione tramite la quale effettuare l’aggregazione delle utilità individuali. Per risolvere tale problema è stato introdotto il principio utilitarista di Bentham, che suggerisce di calcolare il benessere pubblico sommando le utilità individuali = w=u1+u2…..+un = ∑ ui. Per trovare la configurazione migliore per il comitato, occorre massimizzare la funzione di benessere sociale dw/dqa = dua/dqa ((dub/dqb)(dqb/dqa))= 0. Poiché dqb/dqa =-1, otteniamo una condizione che permette di determinare quale allocazione sia preferita per la società (dua/dqa)- (dub/dqb) =0. Ma tale espressione rende palese che per decidere sulla ripartizione ottimale del bene è necessario procedere ad una comparazione interpersonale dell’utilità individuali, un’ipotesi restrittiva per cui sotto questo punto di vista le regole di aggregazione proposte da Sammuelson appare debole. Per cercare altre regole di aggregazione si aprono quindi due strade: Una di sostanziale conferma ma che cerca ulteriori affinamenti, l’altra di abbandono. Per prima alternativa si tratta di insistere nell’ipotesi di proporre confronti interpersonali cercando altre regole e altri criteri. Ma cosi facendo si porta la politica economica verso altre discipline filosofiche. Della seconda alternativa si è fatto carico Arrow, cercando un’impostazione della funzione di benessere sociale che rigettasse sia la comparazione interpersonale delle utilità, sia qualsiasi misurazione cardinale del benessere sociale.
Altri criteri di aggregazione sono: la funzione del benessere sociale di Bernoulli – Nash, che a differenza di quella di Bergsou – Sammuelson usa il prodotto auriche la somma l’ottimo sociale non richiede più l’uguaglianza delle utilità marginali, ma l’uguaglianza dei tassi di variazione delle utilità stesse; e la funzione di benessere sociale di Rawl, che si basa sul criterio del MAXMIN, in cui la valutazione di uno stato sociale dipende solo dal benessere dell’individuo che si trova nella situazione peggiore min ui.
Una regola di scelta collettiva (rsc) è una relazione funzionale che specificano una relazione di preferenza sociale per ogni profilo di preferenza cioè per ogni insieme di ordinamenti individuali. Una funzione di benessere sociale (fbs) è una regola di scelta collettiva (rsc) il cui codominio è ristretto alle R che generano degli ordinamenti.
Una funzione di decisione sociale (fds) è una regola di scelta collettiva (rsc) il cui codominio e ristretto alle R che generano una funzione di scelta. Arrow analogamente a quanto richiesto per l’individuo, richiede anche per la società la verifica dei seguenti assiomi: Completezza e Transitività; Dominio Universale delle Alternative; Principio debole di Pareto (unanimità); Indipendenza dalle alternative irrilevanti; Mancanza di un Dittatore.
Il teorema dell’impossibilità di Arrow è enunciato in due versioni: non esiste una fbs che soddisfi tutte le condizioni del teorema; e qualunque fbs che soddisfi le prime la condizioni pone un agente nelle condizioni de essere un dittatore.
Consideriamo due ordinamenti di prferenze degli individui α e β su quattro alternative A= xPuPvPy e B=vPyPxPu. Se per ipotesi supponiamo che sulla coppia (u,v) la collettività si esprime con la preferenza uPv, per l’assioma della transitività ne consegue che = xPu; uPv; vPy = xPv. Allora se una configurazione di ordinamento di u e v di certi votanti implica che “u” sia collettivamente preferito a y. Questa proprietà è chiamato neutralità, e con ciò si è dimostrato il rispetto dei primi quattro assiomi del teorema di Arrow.
Dobbiamo considerare una scelta sociale in un caso più generale in cui gli ordinamenti di preferenze di α e β siano un insieme più vasto di stati sociali alternativi A= vPyPxPuPzPw e B= uPyPwPxPzPv. Il quadrante in cui ciascuna alternativa è collocata dipende dall’ordine in cui i due individui classificano l’alternativa stessa rispetto alla x. Il q1 comprende l’alternativa y che entrambi preferiscono ad x; il q2 racchiude u e w che β giudica migliori di x mentre α inferiori; il q3 contiene z che entrambi considerano inferiore a x; e il q4 comprende che α considera migliore di x, mentre β peggiore. Le condizioni di Arrow implicano che ogni fbs sia in grado di classificare ogni alternativa presente in un quadrante rispetto ad x. È chiaro che non vi è problema per q1 e q3 mentre ve ne sono per q2 e q4. La proprietà della neutralità comporta che ogni alternative presente in un quadrante sia collettivamente considerata nello stesso modo rispetto a x. In più la neutralità implica che se uPx=xPv, perche la configurazione delle coppie (u,x) e (x,v) è la stessa. Siccome l’assioma dell’unanimità implica che q1 sia preferita a x e che q3 sia inferiore i 4 assiomi di Arrow sono compatibili solo con 2 esiti sociali. Se q4 è preferito a x e q2 è inferiore, α è un dittatore; se q2 è preferito a x e q4 è inferiore β è un dittatore.
Per superare il problema del teorema di Arrow si è indebolito il requisito della Transitività. A causa di ciò non è più necessaria una fbs ma è sufficiente una funzione di decisione sociale (fds), in quanto non è richiesto la transitività di R. tale procedure porta al teorema della possibilità di Sen, secondo il quale per x finto esiste una fds che soddisfa le ultime quattro condizioni del teorema di Arrow e la transitività della sola relazione di preferenza sociale stretta P. Sen stesso riconosce che la norma del consumo non rappresenta una alternativa risoluta al problema di Arrow, perché se due individui hanno interessi contrapposti la norma del consumo dichiara le due alternative indifferenti. Gibbard dimostro che ogni procedura che soddisfi la transitività di P e obbedisce ai restanti assiomi di Arrow, esiste un gruppo privilegiato di individui (oligarchia), il quale ha il potere di informare all’intera società la propria preferenza stretta riguardo a qualsiasi coppia di alternative.
Per sfuggire a questo problema è stato necessario indebolire ulteriormente il concetto di razionalità della scelta collettiva, imponendo il rispetto di una condizione ancora meno restrittiva della transitività di P: L’aciclicità (assume di cicli di preferenza stretta).
Le vie per sfuggire al dilemma Arrowiano tra uguale distribuzione del potere e decisività sono limitate e sono quindi inevitabili pesanti compromessi. Assiomi secondo Sen: si deve indebolire la nozione di razionalità collettiva rinunciando sia alla transitività della relazione di indifferenza I, sia alla transitività della relazione di preferenza stretta P, si richiede quindi l’aciclicità; si deve rinunciare all’assioma arrowiano di indifferenza delle alternative irrilevanti; si deve assumere una versione molto debole del principio di Pareto (unanimità); conservare la condizione di irriversalità degli altri requisiti arrowiani, per evitare che il dominio della regola di scelta risulti arbitrariamente ristretto (dominio non ristretto: ogni insieme di ordinamenti individuali è incluso nel dominio della regola di scelta collettiva rsc); e aggiungere infine una condizione che rappresenta una garanzia del valore della libertà individuale, il Liberalismo (per ogni individuo esiste almeno una coppia di alternative tale che, se questo individuo preferisce x a y o y a x, allora la società deve preferire x a y o y a x).
Secondo il teorema dell’impossibilità di Sen, non esiste alcuna funzione di decisione sociale che possa soddisfare simultaneamente le condizioni sopra elencate.
La teoria delle scelte sociali può essere sviluppata su due ipotesi: se la regola deve operare solo sull’insieme di tutte le alternative, si dice che il comitato delibera con Agenda Fissa; se invece si vuole che la regola di scelta indichi anche quali sono le alternative prescelte da alcuni sottoinsiemi delle alternative, allora la regola opera con agenda variabile (fondata da Arrow). Ovviamente una regola che opera con agenda variabile offre più informazioni di una opera con agenda fissa, ma la delibera è più complessa.
I teoremi di impossibilità affermano che non esiste alcuna regola di scelta sociale che soddisfi certi assiomi desiderabili. Essi conducono quindi alla conclusione che la democrazia di un comitato sembra essere un’utopia. Nonostante il tentativo di modificare le ipotesi, il risultato è rimasto pressoché immutato. La risposta più fruttuosa ai teoremi di impossibilità nella teoria delle scelte sociali è quella che sottolinea la necessità di un mutamento di prospettiva, auriche di un indebolimento delle condizioni. Tra questi mutamenti di prospettiva, Denicolo indica come particolarmente proficui quelli che consistono nell’ammettere la necessità di effettuare confronti interpersonali di utilità, poiché questa proposta va nella direzione di esplicitare i giudizi di valore impliciti nelle scelte pubbliche. Ciò conviene tramite le funzioni di Preferenza e le funzioni di Perdita.
Per Dittatore Benevolente si intende quel responsabile politico che tratta in modo egualitario tutti gli agenti, tale ipotesi si è dimostrata la più resistente agli attacchi dei critici ed è adottata in molti modelli come l’attimo sociale del mercato di libera concorrenza (p=mc); e l’ottimo sociale del sistema economia-ambiente (bm=mc).
La forma funzionale più semplice della funzione di preferenza è la Funzione di Preferenza Lineare definita tramite dei parametri qi per i=1,2,..n. L’esplicitazione più comune è: w(x)=q0+∑ qixi, dove qi è la ponderazione dei politici attribuita alle diverse variabili e q0 è una costante. La forma lineare, tuttavia è troppo semplice poiché la derivata seconda è sempre nulla, una proprietà indesiderabile per i problemi che comportano la ricerca di un massimo o un minimo. Per questo motivo si utilizza spesso la funzione di preferenza Quadratica. La forma quadratica generale assume la forma w(x)= q0+∑ qixi + ∑∑ qij xi xj, dove il coefficiente qij rappresenta la ponderazione che il politico attribuisce al prodotto tra due distinte variabili obiettivo, mentre i prodotti xi xj divengono forme quadratiche del tipo xi2 per i=j e il coefficiente qij rappresenta la ponderazione che il politico attribuisce al quadrato della variabile obiettivai-esima.
Da ciò deriva la forma quadratica particolare w(x)= q0+∑ qi xi + ½ ∑qii xi2. La forma quadratica è spesso rappresentata tramite l’algebra lineare delle matrici e dei vettori, usando forma quadratiche del tipo xiqx. In questo caso la formula assume la trascrizione w(x) q0+q’x+x’qx con q=(qi) vettore colonna dei coefficienti di ponderazione; x=(xi) vettore colonna delle variabili rilevanti; q=(qi) matrice (n-n) di parametri. La formula di w(x) è molto comoda poiché tutte le proprietà della forma quadratica che interessano alla economista sono comprese nelle caratteristiche della matrice qi, se la matrice è diagonale nello sviluppo quadratico rimangono solamente i termini sulla diagonale principale quindi troviamo la forma quadratica particolare, se la matrice è simmetrica significa che le preferenze del politico sono indifferenti per la commutazione nel prodotto dei termini rettangolari. Inoltre la forma quadratica x’qx riassume tutte le proprietà della funzione w(x) in termini di concavità o convessità (max o min).
Esistono altre forme di funzioni di preferenza anche se meno usate come la funzione cubica particolare, la forma esponenziale e la forma logaritmica (tutte funzioni eclettiche). Le funzioni w(.) che abbiamo visto prendono la connotazione di una funzione obiettivo nei modelli di politica economica con obiettivi flessibili. Poiché queste funzioni di preferenza possono assumere l’interpretazione di funzioni di benessere o funzioni di costo, allora il programma di politica economica comporta: una soluzione di massimo se la funzione di preferenza rappresenta una funzione di benessere; e una soluzione di minimo se la funzione di preferenza rappresenta una funzione di costo.
Se riprendiamo la funzione w(x)=q0+q’x+x’qx la immaginiamo come funzione del benessere concava, notiamo immediatamente che essa ammette un punto di massimo assoluto: dw/dx= q+qx=0 di cui x’=-q-1q dove x’ può essere definito come lo stato of bliss delle preferenze del politico.
B.- SIGNIFICATO GEOMETRICO DI UNA FUNZIONE DI RENDITA.
A.- STATE OF BLISS INSIEME DELLE POSSIBILITà.
Può accadere che il valore della X* sia irraggiungibile allora non riconosce che esprimere una valutazione sulle preferenze rispetto alle rinunce che si è costretti a sopportare, questa funzione è detta funzione di perdita. Essa valuta l’entità dei sacrifici necessari non potendo arrivare al massimo assoluto di benessere. La più usata della funzione di perdita e quella quadratica pura P(x)= (x-x*) ! q (x-x*), dove i parametri della matrice Q devono essere interpretati come i pesi attribuiti al politico ad una rinuncia di entità (xi – xi*).(xj-xj*). An cera una volta la matrice q può essere diagonale e la funzione P(x) assume la forma quadratica particolare, che attribuisce penalità solamente alle deviazioni della variabile i-esima rispetto al suo valore desiderato (xi – xi*)2. Tuttavia questa forma quadratica particolare ha una proprietà che può rivelarsi un difetto: poiché la funzione p(x) definita su una matrice diagonale q contiene solo scarti elevati al quadrato le diviazioni per difetto o per eccesso dello State Of Bliss sono penalizzate allo stesso modo. Il grafico a indica lo State Of Bliss ma è ovvio che esso risula impossibile rispetto al vincolo delle risorse. Il comitato dovrà allora indicare una funzione di perdita al policy maker rispetto ad un ottimo irraggiungibile P= ½ (v-v*)2 + ½ (u-u*)2. Questa funzione genera una famiglia di curve di indifferenza come cerchi concentrati rispetto al punto (u*,v*). Il policy maker dovrà quindi rispondere al comitato cercando il programma che minimizza le distanze dalla situazione ideale. Il punto (u**,v**) è l’ottimo vincolato, identificato dalla condizione di tangente tra la curva g(u) e il cerchio più vicino allo state of Bliss. La distanza misurata dal cerchio di tangenza indica il sacrificio minimo cui le società è chiamata.
Capitolo 7
L’INTERVENTO DELLO STATO
Secondo la teoria dello stato minimale, le due funzione minime che lo stato dovrebbe svolgere sono: garantire l’esercizio della proprietà e assicurare il funzionamento dello Stato. Il primo teorema dell’economia del benessere afferma che se le preferenze di ogni agente sono convesse, continue e monotone e se (x*, p) è un equilibrio competitivo, allora x* appartiene al core (e quindi è un’allocazione Pareto-efficiente). Il secondo teorema dell’economia del benessere, invece, afferma che se le preferenze di ogni agente sono convesse, continue e monotone, allora se Y è una qualsiasi allocazione ottimale secondo Pareto con dotazione almeno positive, esiste un vettore di trasferimenti (che ridistribuiscono le dotazioni degli agenti) e un vettore dei prezzi p tale che (Y, p) è un equilibrio competitivo.
I sostenitori dell’intervento dello Stato sostengono che le scelte collettive (intervengo pubblico) sono necessarie non solo per ampliare l’insieme delle scelte di mercato, ma anche per abbandonare una situazione di inefficienza cui le scelte individuali, egoistiche e decentrate possono condurre. Inoltre, l’intervento dello Stato può essere necessario per risolvere un problema di coordinamento delle scelte individuali (decidendo ad esempio che deve agire per primo). Lo Stato può esercitare la sua autorità tramite: l’introduzione di leggi, l’internalizzazione dei valori della matrice dei pagamenti tramite una norma che dichiari fuori legge il furto e preveda delle sanzioni, e premiare la cooperazione.
Il gioco Economico raramente è proposto una volta sola, ma si ripete all’infinito. In queste condizioni può emergere un fenomeno di apprendimento dei soggetti economici che li conduce ad apprezzare certi tipi di comportamento socialmente desiderabili. Se un gioco viene ripetuto più volte, esso dà luogo ad un gioco differente, detto supergioco, il quale è diverso dal gioco ad un solo colpo per due motivi: nel supergioco la strategia di ogni giocatore non è più la scelta di una singola mossa, ma la scelta di una sequenza di mosse; e la soluzione del supergioco non è necessariamente la stessa del gioco iniziale (la ripetizione introduce la possibilità di apprendimento). Secondo il Folk Theorem, nel gioco ripetuto infinite volte emerge un comportamento cooperativo se il tasso di sconto è sufficientemente piccolo.
In economia il termine istituzione ha un significato molto ampio, nonostante ciò si possono distinguere due tipi di istituzioni: la prima classe fa riferimento ad un insieme di leggi, sanzioni e convezioni di varia natura, ma aventi carattere durevole, atte a regolare i rapporti tra i diversi soggetti economici. Simili istituzioni possono nascere automaticamente dai comportamenti dei diversi dei diversi soggetti o essere imposte dall’esterno (istituzione formale); la seconda classe di istituzione non si riferisce solo ad un complesso di norme che dura nel tempo, ma comprende anche le persone che amministrano e applicano quelle norme e i mezzi materiali dei quali esse si avvalgono. Sulle motivazioni che portano alla nascita delle istituzioni formali, esistono tre scuole di pensiero:quella collettivista, quella organica e quella storica. Secondo l’idea collettivista, le istituzioni sociali sono il frutto di un’azione collettiva di agenti economici nazionali. Seguendo la chiave di lettura organica, si afferma che le istituzioni sorgono dall’ interazione di moltissimi agenti, ciascuno dei quali persegue i propri interessi. Infine, secondo la teoria storica, le istituzioni sono il prodotto di conflitti e di convergenze tra i diversi gruppi sociali che non necessariamente si compongono in maniera efficiente. Le istituzione, invece, possono essere suddivise secondo altri criteri. Le istituzioni economiche si classificano in pubbliche e private. Sono pubbliche le istituzioni che perseguono interessi collettivi e sono dotate di poteri coercitivi; mentre sono private quelle che perseguono finalità individuali e sono caratterizzate dalla partecipazione volontaria. Una seconda distinzione fa riferimento alla circoscrizione in cui l’istituzione opera: nazionali internazionale e sovranazionali.
IL MODELLO DI BUREAU.
Il sistema si scambi volontari che identifica un’economia di mercato, per realizzarsi, richiede che la collettività abbia risolto alcuni problemi. Infatti è necessario che alle funzione dello Stato minimale si aggiungano altri interventi: una funzione di redistribuzione delle risorse se la collettività intende decidere in ambiti più ampi di quelli imposti dal mercato; un sistema di leggi (con sanzioni e premi); e, infine, un complesso di istituzioni. Volendo riassumere in un modello l’intervento del policy maker, dobbiamo creare alcune regole normative applicate alla condotta dell’economia pubblica. Facendo riferimento all’attività di uno Stato immaginario, la molteplicità degli obiettivi può essere ricondotta a tre uffici fondamentali (bureau): al location bureau, che si occupa della gestione e distribuzione delle risorse; stabilization bureau, che si occupa della stabilizzazione dell’attività economica; distribution bureau, che si occupa della distribuzione del reddito e della ricchezza.
Una prima importante distinzione del modo con cui i bureau dello Stato possono intervenire sul sistema economico è quella tra indiretto e diretto. Per controllo diretto si intende ogni intervento mirato a raggiungere l’obiettivo imponendo un dato comportamento agli operatori privati. Per controllo indiretto si intende ogni intervento mirato a conseguire l’obiettivo inducendo gli operatori a comportarsi nel modo desiderato dallo Stato. Nel sistema di mercato, il problema della selezione tra gli interventi diretti e indiretti coinvolge due alternative: intervenire sulla quantità (intervento diretto) o sui prezzi (intervento indiretto). Secondo il teorema di Poole-Weitzman (principio di indifferenza), in condizioni di incertezza, l’intervento indiretto del policy maker nel mercato, tramite un provvedimento quantitativo, supportato da un adeguato enforcement (attrazione), conduce allo stesso risultato dell’intervento indiretto tramite una legge che introduce prezzi (imposte o sussidi) e che lascia decidere la produzione al mercato. Tale principio di indifferenza, però, viene meno qualora si introducono considerazioni di efficienza o se si considera un modello stocastico. Per il teorema di Baumol-Oate, l’intervento diretto tramite imposte o sussidi per ottenere un livello socialmente desiderabile di produzione/consumo di un bene, soddisfa le condizioni per minimizzare il costo sociale dell’intervento. Questo teorema dimostra la superiorità dell’azione indiretta dello Stato, ma in un contesto stocastico la soluzione non è così scontata. Infatti, se lo Stato non conosce la realizzazione dei disturbi, code il principio di indifferenza. Se i due strumenti non conducono più allo stesso risultato, si impone l’introduzione di un criterio di scelta: il criterio di Poole e il criterio di Weitzman. Il criterio di Poole enuncia la preferenza per quell’intervento che conduce al minimo valore atteso dello scarto tra l’esito della politica e l’obiettivo desiderato. Il criterio di Weitzman, invece, enuncia la preferenza per quello strumento che conduce al massimo beneficio sociale atteso, cioè la stessa funzione rispetto alla quale il policy maker ha formato il proprio programma. I due criteri hanno diversi presupposti. Quello di Poole privilegia un’espressione quantitativa confrontando coerente con un modello a obiettivi flessibili. Pur essendo diversi, i due criteri portano a conclusioni comuni: il disturbo sulla funzione di preferenza sociale non è influente rispetto alla scelta tra l’una e l’altra modalità di intervento; e la soluzione dello strumento dipende dalla variabile che l’evento causale produce sulla scelta privata di produzione.
Una seconda importante distinzione del modo con cui i bureau possono intervenire nel sistema economico è la distinzione tra interventi legati all’esecuzione di regole oppure ispirati ad un governo di natura discrezionale. Per il governo dell’economia tramite regole, siano esse razionali oppure empiriche, è necessario distinguere tra regole fisse (che dipendono dalla sola osservazione iniziale dello stato del sistema dette regole open loop) e regole flessibili ( se eseguono l’evoluzione economica del sistema nel tempo, dette regole closed loop o feedback), oppure, in base al loro grado di semplicità, tra regole fisse (le più semplici perché non mutano mai) e regole contingenti, che si modificano in funzione del tempo. Quindi, i modi con cui l’ autorità pubblica può esercitare sono: un controllo discrezionale, se gli strumenti di politica economica vengono manovrati caso per caso, dopo un’attenta valutazione della situazione specifica; e un controllo con regole automatiche, se gli strumenti di politica economica vengono governati senza che vi sia bisogno di decidere caso per caso, ma rispettando regole prefissate. Gli argomenti a favore della superiorità delle regole fisse sono tre: l’inefficienza dei bureau (Friedman); il disturbo della strategia degli agenti privati (Lucas); e l’incoerenza temporale. Infatti, la discrezionalità in politica economica potrebbe essere superiore alla regola fissa, ma i privati con i loro comportamenti forzano i bureau a legarsi a delle regole fisse.
A favore della discrezionalità troviamo l’ortodossia keynesiana mentre a favore delle regole fisse la nuova macroeconomia classica. Secondo quest’ultima l’azione dei bureau non è efficace e gli scostamenti della produzione effettiva rispetto al valore nominale di piena occupazione sono dovuti unicamente agli effetti sospesi. Questa conclusione porta alla negazione della discrezionalità dei bureau poiché, per essere efficace, dovrebbero giocare “a caso” la decisione sugli interventi di politica economica. A causa di ciò, la nuova macroeconomia classica nega l’opportunità di bureau che si occupano di politiche discrezionali. Infatti, poiché gli interventi dei bureau producono instabilità, la nuova macroeconomia classica propone di minimizzare le loro funzioni e la loro attività. In questa visione, la politica economica non richiede un’istituzione in grado di scegliere tra finalità alternative e di disporre di controlli efficaci per raggiungere l’obiettivo prescelto. La gestione dei bureau dello Stato può essere affidata a semplici funzionari che si attengono a regole fisse per lunghi periodi. In questo caso si parla di nuovo Stato minimale. Quest’ultimo garantisce l’esercizio della proprietà e dei contratti, assicurando cosi il funzionamento del mercato e gestisce l’economia tramite i funzionari senza autorità discrezionale.
Musgrave, nell’indicare l’attività dei bureau, formulò l’ipotesi che essi potessero funzionare l’uno indipendente dall’altro. Mai più recenti studi macroeconomici hanno rimesso in discussione tale ipotesi di separazione, soprattutto tramite la Teoria del disequilibrio. Quest’ultima propone una chiave di lettura più realistica dei mercati: i prezzi sono fissati dagli agenti, i prezzi sono fissi, e gli scambi avvengono anche fuori dall’equilibrio. Quest’ultimo punto comporta un importante corollario per la teoria economica: nn si può continuare ad assumere che le decisioni degli individui vengano prese esclusivamente tenendo conto delle informazioni di prezzo. Si configura cosi la possibilità di un’analisi del disequilibrio del sistema economico in cui: alcuni mercati possono non essere in equilibrio; gli aggiustamenti possono avvenire nelle quantità piuttosto che nei prezzi; e che gli agenti reagiscono ai segnali di prezzo e di quantità. Se gli agenti fissano un prezzo diverso da quello di equilibrio, non è più vero che ogni compratore trova un corrispondente venditore e viceversa. Poiché non tutti gli agenti sono soddisfatti, per l’analisi del disequilibrio è necessario sviluppare due regole che consentano di: individuare il volume degli scambi e individuare chi rimarrà insoddisfatto.
DISEQUILIBRIO CLASSICO KEYNESIANO E IL CORDINAMENTO DELLE POLITICHE ECONOIMCHE.
“La regola del lato corto, governa il funzionamento dei mercati in disequilibrio poiché, soddisfacendo le proprietà della volontarietà e dell’efficienza del mercato, afferma che la transazione che si verifica di fatto è la più piccola tra la domanda e l’offerta. Questa regola consente di determinare l’entità delle transazioni e l’entità del razionamento(evidenziata in grassetto). Al prezzo P1 il segmento AB riflette il razionamento dei venditori, mentre al prezzo P2 il segmento CD riflette il razionamento degli acquirenti. Per completare la teoria del funzionamento del mercato in disequilibrio, rimane il problema dell’individuazione di chi risulterà razionale. È quindi necessario disporre di uno schema di razionamento. Tra le molteplici possibilità, Bonassy ne ricorda 3:il razionamento proporzionale, per cui gli agenti del Lato corto realizzano le loro domande o offerte, mentre gli agenti del lato lungo realizzano delle transazioni che sono proporzionali alla loro offerta o domanda; il razionamento con il sistema delle code, per cui gli agenti sono soddisfatti secondo un ordine predeterminato; il razionamento per priorità, per cui alcuni agenti scambisti sono individuati per criteri personali o istituzionali che conferiscono loro diritto di priorità. I casi del disequilibrio possono essere 2: quelli in cui è razionata l’offerta perché il prezzo è troppo alto (caso keynesiano) e quello in cui è razionata la domanda perché il prezzo è troppo basso (caso classico). Nel caso keynesiano il bureau può intervenire direttamente esprimendo una domanda pubblica, oppure indirettamente, tramite incentivi che inducono i privati ad aumentare la loro domanda effettiva (d’). nel caso classico il bureau con competenze microeconomiche, se intende muovere lungo l’offerta per raggiungere la produzione W, deve aumentare il prezzo, mentre il bureau con competenze macroeconomiche non ha alcun titolo di intervento: un aumento della domanda si risolverebbe del tutto inefficace. Infatti, qualsiasi domanda addizionale, essendo l’offerta il lato corto del mercato, si risolverà solo in un ulteriore razionamento. Nel caso classico, quindi, solo un bureau può intervenire per raggiungere l’obiettivo. La teoria del disequilibrio comporta quindi l’esigenza di coordinare le azioni del bureau.
Una volta accertato che esistono ragioni per l’intervento di più bureau si apre il problema del decentramento. Se alcune funzioni vengono attribuite a uffici specifici, si parlerà di funzionamento decentrato, se invece tutte le funzioni sono mantenute presso un unico ufficio, si parlerà di funzionamento accentrato. Il decentramento delle funzioni dei bureau può essere verticale ed orizzontale. Il decentramento verticale è attuato quando le diverse funzioni vengono attribuite a soggetti separati, ma con riferimento a tutto il territorio nazionale. Il decentramento orizzontale (Stato Federale) si avrà invece quando il bureau ripartisce la propria autorità su enti territoriali diversi. Le motivazioni per la scelta federale/orizzontale sono: le Economie di scala, in quanto per alcunoi beni si esauriscono a livelli territoriali minori; gli Effetti di spillover, in quanto il decentramento territoriale è consigliabile per quegli interventi che esauriscono la maggior parte dei loro effetti all’intyerno di un territorio; la Libera circolazione dei cittadini, in quanto lo Stato federale consente un’efficienza democratica maggiore rispetto allo Stato centralizzato, sia perché i cittadini possono distribuirsi negli stati secondo uniformità di gusti, sia perché al voto nei comitati si aggiunge un’altra manifestazione di volontà politica, il voto con i piedi; la Competizione tra le regioni (molto simile alla competizione tra le imprese); e la Soddisfazione del maggior numero di cittadini. Uno Stato attua un decentramento verticale quando le funzioni dei bureau vengono distribuite a più soggetti indipendenti. Nel decentramento verticale sorge il problema dell’assegnazione, ai singoli bureau, di obiettivi e strumenti. Se il modello economico non è integrato, cioè è rappresentabile tramite una matrice di partecipazione delle variabili diagonale, il problema di corretta assegnazione non si pone in quanto ciascun obiettivo risponde all’azione di un solo strumento ed esiste un solo accoppiamento strumenti-obittivi. Se il sistema è parzialmente integrato, il problema della corretta assegnazione degli strumenti agli obiettivi risulta semplificato poiché l’interdipendenza lega solo i gruppi di variabili. Se il modello è completamente integrato, allora il cambiamento di un qualsiasi strumento influenza non solo la variabile obiettivo cui è assegnato, ma anche tutte le altre. Per il Teorema di Mundell, se il sistema economico è controllabile, in una politica economica policentrica ciascuno strumento dovrebbe essere applicato al controllo dell’obiettivo su cui agisce maggiore efficacia relativa. Il significato di tale principio è che, quando si muove un qualsiasi strumento per ricondurre una variabile verso il valore obiettivo, se il modello è integrato, si eserciteranno degli effetti su altre variabili. Se però l’accoppiamento strumenti-obiettivi avviene secondo il principio della classificazione dei mercati, è possibile rendere minimi questi effetti.
La LAW AND ECONOMICS (economia delle leggi) può essere distinta in una nuova e vecchia teoria. la vecchia Law and Economics riguarda tutte le leggi che influiscono direttamente sull’economia e ne esamina gli effetti sui mercati. La nuova Law and Economics si occupa invece dell’apparato legislativo e non solo delle leggi che riguardano gli aspetti economici. L’economia delle leggi ha un contratto positivo e uno normativo a seconda che essa si occupi prevalentemente dell’analisi degli effetti economici delle leggi o si preoccupi invece di considerare le norme come uno strumento di governo per raggiungere determinati obiettivi.
Dal punto di vista normativo una legge è introdotta per raggiungere dei benefici sociali, ma ogni legge comporta dei costi sociali. L’economia del benessere, quindi, richiede che la giustificazione di una legge consente: di interrogarsi sulla RATIO economica di una norma; di studiare le limitazioni nell’esercizio del diritto che devono essere introdotte per evitare che in date situazioni i costi della legge superino i suoi benefici; e di riflettere sull’osservazione dei mutamenti nei contesti sociali cui si applica la legge modificano il suo saldo benefici-costi, comportando la nascita, l’evoluzione e l’estensione della norma.
Esistono molti modi per applicare le leggi e, a causa di ciò, è necessario determinare come selezionare la modalità ottimale di intervento. I principali metodi di applicazione delle leggi prevedono la definizione: dello STADIO D’INTERVENTO, che può essere di prevenzione o successivo; della FORMA DELLA SANZIONE, la quale può essere monetaria o non monetaria;e dello STADIO DELLA DENUNCIA, che può derivare dall’iniziativa privata o dal controllo pubblico.
I costi di transazione sono i costi relativi alla pianificazione, adattamento e controllo dell’insieme dei compiti con cui si articolano le diverse strutture amministrative. I costi di transazione più comuni in politica sono: il contratto politico, in quanto i contratti sono incompleti e gli agenti incontrano costi di transizione sia per formulare al meglio contratti stessi in condizioni di informazione imperfetta, sia per ricorrere a istituzioni legali per rendere esecutivo il contratto al manifestarsi di condizioni inattese; la struttura di governo, in quanto l’organizzazione incontra nel suo funzionamento costi di transizione per riconoscere incentivi agli agenti o ai lavoratori interessati,per controllarli, per fare eseguire i loro compiti etc; l’informazione asimmetrica in politica, in quanto anche in politica ottenere delle informazione ha nascosto; l’opportunismo dei politici, in quanto se le azioni degli agenti non sono completamente osservabili, si apre la strada a comportamenti opportunistici e il principale sostiene costi sia per incentivare il comportamento desiderato dall’agente, sia per controllarlo o per punirlo; e la specificità di alcune azioni politiche (in economia si considerano specifici quegli investimenti che sono irreversibili in quanto fatti per un determinato cliente). I rimedi a tali costi di transazione sono: un ‘impegno politico inderogabile, infatti poiché l’opportunismo e l’incoerenza discendono da una possibile libertà post-contrattuale, il rimedio per il politico è prendere impegni inderogabili che limitano questa libertà; un’azione anticipata di chiusura, infatti un politico può intraprendere un’azione non perché giustificata dai fatti, ma solo per mostrare e per rendere credibili le proprie preferenze o per restringere in futuro la propria libertà d’azione; una delega politica, e la reputazione in politica, infatti il politico può fondare la propria credibilità sulla sua reputazione.
Capitolo 8
LE FUNZIONI DEI BUREAU
L’allocation bureau è un ufficio dello Stato che si occupa di conservare l’efficienza del sistema economico. Secondo il Teorema del Second Best, non è vero che una situazione nella quale un numero maggiore di condizioni di ottimo paretiano sono soddisfatti è necessariamente superiore ad una situazione in cui un numero minore di esse sono soddisfatte. Il teorema del second best consente due importanti risultati normativi: qualora un impedimento si frapponesse nel consentire la soddisfazione di tutte le condizioni di efficienza statica, si raggiungerebbe comunque un risultato inferiore rispetto all’ottimo paretiano; e, l’esistenza di una soluzione di secondo ordine non consente di concludere che di fronte ad un unico impedimento ci si deve limitare a garantire la soddisfazione delle rimanenti condizioni di efficienza, infatti, anche di fronte ad un asola deviazione è necessario che l’intera soluzione del sistema di mercato sia rivista. Le condizioni di fallimento del mercato sono riconducibili a quattro classi fondamentali: i nuovi mercati sono imperfetti; i mercati sono incompleti (non esistono mercati per tutti i beni); esistono asimmetrie informative; e nel sistema esistono beni particolari non riferibili ai criteri della proprietà privata. In particolare esistono ben 7 fallimenti di mercato: i mercati di monopolio; la presenza di effetti esterni nella produzione e nel consumo; i beni pubblici; l’assenza di mercati contingenti e a termine; l’informazione asimmetrica sui prezzi e sulla qualità; i beni meritori; e i beni comuni.
Il Monopolio è un mercato in cui vi è una sola impresa. Essa ha potere di monopolio e fissa un prezzo superiore al costo marginale. Di fronte ad una situazione di monopolio si rendono quindi necessari gli interventi correttivi dell’allocation bureau. Infatti la legislazione antitrust cerca di ripristinare l’efficienza statica impedendo la formazione di monopoli. Una legge, infatti, può dichiarare illegali le intese che hanno lo scopo di restringere la concorrenza, può impedire l’abuso di posizione dominante etc. poiché il potere di monopolio porta ad un prezzo superiore al MC, con il controllo dei prezzi si fissano dei prezzi massimi di vendita per impedire che il mercato di discosti delle condizioni di efficienza nel breve periodo, ma non ha effetto nel lungo periodo (neutralità della moneta).
IL MONOPOLIO DEI MERCATI CONTENIBILI.
Se nuove imprese possono entrare ed uscire liberamente e senza costi dal mercato, il mercato è detto contenibile. In questo caso, anche in un monopolio si può avre un equilibrio concorrenziale dettato dalla minaccia di entrata. Si supponga che l’impresa, comportandosi da monopolista, fissi il prezzo Pm che massimizza il profitto. Se l’entrata e l’uscita sono libere, nuove imprese saranno attratte dai profitti dell’incumbent e cercheranno di catturarne una parte entrando nel mercato e offrendo lo stesso prodotto ad un prezzo minore. Ciò provocherà una riduzione del prezzo fino a quando si collocherà nel punto E, annullando tutti i profitti. Quindi la tattica del colpisci e fuggi conduce all’equilibrio di concorrenza perfetta, annullando il profitto anche in presenza di economie di scala. L’allocation bureau dovrebbe allora agire in modo da garantire l’assenza di barriere all’impresa nei mercati e, in particolare, garantisce la contendibilità dei mercati cercando, per quanto possibile, di eliminare i costi irrecuperabili.
IL MONOPOLIO NATURALE:
GESTIONE DIRETTO, REGOLAMENTAZIONE O COMPLETAZIONE PER IL MERCATO.
È però stato sostenuto che la contendibilità dei mercati non è sufficiente a garantire il contenimento dei profitti delle imprese esistenti. Queste imprese hanno infatti una posizione di vantaggio rispetto a quelle entranti: possono enunciare strategie volte a scoraggiare la concorrenza potenziale ( vantaggio della prima mossa). Infatti esse possono adottare un Politica Predatoria Dei Prezzi. Affinché quest’ultima abbia effetto è necessario che la minaccia sia credibile, inoltre, affinché tale politica sia razionale, il gioco deve essere ripetuto all’infinito e l’informazione deve essere asimmetrica.
Se la funzione di costo medio è sub-additivo, cioè ( manca formula) si ha una concorrenza di monopolio naturale. Se il monopolista adotta la strategia del massimo profitto, il prezzo è Po, ma l’allocazione è inefficiente. Se invece adotta una politica efficiente fissando il prezzo uguale a MC, l’impresa produce in perdita. La soluzione a tale problema consiste nell’imporre all’impresa di praticare un prezzo pari al costo marginale e di coprire la perdita tramite trasferimenti pubblici. Una soluzione di compromesso a tale problema (Second Best), consiste nel fissare un prezzo uguale al costo medio in modo che l’impresa possa pareggiare i costi senza ricorrere ai trasferimenti pubblici.
Si ha un’esternalità quando un comportamento di un agente modifica le preferenze di un altro senza modificare i prezzi. La caratteristica essenziale dell’esternalità è che esistono dei beni che influenzano l’ambiente in cui i consumatori o le imprese agiscono e pertanto dovrebbero avere un valore. Però, sia per le loro caratteristiche che per un’insufficiente definizione dei diritti di proprietà, non esiste un mercato in cui questi beni possano essere scambiati. Questo fenomeno è un tipico caso di fallimento di mercato. In presenza di esternalità, il mercato non funziona come un meccanismo automatico di distribuzione efficiente delle risorse, cioè si interrompe la corrispondenza tra concorrenza ed efficienza statica. È necessario, pertanto, l’intervento dell’allocation bureau per correggere gli effetti indesiderati di una inefficiente distribuzione delle risorse. COASE dimostra che se gli agenti interessati potessero contrattare liberamente i diritti di proprietà come se si trattasse di un qualsiasi altro bene, si raggiungerebbe un’allocazione ottimale delle risorse indipendentemente dalla distribuzione iniziale dei cittadini stessi. Un’altra soluzione è la TASSA DI PIGOU, con la quale l’impresa è chiamata ad indennizzare la comunità del danno arrecato.
I BENI PUBBLICO sono dei beni non rivali non escludibili, in quanto il consumo da parte di un soggetto non preclude ad altri soggetti di usufruirne, inoltre è troppo costoso o impossibile escludere un soggetto dal consumo d itale bene. La condizione di SAMUELSON stabilisce il criterio di efficiente allocazione delle risorse tra consumi privati e consumi pubblici: (formula ) per i beni pubblici e (formula ) per i beni privati. Quindi nel caso dei beni privati il prezzo di mercato è unico e ciascun soggetto consuma un ammontare diverso del bene fino a eguagliare l’utilità marginale al prezzo. Nel caso dei beni pubblici, invece, poiché il consumo è il medesimo e quindi l’utilità marginale è diversa da consumatore a consumatore, allora ciascun cittadino è chiamato a pagare un prezzo diverso pari alla soddisfazione che ne ricava al marginale. Per determinare il prezzo da pagare, lo Stato dovrebbe quindi individuare il SMS di ciascun individuo. Sfortunatamente i cittadini non hanno alcun incentivo a rivelare la loro vera disponibilità a contribuire. A causa di ciò l’offerta di tali beni sarà dimensionata rispetto alle reali esigenze di efficienza allocativa. Quest’ultimo è un tipico caso di Free Rider. Ma se ogni cittadino nasconde le proprie preferenze, allora il risultato sociale è la produzione di un bene pubblico diversa da quella efficiente. L’intervento dell’allocation bureau è quindi necessario non solo per produrre il bene pubblico perché nessun privato sosterrebbe un costo per produrre un bene che non potrebbe essere venduto, ma anche per scoprire le vere preferenze di ciascun cittadino.
Se i mercati sono completi e in concorrenza perfetta, non vi sono ragioni di intervento per un al location bureau, ma nella realtà i mercati non sono completi. Infatti possono mancare alcuni mercati a pronti, a termine e contingenti. L’assenza dei mercati a pronti può essere ricondotta: all’esistenza di esternalità, oppure può essere l’effetto di beni non rivali e non escludibili che non possono avere un mercato. L’assenza di mercati a termine e contingenti può invece essere attribuita sia alla presenza di elevati costi di transazione, sia alla limitata conoscenza e capacità predittiva degli agenti. Gli interventi possibili per rimediare all’incompletezza dei mercati futuri e contingenti sono due. La prima alternativa prevede che il bureau interviene per completare i mercati, aprendo quelli che il sistema privato non può o non ha convenienza ad aprire. La seconda alternativa interviene se l’allocation bureau si trova nell’impossibilità tecnica di aprire tutti i mercati. Infatti l’ufficio può sempre intervenire introducendo un sistema di attività finanziarie il cui rendimento permette al settore privato di replicare tutte le condizioni ottimali che identificano i mercati completi. Se entrambe queste soluzioni risultano impraticabili, spetta sempre al bureau affrontare dei codici che permettono di risolvere le dispute legali tra gli agenti che possono sorgere da eventi imprevisti.
L’informazione è asimmetrica quando i soggetti che partecipano allo scambio non hanno lo stesso livello di informazione. Vi sono due tipi di informazione asimmetrica. Il primo, noto con il nome di Moral Hazard, prevede che le parti interessate allo scambio abbiano ex-ante informazioni uguali, ma informazione differenti ex-post. La parte che deve agire in esecuzione del contratto ha quindi delle informazioni nascoste (Hidden Information) o può compiere delle azioni nascoste (Hidden Action). Il secondo tipo di asimmetria è quello in cui una delle parti ha informazioni che l’altra non ha prima del contratto, in questo caso si parla di Selezione Avversa.
Beni di Merito (Musgrave) = atteggiamento paternalistico, cioè quando un individuo è nell’impossibilità di scegliere da se il suo migliore consumo, si ammette che un altro individuo si sostituisca a lui nel decidere le sue scelte. Beni comuni = sono delle proprietà condivisibili a tutta la collettività, la quale permette ad un elevato sfruttamento delle risorse. Compito della allocation Bureau e quella di introdurre un sistema di licenze: Diritto per entrarvi, un sistema a sorteggio.
Keynes riteneva che le funzioni dell’allocation bureau, pur necessarie, non fossero di fondamentale importanza per un soddisfacente funzionamento del sistema di mercato. Il compito del governo dovrebbe allora essere svolto da un ufficio che si occupi di controllare la giusta utilizzazione di tutte le risorse disponibili nel sistema: lo STABILIZATION BUREAU. Vi sono due sistemi che possono spiegare il conseguimento dell’equilibrio tra risparmio e investimento: secondo il primo, esiste un segnale comune cui rispondono sia le decisioni di risparmio che quelli di investimento; secondo l’altro, una variabile si eguaglia all’altra semplicemente perché è a questa asservita. Paradosso di Escher Il primo meccanismo appartiene alla teoria classica, mentre il secondo alla teoria keynesiana. Secondo la teoria classica, la produzione non potrà rimanere invenduta (legge degli sbocchi di Say). Allo stesso modo non vi potrà essere un eccesso stabile di domanda aggregata. Secondo la teoria della domanda effettiva, ciò che è prodotto non necessariamente verrà venduto. Il mercato, quindi, informa le imprese di un possibile vincolo all’espansione della loro produzione e sarà l’ammontare della domanda aggregata che orienterà le loro scelte circa il livello di produzione, di utilizzazione del capitale e di occupazione. Quindi le forze di mercato non sono in grado di garantire il pieno impiego delle risorse, si rende quindi necessario lo stabilization bureau.
Compito dello stabilization bureau è quello del controllo (Fine Tuning) della effettiva per evitare sia sotto-utilizzazione del capitale e disoccupazione, sia inflazione. Nel primo caso il bureau dovrà creare domanda aggregata (investimento pubblico), nel secondo caso dovrà invece ridurre la domanda aggregata, con interventi diretti (riduzione spesa pubblica) o indiretta (aumento delle imposte). Tramite questi interventi lo stabilization bureau stabilizza il sistema economico, allontanandolo dall’inefficienza di breve periodo che si concretizza con la disoccupazione e l’inflazione.
Secondo la curva di Philipps, esiste una relazione inversa tra inflazione e disoccupazione. Infatti più elevato è il tasso d’inflazione, minore è il tasso di disoccupazione.
Nel lungo periodo si modifica la disponibilità delle risorse, infatti, l’investimento non esaurisce la sua funzione come componente della domanda aggregata ma si tramuta anche in un incremento del capitale; il progresso tecnico consente l’adozione di tecnologie produttive a più alta produttività; e l’offerta di lavoro si modifica con i soldi demografici. L’obiettivo di lungo periodo è quindi quello d raggiungere lo Stato Stazionario, cioè la situazione in cui capitale e prodotto per addetto sono costanti.
Per assolvere alle sue funzioni e per gestire i bureau, lo Stato deve affrontare delle spese e parte di tali risorse finanziarie possono essere ottenute tramite il debito pubblico. Per far fronte al Disavanzo (formula dove r è il tasso d’interesse reale, Bt-1 è il debito pubblico del periodo precedente, Gt è la spesa pubblica e Tt sono le imposte, al netto dei trasferimenti) lo Stato può ricirrere al finanziamento tramite la banca centrale, aumentando la moneta in circolazione, oppure può collocare nuovo debito pubblico. Se analizziamo solo l’evoluzione del debito, il bilancio dello Stato diviene: (formula , per cui il debito all’anno t è uguale alla capitalizzazione (1+r) calcolata sul debito del periodo precedente più la differenza tra spesa pubblica e imposte, il cui saldo è indicato con il nome di Disavanzo Primario. Se il debito è rimborsato immediatamente e completamente nel periodo successivo, in (t+1) il debito totale deve essere nullo. Quindi imponendo la condizione Bt+1=0 otteniamo (formula ) da cui dobbiamo che (formula ). Ovvero per rimborsare il debito lo Stato dovrà realizzare in (t+1) un avanzo primario pari al debito emesso e all’interesse maturato, tramite la riduzione della spesa o l’aumento delle imposte. Se il debito è rimborsato dopo n anni, in (t+n) il debito totale dovrà essere nullo, quindi otteniamo (formula ) da cui abbiamo che (formula ). Invece di rimborsare il debito pubblico, il comitato può richiedere al policy maker di stabilizzarlo, imponendo Bt=Bt+1. Sviluppando questa condizione otteniamo: ( formula ) da cui abbiamo che (formula ). Ovvero la stabilizzazione del debito comporta che ogni anno l’avanzo primario sia pari agli altri interessi reali maturati sul debito esistente, lasciandone quindi invariato l’ammontare.
La Bilancia dei Pagamenti è il documento contabile delle economie aperte. In esso, infatti, sono registrate tutte le transazioni che hanno luogo, in un periodo di tempo, tra i residenti di un paese e il resto del mondo. La bilancia dei pagamenti è composta da due sezioni: le Partite Correnti e i Movimenti di Capitale. La prima rileva le esportazioni e importazioni e il saldi; la seconda invece comprende i movimenti di capitale a breve, medio e lungo periodo e il relativo saldo. La somma algebrica dei saldi delle partite correnti e dei movimenti di capitale indica l’esborso o l’afflusso di valute estere, cioè la variazione delle riserve valutarie del paese. Anche se la bilancia dei pagamenti è contabilmente sempre in pareggio, nel primo caso si parlerà di disavanzo, nel secondo di avanzo. Una posizione di disavanzo segnale una riduzione delle riserve valutarie del paese e quindi di una riduzione rispetto all’aumentare ottimale per poter sostenere squilibri nelle transazioni per il futuro. Una posizione di avanzo, invece produce un aunmento di riserve valutarie che renderebbe, alla lunga, le valute possedute eccessive, con il pericolo di creare troppa circolazione monetaria. Il problema dello stabilization bureau è allora quello di verificare che i saldi della bilancia del commercio e dei pagamenti siano in equilibrio (nulli). Vi sono quattro possibili modi per correggere un deficit o un avanzo della bilancia del commercio: introdurre dei vincoli o delle sovvenzioni agli scambi con l’estero; l’entrata in un’area di unificazione monetaria; la flessibilità del cambio; e acconsentire na opportuni mutamenti nei livelli dei prezzi interni, del reddito e dell’occupazione.
L’azione del DISTRIBUTION BUREAU è volta di ridistribuire i redditi e la ricchezza che autonomamente il mercato distribuisce tra i cittadini. Parlando di distribuzione dei redditi occorre distinguere la ripartizione del valore del prodotto nazionale detta Distribuzione Nazionale dalla Distribuzione Personale dei redditi, la quale fa riferimento alla quantità complessiva di risorse monetarie guadagnate da ciascun individuo. La distribuzione efficiente dei redditi (decisa dal mercato), può essere messa in discussione in quanto diseguale in termini di distribuzione dei redditi, così da produrre ampie quote di popolazione povera, quindi il vero obiettivo da perseguire è l’Equità Distributiva.
Qualsiasi ipotesi distributiva deve prendere su alcune scelte di fondo che riguardano le alternative tra le selettività e universalismo delle politiche di sostegno dei redditi; tra interventi monetari o di carattere specifico; e tra gestione centralizzata o decentrata a livello locale. L’impostazione selettiva prevede che il sostegno pubblico vada fornito ai potenziali beneficiari dopo averne accertato l’effettivo stato di bisogno. Al contrario, l’universalismo prevede erogazioni generalizzate a tutti i cittadini. Molti ritengono che sia preferibile il sostegno al benessere degli individui attraverso trasferimenti monetari piuttosto che in natura. Le ragioni adottate riguardano: l’elevatezza dei costi amministrativi degli interventi specifici, necessari sia per selezionare la platea dei potenziali-beneficiari, che per accertare i loro mezzi economici ,la distorsione delle decisioni di consumo individuali, e l’introduzione di inefficienze allocative. Infine è più efficiente riservare al livello di governo centrale gli interventi di carattere monetario di sostegno dei redditi e ai governi inferiori di governo gli interventi di tipo specifico (offerta di servizi).
Secondo la visione neoclassica della separazione dei problemi di equità da quelli di efficienza, al mercato è lasciato il compito di raggiungere l’efficienza, mentre l’equità può essere perseguita dallo Stato tramite atti redistributivi (PRINCIPIO DI SEPARAZIONE).
In un sistema di mercato il cui funzionamento si regge sui valori individuali, una redistribuzione più egualitaria dei redditi può determinare forti disincentivi al lavoro e alla produzione.
PROGRAMMI ALTERNATIVI TRA EQUITA ED EFFICIENZA.
La scelta della società tra equità ed efficienza dipenderà dalla definizione di un funzione di benessere sociale che in questo caso sarà massimizzata in D*. le curve di indifferenza saranno crescenti se l’equità è un disvalore, mentre saranno decrescenti se l’equità è un valore. Allora la società che cercala pura efficienza sceglierà la soluzione D*. la società adotterà una soluzione più equa di D(E) se essa esprime nell’eguaglianza dei redditi un valore sociale . infine il programma imporrà una distribuzione più inequa E’ solo se il comitato sente l’uguaglianza tra i cittadini come un disvalore.
Come per i fallimenti di mercato, anche lo Stato può incontrare delle carenze che rendono inefficiente la correzione dell’inefficienza e iniqua la correzione delle in equità (fallimento dello Stato). Infatti molte delle diverse fonti del fallimento del mercato si ripropongono per l economia pubblica. Non a casa anche i bureau devono affrontare problemi che derivano da informazione imperfetta e da mercati incompleti. Come conseguenza del limitato mandato della carica elettorale, i politici programmano le loro scelte su un tempo inferiore a quello con cui si muove la società. Conseguentemente, spesso i loro orizzonti temporali sono più brevi di quelli necessari per la percezione, comprensione e definitiva soluzione dei fenomeni economici. Ne deriva che i temi di lungo periodo tendono ad essere ignorati. Nell’attività dello Stato è possibile che nasca un divario tra coloro che ricevono i benefici dell’intervento dei bureau e coloro che pagano i costi dei programmi di governo. Può accadere infatti che i benefici siano estesi a tutti gli individui, mentre solo alcuni ne subiscono i costi (e viceversa). L’intervento dello Stato è condizionato dalla percezione dell’opinione del pubblico sull’inadeguatezza e sulle carenze del mercato. Questo fenomeno può rendere inefficiente intervento dello Stato per motivi: nella percezione aspetti psicologici distorcono la conoscenza oggettiva dei risultati; la percezione è governata dall’informazione dei gruppi di pressione; e l’ideologia svolge un ruolo fondamentale nella percezione. Si verifica nelle imprese dello Stato una tendenza a restare sotto la frontiera dell’efficienza produttiva e il risultato è il fallimento dell’economia pubblica. La poca chiarezza negli obiettivi e la mancanza di controllo del mercato sull’attività dei bureau, consentono comportamenti inefficienti da parte degli operatori pubblici (aumenti ingiustificati di budget del personale etc):
La procedura di soluzione del problema di politica economica che si articola nelle 3 fasi di: indicazione degli obiettivi da parte del comitato; verifica della controllabilità da parte del policy maker; e formulazione del programma da parte del policy addice, si deve completare con l’introduzione di un’altra fase, quella della misura della realizzazione del programma secondo un criterio di rendimento. Tale fase è effettuata dagli uffici di controllo dello Stato. Non a caso solo tramite il controllo si possono diminuire i costi, aumentare l’efficacia degli interventi ed evitare problemi di attuazione. Qualora il controllo non confermi le performance desiderate è necessario assumere provvedimenti, i quali possono riguardare: la tecnologia con cui vengono erogati i servizi dello Stato, le regole con cui vengono prese le decisioni del governo e la persuasione degli agenti. Per valutare l’efficienza o l’inefficienza di una prestazione nell’ambito dell’esecuzione di un programma, occorre confrontarla con una prestazione virtuale ritenuta la migliore possibile. La tecnologia per definire la migliore prestazione virtuale e per eseguire un confronto è detta Analisi Economica Dell’Efficienza. Essa si esplica tramite tre momenti: il primo ricorre alla teoria economica; il secondo utilizza un’analisi tecnica; e il terzo definisce la misurazione dello scarto tra gli indicatori ottenuti con l’analisi tecnica e la performance ottenuta. La quarta fase della politica economica, il controllo, può essere attuata tramite due tecniche: il controllo Police Patrol e quello Fire Alarm. Il policy Patrol è un sistema di controllo centralizzato che esamina un campione di uffici al fine di individuare e pulire le inefficienze ex-post e scoraggiare ex-ante ogni violazione. Il fire alarm è un controllo non centralizzato e non implica l intervento diretto del policy maker. Infatti, invece di cercare l’inefficienza, si stabilisce un sistema di regole e procedure che permettono ai cittadini stessi di esaminare le scelte degli uffici per segnalare al policy maker le eventuali inefficienze.
Nella realizzazione del suo programma, il policy maker può seguire 2 strade: porre in atto una sequenza di contratti; o usare un apparato gerarchico detto burocrazia.
Efficienza allocativa degli uffici delle burocrazia.
Il modello di NISKANEN ha l’obiettivo di spiegare sia la crescita esagerata della spesa pubblica, sia l’inefficienza produttiva delle azioni intraprese da burocrati. Se le preferenze del burocrate si impongono su quelle del policy maker, si possono generare situazioni di inefficienza allocativa, poiché gli uffici pubblici risultano troppo grandi rispetto alla dimensione ottimale che vorrebbe il politico. Infatti l0allocazione efficiente prevede che la curva PQ abbia la stessa pendenza di quella dei costi C(Q), mentre l’allocazione richiesta dal burocrate è data dal punto di intersezione tra le due curve.
Secondo l’approccio del congresso dominante il rapporto tra il policy maker e il burocrate viene descritto come un rapporto principale-agente, in cui il politico è il principale e il burocrate è l’agente. La differenza consiste nel fatto che ora è il policy maker che cerca di indurre il burocrate a compiere alcune azioni per realizzare al meglio il programma, e fa questo offrendogli un contratto con un pagamento incentivante. Tale regola incentivante deve tenere conto di due caratteristiche del burocrate: la sua libertà di scelta e un’asimmetria informativa che è a vantaggio del burocrate. I tipi di regola incentivate sono due: un trasferimento fisso (Fixed Price), cioè una ricompensa che non muta al mutare dei costi dell’ufficio, e un trasferimento proporzionale al costo (Cost Plus), cioè una ricompensa che è pagata al burocrate sulla base del costo di produzione osservato. Un tema molto forte dell’inefficienza della burocrazia p quello della corruzione con altri agenti economici (Side Contract, scambio di favori con bustarelle etc). Ovviamente, quando il burocrate stipula dei side contract, egli si allontanerà dell’esecuzione del programma.
La corruzione può manifestarsi in 3 modi: concessione, corruzione e gestione delle code. Si ha concussione o corruzione se il burocrate riconosce una caratteristica anche ad un individuo che ne è sprovvisto, facendogli ottenete indebitamento del denaro. Si ha estorsione se il burocrate riesce ad appropriarsi di una parte dl premio di un cittadino che ne ha diritto sfruttando la minaccia di dichiarare il falso e di rilevare che nella sua domanda la caratteristica richiesta è assente. La coda è uno schema allocativo delle risorse alternativo a quello del prezzo di mercato. Quando le code sono amministrate dalla burocrazia, il cittadino che possiede la caratteristica richiesta può decidere comunque di pagare una bustarella solo per accelerare le pratiche. Naturalmente esistono anche altre forme di corruzione, di fatto anche più importanti di queste che hanno manifestazioni monetarie, come le ingerenze politiche, i debiti di lealtà etc. per evirare la corruzione, il policy maker può decidere di ricorrere all’introduzione di norme il cui scopo sia quello di restringere la convenienza del burocrate a porre in essere atti illeciti. Un’alternativa a tali norme potrebbe essere quella di proporre al burocrate dei contratti che lo inducono a comportamenti che volontariamente escludono o limitano la sua convenienza a instaurare collusioni con terzi. Gli economisti in economia del benessere hanno sostenuto, nei confronti della corruzione, una posizione che prende il nome di Paradosso Della Corruzione. Infatti sia l’estorsione che la gestione delle code non comportano inefficienza nella realizzazione del programma.
Capitolo 9
POLITICHE A FAVORE DELLA CONCORRENZA E REGOLAZIONE DEI MERCATI
Se non ci si aspettasse in futuro alcun progresso tecnico, sarebbe ottimale impedire qualsiasi brevetto, in modo che tutte le imprese possano utilizzare le tecniche più efficienti per arrivare alla massima concorrenza e ai massimi livelli di concorrenza. Ma in una prospettiva dinamica, l’applicazione di una logica di piena libertà riduce l’efficienza. Inoltre non è detto che l’efficienza massima sia raggiunta necessariamente in una struttura di mercato caratterizzata da numerose imprese (monopolio per efficienza). Quindi se si considera un legame tra concorrenza ed efficienza statica è possibile identificare alcune situazioni che rendono la struttura del mercato meno concorrenziale e che quindi giustificano un intervento sanzionatorio. Se si considera invece il legame tra concorrenza ed efficienza dinamica, esso diviene più labile, ed è necessaria la valutazione, caso per caso, di costi e benefici dell’intervento antitrust.
La definizione di Mercato Rilevante è un aspetto molto delicato. Infatti in un’impresa con sensibile potere su un mercato definito in modo ristretto, potrebbe averne meno su un mercato più ampio. Il mercato rilevante è costituito da tutti i beni che i consumatori considerano tra loro simili o equivalenti in termini di caratteristiche, prezzo e utilizzo e collocati in una determinata area geografica. Il mercato rilevante viene identificato tramite il valore dell’elasticità incrociata della domanda.
Il passo successivo alla definizione del mercato rilevante è la valutazione del potere di mercato dell’impresa. In genere un’impresa ha potere di mercato se può agire in modo differente dai suoi concorrenti in termini di prezzo, qualità del prodotto etc. il potere di mercato si calcola tramite l’Indice di Lerner: .Se la concorrenza è molto elevata, l’indice tende allo zero, mentre raggiunge il massimo nel caso del monopolio. Identificato il mercato rilevante e stabilito che su questo una o più imprese hanno potere di mercato, l’azione antimonopolistica è giustificata solo se si abusa del potere dei mercato. Ovviamente la posizione dominante può essere raggiunta se l’impresa attua pratiche anticoncorrenziali, ma anche se l’impresa offre prodotti migliori a prezzi inferiori. L’abuso di posizione dominante da parte di un’impresa o di gruppo di imprese comprende numerose tipologie di pratiche anticoncorrenziali: intese, fusioni, acquisizioni, discriminazione dei prezzi e politiche predatorie. L’azione dell’antitrust consiste nella proibizione e annullamento degli effetti dei comportamenti lesivi e nell’imporre sanzioni.
Ci sono due modi per acquisire potere di mercato: eliminando i concorrenti oppure mettendosi d’accordo con loro. Le leggi antitrust vietano, in particolare, le intese orizzontali che riguardano la fissazione dei prezzi e quantità (cartelli).
GUERRA E ACCORDI DI PREZZO IN MERCATI CON CAPACITA PRODUTTIVE IN ECCESSO.
Supponiamo che in presenza di un’intesa sui prezzi, l’equilibrio di mercato sia dato dal punto E, in cui le imprese sfruttano il loro potere di monopolio e si comportano come un monopolista, mentre in assenza dell’accordo si sviluppa una competizione di prezzo che porta al punto C, in cui il prezzo è uguale al costo marginale. Data la struttura dei costi esiste un eccesso di capacità di produzione rispetto alla domanda. L’accordo sui prezzi, in questo caso, consente di ridurre le perdite per le imprese presenti nel mercato da ABCD a EFGH. Mentre la riduzione delle perdite dell’industria potrebbe essere congruente con un obiettivo finale di natura politico come la difesa dell’occupazione, non è certamente compatibile con l’efficienza allocativa. L’efficienza massima, infatti, viene raggiunta nel caso in cui non esiste potere di mercato e il prezzo è pari al costo marginale.
Per le INTESE verticali che non riguardano i prezzi, non c’è la presunzione di comportamento anticoncorrenziale, e quindi solitamente non vengono introdotte limitazioni al processo di auto-organizzazione del mercato. Infatti alcune intese verticali hanno una giustificazione tecnologica. Un altro tipo di intesa tra le imprese è quella segreta. La segretezza è giustificata proprio perché comporta comportamenti lesivi della concorrenza. Nonostante gli effetti negativi sull’efficienza, queste intese non sono però facilmente sanzionabili, in quanto difficilmente individuabili. Uno dei possibili segnali dell’esistenza di un’intesa è la similarità dei comportamenti delle imprese. Fusioni e acquisizioni tra imprese rappresentano un altro tipico campo di applicazione dell’antitrust. Anche in questo caso si distingue tra fusioni e acquisizioni orizzontali, verticali e conglomerali.
COSTI E BENEFICI DELLE FUSIONI.
In presenza di concentrazioni che comportano un incremento di efficienza ma anche del potere di mercato, la normativa antitrust richiede una valutazione di vantaggi e svantaggi della manovra. Supponiamo che i due equilibri siano quello concorrenziale, prima della fusione, e quello monopolistico, dopo la fusione. La fusione comporta un incremento di efficienza, espresso dalla possibilità di adattare una tecnologia caratterizzata da costi marginali più bassi (MC1). La concentrazione comporta il passaggio da PcQc a PmQm. L’area P1MBPc rappresenta un trasferimento di surplus dai consumatori al monopolista. La valutazione dell’efficienza della fusione si riduce al confronto tra l’area PcBDM e il triangolo MCB che riflette la perdita secca. Se la prima è maggiore della seconda, la fusione è desiderabile.
Le politiche antitrust che si limitano a stabilire le regole entro cui si svolge il processo concorrenziale, potrebbe non essere adeguata a contrastare efficacemente alcuni importanti fallimenti di mercato. Il policy maker potrebbe allora regolare direttamente o indirettamente tale mercato. Se il governo decide i prezzi, si distorcono gli incentivi dell’impresa, la quale esce del mercato oppure riduce la quantità prodotta. Più spesso il controllo diviene inefficace per via dei vantaggi informativi dell’impresa (riesce ad imporre P e Q).per queste ragioni la regolamentazione può assumere forme differenti; la creazione di un’impresa pubblica o la regolamentazione indiretta dell’impresa privata tramite agenzie specializzate. I mercati più soggetti a regolamentazione sono quelli in cui è ridotta la possibilità di introdurre elementi concorrenziali, come i Monopoli Naturali.
REGOLZIONE DEL MONOPOLISTA E DISCRIMINAZIONE DEL PREZZO.
A livello teorico, la soluzione di Second Best per i monopoli naturali è data dal prezzo di Ramsey del bene, che rende massimo il benessere sociale sotto il vincolo di un dato livello di profitto. La quantità che allora è possibile raggiungere applicando la regola di Ramsey nel caso di profitti nulli è Qr, ma questo comporta una perdita di efficienza rispetto al caso di massima efficienza allocativa (Q2) mai il prezzo eguaglia il costo marginale. Se il regolatore consente la discriminazione di prezzo è però possibile ridurre ulteriormente l’inefficienza allocativa Qr. Infatti se il regolatore impone un prezzo P1 per le quantità prodotte fino al livello Q1 può coprire le perdite dovute alla vendita al prezzo P2. Se l’area del rettangolo P1ACB è uguale a quella del rettangolo CDEF, viene raggiunta l’efficienza allocativa e l’impresa ha profitti nulli.
Nella realtà il regolatore segue spesso un comportamento soddisfacente e le 2 regole più seguite sono la fissazione del tasso di profitto e dei prezzi di vendita. Nel primo caso il regolatore stabilisce il tasso di profitto del capitale dell’impresa in modo da garantire un adeguato incentivo a investire: se r è troppo basso gli investitori non finanziano la crescita dell’impresa e la domanda sarà insoddisfatta, mentre s r è troppo alto, il potere di mercato dell’impresa regolamentata risulterà eccessivo. Invece con la fissazione dei prezzi di vendita, all’inizio del periodo di regolazione si stima il costo del capitale dell’impresa e si determina l’ammontare dei profitti minimi richiesti per la remunerazione degli azionisti cui vengono aggiunti altri costi. Infine l’autorità stabilisce il prezzo del bene nel periodo. Ovviamente, affinché la regolazione abbia senso, il prezzo stabilito deve essere inferiore a quello di monopolio. Date le difficoltà che emergono nello stabilire il livello ottimale de prezzo, in alcuni casi è possibile creare dei meccanismi che costringono le imprese a rivelare le informazioni in loro possesso. La concessione del monopolio, infatti, potrebbe essere messa all’asta, creando una competizione tra imprese non sul mercato ma per entrarvi.
Anche con riferimento al controllo della qualità dei beni e dei servizi si pongono problemi di efficienza analoghi a quelli della regolamentazione del prezzo. Quindi è opportuno distinguere tra beni Serach, Experience e Credence. Nel primo caso la qualità dei beni può essere valutata prima dell’acquisto; nel secondo caso si rivela solo dopo l’acquisto; e infine, nel terzo caso, la qualità non può essere valutata nemmeno dopo un consumo ripetuto. Nel caso vi siano importanti asimmetrie tra gli agenti riguardo alla qualità dei beni scambiati, esistono diversi meccanismi che posso contribuire a risolvere questo tipo di fallimento. Uno di questi è quello di crearsi una reputazione e ciò avviene se i consumatori sono disposti a premiare la qualità con un prezzo sufficientemente elevato. Tale soluzione, però, impone un costo per la collettività (P>Mc e allocazione inefficiente delle risorse). Un’altra soluzione è la segnalazione della qualità tramite l’investimento pubblicitario. Un ruolo analogo di segnalazione viene ricoperto dall’esistenza di garanzie e assicurazioni. Date le notevoli difficoltà del mercato ad autoregolarsi; il policy maker a volte interviene imponendo una certificazione di qualità. Il problema in questo caso è l’asimmetria informativa tra impresa e policy maker.
La presenza di intermediari finanziari nel mercato finanziario è giustificata dalle caratteristiche del mercato stesso, in cui il creditore è in una posizione di svantaggio informativo rispetto al debitore, poiché non conosce la qualità del progetto di investimento e le probabilità di successo dello stesso. La presenza degli intermediari, però, crea una doppia asimmetria informativa: quella dei risparmiatori nei confronti dell’intermediario e quella dell’intermediario nei confronti dell’impresa. Questa situazione risulta comunque preferibile a quella di assenza degli intermediari, in quanto a quest’ultimi riescono a valutare la qualità dei progetti di investimento meglio dei singoli investitori.
A differenza del credito bancario, le azioni e le obbligazioni sono quotate continuamente e prontamente liquidabili, ma anche in questo mercato vi è un problema di asimmetria: per il risparmiatore risulta difficile valutare la congruità del prezzo dell’azione rispetto alla qualità dell’impresa. A causa di ciò i risparmiatori si rivolgono gli intermediari. La reputazione di elevata qualità dell’intermediario può risolvere il problema dell’asimmetria, costringendo l’intermediario stesso al massimo impegno nei confronti del risparmiatore. Nel mercato finanziario risulta difficile per le famiglie stabilire con esattezza la qualità delle banche e degli intermediari, così come per le banche stabilire la rischiosità dell’investimento dell’impresa. Poiché esistono imprese e banche di qualità inferiore che si mimetizzano, le famiglie imputano alle banche una qualità media e , in questo caso possono emergere situazioni di restrizioni al credito. Per questa ragione, nei mercati finanziari alcuni soggetti hanno una posizione dominante se dispongono di più informazioni rispetto agli altri agenti. Un mercato finanziario si dice efficiente quando il prezzo di un’attività riflette tutta l’informazione disponibile. Si parla di efficienza in forma debole se il prezzo rispecchia solo le informazioni passate; si parla di efficienza semiforte se i prezzi riflettono immediatamente tutta l’informazione disponibile pubblicamente, non limitandosi ai prezzi passati; e si parla di efficienza in senso forte se tutte le informazioni pubbliche e private sono riflesse nei prezzi. Da ciò deriva che l’obiettivo della politica economica è quello di porre tutti gli operatori sullo stesso livello informativo.
Sono state proposte due diverse giustificazioni per l’esistenza delle banche. Nel primo caso l’elemento caratterizzante è la gestione del rischio di credito, mentre nel secondo caso è la gestione del rischio di liquidità. Infatti l’esistenza delle banche consente di migliorare la gestione di questi tipi di rischio. Il ruolo specifico dell’attività bancaria è fornire credito tramite strumenti non negoziabili. La negoziabilità del titolo presuppone infatti che ci sia un’informazione adeguata e condivisa sul titolo di credito emesso. Ma produrre questa informazione è estremamente costosa. Data la presenza di asimmetrie informative ex-ante ad ex-post, i prestiti sono effettuati sulla base di contratti incompleti. Le asimmetrie informative ex-ante riguardano il diverso grado di conoscenza sulla riuscita dei progetti d’investimento delle imprese e delle banche che li finanziano. Anche le asimmetrie informative ex-post hanno importanti conseguenze sull’efficienza allocativa del mercato. Infatti non è semplice valutare lo sforzo dell’imprenditore per arrivare alla buona riuscita del progetto di investimento, una volta ottenuto il finanziamento per lo stesso, data la possibilità di informazioni nascoste. Nel caso l’elemento caratterizzante l’attività bancaria sia il deposito bancario, l’attenzione si concreta sul cosiddetto Rischio di Liquidità. La presenza di un sistema bancario consente di trasformare depositi a breve termine in crediti a più lungo termine, poiché è sufficiente tenere in forma liquida solo una quota limitata dei depositi, pur senza correre rischi di illiquidità. Tuttavia il mercato finanziario è soggetto a fallimenti. Infatti una crisi bancaria può emergere per problemi di coordinamento tra depositanti (ritirano tutti il denaro depositato). In questo caso, se ciascun depositante presume che la banca abbia problemi di liquidità, si abbassa la sua valutazione della qualità. La fragilità della banca di fronte a eventi di questo genere è dovuta al fatto che il valore di mercato dei prestiti bancari è incerto e variabile nel tempo, mentre buona parte del passivo è costituito da depositi con un prefissato valore nominale.
Secondo alcuni, il mercato bancario, a lungo andare, è capace di regolarsi da solo e raggiungere l’efficienza. Chi propone una simile lettura non ignora la presenza di situazioni in cui emergono crisi bancarie, ma le considera inevitabili a fare anche utili all’eliminazione degli operatori inefficienti. Inoltre anche le conseguenze delle crisi sono ritenute relativamente limitate. Infatti in presenza di crisi, la banca illiquida potrebbe richiedere prestiti ad altre banche per soddisfare le richieste dei depositanti e riguadagnare fiducia. In realtà, in tale situazione, la domanda di base monetaria dell’economia potrebbe accrescersi e le altre banche non potrebbero effettuare prestiti. Una via d’uscita allora è quella di introdurre un controllo esterno sul mercato bancario.
Non a caso chi considera i mercati finanziari come caratterizzati da importanti asimmetria informative, propone una regolamentazione esterna al mercato stesso, attuata tramite la Banca Centrale. Un’assicurazione obbligatoria dei depositi rappresenta una soluzione che assicura automaticamente la stabilità. La Banca Centrale può evitare il fallimento di una banca in crisi di liquidità creando un’adeguata quantità di moneta e agendo come prestatore di ultima istanza. Se l’intervento della Banca Centrale fosse automatico emergerebbe l’incentivo al Free Riding. Quindi il sistema bancario potrebbe risultare più illiquido di un sistema non regolamentato. Una possibile soluzione è un intervento discrezionale della Banca Centrale. Dal punto di vista della massimizzazione del benessere sociale, la Banca Centrale dovrebbe evitare il fallimento di una banca temporaneamente illiquida e lasciare fallire quelle insolventi. Un intervento discrezionale può inoltre incentivare i depositanti a scegliere con cura a chi affidare i propri risparmi e i banchieri a mantenere comportamenti efficienti e ad allinearsi ai suggerimenti della Banca Centrale (Moral Suasion).
L’attività di controllo e regolamentazione dei mercati da parte della Banca Centrale si basa su numerosi strumenti, come l’accesso ai documenti contabili della banche e la possibilità di compiere ispezioni. L’attività di credito bancario è controllata tramite la manovra del coefficiente di riserva obbligatoria. L’internazionalizzazione dei mercati rende sempre più difficile isolare un sistema finanziario degli altri. In questo caso la competizione tra sistemi impone il bilanciamento tra obiettivi di stabilità ed efficienza del sistema. Ciò avvenne con il passaggio dalla regolamentazione strutturale alla regolamentazione prudenziale. I tipici strumenti della regolamentazione prudenziale sono: l’Assicurazione dei Depositi e l’Imposizione di coefficienti Patrimoniali.
Emerge infine un problema di coordinamento sul tipo di regolamentazione da introdurre. Il rischio derivante del’imposizione di una regolamentazione comune per tutti gli operatori è quello di avere regole troppo generiche e svuotate di contenuto. Se invece si propone una regolamentazione specifica per ogni tipo di intermediario, emergono problemi di concorrenza tra le regolamentazioni. Di qui l’importanza dei regolatori sovranazionali come il FMI o la Banca Mondiale, i quali definiscono le regole del gioco.
Capitolo 10
LA DISOCCUPAZIONE E LE POLITICHE PER L’OCCUPAZIONE
Per disoccupato si intende colui che non ha un impiego, ma lo ha attivamente cercato nel mese precedente. Il termine Tasso di Disoccupazione indica la quota di forza lavoro involontariamente esclusa dall’attività lavorativa (rapporto tra disoccupati e forza lavoro). La Forza Lavoro è costituita dalla popolazione in età lavorativa (15-65) occupata o in cerca di occupazione. L’ammontare della popolazione residua appartiene alla Non Forza Lavoro. Sono esclusi dalla forza lavoro i disoccupati volontari, che son o quei soggetti che, date le condizioni di mercato, decidono di non offrire la propria capacità lavorativa. L’incontro tra capacità professionali richiesta e offerta dipende dalla disponibilità delle informazioni, dalle energie spese nella ricerca e dalle condizione economiche. Ciò vuol dire che la Disoccupazione Frizionale corrisponde ad un livello minimo ineliminabile di disoccupazione, in presenza della quale si potrebbe parlare comunque di piena occupazione. Questo tipo di disoccupazione va tenuta distinta dalla componente strutturale, che deriva dall’incapacità di domanda e offerta di incontrarsi nel medio e lungo periodo.
Phillips rinviene una correlazione negativa non lineare tra tasso di disoccupazione e tasso di variazione del salario monetario, la cui rappresentazione grafica è da alla usata come curva di Phillips. L’elemento innovativo della ricerca condotta da Phillips non fu nella rivelazione di una relazione negativa tra tasso di variazione dei salari monetari e tasso di disoccupazione, quanto sulla supposizione che tale relazione fosse stabile.
L’emergere concomitante di inflazione e disoccupazione alla fine degli anni 60 mise in discussione l’adeguatezza della curva di Phillips nella sua formulazione originaria. A causa di ciò Friedman espose un modello macroeconomico che ristabiliva i risultati dell’analisi neoclassica ed era in grado si spiegare sia la relazione notata da Phillips, sia l’instabilità di tale relazione. L’idea centrale è che nel breve periodo sono possibili deviazioni dell’equilibrio di piena occupazione a causa di un’imperfetta informazione da parte degli agenti. Friedman sostenne inoltre che nel mercato del lavoro, in qualsiasi momento, esiste un livello di disoccupazione che definì Tasso Naturale, compatibile con l’equilibrio e in relazione con la struttura dei tassi di salario reali. Questi ultimi, nella situazione di disoccupazione naturale, tendono ad aumentare per effetto della formazione del capitale e del progresso tecnico. Il manifestarsi di un livello di disoccupazione inferiore al valore naturale è legato ad un eccesso di domanda di lavoro che produce una pressione al rialzo sui tassi reali di salario. Viceversa, un livello di disoccupazione superiore è indice di un eccesso di offerta di lavoro. Quindi, secondo Friedman, l’analisi di Phillips è viziata dalla mancata distinzione tra salari reali e nominali. Di conseguenza introdusse la curva di Phillips corretta per le aspettative, con la quale il tasso di disoccupazione non influenza il tasso di inflazione, ma le sue variazioni.
PRODUZIONE E MERCATO DEL LAVORO.
Immaginiamo che l’economia sia nella posizione di equilibrio naturale, con aspettative verificate (A), caratterizzato da inflazione nulla. L’aumento della domanda aggregata volta a ridurre la disoccupazione induce la crescita dell’occupazione fino a E1. Poiché i lavoratori si attendono un salario reale W*, essi accetteranno le offerte di lavoro e la disoccupazione si riduce al livello (N-E1). Si genera quindi una curva di Phillips di breve periodo associata ad un tasso di inflazione pari a zero. Nei periodi seguenti, tuttavia, l’inflazione attesa sarà positiva e non più nulla e affinché la disoccupazione rimanga al livello (N-E1) la crescita dei salari monetari dovrà essere superiore al tasso di inflazione.
Fiedman definì il tasso naturale di disoccupazione NRU come quel tasso corrispondente ad una situazione di equilibrio sul mercato del lavoro, nella quale le aspettative sono realizzate. La curva di lungo periodo di Phillips è quindi verticale in corrispondenza del NAIRU (formula ). In conclusione possiamo affermare che le misure di politica economica si dimostrano inefficaci rispetto all’obiettivo di abbassare il tasso di disoccupazione di equilibrio e hanno un effetto perverso rispetto all’obiettivo della stabilizzazione dei prezzi.
L’equilibrio dato da un tasso di inflazione stabile è uguale al suo livello atteso, viene raggiunto solo quando la disoccupazione è pari al NAIRU, una situazione in cui le richieste dei lavoratori sono compatibili con le esigenze delle imprese. Un elemento di instabilità del NAIRU riguarda le modificazioni demografiche (aumento dell’offerta del lavoro femminile e invecchiamento della popolazione). Un secondo elemento che giustifica l’instabilità riguarda il potere delle organizzazioni sindacali e le rigidità istituzionali del mercato del lavoro.
I modelle di Matching e Searching mostrano come le scelte dei lavoratori delle imprese nelle moderne economie, dominate dall’eterogeneità e da un eccesso costoso alle informazioni, possono condurre a fallimenti di mercato. I lavoratori, basandosi sulle poche informazioni disponibili, spendono tempo a cercare un’occupazione caratterizzata da un salario no n inferiore a quello minimo (Salario di Riserva). I datori di lavoro devono invece coprire i posti vacanti, senza disporre però di informazioni precise circa la produttività dei soggetti disponibili sul mercato. Il processo di raccordo tra posti e lavoratori richiede pertanto un’attività di ricerca continua e dispendiosa e una quota della disoccupazione esistente a tale origine. Non è però possibile stabilire l’entità della quota di disoccupazione dovuta all’inefficienza dei meccanismi di raccordo tra domanda e offerta di lavoro. La teoria che cerca di spiegare i periodi di disoccupazione come risultato del mancato incontro tra posti di lavoro liberi e lavoratori disoccupati è detta Teoria della Ricerca. Questa teoria poggia su due ipotesi fondamentali: l’esistenza di una distribuzione di salari diversi per lo stesso tipo di lavoro e l’informazione imperfetta degli agenti. I modelli di Job Search provano a rispondere a due questioni che un lavoratore si pone quando avvia la sua ricerca di un posto di lavoro: quanti tentativi effettuare prima di accettare l’offerta salariale più elevata tra quelle ricevute e qual è il salario di riserva che induce il lavoratore ad accettare una proposta di lavoro. Ovviamente il lavoratore continuerà la ricerca finché il guadagno atteso da una nuova ricerca è maggiore del costo. La soluzione definisce il Salario di Accettazione, cioè quel salario minimo che, proposto al lavoratore, lo convincerà ad accettare il posto di lavoro interrompendo l’attività di ricerca.
Le teorie dei salari di efficienza riconducono l’origine della disoccupazione della rigidità dei salari. Infatti l’elevata aciclicità dei salari reali richiede un’alta elasticità al salario reale dell’offerta di lavoro. L’dea centrale della teoria dei salari di efficienza è che l’impresa, pagando salari superiori alla produttività marginale, ottenga dei benefici superiori ai costi aggiuntivi dovuti ai maggiori salari offerti. Infatti, salari elevati portano ad un miglioramento dello standard di vita dei dipendenti, così da renderli più produttivi. Inoltre, per disincentivare un comportamento sleale, l’impresa ricorre ai contratti salariali efficienti, riconoscendo così una sorta di rendita economica ai lavoratori che, se licenziati, non percepirebbero più in altri posti di lavoro. In questo caso i disoccupati potrebbero essere disposti a lavorare anche ad un salario minore, ma ciò non darebbe garanzie all’impresa sul loro rendimento. La più studiata tra le cause all’origine dei salari di efficienza è quella dei problemi di imperfetto monitoraggio (Modello di Shapiro e Stiglitz). Tra le principali finalità del modello vi è quello di dichiarare se esistono politiche economiche in grado di migliorare il benessere dei cittadini in presenza di rigidità del salario reale. Il modello Shapiro-Stiglitz cerca la soluzione sviluppando le condizioni di un equilibrio stazionario, cioè una situazione che mantiene invariata la distribuzione dei lavoratori tra i diversi stati possibili: lavoratore occupato e diligente; lavoratore occupato ma non diligente; e disoccupato. Le imprese, in equilibrio, devono offrire un salario che faccia sì che i suoi lavoratori siano incentivati a lavorare con diligenza (vincolo degli incentivi relativi), ma non eccessivamente alto dal momento che lo sforzo dei lavoratori non può andare oltre un certo limite. Inoltre il salario non dovrà essere troppo basso, poiché il lavoratore potrebbe preferire la disoccupazione (vincolo di partecipazione). La retribuzione necessaria per indurre all’impiego i dipendenti è una funzione crescente dell’occupazione: quanto più è elevata, tanto maggiore deve essere il salario. Nella situazione di piena occupazione non esiste infatti salario in grado di assicurare un adeguato impegno, poiché il lavoratore licenziato troverebbe istantaneamente un nuovo posto di lavoro. Questi modelli contribuiscono a spostare le competenze del governo verso una politica d’intervento attivo sul mercato del lavoro (politiche dell’offerta) per migliorare i canali di ricerca dell’occupazione e per cercare di ridurre gli effetti indesiderabili della rigidità indotte dalle particolari caratteristiche del mercato.
Tra le misure microeconomiche di riforma del mercato del lavoro del lato dell’offerta, molta attenzione viene dedicata all’adozione di forme di flessibilità del contratto e del salario. Tali strumenti sembrano capaci di creare nuove occasioni di lavoro, in particolare nelle aree geografiche in cui tende a concentrarsi la disoccupazione. Il rischio, però, è che la flessibilità si traduca in precarietà. Il compito del policy maker è allora quello di rendere flessibile il mercato del lavoro e perseguire il grado ottimo di flessibilità. La riforma dovrebbe raggiungere gli obiettivi tramite: incentivi e politiche attive per l’occupazione; politiche di addestramento dei lavoratori; modalità di contrattazioni salariali; e servizi pubblici per l’impiego. Gli interventi di riforma dal lato dell’offerta del mercato del lavoro, rischiano però di rivelarsi insufficienti per la soluzione del problema della disoccupazione. A causa di ciò, all’adozione di politiche destinate ad aumentare l’efficienza del mercato del lavoro, andrebbero affiancate politiche di lungo periodo di sostegno alla domanda aggregata, volta a rilancio degli investimenti e quindi alla crescita dell’economia.
Le teorie dei Contratti Impliciti cercano di dare una spiegazione della rigidità salariale reale. Il contratto implicito si presenta come un’assicurazione fornita da imprese neutrali al rischio a lavoratori avversi al rischio e dal limitato accesso al mercato dei capitali. Tramite il contratto si fissano salario e occupazione che le imprese si impegnano a garantire in ogni stato del mondo. Una retribuzione costante indipendente della situazione congiunturale risulterà efficiente: il lavoratore ha assicurato una sorta di sussidio in caso di disoccupazione, mentre l’impresa in media paga al lavoratore un salario reale minore rispetto al livello di equilibrio walrasiano: la differenza è il Premio Per Il Rischio.
I modelli INSIDER-OUTSIDER, mutuando in parte l’idea delle teorie dei contratti impliciti, individuano due diversi tipi di lavoratori potenziali. Gli Insider possono tutelare i propri interessi in sede contrattuale, poiché hanno un qualche legale con l’impresa; mentre gli Outsider non hanno relazioni con l’impresa, ma possono essere assunti una volta siglato il contratto. L’esistenza di un legame fissato in sede contrattuale tra il salario destinato agli insider e quello degli outsider, è l’ipotesi centrale che consente a questa teoria di arrivare a prospettare conclusioni importanti riguardo l’impatto negativo del potere di mercato di una parte dei lavoratori sull’occupazione totale. In assenza di una situazione del genere, infatti, l’impresa avrebbe tutto l’interesse ad assumere outsider al salario prevalente, cosicché il costo marginale del lavoro sia ciclico. Gli insider hanno invece convenienza a che il numero degli outsider assenti sia circoscritto, pertanto in periodi di bassa disoccupazione si accordano con l’impresa, che in questo modo limita i costi legati alle nuove assunzioni, al fine di contenere il salario.
Capitolo 11
L’INFLAZIONE E LE POLITICHE DISINFLAZIONISTICHE
Con il termine inflazione intendiamo un incremento del livello generale dei prezzi. Tra gli indici più importanti per rappresentare il livello generale dei prezzi vi è: il Deflatore del PIL, ottenuto dal rapporto tra il PIL dell’anno corrente e il PIL reale. Tuttavia esso è poco preciso al fine di valutare gli effetti dell’inflazione sui redditi delle famiglie; l’Indice dei prezzi al consumo, che misura il costo d’acquisto di un determinato paniere di beni. Anche l’Indice dei prezzi all’ingrosso misura il costo di un paniere di beni, ma differisce dall’IPC per la composizione del paniere e perché è una misura dei prezzi delle merci valutati prima che queste arrivino al sistema distributivo. Si considera un’inflazione Moderata quando le persone che devono conviverci sono disposte a fare riferimento al tasso di inflazione in percentuale annua. L’inflazione è Elevata quando le persone misurano l’inflazione in percentuale mensile. Infine si parla di Iperinflazione quando l’orizzonte temporale scende al di sotto del mese.
Secondo la legge di OKUN, per mantenere costante il tasso di disoccupazione, la crescita della produzione deve essere uguale alla somma della crescita della forza lavoro e dall’aumento della produttività del lavoro. Connettendo la curva di Phillips e la legge di Okun, si ottiene un’importante relazione tra inflazione e crescita economica, secondo la quale il tasso di inflazione cresce quando l’economia segue un ritmo di crescita più veloce di quello naturale, mentre i prezzi sono stabili se l’aumentare segue il sentiero di crescita naturale.
EUROCLEROSI = ristagno occupazionale europea e grande crescita occupazionale negli Usa.
Secondo l’Ipotesi di Fisher, nel medio periodo il tasso d’interesse nominale aumenta nella stessa misura del tasso d’inflazione. Da ciò deriva che nel lungo periodo l’inflazione è un fenomeno interamente monetario. Se nel lungo periodo le variazioni del tasso di crescita della moneta non influenzano né la crescita della produzione né il tasso di disoccupazione, ma producono una variazione proporzionale del tasso di inflazione di equilibrio, il settore reale dell’economia e quello monetario sono tra loro indipendenti e la moneta è Neutrale non solo rispetto ai livelli assoluti delle grandezze, ma anche nei tassi di variazione.
Immaginiamo che l’economia sia stabilizzata sul sentiero di crescita dello stock di moneta. In questo caso un cambiamento del tasso di espansione della moneta si riflette interamente sul tasso di inflazione e modifica allo stesso modo il tasso di interesse nominale. L’effetto congiunto della variazione del tasso d’interesse nominale e delle aspettative di inflazione danno luogo ad una contrazione della domanda di moneta reale, e il mantenimento dell’equilibrio richiede un salto verso l’alto del livello generale dei prezzi.
La scelta tra una manovra di rientro rapida dell’inflazione o una graduale non è innocua. Infatti una manovra molto forte, attuata in poco tempo, lascia invariati i parametri strutturali dell’economia. Al contrario, una manovra più leggera, che si protrae per anni, può innalzare in modo irreversibile il tasso naturale di disoccupazione (EFFETTO ISTERESI). In generale, per avviare in modo credibile la disinflazione, l’autorità monetaria deve provocare un aumento percepibile della disoccupazione sopra il tassa naturale: deve cioè ridurre in modo sensibile il tasso d’espansione della moneta. Tuttavia, l’autorità monetaria non vuole far salire progressivamente la disoccupazione, perciò, terminato l’impatto della manovra restrittiva, occorre sostenere la domanda aggregata per ricondurre la produzione al suo valore normale. Quindi il tasso di espansione della moneta deve essere pari al tasso di inflazione più il tasso dei crescita del reddito. Raggiunto il valore desiderato del tasso di inflazione, occorre riportare il tasso di disoccupazione al suo valore naturale. Per far ciò la Banca Centrale deve optare per un’espansione una tantum dell’offerta di moneta e poi riprendere il ritmo di creazione compatibile con il tasso di crescita dell’economia e il tasso di inflazione programmato.
Il successo di un programma di inflazione dipende da molti elementi, è i più importanti sono: la necessità di accettare i costi connessi alla disinflazione e la credibilità dell’autorità monetaria. In particolare, secondo Lucas, una riduzione della crescita della moneta nominale potrebbe essere neutrale non solo nel medio, ma anche nel breve periodo, in quanto chi fissa i salari può anche tenere conto del cambiamento di politica economica. Infatti se ritiene che la Banca Centrale si sia impegnata a ridurre l’inflazione, si aspetterà un’inflazione minore rispetto al passato. Se riduce le sue aspettative di inflazione, l’inflazione affettiva diminuirà senza dover ricorrere ad un’elevata recessione. Quindi l’ingrediente essenziale per il successo di una disinflazione è la credibilità della politica monetaria. Tuttavia l’evidenza storica mostra che la disinflazione ha sempre comportato un qualche costo in termini di disoccupazione. Infatti è improbabile che una riduzione dell’offerta di moneta possa portare subito ad una contrattazione proporzionale e uniforme di tutti i salari. Pertanto un riduzione troppo rapida della crescita nominale della moneta non porterebbe ad una riduzione proporzionale dell’inflazione. Diminuirebbe invece lo stock di moneta reale, provocando una riduzione della domanda aggregata, della produzione e un aumento della disoccupazione. Per il problema dell’incoerenza temporale delle politiche antinflazionistiche (KYDLAND e PRESOTT), l’incapacità dei governi ad impegnarsi credibilmente in un apolitica di bassa inflazione può generare un’eccessiva inflazione. Infatti se l’inflazione attesa è bassa, il governo è tentato di porre in atto politiche espansive per spingere la produzione sopra il livello normale. Ma poiché il pubblico sa che il governo ha un incentivo all’incoerenza, non si aspetta affatto una bassa inflazione. Il risultato comporta una perdita sociale netta: l’inflazione è elevata e la politica espansiva risulta inefficace. La ragione sta nel fatto che il governo decide discrezionalmente il tasso di creazione della moneta e quindi il tasso di inflazione effettivo, dopo che il settore privato ha formato le aspettative di inflazione.
I costi del’inflazione variano a seconda della struttura istituzionale dell’economia, inoltre i costi connessi alla crescita dei prezzi cambiano a seconda che l’inflazione sia prevista o inattesa. Infine, se l’inflazione è causa di esternalità, occorre tenere distinti i costi che colpiscono i singoli operatori da quelli che affliggono l’intera economia. Se la crescita dei prezzi è prevista, tutti i contratti nominali si aggiustano ai nuovi livelli dei prezzi, così che prezzi relativi, salari relativi etc testano immaturi. In questa situazione i costi reali dell’inflazione sono limitati ai SHOE-LEATHER e ai MENU-COST. i primi derivano dal fatto che la gente è solita tenere una certa quantità di ricchezza sotto forma di denaro di depositi in conto crescente. Poiché sulla monta non si percepisce interesse, la crescita dei prezzi riduce proporzionalmente il potere d’acquisto dello stock di moneta rispetto ai beni, provocando una perdita. Per contenere questa perdita, il settore privato è incentivato a ridurre l’ammontare di ricchezza detenuta in forma liquida.
I COSTI DELL’INLFAZIONE PERFETTAMENTE ANTICIPATA.
Dawson ha stimato gli Shoe-Leather-Cost utilizzando il concetto di surplus del consumatore, misurato dall’area al di sotto della curva di domanda di moneta L(V,i). se,inizialmente, per effettuare il volume di transazioni corrispondenti al prodotto reale Y era necessaria la quantità (M/P)1 e se il tasso d’interesse era pari a i1, e se ora per effetto dell’inflazione prevista il tasso d’interesse è salita a i2 e la domanda di moneta si è ridotta a (M/P)2, allora la perdita di utilità dovuta all’inflazione è pari alla somma delle aree (b+c). l’incremento dell’inflazione produce un guadagno di utilità (signoraggio) a favore del governo pari a B e se si assume che esso sia restituito ai cittadini, la perdita per le famiglie sarà pari a C.
I MENU COST sono i costi derivanti dalla necessità di aggiornare i listini dei prezzi. Tali costi colpiscono solo i CUSTOMER MARKET, cioè i mercati nei quali il prezzo del prodotto è stabilito per lunghi periodi di tempo, ma non gli ACTION MARKET, nei quali i prezzi si determinano in modo pressoché continuo. Questi costi sono sostenuti anche se l’inflazione è perfettamente prevista, poiché sono collegati alla variazione dei prezzi nominali.
Nella realtà l’inflazione non è perfettamente prevista o in presenza di previsioni imprecise, l’inflazione può avere costi importanti. Per valutare i costi dell’inflazione non anticipata, bisogna analizzare la relazione tra il livello dell’inflazione, la sua variabilità, la sua incertezza e la variabilità dei prezzi relativi. L’inflazione è più variabile quando il suo livello è più alto. Infatti quando l’inflazione passa c’è accordo sul fatto che debba essere mantenuta bassa. Quando lì inflazione è alta, è più difficile che ci sia accordo sull’opportunità di ridurla, poiché le previsione sui costi potrebbero essere divergente. Per tanto una elevata inflazione potrebbe provocare maggiore incertezza sui prezzi, salari reali e tasso di disoccupazione e scoraggia l’investenti. Un secondo effetto e quello di disincentivare la sottoscrizione di contratti nominali a lungo termine.
L’inflazione non anticipata crea vincitori e vinti e, far parte degli uni e degli altri dipende dalla velocità con cui i diversi gruppi sociale aggiustano i loro reddito. L’inflazione ridistribuisse i reddito all’interno del settore privato in tre modi: i prezzi di vari beni e servizi crescono a tassi differenti; i salari e il livello generale dei prezzi crescono a tassi differenti; i salari percepiti nei diversi settori produttivi crescono a tassi differenti. Sotto il profilo della redistribuzione della ricchezza, lo stato trae vantaggio dall’inflazione non prevista. Il meccanismo attraverso il quale si trasferiscono le risorse reale dal settore privato allo stato, è conosciuto come Tassa o Imposta da Inflazione (Inflation Tax), poiché l’effetto esercitato dall’inflazione è siile ad un aumento dell’aliquota d’imposta.
L’inflazione minaccia la competitività dei prodotti industriali nazionali sui mercati internazionali, soprattutto se il paese aderisce ad un sistema di cambi fissi. Infatti, a parità di tassi di cambio nominale un eventuale differenziale positivo di inflazione del paese considerato nei confronti dei rivali commerciali riduce la competitività, provocando un disavanzo della bilancia commerciale e dei pagamenti. Il mantenimento della competitività internazione non richiede quindi la stabilità dei prezzi, ma un tassi d’inflazione simile a quello estero. Se il tasso di cambio reale deve restare costante per assicurare l’equilibrio con l’estero, la valuta del paese con il tassi d’inflazione più alto si deve deprezzare alle altre. Questo principio e chiamato Parità del potere di acquisto in termini relativi.