11
Mag
2009

Insider trading – Qualche recente evidenza che ci riguarda

Insieme ad alcuni colleghi dell’Universita’ Bocconi (Maurizio Dallocchio, Stefano Bonini e Marco Garro) abbiamo appena concluso una ricerca sugli annunci di takeover. Piu’ in dettaglio, si e’ trattato di analizzare 156 takeover realizzati nel nostro Paese dal 2001 al 2007.

I risultati sono abbastanza sorprendenti, anche se non del tutto inattesi. L’evidenza mostra infatti che in media 7/8 giorni (lavorativi) prima dell’annuncio il prezzo del titolo della societa’ target del takeover ha cominciato a muoversi prepotentemente verso l’alto. Ora, che il prezzo di una societa’ oggetto di attenzioni ostili aumenti e’ cosa ampiamente nota e scontata nella letteratura e nella prassi. Che l’incremento avvenga prima dell’annuncio lo e’ molto meno.

Vogliamo leggerla in un altro modo? Probabilmente, l’operazione di imminente annuncio esce dalla stanza del CdA – per approdare in quella dei trader – prima del tempo dovuto. Abbiamo certezze al riguardo? No. Qualche sospetto? Tanti, vista la regolarita’ con cui abbiamo potuto osservare tale fenomeno.

Extra rendimenti cumulati societa target pre e post annuncio

Extra rendimenti cumulati societa' target pre e post annuncio

Il grafico allegato fornisce evidenza visiva di tutto cio’. Come infatti si puo’ agevolmente osservare, gli extra-rendimenti del titolo nei 4/5 mesi prima dell’annuncio viaggiano in un corridoio piuttosto deludente. Una settimana (circa) prima dell’annuncio invece le cose cambiano drasticamente e gli extrarendimenti cominciano misteriosamente a crescere verso il prezzo dell’annuncio.

Questa evidenza abbastanza sconcertante e’ pero’ controbilanciata da una buona notizia: al momento dell’annuncio il contenuto innovativo “residuo” viene correttamente scontato dal mercato,  come testimonia l’andamento quasi piatto del grafico nei giorni successivi all’annuncio.

Personalmente, nel solco tracciato dal grande Pascal Salin in “Liberalismo”, non sono un grande fan delle leggi sull’insider trading. Pero’,  se le leggi esistono occorrerebbe farle rispettare, credo.

11
Mag
2009

Sane letture e Telecom come Fiat

Spesso nelle grandi crisi si affermano nuove grandi idee e cambi radicali di paradigmi, prima imperanti, ma rivelatisi esplosivamente sbagliati. Altrettanto spesso, però, la tendenza è quella di rispondere alle grandi crisi cercando di rispolverare vecchie idee che in precedenza erano state già messe da parte, proprio perché alla prova dei fatti non avevano retto. Esempio: quando all’apertura delle rotte oceaniche e alla ridislocazione verso Spagna e Nordeuropa dei flussi commerciali la Serenissima Repubblica di Venezia pensò bene di impedire ai suoi maestri d’ascia la realizzazione di caracche prima e galeoni poi, convinta che galee e galeazze di piccolo cabotaggio e non pelasgiche costituissero una specializzazione ancor più necessaria per difendere il monopolio del Mediterraneo, rimase abbarbicata a una nicchia perdendo di vista il mondo nuovo.
Lo stesso avviene oggi con il ritorno in grande stile dello statalismo. Per combatterlo, bisogna che tiriamo un po’ più energicamente fuori gli artigli, cari tutti voi che mi leggete.
Consiglio intanto due letture al volo. il bel saggio di Ian Bremmer sull’ultimo numero di Foreign Affairs – “State Capitalism Comes of Age: The End of the Free Market?” – ricco di numeri e dati comparati sulla forza solo pochissimo tempo fa del tutto impensabile che lo Stato ha ripreso ed esercitare nell’economia mondiale (i dati su riserve di energia sono impressionanti, le compagnie private hanno meno del 3% delle riserve attualmente stimate). Poi continuate con l’editoriale dell’ex senatore repubblicano dell’Oregon Bob Packwood sul New York Times di oggi, a proposito dei limiti al prelievo fiscale negli Usa in relazione al modello sociale che Obama intende perseguire. Sono considerazioni che valgono anche per noi in Italia: tradotto in altri termini, sono per aprire un conflitto vero e aperto con il centrodestra italiano, su questi temi, perché non può bastare che le tasse non le alzi, deve mantenere le promesse di abbassarle oppure sia guerra.
Infine, son curioso di sapere come la pensate su un tema: Telecom Italia. La mia tesi è che chi la pensa come noi dovrebbe battersi e sperare che sai accinga a fare come la Fiat di Marchionne, “annegarsi” in un abbraccio con Telefonica per impedire l’abbraccio soffocante della politica sulla rete “universale” e connesso mucchettismo della necessità di controllo pubblico per ovviare a investimenti inadeguati. Voi che ne dite?

11
Mag
2009

Gas, la Caporetto delle liberalizzazioni è la distribuzione?

Intervistato dalla Stampa di oggi, Massimo Orlandi, ad di Sorgenia, dice che

la difficoltà è legata a quello che potremmo chiamare, facendo un paragone con la telefonia, l’ultimo miglio del gas. Ovvero un operatore privato come Sorgenia non riesce ad attraversare l’ultimo metro di tubo che dà l’accesso al gas. Il mercato è in mano ai distributori del gas che in Italia sono oltre 400… Soprattutto le utility più piccole fanno ostruzionismo: non fornendo in tempo le misure sui consumi del gas o fornendole sbagliate.

Qui è disponibile una sintesi dell’intervista. Sebbene la distribuzione non sia l’unico ostacolo alla piena concorrenza, non c’è dubbio che, all’atto pratico, essa sia quello maggiore e più subdolo. Le reti di distribuzione locale del gas sono, infatti, frammentate (la maggior parte sono di piccole e piccolissime dimensioni, cosa che – da un punto di vista strettamente economico – non ha senso, perché questo è un business fortemente sensibile alle economie di scala e soprattutto di densità). Inoltre, nella maggior parte dei casi sono verticalmente integrati nelle utilities locali, perlopiù a controllo comunale e spesso beneficiarie di affidamenti diretti, che hanno ogni incentivo a mantenere l’opacità e non investire nello sviluppo delle reti, allo scopo di trattenere il maggior numero di clienti nel mercato vincolato. Tant’è che, come ricorda lo stesso Orlandi, a sei anni dalla completa apertura del mercato del gas (1 gennaio 2003) solo il 3 per cento delle famiglie e piccole imprese è passato al mercato libero, contro il 4,7 per cento delle famiglie che hanno “switchato” nel mercato elettrico, di più recente apertura (1 luglio 2007) (a me risultano dati ancor più positivi).

Il tema posto da Orlandi è quello che, specie dal punto di vista dei piccoli consumatori (e dell’interesse per le aziende ad andarseli a prendere), fa effettivamente l’interesse. Altrimenti non si spiegherebbe che le offerte sul mercato elettrico siano state assai più aggressive che quelle per il gas, a dispetto del fatto che i due mercati subiscono vincoli simili nelle altre fasi della filiera. E’, dunque, importante affrontare i due corni della questione: la frammentazione industriale e la scarsa trasparenza delle letture. Per quel che riguarda quest’ultima, nel settore elettrico è stata risolta e garantita tramite l’installazione di contatori elettronici, che forniscono misure in tempo reale e oggettive. A sua volta, questo investimento è stato reso possibile dalla spinta dell’Autorità e dalla disponibilità dei maggiori operatori della distribuzione e cioè, a fortiori, dal più forte grado di concentrazione. Quindi, anche per il contatore elettronico la causa ultima sta nella frammentazione della distribuzione locale del gas.

Quindi, la scommessa è quella di trovare una formula per indurre un processo di aggregazione. L’Autorità ci ha provato con un documento di consultazione e una serie di prese di posizione successive, ma anche qui mi pare che la via seguita rischi di essere sterile, anche se per ragioni opposte. L’Autorità, in sostanza, ha condotto un’indagine sui bilanci della distribuzione, e ha creduto di individuare una “dimensione minima” al di sotto della quale la scala è insufficiente. Ma questa logica è debole, non solo perché inevitabilmente trascura le specificità locali (la distribuzione in un territorio montano è diversa dalla stessa attività esercitata in una grande città nel mezzo della pianura. La “dimensione ottima” di un’impresa, insomma, non dovrebbe essere stabilita autoritativamente, anche perché essa è necessariamente funzione di una quantità di variabili, tra cui la tecnologia in uso (che oggi è ovviamente diversa da ieri e da domani) e le scelte regolatorie (in particolare sulle tariffe, cioè le entrate, e la qualità del servizio).

A questo si aggiunge una normativa demenziale. Le reti oggi sono per la maggior parte in mano a soggetti formalmente privati, ma, allo scadere delle concessioni (la maggior parte delle quali terminerà entro la fine del 2010), dovranno tornare in mano agli enti locali, i quali dovranno riassegnarle tramite gara.  Un elemeno fondamentale delle gare – di fatto l’unico – è il canone di concessione, cioè quanta parte delle loro entrate le imprese sono disposte a pagare ai comuni. Il risultato è che i margini, stretti tra una certa rigidità dei costi industriali (determinata dal rispetto degli standard di qualità imposti dall’Aeeg), il cap sulle entrate (imposto tramite la regolazione tariffaria), e quella tassa impropria che versano agli enti affidatari (il canone), finiscono per essere così risicati da non determinare alcuna dinamica virtuosa. La vera scelta, che però è una scelta anzitutto politica e quindi regolatoria, dovrebbe essere quella di un modello regolatorio univoco, anziché mischiarne due: o si regolano le tariffe di imprese private che posseggono le reti (eventualmente estendo gli obblighi di unbundling anche ai piccoli o spingendo l’acceleratore sulla separazione proprietaria), oppure si decide che le reti sono pubbliche e vengono affidate tramite gara, facendo sì che il controllo sui prezzi (cioè sulla remunerazione del capitale) avvenga attraverso i termini dell’affidamento. I due modelli sono ugualmente interessanti, anche se io tendo a preferire il primo (proprietà privata + regolazione tariffaria + separazione proprietaria). Ma finché non si compie una scelta netta, qualunque tentativo di soluzione rischia di essere peggiorativo, aumentando la confusione normativa e riducendo la trasparenza.

E’ come in cucina: quando un piatto risulta insoddisfacente, entro un certo limite si può tentare di “salvarlo” aggiungendo nuovi ingredienti, o aumentando le dosi di quelli vecchi. Ma se la ricetta era sbagliata, conviene ricominciare da zero.

10
Mag
2009

Leggere l’Economist a via Solferino

L’Economist di questa settimana si conquista una citazione nell’editoriale domenicale del Corriere, entusiasta del “sovvertimento causato dalla crisi nella gerarchia tra i sistemi economico-sociali in Europa” che il giornale diretto da John Micklethwait racconta con una cover accattivante. Se l’illuminato editorialista avesse letto anche l’editoriale dell’Economist, e non si fosse limitato a guardare la copertina, avrebbe “scoperto” che la posizione del settimanale britannico e’ un po’ piu’ complessa (e diversa da quella di chi e’ pronto a invocare la “colbertizzazione” dell’Europa, col paradossale argomento che si tratta dell’unico modo possibile per salvare il mercato unico!). Rispetto a quel “sovvertimento”, l’Economist scrive infatti:

But will it last? The strengths that have made parts of continental Europe relatively resilient in recession could quickly emerge as weaknesses in a recovery. For there is a price to pay for more security and greater job protection: a slowness to adjust and innovate that means, in the long run, less growth. The rules against firing that stave off sharp rises in unemployment may mean that fewer jobs are created in new industries. Those generous welfare states that preserve people’s incomes tend to blunt incentives to take new work. That large state, which helps to sustain demand in hard times, becomes a drag on dynamic new firms when growth resumes. The latest forecasts are that the United States and Britain could rebound from recession faster than most of continental Europe.

Individual countries have specific failings of their own. (…) It may not be long before the fickle Mr Sarkozy is re-reading his Adam Smith.

Al di la’ delle letture da consigliare a Sarkozy, o ai suoi epigoni “corrieristi”, l’Economist di questa settimana contiene un articolo molto interessante ed equilibrato sull’eredita’ della signora Thatcher, oggetto di dibattito sul Financial Times ed altrove. Lo trovate qui. Le tesi di rilievo sono due. La prima e’ che, a dispetto del breve termine, proprio gli interventi emergenziali degli ultimi mesi pongono le basi del successo di una prospettiva thatcheriana, basata su una “stringente disciplina economica”, nel medio e lungo termine. L’altra e’ che se ora vi e’ un “ritorno dello Stato” in alcuni ambiti,  nondimeno l’apertura a soluzioni privatistiche in altri ambiti, nemmeno sfiorati dall’opera della Lady di Ferro (i servizi alla persona, per esempio), e’ ormai parte a pieno titolo del dibattito politico e non se ne puo’ indovinare a breve la scomparsa. Anche perche’ i nuovi pesi che gravano sulle finanze pubbliche potrebbero costringere ad altre, per ora imprevedibili, esternalizzazioni e privatizzazioni.

9
Mag
2009

Attenti al nuovo mantra: la crisi da materie prime…

C’era qualcosa nell’aria che avvertivo istintivamente ma la cui precisa nozione mi sfuggiva da tempo. Ora ho capito meglio di che cosa si tratti, letto l’intervento di Pietro Modiano sul Sole, in risposta a Guido Tabellini. Vado per le spicce, come al solito ipersemplificando questioni molto più complesse. Premessa uno, finanziaria: gli Usa e il mondo intero hanno il massimo interesse a consolidare il più possibile la ripresa di fiducia dell’intermediazione finanziaria (e dei mercati, cominciata dalla prima settimana di marzo, e massicciamente sostenuta da acquisti senza precedenti da parte della mano pubblica, nonché da un’accorta politica di comunicazione dei dati). Premessa due, politica: gli elenchi di nuovi princìpi di regolazione finanziaria, capital ratios, omologazione delle architetture regolatorie (vedi Mingardi nel suo post precedente) et simila decadono dall’agenda di comunicazione pubblica quotidiana (avevano anche annoiato, in verità, visto che dalle chiacchiere ancora non si passa ai fatti), per tornare dove sono sempre stati, cioè nell’agenda riservata di un pugno di regolatori e banchieri centrali. Anche gli stress test Usa servono più a sostenere i mercati, che a fare pulizia. Premessa tre, gnoseologica: ma siamo proprio sicuri, di aver capito che cosa è successo negli anni precedenti la crisi dei subprime e il fallimento di Lehman? O è stata un lettura affrettata, quella che ha iniziato ad accumularsi in centinaia di papers e convegni e migliaia di articoli, intorno ai famosi eccessi della “finanza per la finanza”‘?
Dopo queste tre premesse, le strade secondo me si dividono nettamente.
Ce n’è una che ci riguarda (nel senso: chi la pensa come noi). Abbiamo le idee chiare sull’instabilità ingenerata da politiche monetarie lassiste, siamo disposti ad approfondire – coerenti all’imperfettismo di cui nutriamo – serie analisi sulle conseguenze dei modelli Var autogenerati dagli intermediari, dei bassi capital ratios per asset assunto o intermediato, la necessità di tener distinti gli intermediari bancari da quelli non bancari, e via continuando su tutti i diversi capitoli “tecnici” alla base di un sistema in cui il 50% dei profitti delle quotate Usa era attribuito a chi pesava il 10% del valore aggiunto del Gdp, da attività di puro trading ma il più possibile “esterne” al proprio recinto patrimoniale. Siamo vieppiù disposti ad approfondire, perché temiamo molto gli interventi iper regolatori, pervasivi e omologanti di chi sogna improbabili rivincite dei giuristi sulla finanza, e della politica sull’autonomia d’impresa.
A questa via del dubbio, aderisco.
Ma ce n’è un’altra che dichiara di partire da premesse analoghe, per giungere a conclusioni molto diverse. Chiamiamola la via bancaria: non solo non possiamo essere ben sicuri della causa vera, in realtà banchieri e intermediari non hanno sbagliato nulla (e nemmeno politica e regolatori che avevano congegnato le norme del gioco, come diremmo noi). I banchieri non hanno nessuna colpa, e la crisi è semplicemente esplosa perché è stata l’impennata delle commodities e del petrolio fino a 147 dollari, a determinare panico nell’economia reale, facendo saltare le griglie che sostenevano prezzi al presente e ritorni al futuro.
Non so come la pensiate voi: ma io alla conclusione autoassolutoria non mi sento proprio di aderire. Non desidero rinfrescare a tutti gli hearings al Congresso Usa in cui fior di esperti del mercato delle commodities esposero la ben nota tesi sul motivo per il quale, in mesi che vedevano il restringersi della forte leva e degli acquisti allo scoperto, i futures su petrolio, grano e mais subirono impennate che non avevano alcun giustificabile proporzionato “sottostante”, quanto a variare della domanda mondiale o a improvvisi blocchi dell’offerta.
Sento puzza di bruciato. Non mi piace, la faccia tosta dei signori banchieri. Mi sbaglio? Che ne pensate?

9
Mag
2009

Abolire le Province

L’ostilità preconcetta per una riforma degli Enti locali che comporti l’abolizione delle Province può essere spiegata solo in due modi: con la fiducia cieca e talvolta inconsapevole verso le istituzioni e il loro operato da parte di onesti, ancorché ignari cittadini oppure con la difesa di rendite di posizione da parte di gruppi di interesse politico-clientelari. Tertium non datur. Meglio di noi l’ha spiegato in un agile libercolo pubblicato di recente per la casa editrice Rubbettino il team capitanato da Silvio Boccalatte. Eppure, proprio in questi giorni di “febbrile” attesa per le consultazioni del 6 e 7 giugno prossimi, si sente spesso ricordare (almeno questa è la mia esperienza) che le Province sono e restano indispensabili, perché, tra i notevoli compiti cui sono preposte, v’è quello, imprescindibile, di varare il piano territoriale di coordinamento. Ebbene, questa vitale competenza di livello urbanistico è in realtà stata attribuita alle Province nel 1990 con lo scopo conclamato di conferir loro un qualche ruolo (!). Come dire: in Italia prima si creano gli enti e solo dopo si decide quali funzioni essi debbano ricoprire. Il piano territoriale di coordinamento è lo specchio di questo modus operandi. Si tratta infatti di un ulteriore livello di pianificazione urbanistica del quale non si sentiva affatto il bisogno e che in buona sostanza si sovrappone a quello delle Regioni, ingolfandone l’attività e accrescendo il garbuglio normativo. Il piano provinciale, infatti, una volta redatto, deve essere rimesso alla Regione, la quale ne accerta la conformità agli indirizzi regionali di programmazione (ottimo, ma allora non ne basterebbe solo uno?) e stabilisce le procedure di approvazione garantendo la partecipazione dei Comuni interessati. I Comuni, in pratica, non dovranno soltanto attenersi alle disposizioni dei piani urbanistici regionali, ma dovranno fare riferimento anche a quelli provinciali. Talora, però, i piani di coordinamento provinciale sembrerebbero poter essere approvati in deroga a quelli regionali. Si pensi al caso degli strumenti di pianificazione paesaggistica, i quali, prima di una legge del 2004, avrebbero dovuto essere inglobati nei piani di coordinamento provinciale a seguito di intese con le amministrazioni locali. La legge del 2004 ha scombussolato il quadro, dando la precedenza agli strumenti di pianificazione paesaggistica regionale su quelli adottati a livello provinciale. Insomma. L’estrema confusione e incertezza del quadro normativo imporrebbe un ripensamento del ruolo di un ente, sotto più punti di vista, davvero pletorico e sovrabbondante. Ecco perchè, cara Claudia Porchietto, non possiamo che storcere la bocca di fronte ad un programma che si propone di tagliare gli sprechi, ma che non ci dice nulla di certo sul futuro delle Province. Almeno il suo avversario è stato chiaro: le Province non si toccano.

9
Mag
2009

Ma siamo proprio sicuri che l’armonizzazione sia la strada migliore?

Sul Sole 24 Ore, è in atto un interessante dibattito sulle cause della crisi e, quindi, anche sulle possibili soluzioni. Partecipano economisti di rilievo, come Guido Tabellini (che ha distillato un sobrio quadro d’insieme di quanto avvenuto negli scorsi mesi) e Nouriel Roubini (che ha auspicato un po’ di “ordinata” distruzione creatrice). Sono scampoli di una discussione ovviamente più ampia, che da mesi appassiona e coinvolge un numero sterminato di studiosi, e rispetto alla quale non verrà certo messa la parola “fine” nei prossimi mesi. Le cause della crisi resteranno, giustamente, materia di studio per gli anni a venire.

In questo quadro, vorrei segnalare un interessante (e leggibilissimo) paper di Arnold Kling per il Mercatus Center, The Unintended Consequences of International Bank Capital Standards. Il testo è sintetico ma accenna a più questioni, sottolinea per esempio il difetto pro-ciclico dei coefficienti patrimoniali imposti alle banche (Basilea I e II), ma ha soprattutto il merito di porre un tema che non è per nulla secondario.

La stragrande maggioranza di coloro che auspicano innovazioni normative, per rispondere alla crisi ed evitare che essa si ripeta, le vorrebbero internazionalmente concertate e globali quanto a spazio d’applicazione. Crisi globale, risposta globale: lo slogan dei governi è questo, ed ha senso politico. “Consorziarsi”, cartellizzarsi, serve per condividere i rischi connessi all’emanazione di nuove norme, e schermarsi contro l’eventuale effetto-boomerang che nuove norme inadeguate, o sbagliate, potrebbero provocare (se sbagliamo tutti, non sbaglia nessuno).

Non troppo diversamente, e questo è l’aspetto su cui Kling si ferma, si vorrebbe un’altra “armonizzazione”: fra veicoli finanziari diversi (banche e non-banche). L’ipotesi è abbracciata entusiasticamente dai più, ma è necessario riflettere su due aspetti. Primo, come spiega bene Kling, un sistema di regole pone in essere una struttura di incentivi. Servono gli stessi incentivi per realtà intrinsecamente diversissime, come una banca e un hedge fund? Secondo, anche il regolatore deve “imparare” dalla realtà – ed avere una pluralità di regimi regolatori consente di vedere man mano quali sono quelli che si comportano meglio, e perché. Nei vasti dibattito sul senso della crisi e come uscirne, l’ampiezza dell’ambito su cui insisteranno le nuove regole è troppo spesso in ombra. Invece, dal prevalere di un sistema pluralistico e basato sulla concorrenza istituzionale, rispetto ad uno fondato sul valore dell’armonizzazione, potrebbe dipendere non poco, di quanto è in gioco al tavolo dei regolatori.

8
Mag
2009

Eppur si muove

Dopo la condanna in primo grado inflitta da un tribunale svedese a The Pirate Bay, sembrava che il dibattito sul ripensamento delle attuali logiche del copyright dovesse subire una battuta d’arresto. Per questo sorprende – in positivo – l’apertura della Siae alla diffusione telematica delle opere attraverso una semplice dichiarazione dell’autore. Forse un nuovo approccio alla tutela della proprietà intellettuale è alle viste? Nel frattempo, consiglio di non mancare il dibattito on-line che l’Economist sta dedicando al tema, all’insegna della convinzione che «existing copyright laws do more harm than good».