Scienze economiche e statistiche
Permanent URI
Settori scientifico disciplinari compresi nell'area 13:
|
Browse
Browsing Scienze economiche e statistiche by Issue Date
Now showing 1 - 20 of 52
Results Per Page
Sort Options
- PublicationVariable interest consolidation (FASB,FIN 46/R) : valve relevance and empirical consequences on financial reporting(Università degli studi di Trieste, 2008-04-14)
;Valentinis, EdiBini, MauroFASB introduction of FIN 46/R variable interest consolidation model proved revolutionary as it ties up the accounting to the economic/financial frameworks and the judicial one. Legal structures and agreements among stakeholders of entities, creating net assets’ variability, have from now on to be compared with expected losses and expected returns distribution, prior to identify which stakeholder will need to consolidate pursuant this Interpretation. As a result, return variability gains weight in the definition of variable interest entity with consequences still to be completely digested by practitioners and reporting enterprises. Because of the implementation of this Interpretation, consolidation by a party that absorbs most of the entity expected losses will have precedence even over stock-ownership’s control by the parent company (voting rights driven). The revolution though is only meant for a wide, yet selected, subset of entities' classes being securitisations, life and health insurances and governmental organisations aimed for profit, left outside the scope of this Interpretation. Consolidation through variable interest model is the result of four major steps. First alone is the definition of entity, being any legal structure to conduct activities and hold assets. Second, the identification of the variable interests in it, deriving from recognition of the aggregate which fair value changes with changes in fair value of net assets, exclusive of variable interests. These changes in fair value are considered regardless of embedded voting rights; hence, mezzanine finance, preferred stock and any hybrid equity instrument in general need to be detailed in their features prior to taking further decision. Third, the estimate of expected losses and residual returns whose value relevance has been given vast insight in this paper. Fourth and last step, the recognition of the primary beneficiary, when it exists, which is the party that absorbs the greatest share of expected losses and/or that benefits the most from expected residual returns and ultimately, the party that will consolidate the variable interest in object. Throughout the variable interest consolidation process, the concept of ‘equity at risk’ is introduced by FASB to define which is the effective portion of equity that absorbs variability created by net assets of the variable interest entity. Notwithstanding an introduced sufficiency test, aimed at deducting from US GAAP equity, all components that are not legal obligations to capitalise the entity, still difficulties exist. This is due to a series of exclusions namely; legal equity is to be deducted of fees, loans or guarantees thereof, shares issued in exchange of subordinated interests in other VIEs shall be subtracted as well from equity at risk, in the end also investments to be considered non significant shall be deducted. In this regard, valuations are either explicitly or implicitly to be done at fair value, hence book values need to make room for financial analysis giving in this respect value relevance to the Interpretation. The ‘equity at risk’ concept is the result of deductions that run through both sides of the balance sheet. Particular judgment shall be used in evaluating guarantees and other off-balance sheet obligations. This paper takes also in consideration the test proposed by FASB for ‘non significant investments’ proposing a refined method to reduce variability in interpretative judgment by the reporting entity. Furthermore, FASB identifies a new category of VIEs: variable interests in specified subset of assets of a VIE (i.e. a guarantee) which can be treated as distinctive VIEs by FASB only if the fair value of the same assets is greater than 50% of the whole fair value of the entity. If so happens, then equity at risk is to be deducted accordingly and expected losses/residual returns (EXLS/EXRR) of this subset of assets is not considered for sake of determining the primary beneficiary. The distinct VIE, which in accounting goes also under the name of Silo, will have to be treated separately as another VIE. From this analysis on assets and financial structure, which is derived from CON 6, FASB correctly deconstructs the accountancy legacy notion of control by segregating the decision making ability on the VIE from the variability absorption rights and obligations. The former, given by the financial decisions on VIE’s financial structure and by investment on net assets, the latter dictated by obligation to fund losses and to receive residual returns, i.e. by assigning the right to receive future residual returns and the obligation to make future capital contributions. Under a valuation viewpoint, assets and liabilities of newly consolidated VIE are measured at fair value while the ones already pertaining to a primary beneficiary, which is already a parent, remain reported at carrying value being already in the consolidated balance sheet of the controlling company. FIN 46/R in this way allows goodwill to be recognised for acquisitions of VIEs, which constitute businesses for use in this Interpretation. If the consideration paid for the VIE interest (carrying value plus premium/discount) is instead lower than the fair value of its net assets at consolidation, then a decrease in value of the newly consolidated assets shall be reported. Exception is made by cash & marketable securities, tax assets, post retirement plans and the likes. In this regard VIEs, which are not businesses will originate extraordinary gains or losses accordingly, in case of extraordinary gains, the value of the newly acquired assets is stepped-up pro quota. While FIN 46/R valuation principles of expected losses, expected residual returns and definition of balance sheets arising from VIE consolidation, resides on fair values, practitioners and reporting enterprises alike base their forecast from use of private information. This in turn, gives birth to entity-specific values, which take into account private information comprising of entity plans and current competitive strategy, which are a function of present industry positioning. Part of the process in determining EXLS/EXRR and the existence or not of a primary beneficiary, in line with the variable interest consolidation model, is to go through a profit variability analysis to be done through discounted cash flow models. To try to shed some more light on this regard we have first refreshed the mathematics of series of random variables with the objective to estimate VIEs’ expected cash flows of income. VIEs are generally modelled as a random variable with statistic mean different from statistic mode, a fact omitted in some passages of FIN 46/R exposition. Subsequently we have underlined that the variability of returns is directly related with the interval of confidence set for distribution functions representing random variables when computing the reporting entity forecast of expected variability. The potential deadlock could be widening when different interest holders are implementing different modelling of the reporting entity which yield to different results, but still acceptable under the Interpretation prescriptions. FASB introduction of non-previous US GAAP measures like EXLS/EXRR are, as we believe, in need to be backed up by a more robust theoretical framework. To do so, we needed to characterise the choice of the discount rate. In this framework, we have once again taken the theoretical basis of cost of capital, highlighting the equivalence of the results of other methods; including pros and cons of the utility functions and certainty equivalence method and the risk adjusted probability method. We have then given evidence on why FASB should use the cost of capital method as the discount rate to compute income variability together with income streams. In fact, by using the cost of capital method, and the WACC deriving from CAPM, all financial risk is embedded in the discount rate leaving the reporting enterprise free to express in the books the operational risks known or of most suitable estimation. Nowadays marginal cost of debt and market value of equity are used in common practice, according with CAPM theory, and have their use extended to private businesses. The cost of capital for private enterprises make use of sensitivity correlation coefficient of the enterprise return over the market return (beta coefficient) are of difficult estimate for private entities although betas can be computed in a number of ways using assumptions which are proper of the enterprise and its industry peers. To close the chapter related to valuation, finally we have focused on how these methodologies are being implemented by corporate America realising that the fears for value relevancy and hardship in tailoring the application to the single entities is a shared feeling and still a process far from crystallisation. In particular, FASB does not impose a clear conversion from book values to either fair values or value-in-use ones. It neither rules out the use of different valuation methods, if not for particular aspects treated within its FSP 46/R-S, in the exercise of computation of expected variability, which we have to recognise has not been proper of the accountancy function until lately. This thesis proposes an algorithm that goes in detail in the application of FIN 46/R for a reporting enterprise taking into account all possible interrelations among interest holders and distinct interest in subset of assets. The algorithm brings to light the weaknesses in application of the Interpretation caused by potential interrelations between expected losses assessment and variable interests in specified assets, wherever the fair value of these is more than 50% of net assets, i.e. distinctive VIEs. The algorithm, despite being in line with FIN 46/R prescriptions, does not cope with situations of cross default of related parties’ investors in the same VIE. However while the application of a cause and effect model is not always possible we think increased consolidation constraints would highly reduce these possibilities. In the process for determining if the reporting entity is a VIE, FASB develops also the ‘at risk’ test, highlighting once again the relevant weaknesses of the concepts of ‘previous ability to finance operations without subordinate financial support’ and ‘comparability with other similar entities which autonomously finance themselves without subordinated support’. We believe that the "at risk test" should only be a numeric test to iron out misinterpretations and gain relevance in consistency. FASB introduction of an exclusion sufficiency test to exclude variable interests for being classified as VIEs leaves, in our opinion, some uncertainties to the ‘participation in VIE design’ concept or to the ‘non significant interest’ one. This test, we believe, ought not to be a determinant factor, the level of polarisation of risk/reward of the consideration should instead be the sole paramount predictor for exclusion. As far as the conditions used to determine if the entity has sufficient equity to sustain its operations without financial support, the condition sine qua non of the minimum 10% of equity value over total assets, coupled with the triad of valuation methods proposed by FASB, should have been more stringent and concise in its ruling. In fact, these methods leave again interpretative flexibility about the inputs used to demonstrate sufficiency. From a thorough profit variability analysis the thesis compares how the responsibilities and efforts to cope with FIN 46/R requirements are distributed among VIE stakeholders, namely auditors, reporting enterprises, standard setters and regulators. This has been done comparing the use of CON 7 approach to the traditional cost of capital approach used in corporate finance. Furthermore, we have put in evidence that by implementing FIN 46/R VIEs entities tend naturally to overstate income variability valuations, being income streams discounted at Rf, heightening capital requirements. We would like to close by making a forecast on long-term developments that we envisage this Interpretation will bring forward, by starting to think on which are the VIEs stakeholders that are bound to be the most disadvantaged. This is again the class of primary beneficiaries of smaller sizes, which will have either to recourse to more lending to cover for capitalisation requirements and increased financial leverage, or face financial distress. Both cases are precursors to industry consolidation and forebears of globalisation, while the class most favoured will be the banking industry.1940 3246 - PublicationDa DAF a CFO: perché la funzione AFC assume carattere di indirizzo strategico anche nell'impresa italiana(Università degli studi di Trieste, 2008-04-14)
;Gori, Leonella ;Dallocchio, MaurizioDallocchio, MaurizioLa tesi sviluppa il tema dell’evoluzione della professionalità amministrativo-finanziaria nel nostro Paese, alla luce delle nuove esigenze emerse nel mondo imprenditoriale e nel sistema produttivo italiano. Una breve prospettiva storica introduce l’argomento, corredata da una review bibliografica della letteratura finanziaria sull’argomento. • Segue una disamina dell’evoluzione, anche normativa, in Italia e nei Paesi anglosassoni in tema di competenze e attività richieste a chi opera nell’area finanziaria con riferimenti alla nuova legge sul risparmio, al Sarbanes Oxley Act e a Basilea 2. • La tesi esplicita i risultati di una survey presso esponenti di spicco dell’area finanziaria in aziende domestiche di grande dimensione, per lo più quotate. Il tema trattato è rilevante anche alla luce dei più di trenta workshop organizzati nel solo 2007 in Italia aventi ad oggetto tali studi, con la partecipazione di personalità di rilievo del mondo sia accademico sia professionale.1757 6700 - PublicationL'impresa familiare :modello di governance vincente? Una verifica empirica sulle imprese italiane quotate.(Università degli studi di Trieste, 2008-04-14)
;Morresi, OttorinoJaccod, PaoloL’obiettivo di fondo del presente lavoro è quello verificare se l’impresa familiare, come struttura proprietaria e di governance, possa costituire una determinante della performance aziendale e, in particolare, della valutazione che il mercato le attribuisce, definita attraverso il market-to-book ratio. L’ipotesi di fondo dalla quale origina lo studio prende le mosse dal complesso di caratteristiche “uniche” che questa forma di governance possiede. Caratteristiche, tanto positive quanto negative, delle quali si vuole analizzare l’eventuale impatto che esse possono avere sulla percezione che il mercato ha dell’impresa. L’indagine è condotta su un campione di 119 imprese italiane quotate non finanziarie, analizzate dal 2000 al 2004, per un totale di 595 osservazioni. Il carattere familiare dell’impresa viene osservato sia sotto il profilo della proprietà che dal punto di vista del coinvolgimento dei familiari nella gestione, attraverso differenti variabili dummy. Oltre alle variabili che identificano l’impresa familiare vengono impiegate diverse variabili di controllo: performance contabile, rischio dell’impresa, età e dimensione dell’impresa, proxy della struttura finanziaria, variabili proxy della potenziale presenza di problematiche di agenzia tra azionisti di maggioranza e minoranza. I risultati mostrano l’esistenza di un legame negativo e significativo tra impresa familiare e performance di mercato, che appare determinato, prevalentemente, dalle imprese familiari che hanno un CEO familiare, le quali mostrano le performance peggiori. L’evidenza, comunque, non appare molto robusta: l’uso di metodi econometrici alternativi confermano la debolezza dell’evidenza.5509 46041 - PublicationDo target prices predict rating changes?(Università degli studi di Trieste, 2008-04-14)
;Pettinato, Ombretta ;Dallocchio, Maurizio ;Dallocchio, MaurizioBonini, StefanoBoth rating agencies and stock analysts evaluate publicly traded companies and communicate their opinions to investors. Empirical evidence indicates that stock prices react to both bond rating changes (at least downgrades) and changes in analysts’ earning forecasts, suggesting that both pieces of information are valuable to investors. While most academic research has been focused on studying the impact of rating actions on bond prices, stock returns or earning forecasts, surprisingly, the relationship between target prices and rating actions has remained essentially unexplored. Our study contribute to the existing literature by providing an evidence, not yet explored, of any anticipation in target prices revision prior to a rating actions, in order to analyze the ability of equity analysts to predict the decisions of the main rating agencies. Moreover, our work is related to the empirical literature that investigates the optimism of analysts’ recommendations and we provide evidence about the mean target price to current price ratio for the Italian market. Using a large and unique database, we find that TP/P ratio over the period 2000-2005 is 1,15, that is target prices are 15% higher than current stock prices. The motivation of this research stems from the empirical evidences that 1) target prices are statements incorporating earnings forecasts, which have proven to be meaningfully correlated with rating actions ,2) target prices revisions are released much more frequently than rating actions 3) downgrades (upgrades) associated with negative (positive) revision of the firm’s prospective cash flows will negatively(positively) affect bondholders and, to a larger extent, equity holders who have secondary claims compared to debt. On the basis of a set of hypotheses, we expect that downgrades can be anticipated by a reduction in target prices and that, in the case of upgrades, the anticipation effect should be more evident. Changes in target prices prior to rating actions are estimated, controlling for the anticipations through watches and the sector of the rated firm. Using a complete and unique data set of rating actions released by Moody’s, Standard & Poor’s and Fitch from 1st January 2000 to 31st December 2005, for the Italian listed firms and for an European sample, we find that positive rating events are anticipated by consistent increases of the target prices released in the four months before the rating action. The evidence is less clear for negative rating events, since significant reductions in target prices are observable only in a shorter window (three months). Our results reflect analysts’ overly-optimistic behavior and the fact that they are less likely to reduce than to increase target prices over time. Results also differ controlling by the sector. Looking at the Italian sample (composed mainly by financial firms) and at the European financial sub sample we find that: target prices reduction prior to a downgrade is highly evident in the financial sector while it is not clear at all for the non financial sector. According to Gropp and Richards (2001) and Schweitzer et al. (1992), we thus observe strong differences between the two groups of issuers (financial and industrial ones). We argue that the different regulatory regimes, which imply different degrees of transparency, could explain the asymmetric behavior of target prices. We finally investigate whether the anticipation of a rating action by a watch list in the same direction, may influence our results. In this paper, we follow Hand et al. [1992] and use credit watches in two ways. First, we examine changes in target prices around credit watches, testing whether they contain relevant market information. Second, we use them as a means of distinguishing between contaminated and uncontaminated ratings changes. As in Hand et al. [1992] we argue that a ratings change that is preceded by a ratings watch in the same direction should be largely anticipated and, hence, should be associated with significant changes in target prices. Comparing the average change in target price for contaminated versus uncontaminated rating actions, we find that contaminated downgrades show more pronounced reductions in target price over time while there is no significant difference for upgrades. This difference can be explained according to whether or not the watch list was released during the four months prior to the rating action, corresponding to our observation window. Since watch lists are usually released on average three months before the downgrade, they fall into our observation window, bringing with them a further reduction in target price. Overall, the results suggest that target prices may perform a useful role in anticipating rating changes and confirm prior evidence that rating actions can be predicted from publicly available information, at least for financial sector. The remainder of this work is organized as follows. Chapter 1 discusses the main informational content of ratings, rating criteria and procedures. Following that, in Chapter 2, we examine the main content of reports on Italian stocks, to find out the evaluation method used to get the final recommendation and the main differences between analysts’ justifications for reports that disclose target prices versus those that do not. The different disclosure levels of target prices across stock recommendations suggest that analysts are more inclined to provide them when their recommendations are more favorable (i.e., Buy or Strong Buy) than they are when their recommendations are less favorable (i.e., Hold). Finally, in Chapter 3, we investigate whether ratings actions can be predicted from publicly available information by examining any target price changes prior to the rating action, on the basis of a set of hypotheses to be tested. The research design and methodology are described in Chapter 3, along with the main conclusions of the empirical evidence. The work closes with a summary and suggestions for future research.1290 4208 - PublicationOttimizazione del portafoglio con strategie passive:un'applicazione degli algoritmi di threshold accepting.(Università degli studi di Trieste, 2008-04-14)
;Bjelanovic, Karla ;Fanni, MaurizioInvernizzi, SergioPer una comprensione pi`u immediata del problema in questione, in questa tesi si `e scelto di ridurre al minimo le variabili, escludendo in tal modo elementi secondari quali ad esempio i costi di transazione ed i lotti minimi. La stuttura del lavoro svolto tuttavia lascia aperta la possibilit`a, in un secondo tempo, di considerare nel calcolo anche tali variabili. Considerata la complessit`a del problema in oggetto, la scelta di un algoritmo euristico come strumento di risoluzione `e risultata obbligata. I pi`u efficaci tra i diversi tipi di algoritmi euristici sono risultati essere gli algoritmi genetici (cf J.E. Beasley et al., An evolutionary heuristic for the index trackingproblem, European Journal of Operational Research 148: 621–643, 2003) e l’algoritmo di threshold accpeting (cf. Gilli, M. and E. K¨ellezi 2001., Threshold Accepting for Index Tracking: University of Geneva, Switzerland). Di conseguenza, seguendo in particolare Gilli, si `e deciso di adottare, per la risoluzione numerica del problema di ottimizzazione il threshold accepting (TA). La definizione delle linee guida di questo algoritmo sono state ricalcate da quelle elaborate da Gilli e Winker (cf. Gilli, M. e P. Winker 2007., Heuristic optimization Methods in Econometrics: University of Geneva, Switzerland and University of Giessen, Germany.), con l’introduzione di alcune varianti che si sono dimostrate particolarmente significative. L’algoritmo euristico, infatti `e stato raffinato aggiugendo una parte finale che consiste nell’applicazione di un metodo classico di ottimizzazione locale. Questa operazione ci ha consentito di raggiungere il primo risultato principale della tesi. In pratica, l’ottimizzazione locale ha consentito di individuare il fenomeno dei minimi che si trovano sul bordo dell’insieme ammissibile. La conclusione che si evince `e la seguente: nella costruzione di un portafoglio ridotto di titoli che ha il fine di replicare un determinato indice non sempre risulta efficace l’inclusione di un insieme allargato di elementi; al contrario si `e verificato che l’aggiunta di un titolo poco significativo pu`o peggiorarne l’azione di tracking dello stesso indice. Viene confermata, quindi, matematicamente la supposizione di alcuni analisti (cf. Elton, E. J. e Gruber M. J., Brown, S. J. and Goetzmann, W. N. 2003., Modern Portfolio Theory and Investment Analysis: Wiley and Sons, Inc., Hoboken, NJ, 6th edn.) che la diversificazione del portafoglio pu`o essere raggiunta con un numero piuttosto basso dei titoli se questi sono ben scelti. In altre parole, la diversificazione del portafoglio non dipende dalla quantit`a dei titoli al suo interno, ma dalla loro “qualit`a”. Il secondo risultato ottenuto `e rappresentato dalla capacit`a dell’algoritmo nel determinare se all’interno di un indice oggetto vi siano delle componenti dominanti: una componente di un indice `e dominante se, intuitivamente, si trova sempre presente nei portafogli di cardinalit`a bassa che riproducono l’indice. In tal caso per giungere alla loro individuazione `e sufficiente verificare la loro presenza ed il loro peso nei vari portafogli prodotti dall’algoritmo. Ad esempio il fatto che l’indice azionario Hang Seng (Borsa di Hong Kong), sia dominato da alcune sue componenti (HSBC e China Mobile) `e ben noto agli analisti,che riconducono al comportamento dinamico di questi titoli la maggior parte dei movimenti dell’indice. L’output grafico rappresentato nella Figura 1, ottenuto utilizzando i risultati dell’elaborazione dell’algoritmo threshold accepting per replicare l’indice Hang Seng con soli 7 titoli, evidenzia il concetto delle componenti dominanti. Questo grafico rappresenta una matrice “a barre” di 500 righe e 38 colonne. Le colonne da 1 a 38 corrispondono ordinatamente alle 38 componenti di Hang Seng utilizzate per l’esecuzioni dell’algoritmo. Ogni riga corrisponde ad una esecuzione del programma e rappresenta in un codice-colore il portafoglio ottimo con numero titoli n = 7 fornito da quella esecuzione. Le 31 componenti assenti (cio`e le componenti con peso uguale a 0) sono rappresentate nello sfondo verde, le 7 componenti scelte con una barra in una scala di grigio proporzionale al suo peso (pi`u scuro = pi`u peso). Le esecuzioni sono ordinate per valori crescenti della funzione obiettivo, per cui il portafoglio ottimo fornito dal complesso delle 500 esecuzioni `e quello della riga uno. Si nota come al decrescere della funzione obiettivo si evidenziano sempre pi`u le bande delle componenti dominanti numero 28 e 38. L’istogramma del peso medio, nella Figura 2, rappresenta il peso medio delle 38 componenti nelle migliori 100 delle 500 esecuzioni. Le componenti sono elencate in ascissa per peso medio decrescente. Si osserva come le componenti dominanti cio`e le componenti 28 e 38 abbiano nelle migliori 100 esecuzioni un peso medio rispettivamente del 24.42% e del 15.41%, dove con esecuzioni migliori si intendono quelle con funzione obiettivo pi`u bassa. Le successive 5 componenti pi`u pesanti sono le componenti numero 30, 35, 26, e 21 con pesi rispettivi 5.58%, 4.47%, 3.86%, 3.26% e 3.15%. Non sono state rilevate componenti dominanti nell’indice S&P 100, mentre lle analisi sembrano indicare che ce ne siano nel MIB 30, meno significative rispetto al caso di Hang Seng. Durante la stesura della tesi, discutendo con alcuni gestori di Allianz S.p.A., si `e evidenziato che questo algoritmo potrebbe avere anche delle applicazioni utili nella gestione attiva. Nelle fasi di mercato particolarmente volatile, la maggior parte dei gestori preferisce assumere una posizione pi`u in linea con il mercato evitando, quindi, esposizioni concentrate su particolari titoli con il rischio di subire maggiori perdite. Con questo tipo di strumento a disposizione, vi sarebbe la possibilit`a di implementare tale strategia difensiva allocando gran parte del capitale in un numero ridotto di titoli altamente correlati con il mercato, senza necessariamente coprire tutte le posizioni del benchmark. TA `e un algoritmo euristico di ottimizzazione di recente introduzione, ed `e sostanzialmente una versione modificata e semplificata dell’algoritmo di simulated annealing. Come tutti gli euristici, anche TA parte da una soluzione ammissibile e cerca di migliorarla esplorandone un opportuno intorno. L’algoritmo termina quando non `e pi`u possibile trovare delle soluzioni migliori nell’intorno della soluzione corrente, ovvero dopo un prefissato tempo di calcolo o un prefissato numero di operazioni. Per sfuggire alle trappole dei minimi soluzioni locali, durante l’esecuzione dell’algortimo, TA “accetta” anche i movimenti in direzione opposta a quella della minimizzazione (uphill moves) purch´e non superino una certa “soglia” (da cui il nome threshold accepting).Come linguaggio di programmazione `e stato scelto il pacchetto statistico R (www.r-project.org). Il pacchetto statistico R sta diventando lo standard per la analisi dei dati in ambito accademico (e non solo). La sua caratteristica di essere liberamente disponibile ed open–source fa s`ı che i risultati di un lavoro di ricerca sviluppato in R siano verificabili da chiunque intenda effettuare un controllo per dare una valutazione del lavoro. A svantaggio, va riportato che di norma R richiede pi`u tempo di cpu rispetto a linguaggi come C++, ma, a posteriori, questo svantaggio `e minimo in quanto come si vedr´a i tempi tipici di esecuzione sono dell’ordine dell’ora (la workstation usata da J.E. Beasley et al. aveva tempi simili). In sostanza si `e privilegiata la trasparenza e la comprensibilit`a del codice rispetto alla sua efficienza (che `e un obiettivo che pu`o essere raggiunto in seguito). L’implementazione effettiva ha utilizzato tre indici di riferimento. Il primo indice scelto `e S&P 100 (meno volatile,composto da n = 100 titoli, ticker Bloomberg OEX Index). Il secondo indice `e Hang Seng (pi`u volatile, 4 composto da n = 40 titoli, ticker Bloomberg HSI Index). Il terzo indice scelto `e MIB 30 (media volatilit`a, 5 composto da n = 30 titoli, ticker Bloomberg MIB30 Index). I dati utilizzati sono i prezzi settimanali medi del 2006 e 2007 come scaricati da Bloomberg. Nell’implementazione, usando i dati di tutto il 2006 (in–sample) viene selezionato, utilizzando il codice in R, un portafoglio con un ridotto numero k di componenti (tipicamente 5 <= k <= 10) appunto per ridurre i costi di transazione. Si immagina poi di investire un capitale fissato convenzionalmente pari a 1000 in data 01/01/2007. Poi, con i dati del 2007, viene confrontato l’andamento di questo portafoglio rispetto all’indice (out–sample). I risultati appaiono molto confortanti in quanto, secondo la simulazione, il ribilanciamento del portafoglio selezionato andrebbe di norma effettuato dopo il primo trimestre 2007, ma basterebbe per questo far rigirare il programma.Il codice `e stato per scrupolo provato sutre tipi diversi di sistemi operativi (Mac OSX, Windows XP, Solaris 10) che supportano R. L’output `e di tipo testuale (viene fornita la composizione del portafoglio “ottimo”), ma anche grafico. Per un esempio di output grafico si veda Figura 3. Durante tutta la stesura della tesi `e stato fatto un notevole lavoro di ricerca bibliografica. Essendo il tema di ricerca relativamente recente, il materiale bibliografico necessario non era facilemente reperibile, soprattutto per i due testi fondamentali. Uno di questi (cf. Maringer, D. 2005. Portfolio Management with Heuristic Optimization), del quale esistono solo due copie in Italia, `e stato ottenuto con il prestito interbibliotecario di Ateneo. L’altro, invece,(cf. Winker, P. 2001. Optimization Heuristics in Econometrics: Application of Threshold Accepting) `e stato acquistato a Londra.1837 13124 - PublicationCredit rating ed il ruolo delle ECAI nell'approccio standard(Università degli studi di Trieste, 2008-04-14)
;Paparotti, DanieleCappelletto, RobertoNel lavoro viene dato risalto alla nuova figura delle agenzie esterne per la valutazione del rischio (External Credit Assessment Institutions - E.C.A.I.) e soprattutto si dimostra come importante sia stato il lavoro di definizione delle caratteristiche che le stesse devono possedere per poter essere riconosciute dall'autorità di vigilanza. Si evidenziano le scelte fatte dall'organismo di vigilanza nazionale e come tali scelte verranno ad incidere sull'operatività delle E.C.A.I. e sulla loro capacità di assegnare rating. Attraverso quest'evoluzione del cammino normativo viene descritta quale sia oggi, ma soprattutto quale possa essere, il mercato del rating (in particolare in Italia). Sempre in tema di definizione dei confini di operatività di tali agenzie vengono delineati e discussi gli steps fondamentali che le stesse debbono intraprendere al fine del processo di riconoscimento. L'ultima parte del lavoro indaga i possibili risvolti che l'applicazione della metodologia standard potrebbe avere sul mondo del credito. L'obiettivo, in questo caso, è dimostrare come una sistematica adozione del metodo standard possa permettere, allo stesso mondo bancario, una maggiore conoscenza del reale profilo di rischio dei portafogli di esposizioni delle banche.1282 15745 - PublicationEvolutionary computation for trading systems(Università degli studi di Trieste, 2008-04-14)
;Kaucic, MassimilianoMillossovich, PietroEvolutionary computations, also called evolutionary algorithms, consist of several heuristics, which are able to solve optimization tasks by imitating some aspects of natural evolution. They may use different levels of abstraction, but they are always working on populations of possible solutions for a given task. The basic idea is that if only those individuals of a population which meet a certain selection criteria reproduce, while the remaining individuals die, the population will converge to those individuals that best meet the selection criteria. If imperfect reproduction is added the population can begin to explore the search space and will move to individuals that have an increased selection probability and that hand down this property to their descendants. These population dynamics follow the basic rule of the Darwinian evolution theory, which can be described in short as the “survival of the fittest”. Although evolutionary computations belong to a relative new research area, from a computational perspective they have already showed some promising features such as: • evolutionary methods reveal a remarkable balance between efficiency and efficacy; • evolutionary computations are well suited for parameter optimisation; • this type of algorithms allows a wide variety of extensions and constraints that cannot be provided in traditional methods; • evolutionary methods are easily combined with other optimization techniques and can also be extended to multi-objective optimization. From an economic perspective, these methods appear to be particularly well suited for a wide range of possible financial applications, in particular in this thesis I study evolutionary algorithms • for time series prediction; • to generate trading rules; • for portfolio selection. It is commonly believed that asset prices are not random, but are permeated by complex interrelations that often translate in assets mispricing and may give rise to potentially profitable opportunities. Classical financial approaches, such as dividend discount models or even capital asset pricing theories, are not able to capture these market complexities. Thus, in the last decades, researchers have employed intensive econometric and statistical modeling that examine the effects of a multitude of variables, such as price- earnings ratios, dividend yields, interest rate spreads and changes in foreign exchange rates, on a broad and variegated range of stocks at the same time. However, these models often result in complex functional forms difficult to manage or interpret and, in the worst case, are solely able to fit a given time series but are useless to predict it. Parallelly to quantitative approaches, other researchers have focused on the impact of investor psychology (in particular, herding and overreaction) and on the consequences of considering informed signals from management and analysts, such as share repurchases and analyst recommendations. These theories are guided by intuition and experience, and thus are difficult to be translated into a mathematical environment. Hence, the necessity to combine together these point of views in order to develop models that examine simultaneously hundreds of variables, including qualitative informations, and that have user friendly representations, is urged. To this end, the thesis focuses on the study of methodologies that satisfy these requirements by integrating economic insights, derived from academic and professional knowledge, and evolutionary computations. The main task of this work is to provide efficient algorithms based on the evolutionary paradigm of biological systems in order to compute optimal trading strategies for various profit objectives under economic and statistical constraints. The motivations for constructing such optimal strategies are: i) the necessity to overcome data-snooping and supervisorship bias in order to learn to predict good trading opportunities by using market and/or technical indicators as features on which to base the forecasting; ii) the feasibility of using these rules as benchmark for real trading systems; iii) the capability of ranking quantitatively various markets with respect to their profitability according to a given criterion, thus making possible portfolio allocations. More precisely, I present two algorithms that use artificial expert trading systems to predict financial time series, and a procedure to generate integrated neutral strategies for active portfolio management. The first algorithm is an automated procedure that simultaneously selects variables and detect outliers in a dynamic linear model using information criteria as objective functions and diagnostic tests as constraints for the distributional properties of errors. The novelties are the automatic implementation of econometric conditions in the model selection step, making possible a better exploration of the solution space on one hand, and the use of evolutionary computations to efficiently generate a reduction procedure from a very large number of independent variables on the other hand. In the second algorithm, the novelty is given by the definition of evolutionary learning in financial terms and its use in a multi-objective genetic algorithm in order to generate technical trading systems. The last tool is based on a trading strategy on six assets, where future movements of each variable are obtained by an evolutionary procedure that integrates various types of financial variables. The contribution is given by the introduction of a genetic algorithm to optimize trading signals parameters and the way in which different informations are represented and collected. In order to compare the contribution of this work to “classical” techniques and theories, the thesis is divided into three parts. The first part, titled Background, collects Chapters 2 and 3. Its purpose is to provide an introduction to search/optimization evolutionary techniques on one hand, and to the theories that relate the predictability in financial markets with the concept of efficiency proposed over time by scholars on the other hand. More precisely, Chapter 2 introduces the basic concepts and major areas of evolutionary computation. It presents a brief history of three major types of evolutionary algorithms, i.e. evolution strategies, evolutionary programming and genetic algorithms, and points out similarities and differences among them. Moreover it gives an overview of genetic algorithms and describes classical and genetic multi-objective optimization techniques. Chapter 3 first presents an overview of the literature on the predictability of financial time series. In particular, the extent to which the efficiency paradigm is affected by the introduction of new theories, such as behavioral finance, is described in order to justify the market forecasting methodologies developed by practitioners and academics in the last decades. Then, a description of the econometric and financial techniques that will be used in conjunction with evolutionary algorithms in the successive chapters is provided. Special attention is paid to economic implications, in order to highlight merits and shortcomings from a practitioner perspective. The second part of the thesis, titled Trading Systems, is devoted to the description of two procedures I have developed in order to generate artificial trading strategies on the basis of evolutionary algorithms, and it groups Chapters 4 and 5. In particular, chapter 4 presents a genetic algorithm for variable selection by minimizing the error in a multiple regression model. Measures of errors such as ME, RMSE, MAE, Theil’s inequality coefficient and CDC are analyzed choosing models based on AIC, BIC, ICOMP and similar criteria. Two components of penalty functions are taken in analysis- level of significance and Durbin Watson statistics. Asymptotic properties of functions are tested on several financial variables including stocks, bonds, returns, composite prices indices from the US and the EU economies. Variables with outliers that distort the efficiency and consistency of estimators are removed to solve masking and smearing problems that they may cause in estimations. Two examples complete the chapter. In both cases, models are designed to produce short-term forecasts for the excess returns of the MSCI Europe Energy sector on the MSCI Europe index and a recursive estimation- window is used to shed light on their predictability performances. In the first application the data-set is obtained by a reduction procedure from a very large number of leading macro indicators and financial variables stacked at various lags, while in the second the complete set of 1-month lagged variables is considered. Results show a promising capability to predict excess sector returns through the selection, using the proposed methodology, of most valuable predictors. In Chapter 5 the paradigm of evolutionary learning is defined and applied in the context of technical trading rules for stock timing. A new genetic algorithm is developed by integrating statistical learning methods and bootstrap to a multi-objective non dominated sorting algorithm with variable string length, making possible to evaluate statistical and economic criteria at the same time. Subsequently, the chapter discusses a practical case, represented by a simple trading strategy where total funds are invested in either the S&P 500 Composite Index or in 3-month Treasury Bills. In this application, the most informative technical indicators are selected from a set of almost 5000 signals by the algorithm. Successively, these signals are combined into a unique trading signal by a learning method. I test the expert weighting solution obtained by the plurality voting committee, the Bayesian model averaging and Boosting procedures with data from the the S&P 500 Composite Index, in three market phases, up-trend, down- trend and sideways-movements, covering the period 2000–2006. In the third part, titled Portfolio Selection, I explain how portfolio optimization models may be constructed on the basis of evolutionary algorithms and on the signals produced by artificial trading systems. First, market neutral strategies from an economic point of view are introduced, highlighting their risks and benefits and focusing on their quantitative formulation. Then, a description of the GA-Integrated Neutral tool, a MATLAB set of functions based on genetic algorithms for active portfolio management, is given. The algorithm specializes in the parameter optimization of trading signals for an integrated market neutral strategy. The chapter concludes showing an application of the tool as a support to decisions in the Absolute Return Interest Rate Strategies sub-fund of Generali Investments.2367 4294 - PublicationLa valutazione finanziaria secondo l'approccio top-down: come scegliere tra differenti mercati, settori e titoli(Università degli studi di Trieste, 2008-04-14)
;Giovannini, Marco ;Fanni, MaurizioTopazzi, RobertoIl presente lavoro, inizia col rintracciare un percorso evolutivo per i metodi finanziari di valutazione delle aziende e termina col mostrare un moderno processo decisionale d’investimento, coerente e razionale con i diversi approcci a disposizione di un analista finanziario. Nonostante siano passati ormai diversi decenni dall’elaborazione delle teorie classiche della moderna finanza d’impresa, il dibattito scientifico dell’ultimo trentennio non ha prodotto modifiche sostanziali al costrutto teorico elaborato dai padri della finanza. Si studieranno quindi da vicino, le diverse soluzioni proposte dai più famosi esperti e se ne mostreranno le principali applicazioni pratiche come tutt’oggi vengono comunemente implementate nella valutazione dei mercati, dei settori o dei titoli azionari. Si offriranno dunque spunti di riflessione e si analizzeranno variabili sperimentali su cui la teoria economica dovrebbe soffermarsi per poter elaborare modelli cognitivi più credibili. Per evidenziare i diversi aspetti che coinvolgono le valutazioni e procedere nella maniera più completa, fornendo un quadro sufficientemente verosimile delle realtà empiriche legate al comportamento dei mercati, ci si servirà del concorso di diverse materie di studio. In particolare verranno seguiti dei percorsi paralleli, attraverso indagini di natura sociale, psicologica, storica, politica, oltre che analiticofinanziaria ed econometrica, per giungere ad una aggiornata diagnosi dei mercati finanziari e poter individuare, considerando anche i nuovi connotati tecnologici dell’economia, le prospettive legate alla borsa per i prossimi anni. L’impiego di strumenti matematici, statistici ed econometrici, infatti, per quanto sofisticato, non riesce da solo a spiegare il complesso eterogeneo di cause inerenti le quotazioni registrate dai titoli azionari nei mercati finanziari, né possono da soli documentare i mutamenti culturali, demografici e sociali che pure sembrano aver giocato un ruolo di primo piano negli sviluppi recenti del mondo della finanza. Diventano quindi fondametali anche gli studi delle “Psicologia della finanzia”, per interpretare comportamenti apparentemente irrazionali che si possono riscontrare nei mercati, soprattutto compiendone letture senza davanti, ampi orizzonti temporali d’investimento ed osservazione. Per capire cosa muove le valutazioni del mercato attuale e in che misura esso rispecchi la teoria dell’efficienza di cui parlano i testi di finanza, si deve procedere come fa uno scienziato che studia un fenomeno empirico. Innanzi tutto si devono analizzare lunghe serie di dati, in grado di definire i limiti all’interno dei quali questo fenomeno si manifesta, ed i comportamenti tipici che questo esibisce, di modo da poterli racchiudere in un modello. In secondo luogo, si devono individuare le componenti più anomale e le deviazioni dal modello. La storia economica è in grado di fornire un ritratto molto utile alla comprensione dei mercati, anche se bisognerebbe poi saperlo interpretare. Uno studioso attento, infatti, dovrebbe essere in grado di dire in quali casi il mercato abbia fatto la storia, ed in quali casi l’abbia subita, ed ancora, quali comportamenti siano da ritenersi fisiologici e quali patologici. Nella prima parte di questo lavoro, sarà nostra intenzione, fornire un excursus sui principali sviluppi che l’interpretazione e lo studio dei mercati finanziari hanno avuto, segnalando tutti i contributi più rilevanti di quasi un secolo di storia. Nel secondo capitolo, cercheremo invece di fornire una panoramica delle iterazioni e dei metodi di analisi che la psicologia sta studiando in questi ultimi anni, per ottenere una spiegazione a fenomeni dei mercati finanziari che la “pura” razionalità economica non è in grado di giustificare. Si partirà quindi da un accertamento degli aspetti sociali e culturali, per poi soffermarsi su un’indagine di natura psicologico-comportamentale in cui si individueranno tutti quei fattori che sono in netto contrasto con l’assunzione di razionalità ed i comportamenti massimizzanti, cui la letteratura economica e finanziaria fanno da sempre riferimento, giungendo a tracciare un profilo degli operatori piuttosto instabile ed irrazionale. Nel terzo capitolo, presenteremo le diverse tipologie d’indagine che un analista deve seguire per addivenire ad un’analisi completa ed equilibrata della reale situazione in cui si trova una società, considerando sia l’ambiente macroeconomico e settoriale nel quale si colloca, sia la principali variabili microeconomiche che ne guidano lo sviluppo. Conseguentemente si proporrà un’analisi dei cicli economici utile ad individuare il mercato di questi anni all’interno di periodiche oscillazioni secolari come quelle scoperte da Kondratieff ed altri studiosi, e che il pendolo della storia sembra scandire con devota puntualità. Questi infatti, sembrano essere entrambi fenomeni con cui la teoria dell’efficienza dovrebbe misurarsi, perché costituiscono una forma di prevedibilità, anche se su orizzonti temporali estesi. Nel quarto capitolo, procederemo col mostrare le più comuni tecniche di analisi fondamentale che si usano nella prassi per svolgere previsioni sui fondamentali di una società, allo scopo di calcolarne “un prezzo equo” e poterlo così confrontare con la quotazione che la stessa assume costantemente sul mercato finanziario, oltre che poter prendere decisioni d’investimento con la massima consapevolezza e razionalità economica. Infine nell’ultimo capitolo, mostreremo quale secondo noi, dovrebbe essere un processo d’investimento “razionale”, che riesca a “collegare” tutti gli approcci a disposizione dell’analisita fondamentale, come abbiamo pesentato nel corso dell’opera. Non è stata nostra intenzione focalizzarci troppo sulla scoperta del sistema di screening dei titoli azionari presentato nell’ultimo capitolo, nonostante i risultati dimostrati, lascino pensare che un sistema del genere possa ssere autosufficiente per intraprendere scelte d’investimento corrette e razionali sui mercati analizzati. Questo perché non vogliamo fornire l’idea che un tipo di analisi del genere, seppur fondata su di un modello di comprovata efficacia, possa convincere l’investitore che un adeguato processo d’investimento si basi su singoli strumenti del genere; nostro obiettivo, è quello di mostrare un processo razionale che chiunque operi nei mercati finanziari dovrebbe intraprendere, se intenzionato ad investire seguendo i possibili e variegati approcci a disposione dell’analista fondamentale. La nostra intenzione infatti, sarà quella di mostrare un ordine logico di pensiero, procedendo secondo il quale, l’analista dovrebbe essere in grado di non incorrere in valutazioni incoerenti o slegate del ciclo economico, che guida l’economia e quindi indirettamente, le valutazioni stesse. Così facendo, crediamo che un operatore dei mercati finanziari, possa minimizzare i rischi di arrivare a definire valutazioni “gonfiate” da eventi esogeni, ma piuttosto riuscire a “interpretare” certe eventuali manifestazioni alla luce del contesto in cui si realizzano, per essere pronto ad intervenire nella maniera più opportuna sui mercati, seguendo le scelte operative più razionali e coerenti con i reali valori in gioco. Siamo dell’idea, che la molteplicità di contributi, non faccia che arricchire le nostre conoscenze, soprattutto di fronte al “panorama di ombre” che ci troviamo ad affrontare, ogniqualvolta ci venga l’idea di procedere con degli investimenti rischiosi e dall’incerto destino. Speriamo quindi che al termine di questo lavoro, un qualunque lettore possa apprezzare e condividere il nostro punto di vista.2014 15809 - PublicationIl rating dei titoli obbligazionari.Recenti contributi ed evidenza empirica sulle emissioni nell'area Euro.(Università degli studi di Trieste, 2008-04-14)
;Nogherotto, GiuliaFanni, MaurizioQuesto studio nasce da molteplici curiosità. In primo luogo, in seguito ad uno studio che avevo condotto nel 2005 sul tema del credit spread e della sua difficoltosa scomposizione in diversi elementi di remunerazione per l’investitore, posso affermare di aver sviluppato un particolare interesse sul tema e il desiderio di approfondire ulteriormente la materia anche attraverso un’applicazione empirica su dati reali. Lo studio condotto nel 2005 mi aveva portato, grazie al sostegno e all’appoggio del prof. In secondo luogo, i numerosi approfondimenti condotti durante gli anni del Dottorato sul tema di Basilea 2 e del rating mi hanno portato a sviluppare una certa curiosità scientifica con riferimento alle procedure di rating per assegnare un giudizio di merito ai singoli titoli obbligazionari sviluppate dalle agenzie e tuttora in via di definizione nonché con riguardo al tema della perdita inattesa che grava su un credito. L’argomento della perdita inattesa è stato posto sotto i riflettori con particolare riguardo alle metodologie di tutela nei confronti del rischio sviluppate in un’ottica prudenziale dagli istituiti di credito. Minore attenzione è stata rivolta allo stesso argomento se sviluppato però con riferimento alla perdita inattesa sopportata da un investitore in strumenti obbligazionari sui mercati finanziari. Di conseguenza ho voluto esaminare il problema per pormi delle domande e cercare delle soluzioni coerenti con l’evidenza empirica e la letteratura scientifica esistente sul tema. Il primo Capitolo di questo studio è dedicato ad una descrizione sintetica della tipologia di strumento finanziario oggetto della ricerca: il corporate bond. Si definiscono brevemente alcuni concetti fondamentali inerenti la valutazione dei titoli obbligazionari, le diverse categorie di emissioni, la stima dei rendimenti e dei prezzi. Nella seconda parte del Capitolo si procede con una descrizione congiunturale del mercato obbligazionario a livello europeo e italiano con dati aggiornati a gennaio 2008. In questa parte della tesi vengono anche descritti gli steps che hanno determinato lo sviluppo del mercato europeo dei corporate bonds negli ultimi anni. Infatti, l’introduzione della moneta unica europea, le crescenti esigenze di finanziamento delle grandi aziende di telecomunicazioni e la grande migrazione degli investitori dagli ambienti turbolenti dei mercati azionari a quelli più sicuri del reddito fisso, hanno rappresentato alcune delle principali ragioni dello sviluppo del mercato dei corporate bonds in Europa nei primi anni del nuovo secolo. La disamina di argomenti che si presentano, nella maggior parte dei casi, noti al più vasto pubblico, risulta funzionale all’introduzione di determinate tematiche che verranno approfondite nei Capitoli successivi del testo. La parte di descrizione sull’andamento dei mercati finanziari nel 2007 presenta dei caratteri di originalità dal momento che assembla informazioni difficilmente reperibili assieme e soprattutto in lingua italiana. Il Capitolo si chiude con una descrizione a carattere divulgativo delle varie fasi di diffusione della crisi internazionale dei mutui subprime (tale descrizione, tuttavia, non vanta pretese di esaurire la trattazione dell’argomento). Nel secondo Capitolo vengono descritte le metodologie utilizzate dalle principali agenzie di rating internazionali per rilasciare giudizi di rating in relazione ad una specifica emissione di debito (issue-specific credit ratings). In particolare vengono esaminate le procedure sviluppate da Standard&Poor’s e da Moody’s. Con riferimento alla metodologia di Moody’s si descrive la determinazione della perdita attesa su emittenti ed emissioni da parte dell’agenzia e l’impianto utilizzato al fine di passare dai giudizi di perdita attesa assegnati agli emittenti di debito ai giudizi di perdita attesa (e dunque ai rating) assegnati ai singoli strumenti di debito sulla base dei seguenti fattori: a) capacità dell'emittente di soddisfare gli impegni finanziari presi nei termini concordati; b) natura dell'impegno finanziario e delle relative garanzie accessorie (se ci sono); c) protezione e posizione relativa dell'obbligazione nei confronti di altre emissioni della stessa società. Nel terzo Capitolo si definisce il concetto di rischio di credito secondo le sue diverse accezioni (rischio di default, rischio di migrazione, rischio di recupero, rischio di esposizione, rischio di spread). Successivamente si procede con una descrizione delle componenti della perdita attesa e si introduce il concetto di perdita inattesa sul credito. L’accordo internazionale di Basilea 2 ha messo molto in risalto la necessità di determinare, nell’ambito di un sistema prudenziale volto alla massima tutela sui crediti, una quantificazione della perdita inattesa in maniera da consentire all’investitore (banca) di effettuare idonea copertura. All’interno del sistema bancario tale copertura viene effettuata attraverso gli accantonamenti di capitale e in conseguenza attraverso il pricing dello strumento finanziario (nel rendimento deve essere inclusa la remunerazione del capitale di rischio posto in garanzia del prestito). Ci si chiede quali siano le regole di valutazione della perdita inattesa sul mercato obbligazionario e se essa venga presa in considerazione ai fini del pricing degli strumenti obbligazionari che vengono quotidianamente trattati sulle piazze finanziarie. Con riguardo alla definizione della perdita attesa e delle sue componenti ci si sofferma in particolare sulla metodologia utilizzata dall’agenzia internazionale di rating Moody’s. La probabilità di insolvenza viene espressa dall’agenzia mediante i cosiddetti tassi di insolvenza (o default rates), annui o cumulati: essi rappresentano il rapporto tra il numero di defaults manifestatisi nel corso dell’orizzonte temporale prescelto per gli emittenti appartenenti ad un determinato gruppo (costruito sulla base della classe di rating, dell’area geografica, o del settore produttivo di appartenenza), e il numero dei soggetti appartenenti a quello stesso gruppo all’inizio dell’orizzonte temporale considerato. I tassi di recupero sul prestito vengono invece stimati utilizzando il rapporto tra il prezzo bid del titolo insoluto osservato 30 giorni dopo il verificarsi del default e il valore nominale del titolo stesso: la ragione dell’utilizzo, ai fini del calcolo del tasso di recupero, del valore di mercato del titolo osservato poco dopo il manifestarsi dell’insolvenza risiede nel fatto che tale prezzo rappresenta il valore effettivamente recuperato per gli investitori che abbiano liquidato le proprie posizioni in seguito al manifestarsi dell’insolvenza, mentre fornisce una stima largamente accettata del valore attuale dell’importo che verrà effettivamente recuperato al termine delle procedure concorsuali per gli investitori che continuino a detenere i titoli insoluti. Dalla combinazione di queste quantità deriva la determinazione della perdita attesa su un prestito. Come viene descritto nel Capitolo, la perdita attesa rappresenta però solo la media della distribuzione delle perdite realizzabili su un investimento in titoli di debito. La componente attesa della perdita viene normalmente riflessa sul costo del finanziamento (tasso di rendimento pagato dall’emittente di strumenti di debito all’investitore) e rappresenta, a livello di portafoglio di attività, una dimensione sistematica del rischio di credito. Tale dimensione di rischio sorge in contropartita ad una misura di rendimento per l’investitore che, pretendendo una remunerazione sul suo investimento, si tutela di fronte alla probabilità di insolvenza del soggetto finanziato. La perdita inattesa tende invece, come è stato detto, a misurare il grado di variabilità del tasso di perdita attorno al proprio valore atteso. Con riguardo ai prestiti obbligazionari ci si chiede a questo punto in che misura i rendimenti offerti sul mercato, analogamente a quanto avviene all’interno del sistema bancario nel momento in cui viene determinato il pricing su un prestito, tengano in considerazione della perdita inattesa. Per verificare in che misura venga stimata la perdita inattesa sul mercato dei corporate bond e come una remunerazione a fronte di tale possibilità di perdita sia inclusa nei rendimenti dei titoli, è stata predisposta l’analisi empirica che viene descritta nel Capitolo 4. Nel quarto Capitolo si introduce quindi l’argomento del credit spread sui titoli obbligazionari (il credit spread viene definito nelle sue diverse accezioni) e si presenta una descrizione degli studi che sono stati condotti negli ultimi anni soprattutto negli Stati Uniti ai fini di determinarne le componenti. Nella seconda parte del Capitolo viene descritta l’applicazione che è stata effettuata sulle serie storiche di dati desunti dal mercato europeo. In particolare nella simulazione si è provveduto a determinare i credit spread su un indice di titoli obbligazionari (MAGGIE – Credit Index) che si presenta segmentabile sulla base di due diverse classificazioni: per settore e per classe di rating. In un secondo momento si è individuata poi la prima componente di remunerazione sui titoli a fronte della perdita attesa calcolata sulle posizioni di credito. Per fare questo si sono utilizzate delle stime sui tassi di insolvenza e sui tassi di recupero desunte dalle agenzie internazionali (Moody’s) in quanto si suppone che tali informazioni, essendo pubbliche, vengano incorporate in tempo reale nei prezzi dei titoli. Lo studio è stato condotto in applicazione di metodologie sviluppate in alcuni papers realizzati negli Stati Uniti e in Italia con riferimento a dati americani. L’intento è stato quello di replicare l’analisi su dati europei. Nel quinto Capitolo si sposta l’attenzione del lettore sulla tematica della diversificazione del rischio di default in conseguenza alle considerazioni fatte nel Capitolo precedente. Dall’analisi dei rendimenti degli indici obbligazionari deriva infatti che una parte del rischio di credito che grava sull’obbligazione è sistematica in quanto varia con le variabili più importanti che muovono l’economia, e dunque non diversificabile. Una spiegazione finora trascurata dell’ampiezza degli spread sulle obbligazioni è la difficoltà di diversificare il rischio di credito. Tale circostanza sarebbe all’origine della perdita inattesa su un portafoglio di obbligazioni. La perdita inattesa determina una maggiore remunerazione per il rischio di credito pretesa dagli obbligazionisti. La difficoltà di diversificare il rischio di credito deriva dai seguenti fattori: 1) da un lato si riscontra un certo grado di correlazione tra i default sul mercato e questo ha l’effetto di ampliare la perdita inattesa su un portafoglio (intesa come variabilità della perdita attorno al suo valor medio); 2) dall’altro lato l’asimmetria della distribuzione delle perdite è responsabile della possibilità non trascurabile che esistano perdite sul credito molto maggiori rispetto alla perdita attesa. In un portafoglio di obbligazioni private non di rado le perdite effettive superano quelle attese. Tutti gli studi effettuati sulla composizione dei credit spread partono implicitamente dal presupposto che gli investitori possano neutralizzare questa componente inattesa del rischio di insolvenza diversificando in maniera adeguata il loro portafoglio. Nella pratica, peraltro, tale assunto potrebbe non essere valido e – in assenza di una piena diversificazione – il rischio di perdite impreviste verrebbe incorporato nello spread. Di fatto, la nostra ipotesi è che questo rischio possa senz’altro spiegare gran parte dello spread. Le nostre argomentazioni circa la difficoltà di diversificare il rischio di credito e le incognite nella determinazione dei premi di liquidità (che in questo testo non sono stati determinati) richiedono entrambe ulteriori approfondimenti analitici. Si aggiunga che il costante sviluppo dei derivati su crediti potrebbe indurre in futuro una nuova trasformazione dei mercati creditizi, specie per quanto riguarda le opportunità di diversificazione e la liquidità. Nel lungo periodo non è da escludere che ne consegua una contrazione degli spreads, ma restano ancora da stabilire la portata e la rapidità di un siffatto processo. In definitiva, una maggiore comprensione degli spreads sulle obbligazioni private contribuirà a migliorare da un lato la gestione del rischio correlata alle insolvenze e la liquidità dei portafogli e, dall’altro, la formazione dei prezzi – e quindi l’efficienza – sui mercati delle obbligazioni societarie e degli strumenti derivati.2459 31266 - PublicationValue coffee chain anlysis e convention theory, applicazioni nel minas gerais: il terroir nello sviluppo strategico caffeicolo.(Università degli studi di Trieste, 2008-04-21)
;Vecchiato, SilviaGregori, TullioQuesta tesi indaga, sotto il riferimento teorico della Value Chain Analysis e della Teoria delle Convenzioni, i dispositivi di qualificazione di prodotto e le corrispondenti forme di coordinamento che gli attori del contesto produttivo caffeicolo brasiliano e del Minas Gerais hanno, nel corso della storia, adottato come strategia di sopravvivenza prima e, in seguito, di crescita. In questa analisi, particolare rilevanza viene data allo spazio e al ruolo della referenza territoriale, quale dispositivo di qualificazione del prodotto caffè e strategia di sviluppo nella storia caffeicola brasiliana. Il fine ultimo è di analizzarne una sua specifica dimensione, quella del terroir, presentandone concetti, definizioni, e mettendo in luce, in via descrittiva, possibili approcci per la sua caratterizzazione pedologico - spaziale. Chiude un’indagine conoscitiva di caratterizzazione climatico – produttiva del terroir di una zona rinomata per la produzione caffeicola del Minas Gerais.1262 5229 - PublicationLa percezione della qualità del caffè espresso da parte del consumatore.(Università degli studi di Trieste, 2008-04-21)
;Godina, AndrejGregori, TullioLA PERCEZIONE DELLA QUALITÀ DEL CAFFÈ ESPRESSO DA PARTE DEL CONSUMATORE Il presente lavoro di ricerca nasce all’interno del dottorato di ricerca in “Scienza, Tecnologia ed Economia nell’Industria del Caffè” presso il Dipartimento di Scienze Statistiche ed Economiche della Facoltà di Economia dell’Università di Trieste. Scopo dell’iniziativa è di indagare l’universo della percezione della qualità del caffè espresso da parte del consumatore. A tal proposito viene svolta una trattazione teorica preliminare per illustrare i concetti di qualità e qualità alimentare, definire l’analisi sensoriale e le caratteristiche organolettiche dell’espresso e come esse vengono percepite. Successivamente viene fatto ricorso ad un’indagine statistica sul campo prendendo ad oggetto un campione di consumatori nel territorio del comune di Trieste. Vengono elaborati due questionari da sottoporre al campione, uno cartaceo ed uno elettronico. In quest’ultimo caso viene utilizzato un software specifico per le indagini di conjoint analysis, l’SMRT, che permette con grande attendibilità di elaborare i dati ottenuti e determinare gli attributi principali dell’espresso in base ai quali il consumatore opera la sua scelta di consumo. Lo scopo principale dell’indagine è di rispondere alla domanda “quanto e come il consumatore percepisce la qualità dell’espresso?” e di confrontare questa percezione con quella degli operatori del settore. Infine si vuole dare alle imprese del comparto caffeicolo un’indicazione circa la metodologia con la quale investigare sulle migliori scelte e strategie di mercato ai fini di aumentare la propria redditività e di soddisfare i bisogni di un consumatore sempre più attento alla qualità ed informato. Il percorso di studio e di ricerca effettuato è stato suddiviso in diverse fasi: 1. Definizione di qualità. 2. Scienza ed analisi sensoriale. 3. Definizione di espresso. 4. Definizione qualitativa dell’espresso. 5. Metodologie di raccolta e di elaborazione dei dati ottenuti presso i consumatori. 6. Risultati dell’indagine. Il presente lavoro dà indicazioni circa la metodologia di indagine di mercato che l’impresa può intraprendere al fine di ottimizzare la propria produzione in termini di qualità del prodotto, soddisfazione del cliente e di redditività. Nell’odierno sistema economico occidentale il consumatore è sempre più attento alla qualità e costringe quindi l’impresa ad un continuo sviluppo del prodotto per riuscire a soddisfare i suoi bisogni. Emerge senza ombra di dubbio che il settore del caffè ha un ruolo importante nell’economia mondiale dei paesi produttori e consumatori. Allo stato attuale il comparto risulta essere suscettibile di ulteriori sviluppi, soprattutto nel campo del caffè espresso, metodologia di preparazione della bevanda solo di recente introduzione. L’indagine ha evidenziato con chiarezza che appare necessario colmare alcune lacune di informazione del consumatore in ordine alla conoscenza del prodotto caffè, sia prima che dopo la sua lavorazione e preparazione sotto forma di bevanda, al fine di renderlo consapevole della qualità del prodotto. Quindi una maggiore informazione del consumatore da parte degli operatori, l’istituzione di una capillare rete di associazioni devote alla formazione alla degustazione del prodotto, la formazione più attenta del barista professionista, un’etichettatura trasparente ed esauriente al di là dei meri obblighi legislativi potrebbero rappresentare validi strumenti di ulteriore sviluppo.2336 31969 - PublicationSustainable finance and social responsibility: a new paradigm(Università degli studi di Trieste, 2009-04-06)
;Vargas Preciado, Lucely ;Fanni, MaurizioFanni, MaurizioWith the globalization Businesses are getting a lot of power and they are more influence companies in the society than before. Business malpractices have the potential to inflict enormous harm on individual, communities, and the environment; the demands from all stakeholders to be a business to behave ethically greatly have been increased at this time. Moreover, ethical infractions and abuses of power are presented in business and affect the corporations reputation and as well as societies. There are needs to be a call for responsible and sustainable corporate behaviour. This corporate behaviour can create a competitive advantage and will generate value, social and economical value. This thesis will be presented such an alternative approach. This thesis presents an approach of the new paradigm. It is an integration of the 3 dimensions: ethical, corporate social responsibility and sustainability that generate social and economical value. The social value is for present and future generations: when corporations are helping development communities, poverty reductions, increased standards of life and education, increasing the work conditions and possibilities of employ’s companies, communities and other stakeholders. Economical value has many benefits to a corporation such as: decrease reputation risk; access the competitions of financial market, fidelity with customers and employees, increase firm’s reputations, reductions of cost and others. This research will try to answer some questions such as: what is the business of business and what is its social responsibility? How this responsibility is applied in the field of finance? How this corporate social responsibility is measured? And does this CSR affects the share price value of a company? The methodology used is a review of literature about Business ethics, CSR, SRI, ethical rating, sustainable reports, model market, and events studies. A case study of the Italian Insurance Company: Generali Group is presented. In this case study, it will be analyzed: (1) The Generali ethical, CSR and sustainable compromise – The integration of these three dimensions- and (2) how this information on CSR affects Generali Insurance’s share price value. In order to measure the effects of the three dimensions –ethical/CSR/sustainable in share price, it is conducted an event study, which measure change in share prices based on the announcement of events. In that way, it is possible to determine if share prices that reflect firm’s financial performance are affected by public information of ethical, environmental, social and economical performance. Particularly, it will be measured the effect of Ethical/CSR/sustainable events of the Generali Group Insurance group in its share prices. Moreover, for this reach, it was consulted available information on the web side and sustainable reports regarding to Generali Group ethical/CSR/sustainable compromise. Additionally some informal meetings were taken place with, the Director of Sustainable Department in Generali Insurance Company in Trieste, Marina Donnato in order to clarify several issues The conclusion of this research is that the business of business is to be ethically, CSR and sustainable. It can be extrapolated to sustainable finance; in this way business will generate social value and economically value. The economical value is a consequence of the social value generation. In the long term, social and economically value will converge. Moreover, in the finance field this integration of ethical, CSR and sustainable is necessary: for instance Social responsible investments (SRI) and social finance - micro credits focus on satisfactions of stakeholders. Other conclusion is that Generali is an Insurance company with high standards in ethical, Corporate Social responsibility and sustainability and big social concerns. It is very difficult to generalize about the relationship between CSR and profitability. Ethical/CSR/sustainable is consistently with the long term maximization shareholder value because for a company acting CSR represents a significant value for investors, company can be perceived as an ethical, CSR, sustainable. It perceptions affects positively his reputation more in the lung term. In the short time it is less impacted. The analysis using events studies methods and model market showed that ethical/CSR/sustainable news about Generali Events that not generate very significant abnormal returns different from zero. However some of these were positive. It could be interpreted as the market is responding positively to the news of ethical/CSR/suitable issues. But also it could be that investors are not very well informed about ethical/CSR/Sustainability and in SRI. However the ethical/CSR/sustainable compromise generates more value in the run term because of company reputation, and other benefits as employee and customer’s fidelity. Other conclusion is a way to measure CSR is using ethical rating. This document present an introductory part, Chapter 1. Chapter 2 gives a framework of the ethical issues of corporation’s operations and covers the following topics: MNCs Business ethics and Social responsibility, business ethics, mainly the debates made by Hoffman, which is related to ethical dimensions of the making decisions in a framework of business operation’s ethics systems, The topic of corporations operating in third world countries general overview, and General Standards of Behavior -Code of Principles and MNCs. It is important to clarify that the values and principles in Corporation, Medium, and small enterprises, the ethical principles, values and ethics are referring to same aspects, (human rights, environmental, social, economical aspects). But in this research only the ethical approach for Corporations will be considered. Chapter 3 presents the analysis about: what does it mean corporate social responsibility (CSR)? what is the responsibility of the business?, For this scope, the chapter covers the following aspects such as: The meaning of corporate social responsibility, the concept of CSR based on the definition of the space between the law and social expectation, the expectation of stakeholders and incorporating of identity in the sustainability strategy CSR, the evolution of the concept, the traditional ideology and modern ideology of CSR and why the concept is changing, corporate social responsibility benefits, corporate social responsibility international perspective. In Chapter 4, it is analyzed the following issues: why the finance a new paradigm is necessary, what ethical finance it about, based on concepts such as CSR/SRI and ethical sustainable finance focus in two levels: Macro level and Micro level. The Macro level is focus to the topic of (1) Social Responsible Investments -definitions, growing, background, some trends and so on- Sustainability. Other areas and instruments of ethical finance in a macro level are presented such as: (2) Ethics /CSR and financial sectors, Sustainable index (stock exchanges), (3) Cleantech Venture capital, (4) Financial services, (5) Institutional investors, (6) International institution will be analized. The Micro level make reference to the (7) Social Finance and (8) micro credit issues: In chapter 5, It is analyzed how social responsibility is measured and monitored. In addition, some other topic such as: CSR and ethics rating agencies, ethics rating methodologies, rating agencies in practicing are discussed. Chapter 6, It is discussed how the Generali insurance company presents his CSR/ sustainable compromises. This chapter defines the event to measure the CSR impact on the company value (share value in the short time). Some aspects of Generali Code ethics, values, strategy, CSR initiative (information included in CSR reports and websites) are analyzed. In Chapter 7, an analysis is carried out to verify if the share prices that reflect firm’s financial performance are affected by public information of environmental, social and economical performance. In order to measure the effects of CSR on share price, an event study is carried out which measures changes in share prices based on the announcement of events. Particularly, it will be measure the effect of CSR’s events of the Generali Group Insurance group in its share prices. Finally, conclusions, suggestion- recommendations and issues of further research are discussed.4805 7278 - PublicationLa solvibilità delle imprese assicuratrici: linee evolutive ed aspetti critici(Università degli studi di Trieste, 2009-04-06)
;Furlan, ChiaraPitacco, ErmannoPresentazione Il tema della solvibilità di una impresa assicurativa è per sua natura un argomento ampio in quanto nello stabilire le regole per garantire la solidità finanziaria vengono coinvolti vari aspetti dell’impresa: quali la vita gestionale, i settori di attività, la riassicurazione. Assicurare la stabilità dei propri affari e cautelarsi da imprevisti, che hanno ripercussioni finanziarie, è una naturale esigenza per qualsiasi impresa e in qualsiasi epoca. Nel tempo, però, cambia il modo in cui affrontare questo argomento e mutano gli eventi dai quali mettersi al riparo. Già nel 1630 (Sandström 2006) la solvibilità era delineata come “la capacità di pagare tutti i debiti legali”. Sarà nel 1724 (Hägg 1998) che si parlerà esplicitamente di solvibilità quando un mercante di Amburgo propose di fondare una compagnia di assicurazione a Stoccolma. La proposta fu accettata dal governo svedese soltanto a patto che la compagnia fosse stata capace di dimostrare la sua solidità patrimoniale e la sua “capacità di solvenza” nelle diverse situazioni. La compagnia aveva capitali adeguati, garanzie e depositi tali da poter iniziare la sua attività. Da questi primi esempi, si può intuire che, nel passato, un dissesto finanziario portava al coinvolgimento di molte persone però sempre in numero limitato rispetto a quanto avviene oggi. Attualmente, infatti, con l’allargamento dei mercati e la globalizzazione, le vicende di un‘impresa coinvolgono non soltanto il comparto di competenza ma hanno ripercussioni nel settore finanziario, bancario, nel settore immobiliare e nella produzione. I recenti fatti ne sono una prova. In particolare, una compagnia assicurativa si trova responsabile nei confronti dei propri assicurati e nei confronti del mercato e per tale motivo le viene richiesto un adeguato livello di solvibilità. Vediamo come è opportuno impostare e sviluppare questo tema in termini più precisi. Come già detto, l’impresa assicuratrice con una assegnata, alta probabilità deve far fronte ai propri impegni che derivano dalla propria gestione assicurativa, deve cioè avere un assegnato livello di “solvibilità”. Per questa necessità deve disporre di adeguati mezzi propri. Le formule di sintesi (short-cut) permettono di commisurare la necessaria entità dei mezzi propri al livello di rischiosità relativo alla gestione assicurativa, espresso tramite le riserve matematiche, i capitali sotto rischio, i capitali riassicurati o, ancora, da altre quantità collegate al portafoglio. Il risultato di queste formule è il “minimo margine di solvibilità”. Dall’altra parte i dati di bilancio di una impresa assicuratrice verificano la presenza di mezzi propri in misura non inferiore all’importo del minimo margine di solvibilità. Tale verifica deve aver luogo secondo uno schema prefissato che stabilisca quali voci del bilancio far rientrare nella determinazione dei mezzi propri riconosciuti all’assicuratore ai fini della solvibilità, cioè l’entità del “margine di solvibilità” posseduto. In estrema sintesi, quindi, le questioni riguardanti la “solvibilità” si concretizzano nel definire il “minimo margine di solvibilità” e nel verificare se l’assicuratore possiede un “margine di solvibilità” uguale o superiore al minimo. A livello europeo, le direttive in materia di assicurazione vita e assicurazione non vita (1973-1979) propongono un minimo margine calcolato come percentuale fissa delle riserve matematiche e dei capitali sotto rischio. Il metodo non tiene conto dell’effettivo profilo di rischio della compagnia se non nella misura delle quantità usate come elementi di calcolo. D’altra parte con l’affinarsi degli strumenti matematici per quantificare le situazioni di incertezza (per esempio: valutazioni di probabilità, processi stocastici) e il supporto tecnico offerto dagli strumenti informatici per simulare tali situazioni hanno portato le imprese ad acquisire una maggiore sensibilità alle problematiche inerenti al rischio. Questo elemento nel contesto più ampio di cambiamenti economici, unificazione dei mercati, allargamento delle frontiere ha spinto le imprese, anche quelle assicurative, a imporsi nuovi obiettivi e di conseguenza nuovi assetti e regole. Nel 1998 nel Congresso Internazionale degli Attuari si parlò per la prima volta di Solvency II, come di un nuovo progetto per rivedere gli attuali regimi di solvibilità. Si intenda bene che la denominazione ”Solvency II” non è il nome di una direttiva dedicata apposta all’argomento, ma è soltanto un progetto tuttora in fase di evoluzione e di definizione che ha l’obiettivo di dare una struttura alla solvibilità più sensibile alle esigenze del mercato e al profilo di rischio della impresa di assicurazione. Certamente il progetto trova in Basilea II una fonte di ispirazione, per esempio la suddivisione in pilastri, ma nel contempo mantiene propri elementi che lo caratterizzano. La materia di Solvency II è molto articolata e trova elementi di spunto nei regolamenti di associazioni ed enti che operano a livello europeo, delle associazioni di professionisti del settore, nei regolamenti di contabilità, e nei regolamenti di altri Paesi europei e non. Paesi Bassi, Svizzera, Germania, ad esempio, calcolano le liability, che si contrappongono agli asset, ognuno in maniera diversa includendo i margini prudenziali a vari livelli. La diversità nel considerare i margini di rischio introduce alla questione di chi sovvenziona i margini stessi: gli assicurati con i loro premi caricati o l’impresa con il suo capitale. Non va trascurato in tale contesto l’aspetto fiscale. Da questi primi cenni espositivi, si intuisce che l’argomento solvibilità è esteso e cattura l’interesse di chi si avvicina al settore assicurativo. Il presente lavoro tenta di cogliere gli aspetti evolutivi della solvibilità, partendo dalle prime impostazioni e descrivendo gli elementi di novità che in qualche modo sono rilevanti nel definire l’assetto di quello che sarà Solvency II. Il lavoro va letto in chiave propedeutica, come primo passo per avvicinarsi a queste problematiche e come base di partenza per gli ulteriori sviluppi su temi che si stanno, già, affrontando in questo settore. Vengono, infatti, definiti i concetti basilari e descritte le strutture dei modelli di stima della solvibilità in alcuni Paesi. I modelli portano ciascuno ad una definizione di minimo margine che, come abbiamo detto all’inizio, è la componente essenziale della solvibilità. Pertanto verranno analizzate le logiche, sottostanti ai modelli, relative alla componente del margine. Il primo capitolo introduce l’argomento raccogliendo le definizioni di margine di solvibilità e di solvibilità inquadrandole nella normativa europea. Nel capitolo successivo sono esposti i lavori di Campagne che rappresentano il punto di partenza per lo studio della solvibilità e gli ulteriori passi che conducono verso le Direttive europee nel settore assicurativo vita e non vita. Il regime attuale di Solvency I è analizzato nel terzo capitolo per entrambi i rami. Con il quarto capitolo si entra maggiormente nel dettaglio riportando normative e contributi di enti o associazioni che a vario titolo sono coinvolte, anche se pur non direttamente, nel processo di rinnovamento della solvibilità. Il capitolo 5 mostra come alcune nazioni affrontano il problema della solidità economica dell’impresa assicuratrice attraverso diversi modelli. Si evidenziano le varie impostazioni e si illustrano i metodi per trovare i margini. I “sistemi interni” vengono con maggior dettaglio trattati nel capitolo successivo. Infine nell’ultimo capitolo si attuerà un confronto tra i modelli di stima della solvibilità delle nazioni considerate.1773 18223 - PublicationFondamenti logici del corporate credit rating ed efficienza informativa(Università degli studi di Trieste, 2009-04-06)
;Vento, Francesca ;Fanni, MaurizioFanni, MaurizioIntermediari creditizi ed agenzie di credit rating svolgono un ruolo decisivo nell’attenuare gli effetti distorsivi della distribuzione asimmetrica delle informazioni cui sono intrinsecamente soggette le transazioni che si pongono in essere tra datori e prenditori di fondi, i quali soli hanno piena conoscenza del proprio, effettivo, merito di credito. In particolare, nel mercato creditizio, le banche, interponendosi tra soggetti in surplus e soggetti in deficit, si sostituiscono agli investitori nel selezionare le alternative di finanziamento, svolgendo per essi il processo di raccolta, di analisi, e di elaborazione delle informazioni relative alla capacità di credito delle possibili controparti, favorendo in ultimo la riduzione dei costi di transazione e di gestione delle informazioni. Analogamente, nel mercato obbligazionario, ove unità in surplus ed unità in deficit si interfacciano in modo diretto, le agenzie di rating si interpongono tra investitori ed emittenti di strumenti di debito, assumendo tuttavia il differente ruolo di “brokers informativi”, ovvero di operatori specializzati nella raccolta e nell’elaborazione delle informazioni circa lo standing creditizio dell’emittente, e nella successiva sintesi e divulgazione delle stesse attraverso un giudizio espresso da un simbolo alfabetico, il credit rating, in grado di comunicare in modo semplice ed immediato agli investitori l’opinione dell’agenzia circa l’idoneità dell’emittente di provvedere in modo esatto e puntuale sia al rimborso del capitale, sia al pagamento degli interessi relativi ad una o più emissioni di debito. Invero, a nostro avviso, è ragionevole ritenere che la reale portata del ruolo assolto da intermediari creditizi ed agenzie di rating nel contrastare le asimmetrie informative tra datori e prenditori di fondi, e l’effettiva efficacia del loro intervento nel promuovere l’efficienza del mercato creditizio ed obbligazionario possano dipendere dalla natura delle informazioni che tali soggetti scelgono di porre a fondamento delle valutazioni relative al merito di credito dei potenziali soggetti finanziati. A tal riguardo è possibile operare una distinzione, seppur non strettamente dicotomica, tra elementi informativi di natura “hard”- i quali tipicamente si presentano in forma quantitativa, e prestandosi a facile codificazione, consentono di essere raccolti in modo impersonale ed interpretati in modo oggettivo ed univoco - ed informazioni di tipo “soft” - che, al contrario, presentandosi in forma prettamente qualitativa/descrittiva ed essendo subordinate ad interpretazione soggettiva da parte del valutatore, sono connotate da un’intrinseca difficoltà di codificazione, e impongono modalità di acquisizione di tipo personale e diretto. Alla luce dei descritti aspetti di differenziazione, il prevalente ricorso ad informazioni di natura hard, se da un lato determina significativi vantaggi in termini di costo di acquisizione ed elaborazione dell’informazione stessa, dall’altro comporta l’inevitabile perdita del patrimonio informativo che solo input di tipo soft sono in grado di veicolare. In tale quadro si inserisce il presente lavoro, finalizzato ad analizzare la variegata morfologia dell’informazione e ad esaminare nello specifico in quale forma (hard o soft) predominante si presentino le informazioni poste alla base dei processi di analisi del merito di credito svolti da intermediari creditizi e agenzie di rating. Ciò equivale ad indagare come tali soggetti scelgano di posizionarsi rispetto al trade-off esistente tra i costi connessi al trattamento dell’informazione - i quali risultano minimizzati in funzione di un crescente utilizzo di hard information - ed il grado di completezza dell’informazione stessa - che si accresce in funzione dell’inclusione di soft information nella base informativa a disposizione del valutatore - dal quale, come anticipato, riteniamo possa dipendere l’efficace riduzione delle asimmetrie informative esistenti tra datori e prenditori di fondi. A tale proposito si osserva come l’utilizzo più o meno intenso di informazioni di natura soft rispetto ad informazioni di carattere hard nell’ambito dei procedimenti valutativi condotti rispettivamente dalle banche e dalle agenzie di rating sia legato al contesto in cui tali processi di analisi sono originati. In particolare, con riferimento alle istituzioni bancarie, è possibile istituire un raffronto tra analisi del merito creditizio condotte nell’ambito di approcci al credito basati alternativamente sulla relazione (relationship lending) o sulla transazione (transactional lending), mentre, per quanto concerne le agenzie di rating, si individua una distinzione tra valutazioni svolte nell’ambito del processo di attribuzione del rating alternativamente sollecitato (solicited) o non sollecitato (unsolicited). La relazione che si instaura tra il soggetto valutatore e l’impresa oggetto di analisi nell’ambito del relationship lending - nel caso della banca - o nell’ambito del processo di attribuzione del rating sollecitato - nel caso dell’agenzia di rating - determina infatti un significativo arricchimento del set di input informativi disponibili per la valutazione, in quanto, oltre a consentire l’acquisizione di un complesso di elementi che, pur essendo codificabili e prestandosi ad interpretazione oggettiva (e, dunque, pur presentando carattere hard), non risultano desumibili da fonti pubbliche per questioni di riservatezza o di opacità informativa dell’impresa, permette di raccogliere una serie di informazioni impossibili da acquisire in forma impersonale alla luce della loro natura prettamente soft, che le rende non codificabili e misurabili esclusivamente attraverso il giudizio e la percezione individuale del medesimo soggetto preposto alla raccolta delle stesse. In ciò risiede, a nostro avviso, il valore aggiunto del contributo offerto da intermediari creditizi ed agenzie di rating alla riduzione delle asimmetrie informative tra datori e prenditori di fondi: anche prescindendo dalle condizioni di maggiore o minore trasparenza della controparte oggetto di analisi, l’inclusione della soft information alla base delle valutazioni condotte da tali soggetti - che risulta preclusa nel contesto tanto del rapporto di finanziamento transaction-based posto in essere dalla banca, quanto dell’attribuzione di un giudizio di rating non sollecitato da parte dell’agenzia - costituisce la determinante ultima dell’effettiva efficacia del loro intervento nel promuovere l’efficienza del mercato. Alla luce di tali considerazioni, la trattazione viene completata attraverso l’esame dell’impianto di analisi e valutazione delle informazioni qualitative sviluppato ed implementato presso un’agenzia di rating italiana, al fine di comprendere con quali strumenti, nel concreto, una credit rating agency possa affrontare il problema dell’elaborazione di informazioni soft - che si presenta con massima intensità nell’ambito del processo di assegnazione del rating di tipo solicited - pervenendo ad un bilanciamento ottimale del trade-off tra il costo di trattamento dell’informazione ed il grado di completezza della stessa.1892 10760 - PublicationPan European Corridors of Transport Infrastructure-Driving Sustainable Developments and Partnerships towards a well-being society(Università degli studi di Trieste, 2009-04-17)
;Mulita, Reis ;Gasparini, AlbertoPuscas, VasileScenarios of the future European Union suggest that Europe will be part of a more globalised world economy, and will build even stronger relationships among neighbouring countries. It will have dense urban areas and a mutated climate. People’s lives will be transformed by breakthroughs in energy, transport and communication technologies. The transport sector in these forecasts will have to satisfy a greater demand for mobility. At the same time it will have to find solutions in order address its negative externalities, which affect the environment, the economy and the society. The Trans European Network of Transport (TEN-T) and the Pan-European Transport Corridors are defined as key instruments in order to achieve the economic growth and social integration within the EU political map. They are of a crucial importance when implementing EU enlargement policies towards neighbouring countries. The networks of transport and communication will further develop relations with EU neighbouring countries and will assist them in achieving most advanced standards. Corridor Eight is one of the ten “Pan European Corridors of Transport”, based on the trace of an antic roman corridor, “La Via Egnatia” (Fasolo. M. 2003). When taking in consideration the to date reports of the civil works, services, and the main operating indicators of the Corridor Eight as a part of Pan European Transport Corridors, the following may be observed: Corridor Eight it is not yet operational in all modes of transport and services along all its length and area. There are no railway links in different parts of it, while there is not high operational performance of the existing roads and highways. Consequently it does not fulfil its mission to enhance the movement of people, goods, information and experiences in all forms of transport from Adriatic and Ion Seas in the Mediterranean Sea to the Black Sea. It does not therefore link societies, natural resources and economies between two peninsulas and Euro-Asian region. Corridor Eight does not offer the necessary capacity and contemporary standards to afford flows of traffic for people, horizontal and vertical signallers, emergency situations and electricity black out situations, while there are not alternative electricity resources along its segments of roads, railways, seaports, etc. There are not clear demonstrations to satisfy a safe, secure, and healthy transport services along the area. Taking in consideration, • the conclusion that corridors of transport as spatial planed parts of the territory are confirmed to be effective tools for development and social integration between countries ; • the fact that international transport infrastructure realities are demonstrating to be competitive and complementary and of high standard service ; • that up to now regional and geopolitical realities has not been in favour of the Balkans; • that the future transport will be based on achieving goals of being clean, safe, secure, healthy and cost effective ; • that the society of countries along Corridor are clearly defined towards EU integration, and that being part of EU means obligation and standards must be achieved; • that in a near future Albania, FYROM (Macedonia) will be part of EU political map: The following research questions are addressed in the study: – Could countries like Albania, Macedonia and Bulgaria, develop sustainable transport along corridors of transport and their networks in order to be more competitive and complementary one among TEN –T and Pan-European Transport Corridors and areas? – What policies should be pursued and what strategies should be drawn while building corridors of transport infrastructure as a functional part of TEN-T and Pan-European transport corridors networks. How can those countries offer a comfortable, safe, healthy, secure transport to EU citizens as well as a multitude of choices in means of transport along Corridor Eight countries? – What partnerships must be raised to face the challenge of sustainable corridors of transport? – What policy should be pursued to turn corridors of transport into corridors of social integration and economic growth? – Could we, and which are the instruments to build a state of wellbeing along the corridors of infrastructure, beyond the political, natural, ethnic, religious and cultural borders, aiming towards walking local, achieving global ! The theory and conceptual approach to the transportation corridors will be presented by this study, to highlight social and economical benefits of transport activity as well as the consequences coming of it and regarding human activity, environment, bio natural diversities and global warming along corridors area. The presentation of the status of both: the Transnational European Network of Transport (TEN-T), as well as that of the Pan European Corridors of Transport in regard to the future sustainable policies and guidelines of the European Commission is one of prior objectives of this study. Consequently the research objective is to present the realities along Corridor Eight areas in relation to sustainable indicators. Finally, this study will endeavour to feature the best performing experiences and attempt to suggest the most beneficial solutions towards sustainable development in the societies along the countries of Corridor Eight.2231 4052 - PublicationLa produzione del caffè e il cambiamento climatico. La coltivazione del "robusta" in Uganda come esempio di studio(Università degli studi di Trieste, 2009-04-23)
;Danesi, Ilaria ;Gregori, Tullio ;Gregori, TullioArtale, VincenzoAbstract. Questo studio analizza la relazione esistente tra la produzione del caffè ed il clima, con l’obiettivo di stimare il potenziale impatto economico del cambiamento climatico. A tal fine, si è sviluppato un approccio integrato a livello interdisciplinare, combinando insieme le tematiche legate agli aspetti della meteorologia, della climatologia, della biologia, dell’ambiente e dell’economia. Il case study di riferimento è la produzione di caffè Robusta in Uganda. In un contesto di globale esaurimento delle risorse e del repentino cambiamento climatico, non si può più prescindere dall’impatto economico che si determina sulla produzione agricola in generale. Gli eventi atmosferici estremi, quali le tempeste tropicali, gli uragani e i tifoni, insieme alle progressive alterazioni nei cicli delle stagioni, delle piogge e delle temperature, espongono sempre più spesso il territorio e la collettività a siccità, frane, alluvioni e inondazioni che possono distruggere o danneggiare considerevolmente i raccolti. Il caffè costituisce la principale fonte di sussistenza per circa 25 milioni di coltivatori e per le loro famiglie, oltre che la principale fonte di occupazione per molti dei paesi in via di sviluppo, come in Uganda. La dipendenza economica di questo paese dal caffè risulta, infatti, particolarmente evidente: la sua è un’economia di tipo monoculturale e tuttora il 30% degli introiti derivanti dalle esportazioni proviene da questa commodity agricola. In termini di occupazione, più di 5 milioni di persone sono impiegate nella coltivazione e lavorazione di caffè, che viene prodotto in 52 distretti tra gli 80 presenti nel Paese. La produzione coinvolge circa oltre un milione di piccoli coltivatori, dei quali il 90% possiede fattorie la cui dimensione varia da meno di 0,5 a 2,5 ettari. La piccola dimensione di questi appezzamenti evidenzia anche la loro debolezza strutturale e la necessità di un serio riequilibrio del potere tra gli attori della global coffee chain, che punti a tutelare e a valorizzare la coltivazione del caffè. Il clima potrebbe essere visto quale elemento che può mutare la redistribuzione del reddito lungo la catena di produzione caffeicola (coffee supply chain), poiché potrebbe modificare nel medio termine i processi decisionali dei principali attori della global coffee chain, anche promuovendo una necessaria innovazione tecnologica, nell’ottica di fornirsi di strumenti più adeguati per sopravvivere in un ambiente che potrebbe risultare profondamente mutato. Il percorso di analisi seguito in questo lavoro è suddiviso in quattro parti. Nella prima si è provveduto a fornire una descrizione dettagliata dei concetti e degli elementi di base che regolano le complesse dinamiche oceano-terra-atmosfera. In seguito, ci si è occupati di descrivere il clima e di fornire una sintesi dei cambiamenti climatici in atto e degli scenari futuri per il 21° secolo, con grande enfasi per la scala regionale (Africa Orientale) e locale (Uganda). Nella seconda parte si è voluto fornire un’analisi dettagliata dei parametri fisico-biologici della pianta Coffea Canephora Pierre – Robusta. In particolare, si è trattato di descriverne i requisiti climatici e ambientali, nonché le caratteristiche agro-meteorologiche come il regime delle precipitazioni, le temperature, i venti, l’insolazione e la copertura agroforestale, l’altitudine, le caratteristiche del terreno e l’umidità del suolo, il sistema delle radici e così via. La trattazione comprende anche un’analisi delle fasi fenologiche della Robusta, nelle condizioni climatiche dell’Uganda, oltre ad una descrizione dei metodi di coltivazione adottati dai produttori. Nella terza parte sono stati descritti gli impatti del clima sulla coltivazione della Robusta in Uganda, integrando le risultanze ottenute a livello fenologico con gli scenari climatici futuri. Infatti, è ben noto che tutti i rapporti sul clima dell’Intergovernmental Panel of Climate Change (IPCC) mettono in evidenza un incremento preoccupante della temperatura del pianeta dovuto prevalentemente ad effetti antropogenici. Le proiezioni regionali e sub-regionali per il 21° secolo dell’ultimo Assessment Scientifico pubblicato nel 2007 (IPCC AR4, 2007) indicano un incremento medio di temperature, soprattutto per quel che riguarda l’intero continente Africano. In particolare, in tutte e quattro le sub-regioni dell’Africa (Africa Occidentale e Orientale, Sud Africa e Africa Sahariana) e in tutte le stagioni, si prevede un incremento medio delle temperature compreso tra i 3°C e i 4°C, circa il 50% (oppure 1.5 volte) in più rispetto all’incremento della media globale. Le previsioni scaturite dalla metà dei modelli numerici globali indicano un riscaldamento della temperatura rispetto a questi valori medi intorno a 0.5°C. Allo stesso modo, i valori in percentuale medi ottenuti tra i modelli, che indicano la frequenza delle stagioni di caldo estremo, umido estremo e siccità estrema, segnalano una probabilità assoluta che si incontrino stagioni estremamente calde e umide in Africa Orientale. Anche le previsioni relative all’incremento delle precipitazioni nella sub-regione si presentano piuttosto attendibili, con un aumento nella media annuale pari a circa il 7%. In particolare, le simulazioni dei modelli numerici globali indicano un’intensificazione delle precipitazioni durante la stagione invernale, insieme ad una modificazione della struttura dipolare delle precipitazioni stesse. L’importanza del caffè per l’economia dell’Uganda richiede, pertanto, uno studio accurato per valutare l’impatto del clima evidenziando gli effetti delle variazioni stagionali della temperatura e delle precipitazioni, che hanno un’influenza determinante sulla produzione caffeicola. Fondamentale è stato il lavoro teso a determinare la correlazione esistente tra le condizioni del clima e i diversi stadi di crescita e di produzione del Robusta, che conta per circa l’80% dell’intera produzione di caffè del paese. Infatti, le variazioni stagionali del clima potrebbero alterarne lo sviluppo fenologico e, di conseguenza, alterare la stagione del raccolto, dalla semina alla maturazione delle ciliegie. A tal proposito, sulla base della letteratura esistente in materia di fenologia della Robusta e, anche in seguito ad una visita compiuta in Uganda nel distretto caffeicolo di Mubende, situato nella parte centro-occidentale del paese, si è tentato di costruire uno schema dei principali stadi fenologici della pianta. In tal modo, è stato possibile determinare il processo di sviluppo e maturazione dei frutti e, quindi, effettuare uno studio sugli impatti dei cambiamenti climatici derivanti alla produzione di caffè. Ad esempio, l’incidenza di temperature più elevate o un eccesso di caldo durante la fase della fioritura della pianta costituirebbero le cause principali che promuovono l’aborto dei fiori. Al contrario, intense precipitazioni durante questo stadio potrebbero parimenti comportare un danno alla fioritura, con conseguente riduzione della produttività. Inoltre, un incremento previsto delle precipitazioni, insieme a temperature più elevate, potrebbe intensificare la propagazione della coffee wilt disease (CWD), specialmente durante la fioritura che ha luogo dopo la stagione delle piogge. Seppur in modo approssimativo, si è tentato di determinare il livello di umidità del suolo in alcune delle zone di produzione di Robusta in Uganda. La metodologia utilizzata si è basata sul calcolo dei bilanci idrici totali come medie mensili di più anni, ovvero considerando tre periodi temporali storici diversi, utilizzando i valori elaborati dal modello globale Echam5/MPI – OM, atmosfera (2004), per il Quarto Rapporto ONU sul clima (IPCC-AR4, 2007). Da ciò è stato possibile dedurre che, un tasso più alto di precipitazioni durante la stagione invernale potrebbe diventare una grande minaccia per la coltivazione di caffè in Uganda, a causa di una maggiore erosione del suolo dovuta al ruscellamento. A seconda poi delle caratteristiche del terreno, il contenuto di umidità del suolo potrebbe risultare insufficiente per la pianta, nel caso dovesse verificarsi un periodo di assenza di precipitazioni relativamente lungo. Pertanto, eventi climatici estremi, come le siccità o le alluvioni, hanno un impatto negativo sulla produzione caffeicola, con perdite importanti nei rendimenti produttivi totali, oltre che in termini di un deterioramento qualitativo del caffè . Nell’ultima parte del progetto di ricerca si analizzano alcuni aspetti economici. Dopo aver descritto la struttura ed il funzionamento del settore caffeicolo in Uganda, si è provveduto a valutare il possibile impatto delle variazioni della produzione attuale e futura rispetto ai cambiamenti che intervengono nelle principali variabili climatiche anche per valutare l’attendibilità di certe previsioni che vedono una drastica riduzione dei raccolti nell’area a seguito dell’innalzamento della temperatura media. In questa prospettiva si è cercato di vedere se una risposta può venire dall’analisi dei modelli noti, come l’approccio Ricardiano, che stimano relazioni funzionali che collegano la produzione alle variabili climatiche. In questa prospettiva è stato adottato un modello stimato per la produzione del caffè in Messico che sembra essere l’unico studio sistematico presente in letteratura. In effetti, le funzioni di risposta rispetto alla temperatura implicate suggeriscono un impatto cospicuo sulla produzione che può diminuire anche di quasi il 30% in seguito ad un aumento di un grado e mezzo nella stagione estiva.2311 6194 - PublicationReputazione e rischio reputazionale in economia.Un' analisi epistemologica ed una proposta teorica(Università degli studi di Trieste, 2010-04-12)
;Schettini Gherardini, Jacopo Maria ;Fanni, MaurizioFanni, MaurizioIl presente lavoro è un contributo di natura epistemologica. L’obiettivo è duplice. Da un lato osservare la reputazione come una manifestazione di fiducia e concorrere a ridurre ambiguità e vaghezza nel concetto distinguendone gli ambiti indagabili scientificamente da quelli di derivazione metafisica, quindi classificabili tra le affermazioni etiche, ideologiche o di fede. Secondariamente, approdare ad un modello teorico descrittivo che soddisfi la condizione popperiana di falsificabilità. La tesi che s’intende dimostrare, è che, indagando la nozione di reputazione grazie ad alcuni spunti teorici riconducibili al pensiero di Bertrand Russell ed attraverso lo schema classificatorio che Bruno de Finetti applicò alla probabilità, la “buona” reputazione, intesa nella sua modalità “classica” (ovvero come il rispetto di dettami etico–morali) sia priva di valore intrinseco per un’impresa, poiché risponde a delle esigenze di coerenza con impianti astratti privi di legami con la fenomenologia economica. Conseguentemente, la sua presenza o la sua assenza non comportano elementi di pericolo di per sé, ovvero a prescindere dagli obbiettivi aziendali. Quindi, non più “buona” o “cattiva” reputazione, bensì reputazione “adeguata” (o meno) allo scopo, utilmente utilizzabile sia in forma negativa che positiva. Questa proposta teorica, se accettata, aprirebbe spunti di ricerca circa il diverso peso e diverso impatto della reputazione, a secondo che essa si fondi o meno su elementi metafisici. Secondariamente, si ritiene possibile individuare un pericolo, la cui natura sia esclusivamente reputazionale, a cui associare un rischio reputazionale puro, di primo livello, privo di correlazioni con altri rischi (operativi, legali, strategici). Tesi che metterebbe in dubbio la centralità dell’ottica microeconomica nello studio del rischio reputazionale. Infine, si propone l’incompatibilità tra le nozioni di conoscenza, probabilità e reputazione. Impostazione che, se accettata, porrebbe domande sulla coerenza di alcune analisi in dottrina, le quali invece, fanno perno sul principio che sia la conoscenza a determinare la reputazione.1813 5455 - PublicationLe azioni correlate.Tracking Stocks(Università degli studi di Trieste, 2010-04-12)
;Colonnelli De Gasperis, Mattia ;De Ferra, Giampaolo ;Fanni, MaurizioFanni, MaurizioIl lavoro ha ad oggetto l’istituto giuridico delle azioni correlate o di settore (già noto e diffuso in ordinamenti stranieri con il nome tracking stocks e tracking shares), introdotto nell’ordinamento giuridico italiano dalla recente riforma di diritto societario al fine di rendere le forme di finanziamento della società per azioni più efficienti, flessibili e maggiormente adatte alle esigenze degli investitori e dei mercati di capitali. Tale strumento di partecipazione azionaria offre l’opportunità di un investimento remunerato secondo la produttività di uno specifico settore dell’attività esercitata dalla società emittente. Ai sensi del novellato art. 2350, comma 2, c.c., le azioni correlate sono, infatti, “azioni fornite di diritti patrimoniali correlati ai risultati dell’attività sociale in un determinato settore”. Lo studio si apre con l’analisi delle ragioni economico-finanziarie sottostanti l’emissione di tracking stocks, soffermandosi sul diversification discount, la corporate governance, l’asimmetria informativa, le operazioni straordinarie di ristrutturazione aziendale, i particolari equilibri nell’ambito di compagini complesse, l’incentivazione ai managers, la predisposizione di poison pills in caso di scalate ostili. Il precedente storico dell’istituto risale al 1984 quando General Motors al fine di acquisire Electronic Data System attribuì agli azionisti di quest’ultima azioni correlate al core business della medesima società acquisita. La prima operazione europea di ammissione alla quotazione di azioni correlate è avvenuta in Francia nel 2000, anno in cui Alcatel S.A. collocava sul premier marchè azioni correlate all’attività della società controllata Alcatel Optronics. In Italia, le tre società chiuse AIMAG S.p.A. (2006), ATAF S.p.A. (2005) e Friulia S.p.A. (2005) e l’investment company quotata Cape Live S.p.A. (2007) hanno emesso azioni correlate. Vengono approfonditi, tra l’altro, l’ambito di applicabilità dell’istituto, con particolare riguardo alla definizione di settore, alle divisional tracking stocks ed alle subsidiary tracking stocks, e la correlazione dei diritti patrimoniali ai risultati di un settore specifico di attività sociale esercitata dall’emittente (correlazione in senso forte, o close tracking, e correlazione in senso debole, o loose tracking), quale elemento minimo e caratterizzante tale categoria azionaria. Si conclude che sul piano strutturale e funzionale il risultato del settore rappresenta il parametro quantitativo, il criterio, relativo o assoluto, fisso o variabile, per il calcolo della parte di risultato di esercizio di spettanza delle azioni correlate. Sono analizzati, poi, i diritti patrimoniali tipici delle azioni correlate, quali il diritto agli utili, la partecipazione alle perdite ed il diritto alla quota di liquidazione, e i diritti amministrativi, quali il diritto di voto in assemblea generale ed in assemblea speciale, anche nel contesto dell’autonomia statutaria. Il lavoro prosegue con la trattazione del tema dell’accertamento del risultato di settore e delle modalità di rendicontazione da inserirsi all’interno dello statuto. Si argomenta che il risultato di settore non può considerarsi concetto giuridico e/o contabile predefinito e non rappresenta il contenuto del diritto patrimoniale dell’azionista, ma solo un parametro di commisurazione dello stesso, in funzione del criterio di correlazione prescelto. Viene trattato, inoltre, il diritto di conversione delle azioni correlate in azioni ordinarie come meccanismo di exit, funzionale a disciplinare la sorte delle azioni correlate al verificarsi di predeterminati eventi o condizioni. Si esaminano le clausole di conversione ricorrenti nella prassi internazionale, di cui si verifica la compatibilità con l'ordinamento italiano. Infine, vengono identificate le nuove criticità di corporate governance cui le azioni correlate danno luogo, come ad esempio le nuove conflittualità orizzontali tra i soci relative all’allocazione di risorse, delle opportunità d’affari (corporate opportunities), delle spese e dei costi comuni. In tale contesto si forniscono alcuni standards di condotta che gli amministratori di società multi settoriali devono seguire, onde evitare di incorrere in responsabilità verso la società, i soci o i creditori sociali. In tale contesto, si parte dalla constatazione di carattere economico per cui l’impresa multi settoriale è accostabile al fenomeno del gruppo di società ovvero dell’imprenditore-persona fisica o comunque soggetto che abbia rilevanti interessi economici in altre imprese, individuali o collettive. E’ interesse comune a tutti gli azionisti sia che la società mantenga un sano equilibrio economico e finanziario sia che la società venga gestita, nel suo complesso, in modo efficiente. Nel caso in cui la società è insolvente perdono tutti i soci. Una gestione economicamente efficiente conduce alla massimizzazione del valore aggregato delle azioni, cui corrisponde la massimizzazione del valore di ciascuna categoria di azioni, cuore della teoria del c.d. shareholder value. In tale prospettiva l'attenzione si sposta necessariamente sulle modalità gestionali. Infatti, tale interesse comune può essere perseguito esclusivamente attraverso una continua e costante azione perequativa da parte degli amministratori volta ad armonizzare ed ottimizzare il funzionamento particolare di ciascun settore con quello degli altri.4217 3998 - PublicationIntangibili e valore nelle banche(Università degli studi di Trieste, 2010-04-12)
;Bagna, EmanuelBini, MauroIl lavoro si propone di introdurre un criterio di valutazione delle banche commerciali. Il modello proposto si fonda sul criterio del residual income e permette di enucleare il valore dei beni intangibili di una banca.1492 8937 - PublicationOttimizzazione di portafogli di ETF nell' approccio di consulenza finanziaria indipendente(Università degli studi di Trieste, 2010-04-12)
;Zorzi, Gianni ;Cappelletto, Roberto ;Cappelletto, RobertoKaucic, MassimilianoQuella del consulente finanziario indipendente (Capitolo 1) è una figura professionale di elevato standing sviluppatasi a partire dagli anni ‘70 negli Stati Uniti, paese in cui l’attività è correntemente svolta da decine di migliaia di persone fisiche, iscritte ad associazioni di categoria, provviste di certificazioni anche di notevole spessore, come quella del Certified Financial Planner (CFP). Tale modello di consulenza in assenza di conflitto d’interessi è detto anche “fee-only” in virtù del suo principale tratto distintivo, ovvero che la remunerazione del professionista avviene esclusivamente a cura del cliente-investitore e non dalle società da cui sono promossi i prodotti e servizi finanziari consigliati. Rispetto al modello tradizionale di consulenza (consulenza strumentale alla vendita di prodotti finanziari: commission only), i professionisti del settore hanno dapprima iniziato ad applicare una parcella ai propri clienti (giustificata da un servizio di più ampio respiro: modello fee and commission), e successivamente a retrocedere al cliente le commissioni ricevute per il collocamento dei prodotti, secondo un maggior orientamento al cliente (modello fee offset); il modello fee only rappresenta il culmine del processo evolutivo con l’ampliamento dei contenuti del servizio offerto (da consulenza a pianificazione) e l’assunzione del carattere di piena indipendenza. Secondo l’approccio della MiFID, direttiva europea recepita in Italia nel tardo 2007, il modello fee-only è l’unica forma di consulenza in materia di investimenti che può essere condotta da persone fisiche, con particolari requisiti e secondo determinate regole (Delibera Consob n. 17130 del 12 gennaio 2010). Gli standard di qualità (ISO, 2008) tendono a definire i requisiti minimi nell’erogazione del servizio di pianificazione personale (indipendentemente dalla forma di remunerazione percepita). Questi approcci contribuiscono ad integrare a quelli emersi spontaneamente nella prassi (Sestina, 2000; Kapoor et al., 2004; Armellini et al., 2008) per quanto riguarda le competenze necessarie allo svolgimento dell’attività (tecniche, analitiche, relazionali) e la definizione delle fasi fondamentali del processo di pianificazione finanziaria personale, che in un’ottica integrata prevede: - Una prima fase riguardante gli aspetti preliminari e generali (illustrazione delle informazioni sul consulente e sui servizi offerti; definizione della relazione professionale); - Un’ampia fase relativa all’acquisizione delle informazioni dal cliente, alla verifica delle sue conoscenze ed esperienze in materia di investimenti, e alla definizione dei suoi obiettivi finanziari; l’analisi della situazione economico-finanziaria del cliente va attuata anche attraverso l’utilizzo di prospetti consuntivi e prospettici adattati al contesto (Banca d’Italia, 2009; Cannari et al., 2008; ECB, 2003); la definizione degli obiettivi e della tolleranza al rischio deve tener conto degli aspetti psicologici e di finanza comportamentale (Legrenzi, 2006; Rubaltelli, 2006; Shefrin e Statman, 2000; Motterlini, 2006; 2008); - Una terza fase relativa alla definizione tecnica del piano in un’ottica integrata (combinando vari aspetti di tipo previdenziale, assicurativo e legale), che preveda anche la formulazione dei “consigli” al cliente e la valutazione dell’ “adeguatezza” degli strumenti finanziari, richiesta in particolare dalle norme di legge; - Una quarta fase relativa all’illustrazione e all’implementazione del piano, in cui il consulente affiancherà il cliente (senza, ovviamente, assumere deleghe né detenere somme di denaro); - Una quinta fase di monitoraggio che prevede degli obblighi di rendicontazione nei confronti dei clienti e la ricorsività dell’intero processo di pianificazione sulla base delle esigenze individuate. Non esistono ancora per l’Italia dati ufficiali sul numero di consulenti fee only attualmente in attività, però la crescita dell’interesse verso la professione è testimoniata dalla nascita di alcune associazioni di categoria, che contano su qualche centinaio di iscritti. Alla luce di questi dati l’impatto della consulenza indipendente nelle scelte di investimento delle famiglie italiane può considerarsi comunque molto limitato. Le statistiche per il 2008 (Banca d’Italia, 2009) confermano invece alcune caratteristiche tipiche del sistema finanziario italiano (Capitolo 2): - Oltre il 17% delle attività finanziarie detenute dalle famiglie risultano costituite da investimenti non intermediati in attività produttive, in forma di capitale di rischio, mentre la quota riferita ai mercati azionari risulta vicina al 4%; - Tra le attività a basso profilo di rischio privilegiate dai risparmiatori vi sono quelle destinate alla raccolta degli intermediari (depositi bancari e postali, obbligazioni bancarie); l’investimento in titoli pubblici risulta limitato rispetto al passato; - La “crisi” dei fondi comuni di investimento è evidente per il fatto che le quote detenute non superano il 5% del totale delle attività finanziarie. Nel complesso, l’esposizione delle famiglie verso le attività rischiose risulta limitata e caratterizzata da elevata rischiosità per effetto del modesto ricorso alla delega/diversificazione, come osservato da Barucci (2007). Tale caratteristica è confermata anche dal confronto con l’estero e si può spiegare anche attraverso la mancanza di fiducia nei mercati azionari, che può derivare sia da componenti “oggettive” che da altre “soggettive” (basate su fattori culturali), come osservato anche da Guiso et al. (2007). In generale, in senso dinamico, si rileva una forte influenza delle politiche di offerta delle banche, oltre che dell’andamento dei mercati e dei tassi di interesse, sulle scelte di investimento dei risparmiatori. Se il crollo dei rendimenti dei titoli di stato e l’andamento positivo nei mercati hanno certamente contribuito alla sottoscrizione di quote di fondi comuni nel periodo 1995-1999, in quelli successivi (2000-2005; 2005-2008) si nota un’evidente correlazione negativa tra queste e le riserve tecniche del ramo vita, nonché delle obbligazioni bancarie e di altri depositi, come osservato in (Spaventa, 2008; Banca d’Italia, 2009). Tra il 1999 ed il 2008 il peso dei fondi è sceso dal 16% a meno del 5% con una diminuzione quantificabile in oltre 300 miliardi di euro correnti, dei quali oltre la metà riferibili a flussi di riscatto secondo i dati di Assogestioni (2009). Il deflusso di capitali dai fondi comuni può essere ricondotto ad aspetti specifici quali: - La realizzazione di performance complessivamente negative a fronte di elevati costi di gestione (evidente anche negli studi di Barber et al., 2003; Jain e Wu, 2000; Nanda et al., 2004); nel periodo 1998-2008 l’extra-performance media dei fondi azionari italiani (indici Fideuram) è negativa di oltre 27 punti percentuali, al lordo degli effetti fiscali, rispetto ad un benchmark di azioni dell’Eurozona, mentre i fondi monetari ed obbligazionari cedono circa il 10% ed il 30% rispetto ai relativi benchmark; a risultati simili giungono anche Banca d’Italia (2009), Mediobanca (2009) e Armellini et al. (2008); la media dei Total Expense Ratio oscilla inoltre tra lo 0,74% dei fondi liquidità ed il 2,33% dei fondi azionari, e l’incidenza delle retrocessioni alle reti distributive sul TER è stabile nel tempo e superiore al 70%: viene dunque remunerata l’attività di vendita più che quella di effettiva gestione del patrimonio; - La concentrazione tra attività di asset management e di distribuzione, derivante dal fatto che in Italia le banche, oltre a collocare i prodotti del risparmio gestito, sono proprietarie delle SGR di riferimento: la quota di mercato attribuibile alle SGR indipendenti risulta pari a circa il 6,5% nel 2007, in diminuzione rispetto a quanto osservato tre anni prima; si tratta di un problema riconosciuto dalla stessa Assogestioni (Messori, 2008), e più volte richiamato dal Governatore della Banca d’Italia (Draghi, 2007; 2008); - Il “problema cognitivo”, legato al comportamento non razionale degli investitori, eventualmente non supportati da un servizio di consulenza adeguato (Gualtieri e Petrella, 2006; Spaventa, 2008; Calvet et al., 2007; Legrenzi, 2005; 2006), e che determinerebbe, a livello soggettivo, l’accentuarsi delle performance negative a sfavore degli stessi. Dal punto di vista della consulenza indipendente, nell’analisi dei prodotti del risparmio gestito acquisisce notevole importanza il legame esistente tra commissioni applicate e performance netta (Cesarini e Gualtieri, 2005; Armellini et al., 2008), poiché i costi della gestione dovrebbero in larga parte remunerare il valore aggiunto conferito dagli asset manager, in una filosofia di gestione “attiva”, ovvero che non si limiti alla mera replica di un paniere di attività finanziarie scambiate in un determinato settore/mercato di riferimento (Liera e Beltratti, 2005). Dal momento che ciò molto spesso non avviene, stanno acquisendo sempre maggiore interesse gli Exchange Traded Funds (Capitolo 3), fondi comuni a gestione “passiva” che presentano costi di gestione limitati rispetto a quelli dei fondi, e che sono quotati su mercati regolamentati (Tse, 2008; Lazzara, 2003). Essi rappresentano l’evoluzione degli strumenti di portfolio trading nati alla fine degli anni ’70 nell’America del Nord (Gastineau, 2001). In Italia, le quote di ETF sono state ammesse alla negoziazione nel corso dell’ultimo decennio, in un apposito segmento dedicato di Borsa Italiana (il segmento ETFPlus). Al novembre 2009 risultavano quotati 336 ETF per un patrimonio superiore ai 10 miliardi di euro. Gli ETF sono negoziati in larga parte da investitori al dettaglio poiché il controvalore medio dei contratti risulta vicino a € 25.000 (dati Borsa Italiana). L’offerta di ETF in Italia risulta ampia e diversificata, con il 75% degli ETF di natura azionaria, il 19% di natura obbligazionaria, e la restante parte suddivisa tra liquidità ed indici di commodities. Inoltre, sono presenti anche ETF di tipo “strutturato”, ovvero quelli che, in conformità con la direttiva UCITS III, realizzano strategie di investimento diverse dalla semplice replica passiva di un indice (ad esempio investimento con leva, replica inversa e strategie con opzioni). L’investimento in ETF presenta sostanziali differenze rispetto a quello in fondi comuni al riguardo di una serie di aspetti, e risulta particolarmente interessante dal punto di vista della consulenza indipendente, anche perché nel modello di business degli ETF non è previsto il collocamento diretto dei prodotti, per cui gli investitori normalmente non ricevono alcun tipo di consulenza al riguardo, al di fuori delle attività di comunicazione e di education (comunque non personalizzate) messe in atto direttamente dalle società di gestione. Il compito del consulente, nell’approccio integrato di pianificazione personale, può essere sintetizzato nella risoluzione di un problema di ottimizzazione di portafoglio, tenuto conto delle caratteristiche del cliente soprattutto in termini di capacità e di tolleranza al rischio, nonché dell’orizzonte temporale dell’investimento, nel pieno rispetto del principio di “adeguatezza” introdotto dal legislatore. Le fondamenta teoriche della moderna gestione di portafoglio (Capitolo 4) si devono al modello di ottimizzazione parametrica di Markowitz (1952), modello uniperiodale in cui il rendimento atteso di un portafoglio (così come di una qualunque attività) è definito dalla media della distribuzione dei rendimenti a scadenza dello stesso, ed il rischio è misurato dalla loro varianza. L’evoluzione della teoria del portafoglio e i numerosi contributi provenienti dalla letteratura (non solamente dalle discipline strettamente legate alla finanza dei mercati) hanno messo tuttavia in discussione il concetto di rischio “simmetrico” espresso dalla varianza, che considera alla pari sia i “pericoli” associati ad un investimento, che le “opportunità” che ne derivano. Sulla base del concetto di “downside risk”, strettamente legato alla parte negativa di una distribuzione dei rendimenti, e di maggior intensità emotiva per gli investitori come dimostrato nella teoria del prospetto di Kahnemann e Tversky (1979), si sono proposte misure di rischio specifiche, tese a catturare taluni aspetti associati, ed utilizzabili anche in problemi di ottimizzazione (Chekhlov et al., 2003; Karatzas e Shreve, 1997; Magon-Ismail et al., 2004; Pritsker, 1997; Lucas e Klaasen, 1998). Per la verifica ex-post dell’efficienza dei portafogli attraverso l’analisi delle serie storiche vengono inoltre utilizzati particolari indicatori, detti di risk-adjusted performance (Sharpe, 1966; Treynor, 1965; Sortino e Price, 1994; Jensen, 1969; Modigliani, 1997; Keating e Shadwick, 2002), che sintetizzano in un unico indice una misura di rendimento ed una di rischiosità. Tali misure sono utilizzate in particolar modo nella valutazione dei fondi comuni (Caparrelli e Camerini, 2004; CFS Rating, 2009; Lipper, 2009) ed in generale delle gestioni patrimoniali, e si differenziano l’una dall’altra in particolare per la misura di rischio considerata (Eling e Schuhmacher, 2007; Pedersen e Rudholm-Alfvin, 2003). In generale, ci si aspetta che un qualunque indice di risk-adjusted performance, calcolato per qualunque coppia di portafogli distinti, assuma un valore maggiore per quello che tra i due risulta preferibile. Il modello di Markowitz, oltre che sul concetto di rischio “simmetrico”, si fonda su alcune rilevanti semplificazioni del problema come quella che gli investitori non sostengono dei costi nel momento in cui essi debbono concludere le transazioni di acquisto e di vendita delle attività incluse nel portafoglio. Nel problema specifico introdotto in questa ricerca, la presenza dei costi di transazione di vario genere (Capitolo 5) può influire negativamente sull’efficienza gestionale del portafoglio, producendo effetti indesiderati e determinando la potenziale irrazionalità delle soluzioni. In particolare, all’investimento in ETF si devono associare i costi di negoziazione degli ordini (nella pratica spesso variabili con dei limiti minimi e massimi) e gli spread denaro/lettera (costi lineari rispetto al controvalore negoziato), che come per tutti i titoli quotati variano sia nello “spazio” (da ETF ad ETF) che nel “tempo” (in funzione soprattutto della volatilità degli indici sottostanti). Il problema si complica ulteriormente (Maringer, 2005) con l’introduzione di alcuni vincoli, per esempio sulla cardinalità e sulla composizione del portafoglio, tesi primariamente a riflettere le esigenze specifiche dell’investitore. A questo punto l’ottimizzazione del portafoglio non può essere risolta dalle tecniche tradizionali (basate ad esempio sull’MPT di Markowitz), ed è necessario ricorrere a metodi alternativi (Maringer, 2005; Scherer e Martin, 2005; Satchell e Scowcroft, 2003). Nel corso degli ultimi decenni si sono sviluppate ed hanno assunto sempre maggior rilevanza le tecniche di ottimizzazione euristica, metodi di ricerca (con scopi generali) che derivano le soluzioni ricercando iterativamente e testando le soluzioni migliorate, finché non viene soddisfatto un determinato criterio di convergenza. Gli algoritmi di ottimizzazione euristica si differenziano per una determinata serie di aspetti (Maringer, 2005; Silver, 2002; Winker e Gilli, 2004), ma un tratto comune frequentemente riscontrato è che essi traggono ispirazione da processi riscontrabili in natura, legati ad esempio alla fisica ed alla biologia (in particolare all’evoluzione degli esseri viventi, oppure al comportamento di gruppi di animali alla ricerca di nutrizione). In questa tesi si è scelto di fare particolare riferimento al metodo Particle Swarm Optimization (Kennedy ed Eberhart, 1995; Hernandez et al., 2007; Brits et al., 2002), tecnica basata sulle popolazioni largamente utilizzata, che si ispira al comportamento degli stormi di uccelli o dei banchi di pesci. Questi gruppi di animali rappresentano organizzazioni sociali il cui comportamento complessivo si fonda su una sorta di comunicazione e di cooperazione tra i propri membri. La scelta del PSO è stata effettuata anche in base al fatto che in letteratura l’applicazione di questa tecnica ai problemi di ottimizzazione del portafoglio è limitata a pochi contributi di recente divulgazione (Fischer e Roerhl, 2005; Kendall e Su, 2005; Thomaidis et al., 2008; Cura, 2009), pur essendo stata applicata con successo ad una serie di problemi finanziari (Gao et al., 2006; Nemortaite, 2007; Nemortaite et al., 2004; 2005) Sulla base delle considerazioni espresse finora e nell’obiettivo principale di verificare la concreta possibilità di sviluppo di un metodo efficace e coerente di ottimizzazione di portafogli di ETF, specifico per l’attività di consulenza indipendente, si è proceduto (Capitolo 6) adattando un algoritmo euristico basato sul Particle Swarm (Kaucic, 2010), con l’introduzione di: - Vincoli di cardinalità (minima e massima) del portafoglio e di peso (minimo e massimo) definiti per ciascun asset (generalizzando gli approcci di Gilli et al., 2006; Cura, 2009); - Una soglia di downside risk definita da una misura di Value-at-Risk coerente con l’orizzonte temporale di investimento, per rappresentare i vincoli di capacità ed attitudine al rischio (direttiva MiFID, UNI ISO, 2009); - Funzione obiettivo basata sulla massimizzazione di una misura di risk-adjusted performance basata sull’Expected Shortfall (similmente a Krink e Paterlini, 2009; in parte anche a Bertelli e Linguanti, 2008); - Considerazione di tutti i costi di transazione legati all’investimento in ETF (costi fissi e costi proporzionali diversi per ogni asset), adattando l’approccio di (Maringer, 2005; Scherer e Martin, 2005). I test si sono eseguiti con l’utilizzo di serie storiche e parametri realistici (incluse le statistiche sui bid/ask spread pubblicate da Borsa Italiana ed i TER minimi riscontrabili sul mercato) riferiti ad 89 ETF effettivamente negoziabili sul segmento di Borsa dedicato, con l’obiettivo di valutare: - la coerenza delle soluzioni rispetto alle condizioni poste; - l’impatto dei costi di transazione ed il trade-off con la frequenza di revisione del portafoglio; - la performance ex-post corretta per il rischio (in particolar modo al confronto di investimenti alternativi); - l’applicabilità a portafogli di dimensioni ridotte e con vincoli stringenti; - la coerenza rispetto alla soglia di rischiosità e all’orizzonte temporale definiti. Nel primo test si è simulata la gestione di un portafoglio di € 100.000 nel periodo di tre anni tra dicembre 2006 e dicembre 2009 per un investitore con elevata propensione al rischio ed orizzonte temporale pari al termine del periodo di gestione, restringendo la cardinalità del portafoglio ad un minimo di 5 ed un massimo di 10 asset. La strategia prevedeva una revisione mensile con progressiva riduzione sia della tolleranza al rischio che dell’orizzonte temporale dell’investimento. All’approssimarsi della “scadenza” dell’investimento l’algoritmo di ottimizzazione, in modo coerente rispetto alle ipotesi, ha privilegiato maggiormente gli ETF di tipo obbligazionario ed ha man mano ridotto le attività di effettivo intervento (negoziazione di titoli) per via della conseguente maggiore incidenza dei costi di transazione sui rendimenti attesi. Ciononostante, la performance ex-post della strategia è risultata non soddisfacente, primariamente a causa di un elevato expense ratio annuo (ulteriore rispetto ai TER degli ETF selezionati), superiore al 4% (oltre il 6,5% solo nel primo anno), dovuto all’elevata frequenza di revisione. Il test è stato ricondotto una seconda volta riducendo la frequenza di revisione a trimestrale, con conseguente riduzione dell’expense ratio di circa il 2,5% annuo. Il trade-off tra periodicità di revisione e costi di transazione ha migliorato in questo caso la performance ex-post ad eccezione dei momenti di particolare “turbolenza” dei mercati, quando cioè i benefici della revisione del portafoglio risultano con maggiore probabilità superiori ai costi che ne derivano. Sulla base delle stesse ipotesi, nella strategia si è introdotta pertanto un’ulteriore variante basata su un indice di volatilità implicita, ai fini di intensificare la revisione del portafoglio nei periodi di maggior “stress” dei mercati, riducendo nel contempo la soglia di rischio accettabile. La strategia così modificata si è rivelata in questo caso preferibile anche nei momenti di accentuata volatilità, migliorando ulteriormente la performance a termine di quasi 6 punti percentuali. Risultati migliori si sono riscontrati riducendo ulteriormente la frequenza di revisione programmata, mantenendo nel contempo il meccanismo di “controllo” introdotto in precedenza (nel tentativo cioè di limitare gli interventi al necessario). Per rendere inoltre comparabile la strategia proposta con altre alternative di investimento (quali ETF basati su indici globali e l’indice Fideuram della media dei fondi comuni italiani azionari) si è infine condotto nuovamente il test sulla base delle ipotesi precedenti, ad eccezione di quelle riguardanti orizzonte temporale e livello di rischio tollerato, mantenute costanti per tutto il periodo di osservazione, peraltro ampliato a 4,5 anni (giugno 2005-dicembre 2009). Dal punto di vista della performance, il test produce un extra-rendimento netto medio annuo dell’1% rispetto all’ETF MSCI World e del 3,2% rispetto alla media dei fondi azionari. La volatilità annualizzata, inoltre, risulta notevolmente inferiore a quella dell’ETF azionario globale, ed inferiore, seppur di poco, a quella della media dei fondi. Gli indicatori di downside risk confermano nel complesso la minore rischiosità attribuibile alla strategia proposta, con risultati notevoli soprattutto in termini di Maximum Drawdown e di VaR 95% a 1 e a 10 giorni. Considerando il sottoperiodo di due anni tra il dicembre 2005 ed il dicembre 2007 al fine di garantire un’opportunità di confronto per indici classici di risk-adjusted performance (altrimenti impossibile per via degli extra-rendimenti negativi rispetto al free-risk), la strategia risulta ex-post preferibile (secondo l’indice di Sharpe) a quella di 77 alternative (ETF e media dei fondi) ma inferiore rispetto a quella di altri 13 ETF, risultando perciò non efficiente in senso “classico”. Nella seconda serie di test la strategia proposta ha confermato i risultati soddisfacenti rispetto ai fondi comuni pur riducendo la ricchezza del portafoglio iniziale e limitando l’universo degli asset investibili così come la cardinalità di portafoglio. Infine, nella terza serie di test si è mantenuto stabile l’istante temporale dell’ottimizzazione, facendo variare nel contempo orizzonte temporale e soglia di rischiosità tollerata. Il risultato delle 28 elaborazioni, valutato in termini di asset allocation (ed in particolare del peso ottimo della componente obbligazionaria suggerito dall’algoritmo) mostra la coerenza dell’output rispetto alle condizioni iniziali fissate per ipotesi, considerata anche alla luce dei vincoli imposti. In definitiva, i risultati dei test empirici appaiono soddisfacenti, con la dovuta cautela, e pur rimandando a futuri approfondimenti l’analisi particolareggiata di taluni aspetti, si è osservato che: - L’algoritmo ha prodotto risultati coerenti con le ipotesi assunte, in particolare per quanto attiene alle soglie di tolleranza al rischio e all’orizzonte dell’investimento; - Le strategie formulate hanno prodotto delle performance ex-post elevate in termini di rischio/rendimento rispetto ad investimenti alternativi comparabili (nonostante non si siano introdotte particolari metodologie di previsione per le serie storiche); - Il risultato precedente è confermato anche in presenza di portafogli di dimensioni ridotte, con vincoli particolarmente ristretti sulla cardinalità del portafoglio e con ridotti interventi di riallocazione delle risorse. Il processo di formulazione delle ipotesi, ed in particolare dei parametri relativi ai vincoli, risulta facilmente adattabile alle esigenze specifiche del processo di consulenza. In generale, l’impostazione soddisfa da un lato i requisiti normativi individuati dal Regolamento Consob in tema di consulenza in materia di investimenti, nonché l’approccio proposto dagli standard di qualità, e si colloca facilmente nella fase di definizione tecnica del piano (di cui il consulente è responsabile). L’applicazione degli strumenti richiede in ogni caso la massima sensibilità ed expertise da parte del consulente stesso nell’adattare i parametri del problema alle diverse fattispecie. La congruenza della parte tecnica con il servizio di consulenza finanziaria si fonda anche sulle caratteristiche di: - Ridotta complessità delle attività di negoziazione titoli e di gestione del portafoglio che le strategie proposte implicano; - Vasta accessibilità degli asset considerati; - Scalabilità ed adattabilità delle soluzioni anche nei casi di portafogli di minori dimensioni; - Corretta e completa considerazione dei costi di negoziazione. Se gli opportuni approfondimenti e verifiche confermeranno i risultati empirici ottenuti nella presente ricerca, l’impianto potrà essere ulteriormente sviluppato e migliorato per esempio attraverso: - l’implementazione di un solido ed efficace metodo di previsioni sulle serie storiche; - l’introduzione di elementi di stress testing (ad esempio su variazioni nella correlazione tra gli asset); - l’introduzione di ulteriori vincoli per permettere di introdurre alcuni elementi di formulazione a priori dell’asset allocation strategica desiderata (approccio top-down); - la considerazione di attività finanziarie diverse dagli ETF, sia per perfezionare i rendimenti della parte “non rischiosa” che gli aspetti di natura fiscale, legati in particolar modo alla gestione del credito d’imposta.2710 19140
- «
- 1 (current)
- 2
- 3
- »