Scienze economiche e statistiche
Permanent URI
Settori scientifico disciplinari compresi nell'area 13:
|
Browse
Browsing Scienze economiche e statistiche by Title
Now showing 1 - 20 of 52
Results Per Page
Sort Options
- PublicationAir and rail transport in the Rome-Milan corridor: competition policy implications based on a discrete choice analysis(Università degli studi di Trieste, 2013-04-18)
;Valeri, Eva ;Marcucci, EdoardoDanielis, RomeoIn recent years in Europe the liberalization and privatization processes of the most important transport companies have introduced strong competition elements in traditionally characterized sectors by monopolistic structures and by a strong presence of public ownership. At the same time, a considerable increase of the Antitrust Authorities’ efforts were carried out in order to encourage an effective liberalization of the transport markets. The European Commission has always paid a lot of attention to the Ro-Mi corridor in several commissioned studies. However, these studied are not updated or based on qualitative analysis or do not clearly show the methodology used. The Ro-Mi corridor connects the two most populated and multi-airport cities with especially business passengers. Moreover, the Italian Antitrust Authority has also paid particular attention to this corridor. In fact, recently, an important assessment on the transport substitutability for the Ro-Mi corridor has been formulated, not recognizing the substitutability between air and HSR transport in the Rome-Milan corridor. The Ro-Mi case study is particularly interesting not only for the features of these two cities but also for the recent dynamics observed in both passenger transport markets (e.g. Alitalia-AirOne merger, market entry of Ryanair, market entry of a private HSR operator -NTV-, market entry of Easyjet etc.). The main purpose of this research is to develop choice models to test the travel preferences and competition in the Ro-Mi corridor and simulate operators’ reactions to different and potential policy changes. List of the main research questions: 1) Which attributes are important for the Ro-Mi passengers’ mode choice?; 2) Which are the value of time measures for different types of passengers?; 3) Which are the own and cross-point elasticities of mode choice probabilities?; 4) Which are the market shares in the Ro-Mi corridor? Which are the Ro-Mi passengers’ reactions to hypothetical policy changes?; 5) It is possible to create a Decision Support System to evaluate policy changes?; and, 6) Is there substitutability between Ro-Mi transport operators?.1658 2343 - PublicationAspetti esperenziali nel consumo di caffè.Profili teorici ed applicazioni al segmento moka(Università degli studi di Trieste, 2010-04-26)
;Ampo', AndreaTracogna, AndreaQuesta tesi riguarda lo studio del consumo del caffè preparato con la moka. In particolare ci chiede se, in un gesto di consumo così ordinario e quotidiano, esistano degli aspetti esperienziali e quali essi siano. La letteratura sulle esperienze di consumo ha prevalentemente dedicato la propria attenzione a categorie di prodotti e servizi che vengono identificati come edonici. Sono questi fenomeni di consumo in cui i prodotti e servizi vengono consumati per le loro proprietà intrinseche di piacevolezza. La letteratura ha inoltre sottolineato come il concetto di esperienza straordinaria, dove il livello di coinvolgimento nell’esperienza di consumo è più elevato, si sia sovrapposto al concetto stesso di esperienza di consumo facendo si che poca attenzione venisse dedicata allo studio dei fenomeni di consumo più ordinari e quotidiani. Molto spesso, inoltre, le ricerche empiriche sugli aspetti esperienziali hanno riguardato casi in cui vi fosse un momento di “service encounter”, un momento cioè in cui il consumatore interagisce in modo diretto con il servizio. Il consumo di caffè con la moka è un fenomeno ordinario, quotidiano, in cui non vi è un momento di service encounter e che non possiamo considerare a priori come prodotto edonistico; il consumo del caffè preparato con la moka presenta infatti una componente strumentale, che possiamo individuare nel kick-off dovuto all’assunzione di caffeina. Questo studio dunque contribuisce alla letteratura studiando una tipologia di fenomeno di consumo relativamente poco indagato. A livello metodologico, i blog sono stati individuati come fonte per la raccolta dei dati. Si tratta di dati di tipo qualitativo, in particolare dei testi in cui i blogger descrivono come consumano il caffè ed esprimono le loro preferenze ed opinioni riguardo al caffè preparato con la moka. Il dataset è costituito da 285 pagine web. A tali dati è stato applicato il framework per l’analisi ed interpretazione dei dati qualitativi proposto da Spiggle (1994). Le attività di analisi ed interpretazione hanno consentito di individuare sei categorie tematiche che descrivono l’esperienza di consumo. La prima riguarda gli aspetti sensoriali, la seconda interpreta il consumo di caffè come un momento da dedicarsi, la terza riguarda il piacere connesso alla lentezza nel consumo e nel processo di preparazione, la quarta riguarda il tema della quotidianità ed il senso di conforto che viene associato al caffè preparato con la moka; la quinta categoria riguarda il tema dei ricordi mentre la sesta tratta gli aspetti rituali del consumo.1423 6697 - PublicationAttività di gestione patrimoniale di una società di gestione del risparmio(Università degli studi di Trieste, 2011-04-12)
;Asic, ViktorFanni, MaurizioRiassunto della tesi di dottorato Titolo: “Attività di gestione patrimoniale di una società di gestione del risparmio” Le società di gestione di risparmio costituiscono il “new vehicle” orientato alla gestione per conto di terzi di portafogli mobiliari. Note con l’acronimo di SGR, le società in questione rappresentano un intermediario finanziario che negli ultimi anni ha assunto notevole importanza grazie ai progressi e alle prospettive offerti dalla nuova normativa che disciplina l’intermediazione finanziaria e grazie alle rinnovate esigenze di razionalizzazione dei servizi finanziari. La gestione del risparmio corrisponde all’investimento di milioni di euro in titoli di società quotate in borsa. Il capitale che vi si impiega è alimentato dai risparmi di un’estesa collettività di persone, ma anche da investimenti assicurativi e previdenziali (investimento delle riserve matematiche e tecniche delle imprese di assicurazione, investimento del fondo trattamento fine rapporto, ed altri dipendenti da processi di previdenza sociale). E’ proprio l“asset management” a rappresentare una vasta opportunità di profitto. Dato che sul mercato italiano sono sempre più presenti banche e assicurazioni a capitale estero, il management delle società di gestione di risparmio testimonia anche una sfida sul piano delle tecniche più evolute e competenze sia ai fini della gestione che nell’offerta dei prodotti e servizi finanziari. Nel presente lavoro si è cercato di ricostruire un quadro sufficientemente completo per interpretare il ruolo che una società di gestione del risparmio (SGR) svolge sul mercato del risparmio gestito e del mercato finanziario nel suo insieme, esaminandone la struttura e l’attività di gestione patrimoniale che la caratterizza. Oggetto di questa tesi è, per l’appunto, lo studio dell’attività delle società di gestione del risparmio. Il presente lavoro di tesi si articola in più parti. La prima parte evidenzia il ruolo della società di gestione del risparmio nel sistema finanziario e l’importanza di tale servizio per la stabilità dei mercati finanziari e dell’economia in genere e il ruolo delle istituzioni rilevanti collegate. Tratta anche le principali categorie dei fondi d’investimento: fondi comuni, hedge funds, fondi di fondi, index funds, ETF – exchange traded funds. La seconda parte descrive indici di performance dei portafogli (indici di Jensen, Treynor e Sharpe), asset allocation strategica, rendimento dei portafogli, prodotti e strumenti finanziari (titoli corporate e titoli di stato, azioni), indici di borsa (price, value weighted e unweighted). La terza parte evidenzia in concreto una società di gestione di risparmio italiana, l’attività di gestione patrimoniale per segmento, i fondi pensione aperti come underlying asset, il benchmark quale parametro oggettivo, l’andamento dei mercati finanziari e le prospettive degli stessi. La quarta parte si occupa dell’analisi di portafoglio vs rendimento, con riguardo a fondi pensione aperti, per linea d’investimento, con i rispettivi benchmark e della volatilità dei rendimenti e dei benchmark. L'ultima parte si articola in due fasi: Sintesi dei risultati e conclusioni e testi consultati e bibliografia di riferimento. Oggetto della tesi è dunque lo studio dell'efficienza operativa e della redditività delle società di gestione del risparmio attraverso l'esame di dati professionali. La tesi, in generale, sottolinea la teoria gestionale del portafoglio e gli stili di gestione, valore di capitalizzazione (valore di mercato delle azioni di una società), dati anagrafici dei titoli e oscillazione dei titoli, ed in particolare interpreta i fondi pensione aperti come “underlying asset” delle società di gestione del risparmio. La decisione di sviluppare la gestione del risparmio e la consulenza finanziaria ha assunto una forte valenza strategica per molti intermediari finanziari sia in Italia sia negli altri paesi. Per incrementare stabilmente la redditività nel comparto finanziario è necessario aumentare il valore aggiunto (added value) della propria offerta. La maggior parte dei gestori finanziari continua a porsi l’obiettivo di superare il benchmark di riferimento ma i risultati evidenziano che in molti casi il risultato stesso non è in linea con le aspettative. L’evoluzione nel mondo del risparmio gestito porterà a differenziare in modo più esplicito le gestioni passive (volte a replicare il benchmark di riferimento) dalle gestioni attive (volte al superamento dell’indice puntando sull’attività di stock picking e market timing). E’ presumibile che si possa assistere nei prossimi anni a una più netta differenziazione degli stili di gestione con una più esplicita parametrazione dei costi allo stile di gestione adottato ed ai risultati effettivamente ottenuti. Lo studio svolto ha analizzato il comportamento di fondi pensione aperti come underlying assets delle società di gestione del risparmio. L’importanza dell’asset allocation cresce con la crescita dell’orizzonte operativo (operating time) di riferimento degli investitori. In particolare i fondi pensione dimostrano quanto sia importante la ripartizione iniziale dell’investimento, attribuendo il risultato economico di un investimento su un orizzonte temporale di dieci anni all’asset allocation strategica, stock picking, market timing e altri fattori. È fondamentale ripartire in un modo efficace il capitale tra le varie asset class d’investimento (liquidità, obbligazioni, azioni, fondi comuni d’investimento, ecc). Si devono individuare le categorie di strumenti finanziari che rappresentano combinazioni rischio-rendimento similari e cosi si tende a generare i risultati indipendenti cioè con bassa correlazione. Asset allocation strategica è legata alla condizione soggettiva di chi investe ma asset allocation tattica all’analisi della situazione di mercato attesa. In futuro, lo scopo delle società di gestione del risparmio è di sviluppare l’offerta con innovative strategie di gestione attiva e passiva. Lo studio svolto ha mostrato che la gestione passiva è applicata dai gestori dei fondi comuni d’investimento che hanno come obbiettivo una composizione del portafoglio dei titoli il più possibile in linea con il valore del loro benchmark che è poi un indice di riferimento. Il risultato di questo tipo di gestione è la replica della performance dell’indice di mercato. Una buona gestione passiva è quella che rispetta il benchmark senza aumentare la volatilità del portafoglio. Se la volatilità aumenta, si sopporta un extrarischio che non è motivato dall’extra-rendimento atteso. La gestione attiva è più costosa di quella passiva. Per ottenere una buona gestione attiva è necessario sopportare un extra costo che va a remunerare un team di gestori con superiori skills le cui prestazioni sono ben al di là dei livelli raggiungibili con sofisticati software. Infine, esaminando il problema in oggetto da un osservatorio privilegiato com’è Allianz Spa e Allianz Global Investors SGR e confrontando i rendimenti delle linee d’investimento, nella gestione passiva, con i rispetivi benchmark, possiamo concludere che il successo di una società di gestione del risparmio è legato anche al fatto fi fare parte di un gruppo importante come già sottolineato e di avere un mercato significativo nazionale ed internazionale.2270 6690 - PublicationLe azioni correlate.Tracking Stocks(Università degli studi di Trieste, 2010-04-12)
;Colonnelli De Gasperis, Mattia ;De Ferra, Giampaolo ;Fanni, MaurizioFanni, MaurizioIl lavoro ha ad oggetto l’istituto giuridico delle azioni correlate o di settore (già noto e diffuso in ordinamenti stranieri con il nome tracking stocks e tracking shares), introdotto nell’ordinamento giuridico italiano dalla recente riforma di diritto societario al fine di rendere le forme di finanziamento della società per azioni più efficienti, flessibili e maggiormente adatte alle esigenze degli investitori e dei mercati di capitali. Tale strumento di partecipazione azionaria offre l’opportunità di un investimento remunerato secondo la produttività di uno specifico settore dell’attività esercitata dalla società emittente. Ai sensi del novellato art. 2350, comma 2, c.c., le azioni correlate sono, infatti, “azioni fornite di diritti patrimoniali correlati ai risultati dell’attività sociale in un determinato settore”. Lo studio si apre con l’analisi delle ragioni economico-finanziarie sottostanti l’emissione di tracking stocks, soffermandosi sul diversification discount, la corporate governance, l’asimmetria informativa, le operazioni straordinarie di ristrutturazione aziendale, i particolari equilibri nell’ambito di compagini complesse, l’incentivazione ai managers, la predisposizione di poison pills in caso di scalate ostili. Il precedente storico dell’istituto risale al 1984 quando General Motors al fine di acquisire Electronic Data System attribuì agli azionisti di quest’ultima azioni correlate al core business della medesima società acquisita. La prima operazione europea di ammissione alla quotazione di azioni correlate è avvenuta in Francia nel 2000, anno in cui Alcatel S.A. collocava sul premier marchè azioni correlate all’attività della società controllata Alcatel Optronics. In Italia, le tre società chiuse AIMAG S.p.A. (2006), ATAF S.p.A. (2005) e Friulia S.p.A. (2005) e l’investment company quotata Cape Live S.p.A. (2007) hanno emesso azioni correlate. Vengono approfonditi, tra l’altro, l’ambito di applicabilità dell’istituto, con particolare riguardo alla definizione di settore, alle divisional tracking stocks ed alle subsidiary tracking stocks, e la correlazione dei diritti patrimoniali ai risultati di un settore specifico di attività sociale esercitata dall’emittente (correlazione in senso forte, o close tracking, e correlazione in senso debole, o loose tracking), quale elemento minimo e caratterizzante tale categoria azionaria. Si conclude che sul piano strutturale e funzionale il risultato del settore rappresenta il parametro quantitativo, il criterio, relativo o assoluto, fisso o variabile, per il calcolo della parte di risultato di esercizio di spettanza delle azioni correlate. Sono analizzati, poi, i diritti patrimoniali tipici delle azioni correlate, quali il diritto agli utili, la partecipazione alle perdite ed il diritto alla quota di liquidazione, e i diritti amministrativi, quali il diritto di voto in assemblea generale ed in assemblea speciale, anche nel contesto dell’autonomia statutaria. Il lavoro prosegue con la trattazione del tema dell’accertamento del risultato di settore e delle modalità di rendicontazione da inserirsi all’interno dello statuto. Si argomenta che il risultato di settore non può considerarsi concetto giuridico e/o contabile predefinito e non rappresenta il contenuto del diritto patrimoniale dell’azionista, ma solo un parametro di commisurazione dello stesso, in funzione del criterio di correlazione prescelto. Viene trattato, inoltre, il diritto di conversione delle azioni correlate in azioni ordinarie come meccanismo di exit, funzionale a disciplinare la sorte delle azioni correlate al verificarsi di predeterminati eventi o condizioni. Si esaminano le clausole di conversione ricorrenti nella prassi internazionale, di cui si verifica la compatibilità con l'ordinamento italiano. Infine, vengono identificate le nuove criticità di corporate governance cui le azioni correlate danno luogo, come ad esempio le nuove conflittualità orizzontali tra i soci relative all’allocazione di risorse, delle opportunità d’affari (corporate opportunities), delle spese e dei costi comuni. In tale contesto si forniscono alcuni standards di condotta che gli amministratori di società multi settoriali devono seguire, onde evitare di incorrere in responsabilità verso la società, i soci o i creditori sociali. In tale contesto, si parte dalla constatazione di carattere economico per cui l’impresa multi settoriale è accostabile al fenomeno del gruppo di società ovvero dell’imprenditore-persona fisica o comunque soggetto che abbia rilevanti interessi economici in altre imprese, individuali o collettive. E’ interesse comune a tutti gli azionisti sia che la società mantenga un sano equilibrio economico e finanziario sia che la società venga gestita, nel suo complesso, in modo efficiente. Nel caso in cui la società è insolvente perdono tutti i soci. Una gestione economicamente efficiente conduce alla massimizzazione del valore aggregato delle azioni, cui corrisponde la massimizzazione del valore di ciascuna categoria di azioni, cuore della teoria del c.d. shareholder value. In tale prospettiva l'attenzione si sposta necessariamente sulle modalità gestionali. Infatti, tale interesse comune può essere perseguito esclusivamente attraverso una continua e costante azione perequativa da parte degli amministratori volta ad armonizzare ed ottimizzare il funzionamento particolare di ciascun settore con quello degli altri.4217 3993 - PublicationIl Centro Commerciale nel contesto della Grande Distribuzione Organizzata: analisi fondamentale e Fair Value(Università degli studi di Trieste, 2012-04-16)
;Mattaloni, CristianFanni, MaurizioABSTRACT Il presente studio si sofferma sull’analisi fondamentale delle imprese che usiamo denominare Centri Commerciali e che rientrano nei processi della “Grande Distribuzione Organizzata”. Insieme ad un profilo e ad un inquadramento generale del Centro si metteranno a fuoco i caratteri quali/quantitativi dei fondamentali drivers del valore che caratterizzano il complesso strategico del centro commerciale, vale a dire il suo core business, costruito e posto in azione dagli investitori/fondatori che lo hanno ideato e che hanno pianificato il suo sviluppo. Quanto si dirà da un lato esprimerà una linea guida dei criteri di stima del valore di mercato del complesso strategico del centro commerciale; dall’altro indicherà come l’innegabile forza d’investimento che accompagna la creazione di grandi centri influisca sia sull’assetto delle città, sia sulle loro periferie, sia sull’economia circostante. La straordinaria forza d’investimento immobiliare che presiede all’attivazione dei centri commerciali incide sullo sviluppo micro e macroeconomico dei sistemi sociali e richiama l’esigenza di una rivisitazione del concetto di mercato e di economia di mercato. Invero in termini negoziali occorre considerare l’insieme dei vantaggi e l’insieme degli svantaggi conseguenti alla presenza dei centri commerciali ed alla loro diffusione. Il negoziato economico non può non valutare il rischio del possibile degrado urbanistico delle città, la perdita di valore dei centri storici, il disagio procurato dalla rarefazione dei negozi di vicinato (necessari per gli acquisti da parte di talune fasce sociali), ecc. corrispondenti alla diffusione dei centri commerciali. Ciò significa che la “causa economica” la quale giustifica la legge della domanda e dell’offerta e che è presente quando si debba accettare o respingere l’inserimento di un nuovo centro commerciale deve abbracciare le molte componenti coinvolte configurando un processo che richiede una risposta alla seguente domanda: la scelta di introdurre quel centro commerciale si caratterizza per un’utilità sociale? In una tale prospettiva emerge come l’economia di mercato necessiti di una visione complessiva del sistema dove il concetto di mercato dovrà essere riconsiderato ed esteso. Tale analisi che esula dall’economia del presente lavoro sarà sommariamente evidenziata discutendo del concetto di valore economico totale (VET). L’aspetto segnalato per ultimo va sottolineato. La diffusione dei centri commerciali ed in particolare l'azione della Grande Distribuzione Organizzata influiscono sull'assetto urbano e sociale delle città (negli ultimi anni abbiamo assistito ad una crescita sensibile nel nostro Paese di centri commerciali, supermercati, ipermercati, grandi magazzini, discount, ecc. nel mentre hanno chiuso e stanno ulteriormente riducendosi i piccoli esercizi dei centri cittadini). La prima parte della tesi è strutturata in due sezioni. La prima sezione partendo da un’analisi storica dei primi centri, dalle loro origini sino ai giorni nostri, mette in luce il processo di trasformazione economico, sociale e culturale delle città e degli stili di vita dei consumatori, la qual cosa ha inciso notevolmente sull’economia locale e sulla natura dell’indotto che ruota attorno ai centri commerciali. Nella seconda parte della tesi, divisa in più sezioni, a partire da una descrizione degli investimenti (sia immobiliari che finanziari che immateriali) i quali rappresentano gran parte del valore dei centri commerciali ed alimentano i drivers strategici in termini di creazione di valore e di sviluppo, si conduce un’analisi riferita alle diverse tipologie di centri commerciali. Vengono quindi proposti processi di lettura del contesto aziendale fondati sull’uso della cash flow analysis e del discounted cash flow model. L’analisi fondamentale e di valutazione prosegue tenendo conto del raccordo tra valore dei centri commerciali e costi benefici prodotti nella comunità in cui i centri operano, con ciò determinando l’esigenza che la stima del valore dei centri per quanto riferita al gruppo imprenditoriale coinvolga il contesto economico più vasto in cui i centri sono inseriti. Ancora sia consentita una chiosa finale. La presenza dei centri commerciali influisce o può influire sui corretti processi di acquisizione dei tributi da parte dell’Agenzia delle Entrate. La Finanza Locale, nonostante i nuovi processi di trasferimento delle risorse dallo Stato e di autonomia fiscale, non riesce sempre ad assicurare che i tributi erariali che derivano dai consumatori locali (somme enormi) ricadano e si risolvano a beneficio delle stesse comunità in cui quei redditi si generano, in quanto i versamenti delle imposte sul reddito d’impresa, dell’imposta sul valore aggiunto, ecc., dei grandi gruppi della distribuzione avvengono, nella maggior parte dei casi, dove le società della GDO hanno la sede legale. Le Agenzie preposte alla riscossione delle entrate tributarie nei territori interessati (e quindi le regioni e gli altri enti locali interessati) vedono così riconfigurati (secondo i casi ridotti od aumentati) i loro introiti, non di rado dipendenti dal "riscosso" e non dal “prodotto” in quel territorio. A ciò si associa l’eventualità che gli enti locali si dimostrino interessati ad interventi di "finanza di progetto" la quale implica un nuovo rapporto tra pubblico e privato e chiama in causa interessi sociali ed ambientali dei centri urbani e aspetti di responsabilità e solidarietà sociale delle imprese della GDO le quali suppongono analisi e protocolli particolari.2459 8051 - PublicationControlli doganali e sicurezza portuale(Università degli studi di Trieste, 2013-04-18)
;Palladino, NicolaDanielis, RomeoIl tema della tesi di dottorato si propone di rispondere ad alcuni quesiti che riguardano aspetti cruciali del traffico internazionale delle merci, rispetto alle innovazioni normative degli ultimi anni. In particolare ci si vuole riferire al ruolo del controllo di sicurezza doganale, che deve muoversi parallelamente all’applicazione delle procedure dirette a velocizzare i traffici (quelli leciti, naturalmente). Infatti, secondo il nuovo Codice Doganale Comunitario, il ruolo delle Autorità Doganali comunitarie è radicalmente cambiato, passando da quello di “anello di una catena” (ruolo ostico ed osteggiato, anziché visto come ruolo di garanzia) a quello di supervisore settoriale della liceità e sicurezza dei trasporti. La questione si rivolge ai porti marittimi, giacchè la stragrande maggioranza dei traffici commerciali mondiali si svolge via mare ed è su tale settore, quindi, che le attenzioni degli Operatori si sono rivolte per garantire ed assicurare il massimo rendimento (o un giusto equilibrio) tra le agevolazioni accordate e concesse dalle norme vigenti ed i livelli di “security”. In tale prospettiva, infatti, Organizzazione ed Istituzioni, nazionali ed internazionali, hanno sentito la necessità di affrontare questioni molto scottanti e specifiche, che riguardano la sicurezza degli stati e delle proprie infrastrutture, nonché la sicurezza dei cittadini, intesa in senso lato, quale “security” e “safety”. Il lavoro svolto si articola in tre parti: - Nella prima parte (capitolo 2) viene inquadrato il problema della security nei trasporti marittimi e nei porti: la domanda posta riguarda il perché si siano considerati a rischio sicurezza i porti ed il traffico commerciale via mare. Vengono evidenziati gli elementi di base che coinvolgono la sicurezza nei porti, con una panoramica di dati e grafici legati alle tipologie, quantità e crescita dei traffici commerciali marittimi, individuando, poi, i vari aspetti del significato di “security” nel traffico commerciale via mare e nella sicurezza degli impianti portuali; - Nella seconda parte (capitoli 3 e 4) vengono evidenziati gli ambiti di intervento dei controlli di sicurezza, relativamente ai settori maggiormente a rischio: si passa dall’immigrazione clandestina, al traffico di armi e di distruzione di massa, al traffico di stupefacenti, al traffico di rifiuti, al riciclaggio di denaro legato alle attività di gruppi criminali e terroristici. Prosegue questa parte con l’analisi dell’attività dell’Autorità Doganale, con i raccordi a livello dell’Unione Europea, evidenziando gli strumenti normativi ed organizzativi a disposizione: dalle norme del Nuovo Codice Doganale Comunitario, ai compiti propri della Dogana in materia di controlli di sicurezza, al raccordo comunitario del management in tale materia, alle varie raccomandazioni pervenute tramite l’Organizzazione Mondiale delle Dogane. E’ proprio l’organizzazione del management e la struttura dei controlli doganali che si evidenziano con maggior forza, poiché la struttura comunitaria di management (Common Risk Management System), l’attività di analisi dei rischi e previsionale, l’acquisizione anticipata dei dati relativi ai traffici commerciali marittimi (Entry Summary Declarations, ENS, e le Export Summary Declarations, EXS), consentono di interagire a più livelli tra i vari Enti, pubblici e privati, per migliorare ed alzare un maggior livello di contrasto ai fini della sicurezza, con una “compliance” come nel caso degli A.E.O. (Operatore Economico Autorizzato); - La terza parte (capitolo 5) è dedicata ad un’analisi della valutazione dei costi legati alla sicurezza dei controlli doganali; si sviluppano alcune teorie riguardo alla molteplicità degli interventi in tale ambito, che fanno emergere una oggettiva difficoltà di valutazione di tali studi, data la rilevante presenza di variabili riguardo alla prevenzione, al contrasto ed alla repressione di attività e commerci a rischio sicurezza, per analizzare più nel dettaglio una serie di studi effettuati negli Stati Uniti d’America relativamente ad ipotesi di attacchi terroristici nei porti di Los Angeles e Long Beach, ove l’attenzione è stata posta sull’impatto economico derivante da danni alle infrastrutture portuali ed alle ricadute nel medio-termine sull’economia locale, più che su quella di scala nazionale. Gli unici riferimenti reali, comunque, si riferivano a dati conosciuti, riguardanti l’impatto di uno sciopero degli operatori portuali nel 1962 ed i costi sostenuti a seguito dei danni prodotti dall’uragano Katrina nel porto di New Orleans. Il capitolo 6 è indirizzato alle conclusioni del lavoro. In particolare, riferendosi innanzitutto all’introduzione (capitolo 1), il problema era stato inquadrato nell’ambito dei controlli di sicurezza previsti a livello comunitario sul traffico marittimo delle merci e sugli oneri posti in carico alle varie Autorità Doganali a seguito degli attacchi terroristici, iniziati con l’attacco alle Torri Gemelle di New York l’11 settembre 2001. Il costante aumento dei traffici commerciali via mare ed il potenziale rischio di attacchi al territorio ed ai cittadini dell’Unione Europea perpetrabili attraverso il commercio internazionale hanno posto le basi per una stringete attività in materia di controlli doganalui di sicurezza. Il compito che si è proposta l’Unione Europea e le Autorità Doganali dei paesi Membri è quello di trovare un giusto equilibrio tra la velocizzazione delle procedure doganali ai fini di una maggiore fluidità dei trasporti e l’efficacia di controlli, intesi ad assicurare una ragionevole sicurezza sia ai cittadini dell’Unione, che ai commerci, per finire alla sicurezza legata alla salute ed all’ambiente, il tutto con una sostenibilità dei costi che non fosse sproporzionata rispetto alle attese. Lo scopo indiretto era anche quello di provare a delineare un quadro degli aspetti di controlli di security nell’ambito delle attribuzioni del Punto Franco di Trieste. E si è individuata, così, la possibilità che lo status di Punto Franco, unito alle norme già esistenti in tema di depositi fiscali e doganali, insieme alla previsione normativa comunitaria ancora da attuare, connessa al luogo di presentazione delle dichiarazioni doganali (ufficio doganale più vicino al luogo di residenza dell’operatore), unitamente alle procedure doganali in materia di controlli di sicurezza ed alla logistica ed all’informatizzazione delle movimentazioni delle merci nel Punto Franco stesso, possa divenire un sistema, uno strumento cui poter attingere per migliorare e sviluppare i traffici marittimi, in considerazione del fatto che il porto, con tutti i magazzini già esistenti, potrebbe essere visto come un enorme distripark, smistamento di merci (quasi) in linea, sia in entrata che in uscita dal territorio dell’Unione, dal moment o che la stessa normativa comunitaria permette l’uso dei depositi nel Punto Franco per lo stoccaggio di merci allo stato estero, da un lato, e merci nazionali e comunitarie, dall’altro.2704 2018 - PublicationCredit rating ed il ruolo delle ECAI nell'approccio standard(Università degli studi di Trieste, 2008-04-14)
;Paparotti, DanieleCappelletto, RobertoNel lavoro viene dato risalto alla nuova figura delle agenzie esterne per la valutazione del rischio (External Credit Assessment Institutions - E.C.A.I.) e soprattutto si dimostra come importante sia stato il lavoro di definizione delle caratteristiche che le stesse devono possedere per poter essere riconosciute dall'autorità di vigilanza. Si evidenziano le scelte fatte dall'organismo di vigilanza nazionale e come tali scelte verranno ad incidere sull'operatività delle E.C.A.I. e sulla loro capacità di assegnare rating. Attraverso quest'evoluzione del cammino normativo viene descritta quale sia oggi, ma soprattutto quale possa essere, il mercato del rating (in particolare in Italia). Sempre in tema di definizione dei confini di operatività di tali agenzie vengono delineati e discussi gli steps fondamentali che le stesse debbono intraprendere al fine del processo di riconoscimento. L'ultima parte del lavoro indaga i possibili risvolti che l'applicazione della metodologia standard potrebbe avere sul mondo del credito. L'obiettivo, in questo caso, è dimostrare come una sistematica adozione del metodo standard possa permettere, allo stesso mondo bancario, una maggiore conoscenza del reale profilo di rischio dei portafogli di esposizioni delle banche.1282 15745 - PublicationDa DAF a CFO: perché la funzione AFC assume carattere di indirizzo strategico anche nell'impresa italiana(Università degli studi di Trieste, 2008-04-14)
;Gori, Leonella ;Dallocchio, MaurizioDallocchio, MaurizioLa tesi sviluppa il tema dell’evoluzione della professionalità amministrativo-finanziaria nel nostro Paese, alla luce delle nuove esigenze emerse nel mondo imprenditoriale e nel sistema produttivo italiano. Una breve prospettiva storica introduce l’argomento, corredata da una review bibliografica della letteratura finanziaria sull’argomento. • Segue una disamina dell’evoluzione, anche normativa, in Italia e nei Paesi anglosassoni in tema di competenze e attività richieste a chi opera nell’area finanziaria con riferimenti alla nuova legge sul risparmio, al Sarbanes Oxley Act e a Basilea 2. • La tesi esplicita i risultati di una survey presso esponenti di spicco dell’area finanziaria in aziende domestiche di grande dimensione, per lo più quotate. Il tema trattato è rilevante anche alla luce dei più di trenta workshop organizzati nel solo 2007 in Italia aventi ad oggetto tali studi, con la partecipazione di personalità di rilievo del mondo sia accademico sia professionale.1757 6700 - PublicationDo target prices predict rating changes?(Università degli studi di Trieste, 2008-04-14)
;Pettinato, Ombretta ;Dallocchio, Maurizio ;Dallocchio, MaurizioBonini, StefanoBoth rating agencies and stock analysts evaluate publicly traded companies and communicate their opinions to investors. Empirical evidence indicates that stock prices react to both bond rating changes (at least downgrades) and changes in analysts’ earning forecasts, suggesting that both pieces of information are valuable to investors. While most academic research has been focused on studying the impact of rating actions on bond prices, stock returns or earning forecasts, surprisingly, the relationship between target prices and rating actions has remained essentially unexplored. Our study contribute to the existing literature by providing an evidence, not yet explored, of any anticipation in target prices revision prior to a rating actions, in order to analyze the ability of equity analysts to predict the decisions of the main rating agencies. Moreover, our work is related to the empirical literature that investigates the optimism of analysts’ recommendations and we provide evidence about the mean target price to current price ratio for the Italian market. Using a large and unique database, we find that TP/P ratio over the period 2000-2005 is 1,15, that is target prices are 15% higher than current stock prices. The motivation of this research stems from the empirical evidences that 1) target prices are statements incorporating earnings forecasts, which have proven to be meaningfully correlated with rating actions ,2) target prices revisions are released much more frequently than rating actions 3) downgrades (upgrades) associated with negative (positive) revision of the firm’s prospective cash flows will negatively(positively) affect bondholders and, to a larger extent, equity holders who have secondary claims compared to debt. On the basis of a set of hypotheses, we expect that downgrades can be anticipated by a reduction in target prices and that, in the case of upgrades, the anticipation effect should be more evident. Changes in target prices prior to rating actions are estimated, controlling for the anticipations through watches and the sector of the rated firm. Using a complete and unique data set of rating actions released by Moody’s, Standard & Poor’s and Fitch from 1st January 2000 to 31st December 2005, for the Italian listed firms and for an European sample, we find that positive rating events are anticipated by consistent increases of the target prices released in the four months before the rating action. The evidence is less clear for negative rating events, since significant reductions in target prices are observable only in a shorter window (three months). Our results reflect analysts’ overly-optimistic behavior and the fact that they are less likely to reduce than to increase target prices over time. Results also differ controlling by the sector. Looking at the Italian sample (composed mainly by financial firms) and at the European financial sub sample we find that: target prices reduction prior to a downgrade is highly evident in the financial sector while it is not clear at all for the non financial sector. According to Gropp and Richards (2001) and Schweitzer et al. (1992), we thus observe strong differences between the two groups of issuers (financial and industrial ones). We argue that the different regulatory regimes, which imply different degrees of transparency, could explain the asymmetric behavior of target prices. We finally investigate whether the anticipation of a rating action by a watch list in the same direction, may influence our results. In this paper, we follow Hand et al. [1992] and use credit watches in two ways. First, we examine changes in target prices around credit watches, testing whether they contain relevant market information. Second, we use them as a means of distinguishing between contaminated and uncontaminated ratings changes. As in Hand et al. [1992] we argue that a ratings change that is preceded by a ratings watch in the same direction should be largely anticipated and, hence, should be associated with significant changes in target prices. Comparing the average change in target price for contaminated versus uncontaminated rating actions, we find that contaminated downgrades show more pronounced reductions in target price over time while there is no significant difference for upgrades. This difference can be explained according to whether or not the watch list was released during the four months prior to the rating action, corresponding to our observation window. Since watch lists are usually released on average three months before the downgrade, they fall into our observation window, bringing with them a further reduction in target price. Overall, the results suggest that target prices may perform a useful role in anticipating rating changes and confirm prior evidence that rating actions can be predicted from publicly available information, at least for financial sector. The remainder of this work is organized as follows. Chapter 1 discusses the main informational content of ratings, rating criteria and procedures. Following that, in Chapter 2, we examine the main content of reports on Italian stocks, to find out the evaluation method used to get the final recommendation and the main differences between analysts’ justifications for reports that disclose target prices versus those that do not. The different disclosure levels of target prices across stock recommendations suggest that analysts are more inclined to provide them when their recommendations are more favorable (i.e., Buy or Strong Buy) than they are when their recommendations are less favorable (i.e., Hold). Finally, in Chapter 3, we investigate whether ratings actions can be predicted from publicly available information by examining any target price changes prior to the rating action, on the basis of a set of hypotheses to be tested. The research design and methodology are described in Chapter 3, along with the main conclusions of the empirical evidence. The work closes with a summary and suggestions for future research.1290 4208 - PublicationI driver del Global logistics network design nel legame economia, trasporti e logistica - aspetti teorici e casi applicativi(Università degli studi di Trieste, 2011-04-26)
;Della Puppa, MarcoMazzarino, MarcoLa tesi di dottorato si sviluppa avendo come punto di partenza un filone secondo il quale la ricerca scientifica nelle discipline del logistics management e dell’economia spaziale procede autonomamente facendo si che i due ambiti di ricerca risultano essere slegati pur essendovi alcuni elementi che li accomunano; per questo motivo viene proposta una agenda di ricerca finalizzata all’integrazione delle due al fine di creare un nuovo sistema di supporto alle decisioni per le politiche logistico/trasportistiche in capo al pianificatore pubblico. Più in particolare è posto l’accento principalmente su due specifici problemi di ricerca aperti dei quali il primo può essere considerato funzionale al secondo. In quest’ottica se il primo è volto all’ulteriore approfondimento dei principali driver firm level che stanno alla base delle configurazioni oggi assunte dalle reti logistiche globali (global logistics network design), l’altro filone è finalizzato allo sviluppo di nuovi modelli interpretativi dei legami tra la logistica in un’ottica aggregata (che supera quindi la visione puramente micro a favore dei livelli meta e macro) e l'economia regionale/spaziale. In altre parole essendo il logistics management focalizzato sulle dinamiche dell’impresa, la sfida proposta consiste nel capire ancora meglio le dinamiche logistico-trasportistiche micro indotte dai recenti fenomeni di globalizzazione in modo da poter elaborare, in step successivi, modelli logistici aggregati (meta e macro appunto, quali possono essere ad esempio quelli distrettuale/locale e regionale) che possano essere utili a meglio comprendere quale è il ruolo della logistica (e del logistics network design più precisamente), come evoluzione del trasporto, nell’ambito delle relazioni economiche a livello spaziale e quindi nella spatial economics. La tesi si è inserita all'interno del primo dei due ambiti di ricerca individuati, ossia quello finalizzato all'ulteriore approfondimento delle tematiche attinenti i trasporti e la logistica facendo particolare riferimento ai driver, cioè alle forze che determinano l'evoluzone globale della logistica, nonchè ai connessi aspetti decisionali e comportamentali che stanno alla base delle attuali configurazioni di logistics network design. Più in particolare obiettivo specifico della tesi è verificare, attraverso l'analisi di una serie di casi studio, quali sono i driver sottostanti i processi decisionali e comportamentali che hanno portano al (ri)disegno dei network logistici considerati. Dal punto di vista metodologico il lavoro si articola in quattro parti. Nella prima parte, muovendo da un’analisi della letteratura scientifica, sarà preso in esame il legame trasporti, logistica ed economia ed esplicitato perchè è opportuno progredire nella sua conoscenza sia a fini positivi che normativi. Per quanto riguarda la finalità positiva di approfondimento della conoscenza del legame, partendo dalla disamina di ciò che accomuna i trasporti e la logistica (come evoluzione del trasporto) con l'economia regionale/spaziale, sono analizzati i processi di evoluzione dei trasporti con particolare riferimento all'evoluzione del concetto di "costo del trasporto" ed esplicitati i punti di vista (gli approcci) dai quali il legame può essere analizzato. In relazione alla seconda, quella normativa, si va invece a verificare come una più approfondita conoscenza del legame economia-trasporti-logistica oltre alla finalità di arricchimento scientifico ha anche un risvolto normativo, ossia si configura quale elemento utile ai soggetti chiamati a pianificare le reti logistico-trasportistiche a livello territoriale. Nella seconda parte ci si concentra a livello micro e si entra nella c.d. black box della logistica prendendo in esame la letteratura sul logistics management. Più in particolare si va a vedere quali sono le principali problematiche logistico-trasportistiche generate dai recenti fenomeni di globalizzazione dell'economia, quali sono le forze (i driver) alla base dell'attuale evoluzione globale della logistica e più specificamente della (ri)configurazione globale dei network logistici. Nella terza parte del lavoro, ricorrendo ad un framework analitico che si basa su pecifiche metodologie proposte dal logistics management, vengono analizzati una serie di case study appartenenti sia al versante domanda che a quello dell'offerta logistico-trasportistica. Il framework applicato si sviluppa attorno due “sotto-metodologie” complementari che intendono descrivere i casi ponendosi in una prospettiva che abbraccia tanto le strategie e le soluzioni adottate in passato quanto quelle attuali in modo da evidenziare i processi di evoluzione delle configurazioni di network design implementate in risposta ai driver evolutivi. Più nello specifico la prima delle due “sotto-metodologie” si concretizza in uno schema di analisi dei processi e delle attività logistiche finalizzata alla ricostruzione della catena logistico-produttiva/supply chain nelle sue diverse componenti approvvigionamento, produzione e distribuzione; la seconda è invece finalizzata ad identificare le strategie, i modelli operativi e le pratiche operative (logistico-trasportistiche) contestualizzate rispetto l’ambiente in cui le imprese sono calate. Le evidenze emerse nella terza parte sono oggetto di elaborazione all'interno della quarta, quella il cui obiettivo (che è anche obiettivo della tesi) è fornire un contributo alla comprensione delle forze (cioè dei driver) che hanno determinato i processi di (ri)disegno delle reti logistiche globali. In altre parole ciò che si vuole ottenere è una maggiore chiarezza di quali sono i motivi che, in chiave del mantenimento o dell'accrescimento della competitività globale, hanno indotto una serie di imprese ad intraprendere dei percorsi di (ri)disegno delle proprie reti logistico-trasportistiche e di capire altresì quali sono le soluzioni logistico-trasportistiche concretamente implementate in risposta a tali forze.1261 4759 - PublicationEnergie rinnovabili: approcci valutativi ed analisi comparata delle società quotate operanti nel settore(Università degli studi di Trieste, 2011-04-12)
;Vittorioso, GianlucaFanni, MaurizioCon il presente lavoro si propone di descrivere lo stato dell’arte del settore delle energie rinnovabili ed effettuare un'analisi delle società quotate operanti nel settore delle rinnovabili.1786 17521 - PublicationEvolutionary computation for trading systems(Università degli studi di Trieste, 2008-04-14)
;Kaucic, MassimilianoMillossovich, PietroEvolutionary computations, also called evolutionary algorithms, consist of several heuristics, which are able to solve optimization tasks by imitating some aspects of natural evolution. They may use different levels of abstraction, but they are always working on populations of possible solutions for a given task. The basic idea is that if only those individuals of a population which meet a certain selection criteria reproduce, while the remaining individuals die, the population will converge to those individuals that best meet the selection criteria. If imperfect reproduction is added the population can begin to explore the search space and will move to individuals that have an increased selection probability and that hand down this property to their descendants. These population dynamics follow the basic rule of the Darwinian evolution theory, which can be described in short as the “survival of the fittest”. Although evolutionary computations belong to a relative new research area, from a computational perspective they have already showed some promising features such as: • evolutionary methods reveal a remarkable balance between efficiency and efficacy; • evolutionary computations are well suited for parameter optimisation; • this type of algorithms allows a wide variety of extensions and constraints that cannot be provided in traditional methods; • evolutionary methods are easily combined with other optimization techniques and can also be extended to multi-objective optimization. From an economic perspective, these methods appear to be particularly well suited for a wide range of possible financial applications, in particular in this thesis I study evolutionary algorithms • for time series prediction; • to generate trading rules; • for portfolio selection. It is commonly believed that asset prices are not random, but are permeated by complex interrelations that often translate in assets mispricing and may give rise to potentially profitable opportunities. Classical financial approaches, such as dividend discount models or even capital asset pricing theories, are not able to capture these market complexities. Thus, in the last decades, researchers have employed intensive econometric and statistical modeling that examine the effects of a multitude of variables, such as price- earnings ratios, dividend yields, interest rate spreads and changes in foreign exchange rates, on a broad and variegated range of stocks at the same time. However, these models often result in complex functional forms difficult to manage or interpret and, in the worst case, are solely able to fit a given time series but are useless to predict it. Parallelly to quantitative approaches, other researchers have focused on the impact of investor psychology (in particular, herding and overreaction) and on the consequences of considering informed signals from management and analysts, such as share repurchases and analyst recommendations. These theories are guided by intuition and experience, and thus are difficult to be translated into a mathematical environment. Hence, the necessity to combine together these point of views in order to develop models that examine simultaneously hundreds of variables, including qualitative informations, and that have user friendly representations, is urged. To this end, the thesis focuses on the study of methodologies that satisfy these requirements by integrating economic insights, derived from academic and professional knowledge, and evolutionary computations. The main task of this work is to provide efficient algorithms based on the evolutionary paradigm of biological systems in order to compute optimal trading strategies for various profit objectives under economic and statistical constraints. The motivations for constructing such optimal strategies are: i) the necessity to overcome data-snooping and supervisorship bias in order to learn to predict good trading opportunities by using market and/or technical indicators as features on which to base the forecasting; ii) the feasibility of using these rules as benchmark for real trading systems; iii) the capability of ranking quantitatively various markets with respect to their profitability according to a given criterion, thus making possible portfolio allocations. More precisely, I present two algorithms that use artificial expert trading systems to predict financial time series, and a procedure to generate integrated neutral strategies for active portfolio management. The first algorithm is an automated procedure that simultaneously selects variables and detect outliers in a dynamic linear model using information criteria as objective functions and diagnostic tests as constraints for the distributional properties of errors. The novelties are the automatic implementation of econometric conditions in the model selection step, making possible a better exploration of the solution space on one hand, and the use of evolutionary computations to efficiently generate a reduction procedure from a very large number of independent variables on the other hand. In the second algorithm, the novelty is given by the definition of evolutionary learning in financial terms and its use in a multi-objective genetic algorithm in order to generate technical trading systems. The last tool is based on a trading strategy on six assets, where future movements of each variable are obtained by an evolutionary procedure that integrates various types of financial variables. The contribution is given by the introduction of a genetic algorithm to optimize trading signals parameters and the way in which different informations are represented and collected. In order to compare the contribution of this work to “classical” techniques and theories, the thesis is divided into three parts. The first part, titled Background, collects Chapters 2 and 3. Its purpose is to provide an introduction to search/optimization evolutionary techniques on one hand, and to the theories that relate the predictability in financial markets with the concept of efficiency proposed over time by scholars on the other hand. More precisely, Chapter 2 introduces the basic concepts and major areas of evolutionary computation. It presents a brief history of three major types of evolutionary algorithms, i.e. evolution strategies, evolutionary programming and genetic algorithms, and points out similarities and differences among them. Moreover it gives an overview of genetic algorithms and describes classical and genetic multi-objective optimization techniques. Chapter 3 first presents an overview of the literature on the predictability of financial time series. In particular, the extent to which the efficiency paradigm is affected by the introduction of new theories, such as behavioral finance, is described in order to justify the market forecasting methodologies developed by practitioners and academics in the last decades. Then, a description of the econometric and financial techniques that will be used in conjunction with evolutionary algorithms in the successive chapters is provided. Special attention is paid to economic implications, in order to highlight merits and shortcomings from a practitioner perspective. The second part of the thesis, titled Trading Systems, is devoted to the description of two procedures I have developed in order to generate artificial trading strategies on the basis of evolutionary algorithms, and it groups Chapters 4 and 5. In particular, chapter 4 presents a genetic algorithm for variable selection by minimizing the error in a multiple regression model. Measures of errors such as ME, RMSE, MAE, Theil’s inequality coefficient and CDC are analyzed choosing models based on AIC, BIC, ICOMP and similar criteria. Two components of penalty functions are taken in analysis- level of significance and Durbin Watson statistics. Asymptotic properties of functions are tested on several financial variables including stocks, bonds, returns, composite prices indices from the US and the EU economies. Variables with outliers that distort the efficiency and consistency of estimators are removed to solve masking and smearing problems that they may cause in estimations. Two examples complete the chapter. In both cases, models are designed to produce short-term forecasts for the excess returns of the MSCI Europe Energy sector on the MSCI Europe index and a recursive estimation- window is used to shed light on their predictability performances. In the first application the data-set is obtained by a reduction procedure from a very large number of leading macro indicators and financial variables stacked at various lags, while in the second the complete set of 1-month lagged variables is considered. Results show a promising capability to predict excess sector returns through the selection, using the proposed methodology, of most valuable predictors. In Chapter 5 the paradigm of evolutionary learning is defined and applied in the context of technical trading rules for stock timing. A new genetic algorithm is developed by integrating statistical learning methods and bootstrap to a multi-objective non dominated sorting algorithm with variable string length, making possible to evaluate statistical and economic criteria at the same time. Subsequently, the chapter discusses a practical case, represented by a simple trading strategy where total funds are invested in either the S&P 500 Composite Index or in 3-month Treasury Bills. In this application, the most informative technical indicators are selected from a set of almost 5000 signals by the algorithm. Successively, these signals are combined into a unique trading signal by a learning method. I test the expert weighting solution obtained by the plurality voting committee, the Bayesian model averaging and Boosting procedures with data from the the S&P 500 Composite Index, in three market phases, up-trend, down- trend and sideways-movements, covering the period 2000–2006. In the third part, titled Portfolio Selection, I explain how portfolio optimization models may be constructed on the basis of evolutionary algorithms and on the signals produced by artificial trading systems. First, market neutral strategies from an economic point of view are introduced, highlighting their risks and benefits and focusing on their quantitative formulation. Then, a description of the GA-Integrated Neutral tool, a MATLAB set of functions based on genetic algorithms for active portfolio management, is given. The algorithm specializes in the parameter optimization of trading signals for an integrated market neutral strategy. The chapter concludes showing an application of the tool as a support to decisions in the Absolute Return Interest Rate Strategies sub-fund of Generali Investments.2367 4294 - PublicationFair value disclosure, rischio di liquidità e rendimenti azioneri. Un'analisi empirica sulle imprese europee finanziarie e non finanziarie(Università degli studi di Trieste, 2011-04-12)
;Giannozzi, AlessandroRoggi, OlivieroGli anni 2007-2010 hanno visto il verificarsi di sconvolgimenti economici i quali hanno segnato profondamente i mercati finanziari globali, provocato il fallimento di numerosi istituti bancari, e diffuso tra gli investitori il timore di una depressione della portata analoga a quella del 1929. Tali eventi hanno dato inizio ad un acceso dibattito inerente la regulation dei mercati finanziari e del sistema bancario e gli interventi necessari a garantire la stabilità finanziaria. In tale contesto, alcuni studiosi hanno fortemente criticato la valutazione delle attività e delle passività secondo il principio del Fair Value. Il presente studio ha l’intento di indagare un particolare aspetto della Fair Value Accounting: la valutazione degli strumenti finanziari secondo il criterio del Fair Value e la loro separazione in tre differenti livelli di liquidità. I principi contabili internazionali, infatti, impongono di evidenziare separatamente gli assets e le passività valutate al fair value sulla base di tre metodologie: quoted market prices (mark to market), valuation techniques - market observable input, valuation techniques - non observable input. Tali metodologie considerano l’utilizzo di prezzi di mercato quotati su mercati con un alto numero di contrattazioni (cd. mark to market o livello 1), l’uso di transazioni simili e recenti o di strumenti finanziari analoghi quotati su mercati attivi (cd. livello 2) e, infine, il ricorso a modelli finanziari nei quali non si necessita di prezzi di mercato (cd. mark to model o livello 3). L’obiettivo specifico del presente lavoro è quello di verificare se il fair value informa gli investitori sul rischio di liquidità delle imprese europee finanziarie e non finanziarie e, di conseguenza, se le informazioni sul rischio di liquidità sono utili per gli investitori. Analizzeremo le reazioni degli investitori di fronte a N key-crisis events (liquidity contracting events e liquidity expanding events) avvenuti nel corso della recente crisi finanziaria con lo scopo di verificare se tali reazioni sono condizionate dai tre livelli di liquidity risk disclosure previsti dalla fair value accounting. Questo approccio consente di valutare la rilevanza che le risk information, insite nella fair value hierarchy, hanno sul valore di mercato delle imprese e fornisce indicazioni ai regulators circa l’utilità della fair value disclosure. L’analisi empirica è stata condotta su 313 imprese finanziarie e non finanziarie facenti parte dell’Indice Eurostoxx. Si è analizzata la reazione degli investitori, misurata attraverso i rendimenti azionari (Abnormal Return), in occasione di determinati eventi espansivi e restrittivi della liquidità a livello macroeconomico. La relazione tra gli Abnormal Return, quale variabile dipendente, e i tre livelli del fair value disclosure, quali variabili indipendenti, è stata indagata attraverso l’utilizzo di metodologie econometriche quali la regressione OLS, la regressione OLS con effetti fissi e, quale metodo di controllo, la regressione Partial Least Squares.1728 7151 - PublicationFondamenti logici del corporate credit rating ed efficienza informativa(Università degli studi di Trieste, 2009-04-06)
;Vento, Francesca ;Fanni, MaurizioFanni, MaurizioIntermediari creditizi ed agenzie di credit rating svolgono un ruolo decisivo nell’attenuare gli effetti distorsivi della distribuzione asimmetrica delle informazioni cui sono intrinsecamente soggette le transazioni che si pongono in essere tra datori e prenditori di fondi, i quali soli hanno piena conoscenza del proprio, effettivo, merito di credito. In particolare, nel mercato creditizio, le banche, interponendosi tra soggetti in surplus e soggetti in deficit, si sostituiscono agli investitori nel selezionare le alternative di finanziamento, svolgendo per essi il processo di raccolta, di analisi, e di elaborazione delle informazioni relative alla capacità di credito delle possibili controparti, favorendo in ultimo la riduzione dei costi di transazione e di gestione delle informazioni. Analogamente, nel mercato obbligazionario, ove unità in surplus ed unità in deficit si interfacciano in modo diretto, le agenzie di rating si interpongono tra investitori ed emittenti di strumenti di debito, assumendo tuttavia il differente ruolo di “brokers informativi”, ovvero di operatori specializzati nella raccolta e nell’elaborazione delle informazioni circa lo standing creditizio dell’emittente, e nella successiva sintesi e divulgazione delle stesse attraverso un giudizio espresso da un simbolo alfabetico, il credit rating, in grado di comunicare in modo semplice ed immediato agli investitori l’opinione dell’agenzia circa l’idoneità dell’emittente di provvedere in modo esatto e puntuale sia al rimborso del capitale, sia al pagamento degli interessi relativi ad una o più emissioni di debito. Invero, a nostro avviso, è ragionevole ritenere che la reale portata del ruolo assolto da intermediari creditizi ed agenzie di rating nel contrastare le asimmetrie informative tra datori e prenditori di fondi, e l’effettiva efficacia del loro intervento nel promuovere l’efficienza del mercato creditizio ed obbligazionario possano dipendere dalla natura delle informazioni che tali soggetti scelgono di porre a fondamento delle valutazioni relative al merito di credito dei potenziali soggetti finanziati. A tal riguardo è possibile operare una distinzione, seppur non strettamente dicotomica, tra elementi informativi di natura “hard”- i quali tipicamente si presentano in forma quantitativa, e prestandosi a facile codificazione, consentono di essere raccolti in modo impersonale ed interpretati in modo oggettivo ed univoco - ed informazioni di tipo “soft” - che, al contrario, presentandosi in forma prettamente qualitativa/descrittiva ed essendo subordinate ad interpretazione soggettiva da parte del valutatore, sono connotate da un’intrinseca difficoltà di codificazione, e impongono modalità di acquisizione di tipo personale e diretto. Alla luce dei descritti aspetti di differenziazione, il prevalente ricorso ad informazioni di natura hard, se da un lato determina significativi vantaggi in termini di costo di acquisizione ed elaborazione dell’informazione stessa, dall’altro comporta l’inevitabile perdita del patrimonio informativo che solo input di tipo soft sono in grado di veicolare. In tale quadro si inserisce il presente lavoro, finalizzato ad analizzare la variegata morfologia dell’informazione e ad esaminare nello specifico in quale forma (hard o soft) predominante si presentino le informazioni poste alla base dei processi di analisi del merito di credito svolti da intermediari creditizi e agenzie di rating. Ciò equivale ad indagare come tali soggetti scelgano di posizionarsi rispetto al trade-off esistente tra i costi connessi al trattamento dell’informazione - i quali risultano minimizzati in funzione di un crescente utilizzo di hard information - ed il grado di completezza dell’informazione stessa - che si accresce in funzione dell’inclusione di soft information nella base informativa a disposizione del valutatore - dal quale, come anticipato, riteniamo possa dipendere l’efficace riduzione delle asimmetrie informative esistenti tra datori e prenditori di fondi. A tale proposito si osserva come l’utilizzo più o meno intenso di informazioni di natura soft rispetto ad informazioni di carattere hard nell’ambito dei procedimenti valutativi condotti rispettivamente dalle banche e dalle agenzie di rating sia legato al contesto in cui tali processi di analisi sono originati. In particolare, con riferimento alle istituzioni bancarie, è possibile istituire un raffronto tra analisi del merito creditizio condotte nell’ambito di approcci al credito basati alternativamente sulla relazione (relationship lending) o sulla transazione (transactional lending), mentre, per quanto concerne le agenzie di rating, si individua una distinzione tra valutazioni svolte nell’ambito del processo di attribuzione del rating alternativamente sollecitato (solicited) o non sollecitato (unsolicited). La relazione che si instaura tra il soggetto valutatore e l’impresa oggetto di analisi nell’ambito del relationship lending - nel caso della banca - o nell’ambito del processo di attribuzione del rating sollecitato - nel caso dell’agenzia di rating - determina infatti un significativo arricchimento del set di input informativi disponibili per la valutazione, in quanto, oltre a consentire l’acquisizione di un complesso di elementi che, pur essendo codificabili e prestandosi ad interpretazione oggettiva (e, dunque, pur presentando carattere hard), non risultano desumibili da fonti pubbliche per questioni di riservatezza o di opacità informativa dell’impresa, permette di raccogliere una serie di informazioni impossibili da acquisire in forma impersonale alla luce della loro natura prettamente soft, che le rende non codificabili e misurabili esclusivamente attraverso il giudizio e la percezione individuale del medesimo soggetto preposto alla raccolta delle stesse. In ciò risiede, a nostro avviso, il valore aggiunto del contributo offerto da intermediari creditizi ed agenzie di rating alla riduzione delle asimmetrie informative tra datori e prenditori di fondi: anche prescindendo dalle condizioni di maggiore o minore trasparenza della controparte oggetto di analisi, l’inclusione della soft information alla base delle valutazioni condotte da tali soggetti - che risulta preclusa nel contesto tanto del rapporto di finanziamento transaction-based posto in essere dalla banca, quanto dell’attribuzione di un giudizio di rating non sollecitato da parte dell’agenzia - costituisce la determinante ultima dell’effettiva efficacia del loro intervento nel promuovere l’efficienza del mercato. Alla luce di tali considerazioni, la trattazione viene completata attraverso l’esame dell’impianto di analisi e valutazione delle informazioni qualitative sviluppato ed implementato presso un’agenzia di rating italiana, al fine di comprendere con quali strumenti, nel concreto, una credit rating agency possa affrontare il problema dell’elaborazione di informazioni soft - che si presenta con massima intensità nell’ambito del processo di assegnazione del rating di tipo solicited - pervenendo ad un bilanciamento ottimale del trade-off tra il costo di trattamento dell’informazione ed il grado di completezza della stessa.1892 10758 - PublicationGiovani e nuovi media: dinamiche relazionali e pratiche di consumo digitali(Università degli studi di Trieste, 2013-04-09)
;Qualizza, GabrieleSambri, ClaudioIl rapporto tra giovani consumatori e nuovi media è un tema di stringente attualità. La generazione emergente dei Millennials (Howe e Strauss, 2000; Id., 2007) – termine utilizzato per denominare quanti sono entrati, o stanno per entrare, nel mondo degli adulti in data successiva all’inizio del nuovo millennio – è cresciuta infatti in un ambiente segnato dalla presenza pervasiva delle nuove tecnologie digitali, sempre più integrate nelle diverse forme di comunicazione mediata. Spesso marginalizzati come semplici “eco” dei Boomers, i giovani di questa generazione – identificati anche come Nativi digitali (Prensky, 2001a; Id, 2001b), Net Generation (Tapscott, 1998; Id., 2009; Junco e Mastrodicasa, 2007), Generazione Y (Kotler e Armstrong, 2006), Generation Me o iGeneration (Twenge, 2006), Thumb Generation (Tréguer e Segati, 2003) – si muovono in un contesto in continuo cambiamento, segnato per un verso dalla convergenza tra piattaforme tecnologiche diverse, che creano un ambiente comunicativo integrato, senza soluzioni di continuità tra online e offline (Mascheroni, 2010), per un altro verso dalla diffusione di culture partecipative, caratterizzate dal crescente protagonismo degli utenti (Jenkins, 2006; Boaretto, Noci e Pini, 2007; Ritzer e Jurgenson, 2010; Anderson, 2012), un trend che trova riscontro online nello sviluppo del web 2.0 (O’Reilly, 2005). Il richiamo al termine “generazione” non è casuale: senza prescindere dal dato anagrafico e biologico (l’età e la fase del corso della vita), tale concetto pone l’accento su variabili socio-culturali, ossia sulle vicende storiche di cui si è testimoni e sui consumi culturali di cui si fruisce negli anni della giovinezza, nella convinzione che l’elaborazione di tali esperienze risulti decisiva nel creare un “nesso”, una mutua identificazione, tra persone che, una volta entrate a pieno titolo nella vita adulta, continuano a coltivare valori, ideali, aspettative comuni (Mannheim, 1928; Sciolla, 2002; Gnasso e Parenti, 2003; Fabris, 2008). La generazione non è quindi un anonimo aggregato di individui appartenenti alla medesima fascia di età, ma un costrutto socio-antropologico, contrassegnato da specifici “indicatori” o “marcatori” (vissuti comuni, fatti memorabili, riti e miti): nel caso dei “Millennials” tali elementi sembrano identificabili nel definitivo avvento di Internet e nel trionfo della cultura digitale (Fabris, 2008). A partire da una rilettura in chiave socio-antropologica della nozione di “consumo”, inteso come linguaggio, repertorio simbolico, sistema per organizzare valori e relazioni sociali (Douglas e Isherwood, 1979; Bourdieu, 1979; McCracken, 1988), incessante lavoro di “fabbricazione” di significati personali (de Certeau, 1980), il presente lavoro si è proposto dunque di chiarire in che modo le giovani generazioni, utilizzando i nuovi media, si muovono nell’ambiente, organizzano i tempi e gli spazi, attraversano i confini tra online e offline, danno forma al loro universo simbolico e relazionale. In questo percorso la prospettiva teorica della “domestication” ha rappresentato un punto di riferimento costante, sia nella fase di definizione del disegno di ricerca, sia nella fase di analisi e interpretazione dei dati raccolti: si tratta di un quadro concettuale, elaborato da Silverstone, Hirsch e Morley (1992), che orienta l’attenzione sui vissuti sociali e simbolici che caratterizzano il processo di integrazione e consumo delle tecnologie comunicative nel contesto della vita quotidiana. In particolare, per la parte empirica del presente lavoro ci si è avvalsi di un questionario semi-strutturato, somministrato a un campione di 514 soggetti di età compresa tra 15 e 24 anni, residenti nella città di Trieste e nel territorio della Regione Friuli Venezia Giulia. L’ampia base di dati raccolti tramite questionario è stata successivamente integrata da interviste in profondità, che hanno coinvolto sia soggetti appartenenti alla fascia d’età interessata alla rilevazione, con l’obiettivo di approfondire lo studio dei vissuti esperienziali connessi alle attività di comunicazione mediata dalle tecnologie, sia educatori, formatori, esperti di comunicazione, per il commento dei risultati della ricerca. Nello specifico, le aree di indagine sottoposte a rilevazione sono riconducibili a cinque nuclei tematici fondamentali: dotazioni tecnologiche, percorso di adozione dei nuovi media e delle principali device digitali, tempi e spazi della vita quotidiana dedicati alla fruizione di contenuti mediali; pratiche di consumo digitali, con particolare attenzione per i valori e i significati attribuiti alle nuove tecnologie comunicative, come cellulare/smartphone, web e social network; reti di relazione (tanto online, quanto offline) in cui si insediano le pratiche comunicative riferite ai nuovi media; territori socio-culturali che svolgono un ruolo significativo nella costruzione di una specifica identità generazionale; declinazione delle logiche di rete, partecipative e interattive, in riferimento a molteplici contesti della vita quotidiana (media, relazioni interpersonali, consumi culturali, marche, ambienti formativi). L’indagine ha messo in luce i numerosi elementi problematici connessi ad un’applicazione acritica dell’etichetta di “nativi digitali” ai giovani delle ultime generazioni. I dati raccolti confermano l’ampia diffusione delle nuove tecnologie comunicative, ma mettono anche in evidenza il ruolo centrale svolto da altri elementi - variamente riconducibili al tema della “connettività ubiqua” - nella costruzione del senso di appartenenza generazionale. L’elaborazione dei dati ha inoltre consentito di portare l’attenzione su gruppi omogenei di fruitori, riconducibili a differenti profili di consumo, che sono risultati corrispondenti ad altrettante strategie comunicative, in ciascuna delle quali si esprime un coerente progetto di senso: in ogni caso, gli intervistati non deducono, in maniera deterministica, le regole che governano i comportamenti e le relazioni in rete dalle caratteristiche e dalle funzionalità delle diverse piattaforme tecnologiche, ma esprimono piuttosto forme di “adattamento creativo” all’ambiente, per cui è sempre più la finalità relazionale a dare forma allo spazio digitale. Di conseguenza, l’ingresso nella rete non viene vissuto come attraversamento di una soglia, fuga dalla realtà, sostituzione della propria identità quotidiana con un’identità fittizia e virtuale, ma come espansione delle proprie possibilità di presenza. Nel complesso, dall’indagine è emersa la trasformazione di carattere “social”, che ha investito il web in questi anni: da archivio digitale a catalizzatore di relazioni, da deposito di informazioni ad ambiente comunicativo integrato. In questo senso, la rete permette di valicare i confini tra interiorità personale e condivisione conviviale, generando forme inedite di tattilità sociale, cementate da emozioni, passioni e sentimenti condivisi.3376 20764 - PublicationGli impatti attesi derivanti dall'applicazione di una soluzione ICT per i trasporti e la logistica sull'efficenza delle imprese: il caso dell'intelligent cargo(Università degli studi di Trieste, 2011-04-26)
;Vedovato, DonatellaMazzarino, MarcoIl presente lavoro si inserisce all’interno dello scenario socio-economico attuale in cui l’informazione, a partire dagli anni Settanta del secolo scorso, inizia a diventare sempre più accessibile e diffusa. Questo ha segnato l’inizio di una nuova era che studiosi e ricercatori definiscono “information society”. Il cambiamento è stato reso possibile grazie alla rapida espansione dell’Information and Communication Technology (ICT) che permette la veloce creazione, raccolta, elaborazione e diffusione delle informazioni (Duncombe e Heeks, 1999). L’economia non rimane immune da questo cambiamento ma, anzi, la knowledge economy diventa la controparte economica dell’information society. L’informazione diviene ancora più importante in ambito economico in quanto, nello stesso periodo, avviene un altro mutamento: una forte disintegrazione della produzione e la necessità di un altrettanto forte integrazione del commercio globale. Le imprese sono quindi chiamate a gestire delle catene globali del valore che diventano sempre più lunghe e tese. Il numero di attori all’interno della rete logistica diventa cospicuo: essi sono chiamati a condividere e a scambiare un elevato numero di informazioni relative ad unico oggetto, ovvero la merce. E’ in questo contesto che l’ICT inizia ad essere utilizzata in modo diffuso nel settore dei trasporti e della logistica merci. L’ICT permette l’aumento della produttività delle imprese, il miglioramento della qualità dei servizi e l’integrazione tra diverse modalità di trasporto con il fine ultimo di aumentare la crescita e lo sviluppo economico. La portata del fenomeno è talmente ampia da sensibilizzare anche le istituzione europee: la Commissione Europea inizia ad intervenire, soprattutto a partire dagli anni Ottanta del secolo scorso, per promuovere l’utilizzo dell’ICT nel settore dei trasporti e della logistica. In particolare, negli ultimi anni l’ICT applicata a questo settore diventa sempre più integrata, web-based, intelligente e trasversale a tutte le modalità di trasporto. Tra i progetti di ricerca applicata promossi dalla Commissione Europea in quest’ambito, una best practice è rappresentata dal progetto appartenente al Settimo Programma Quadro del bando ICT per i trasporti e la logistica, EURIDICE (EURopen Inter-Disciplinary research on Intelligent Cargo for Efficient, safe and environment-friendly logistics). Considerato “star project” da parte della Commissione Europea, il progetto ha l’obiettivo di sviluppare l’”Intelligent Cargo” (IC). Si tratta di un sistema ICT che permette di raccogliere, elaborare e trasmettere informazioni legate al cargo ai diversi players della filiera logistica per tutte le modalità di trasporto. Con l’utilizzo dei sistemi attuali l’informazione è gestita ed elaborata da sistemi proprietari collegati a mezzi di trasporto o alle infrastrutture (es. magazzino) facendo si che spesso flusso fisico ed informativo risultino disgiunti. Le relative informazioni, quando presenti, devono essere trasformate e tradotte per essere accessibili a terzi. Nel caso dell’Intelligent Cargo, invece, le informazioni “viaggiano” con il cargo: è in quest’ottica che un nuovo approccio alla gestione delle informazioni, definito “cargo-centrico” porta benefici sostanziali in grado di superare i limiti citati. Questo è l’aspetto innovativo dell’Intelligent Cargo. Alla data della scrittura della tesi si è sviluppato il prototipo e si è nella fase tecnica di deployment presso otto casi pilota, partner del progetto. E’ in questo quadro socio-economico che si inserisce l’obiettivo della tesi: lo studio degli impatti attesi derivanti da una soluzione ICT per i trasporti e la logistica sull’efficienza delle imprese utilizzatrici. La soluzione ICT è l’Intelligent Cargo sviluppato nel progetto EURIDICE. La motivazione che spinge questo studio è duplice. Da un lato, esso offre informazioni utili sui benefici attesi che serviranno all’impresa innovatrice nella fase di commercializzazione dell’Intelligent Cargo affinchè essa possa appropriarsi dei benefici economici derivanti dalla commercializzazione del prodotto (teoria Profiting From Innovation (PFI), Teece 1986). Il carattere innovativo della soluzione ICT fa si che si possano presentare alcuni rischi in una futura fase di distribuzione. E’ noto anche in letteratura che molte idee brillanti non trovano o non creano un mercato: molte imprese innovatrici non riescono ad appropriarsi dei benefici economici derivanti dalla vendita. Dall’altro, l’esplicitazione dei benefici attesi permetterà alla potenziale impresa utilizzatrice di ridurre l’incertezza sulle conseguenze attese (benefici e rischi) derivanti dall’adozione dell’innovazione (teoria Diffusion of Innovation, Rogers, 2003) e contribuirà quindi nella scelta della sua adozione. Inoltre, l’individuazione dei benefici attesi permetterà di realizzare un benchmark futuro tra essi e i benefici reali realizzando quindi un’analisi dell’investimento ICT ex-post (Paradosso della Produttività; Brynjolfsson, 1993 e Brynjolfsson e Yang, 1996). Per raggiungere l’obiettivo della tesi, si sono indagati i principali indicatori di performance e gli approcci metodologici tradizionalmente utilizzati per valutare l’impatto di un’innovazione ICT per i trasporti e la logistica sull’efficienza delle imprese. Dalla disamina della letteratura sul tema sono emerse due domande di ricerca aperte a cui la tesi intende dare una risposta. Da un lato la letteratura prevalente segnala la mancanza di studi empirici relativi alla valutazione degli impatti derivanti dall’applicazione di un’innovazione ICT per i trasporti e al logistica (Banister e Stead, 2003; Auramo et al. 2005; Pokharel, 2005; Feng e Yuan, 2006). Dall’altro, mancano dei modelli specifici per la valutazione dell’impatto di un’innovazione ICT per i trasporti e la logistica sull’efficienza delle imprese. Eccezione fatta per l’”Intelligent Cargo System Study” condotto nel 2009 da Planung Transport Verkehr AG (PTV) e ECORY che presenta tuttavia, alcune carenze. Appare invece cospicua la letteratura sui modelli di valutazione delle applicazioni ICT anche non innovative a cui si è fatto riferimento nella tesi (letteratura di Logistics management e di Management Information System) ma anche essa dimostra alcuni punti deboli come di seguito spiegato. Dalla disamina di questa letteratura emergono due tipologie di modelli: “Input-Output” e “Input-Process-Output”. La prima tipologia include l’analisi costi-benefici e quella microeconomica: secondo tali modelli un’applicazione ICT determina dei benefici per un’impresa se nel confronto tra input (costi dell’ICT) e output (obiettivi di carattere economico come costi e ricavi), gli output sono superiori agli input. Questi modelli, oltre a non chiarire esattamente che cosa si intenda per input e per output, presentano una visione piuttosto ristretta sulla tipologia di impatti che derivano dall’applicazione dell’ICT. Essi infatti tralasciano tutti quei benefici che l’ICT determina a livello di processo, ovvero ad un livello intermedio tra input ed output. Inoltre, se gli input sono superiori agli output, per questi modelli significa che l’applicazione ICT non è profittevole per l’impresa. Questa conclusione potrebbe non essere veritiera in quanto l’applicazione ICT potrebbe determinare un impatto positivo sui processi ma gli output potrebbero essere influenzati da elementi esterni esogeni all’ICT. Non indagando i processi, i modelli non forniscono gli strumenti necessari per capire se le cause di un andamento negativo degli output sono legate o meno all’applicazione dell’ICT. La seconda tipologia di modelli seguono uno schema logico definito “Input-Process-Output”. A differenza della tipologia precedente, questi modelli esaminano gli impatti delle applicazioni ICT anche a livello di processo. All’interno di questa tipologia si individuano due approcci così definiti: “per singoli impatti” e “con impatti a catena”. Il primo esamina gli impatti, intesi come benefici e barriere, sia a livello di processo che a livello di output. Tuttavia, pone sullo stesso piano impatti di processo e di output e non li lega tra di loro con rapporti di causa-effetto anche quando essi sono chiaramente presenti. Da qui emerge lo svantaggio nell’utilizzare questo approccio: non indica l’esistenza di legami di tipo “causa-effetto” tra impatti di processo e obiettivi dell’impresa anche quando essi sono presenti. Questa criticità è superata nell’approccio “con impatti a catena”. Rientra in questo modello l’approccio seguito nello studio ICSS (2009) in cui si individuano una serie di singoli impatti sia di processo che di output legati tra di loro da rapporti di causa-effetto. Tuttavia, nel modello non sono esplicitate le linee guida da utilizzare per individuare i legami di causa-effetto tra gli impatti: essi sono presentati come una successione estesa di impatti “a cascata”. Il punto critico del modello consiste quindi nella mancanza di linee guida per individuare la logica dei legami di causa-effetto tra gli impatti. Tale mancanza è superata nella letteratura MIS (Management Information System) e, in particolare, dalla metodologia Six Sigma e, nello specifico, da un’applicazione della metodologia nella logistica interna, definita “Metric Linkage Model” di Kapadia et al. (2003). Il modello stabilisce chiaramente le linee guida da seguire per individuare i legami di causa-effetto tra diversi impatti. In particolare, secondo il modello, un qualsiasi input determina dei cambiamenti nei processi interni all’impresa definiti “Working Processes”. Questi mutamenti condizionano i processi che determinano la soddisfazione del cliente, i “Customer Satisfaction Processes” e quindi le relative performance. I cambiamenti in questi processi influenzano il raggiungimento degli obiettivi dell’impresa (output). Questi legami formano la spina dorsale di tutti i progetti Six Sigma (Kapadia et al., 2003). Tuttavia, questo modello non è stato ancora applicato al settore dei trasporti e della logistica esterna e in relazione ad una specifica applicazione ICT di tipo innovativo. Visto che questo modello supera le mancanze degli approcci metodologici precedentemente indicati, esso è stato adattato per la valutazione degli impatti dell’Intelligent Cargo sull’efficienza delle imprese. Il modello proposto nella tesi è stato definito “Three Pillars’ Model”. Secondo il modello una soluzione ICT innovativa provoca un impatto sui processi interni dell’impresa determinando dei miglioramenti di tipo “operativo” (es. tempo necessario per ottenere un’informazione). Essi causano delle conseguenze di tipo “tattico” (es. servizio al cliente) che si traducono in ritorni economici per l’impresa (es. costi/ricavi). A questi tre “passaggi” logici corrispondono tre tipologie di indicatori di performance legati tra di loro da rapporti di causa-effetto e così definiti: “Parametri di Processo”, “Performance di Processo” ed “Effetti di Business”. Da qui deriva il nome del modello, “Three Pillars’ Model”: le tre tipologie di indicatori rappresentano i “pilastri” della metodologia di valutazione dell’impatto. Il “Parametro di Processo” è un indicatore di performance di tipo operativo direttamente impattato dall’utilizzo dell’Intelligent Cargo. Il cambiamento del Parametro di Processo determina una variazione sul secondo pilastro, le “Performance di Processo”. Esse si distinguono dai Parametri di Processo in quanto non sono direttamente impattate dall’utilizzo dell’Intelligent Cargo, sono l’effetto dell’applicazione di uno o più Parametri di Processo e possono essere condizionate anche da elementi esterni all’applicazione dell’Intelligent Cargo. Esse rappresentano quindi le conseguenze dei Parametri di Processo e indicano un livello di impatto “tattico”. A loro volta, mutamenti nelle Performance di Processo determinano dei cambiamenti nei costi e nei ricavi. Questi sono definiti “Effetti di Business”. Il primo vantaggio nell’utilizzare il “Three Pillars’ Model”, rispetto a quelli precedentemente descritti, consiste nella capacità del modello di individuare gli impatti sia a livello di processo che a livello di output (costi/ricavi). In questo modo non sono tralasciati importanti benefici che si ottengono con l’applicazione ICT nel processo che, invece, uno schema “input-output” non considera. Inoltre, in questo modo è possibile capire se il mancato o parziale raggiungimento degli obiettivi economici dell’impresa (gli Effetti di Business) dipenda da cambiamenti dei processi derivanti dall’utilizzo dell’ICT o da cause esterne ed esogene. Il terzo vantaggio consiste nella possibilità di utilizzare anche solo alcune “parti” del modello, ovvero l’utilizzatore può scegliere ed escludere alcuni indicatori di performance proposti per ogni pilastro. Oltre a ciò, l’utilizzatore può decidere di aggiungere alcuni indicatori di performance che non sono proposti dal modello. Si tratta quindi di un modello “modulare” e flessibile. Inoltre, i legami di causa-effetto sono decisi a discrezione dell’utilizzatore in quanto gli stessi indicatori di performance possono avere legami diversi. Si lascia così ampia libertà e flessibilità nell’individuare i rapporti di causa-effetto. Una serie di vantaggi derivano anche dalla precisione e dalla chiarezza con la quale sono indicate le linee guida da seguire per applicare il modello. In particolare, la chiarezza abbinata alla semplicità del modello contribuiscono alla facile comprensione e alla sua veloce applicazione in casi reali. Il modello è stato applicato in otto casi pilota: si sono definiti i singoli indicatori di performance afferenti ai tre pilastri, le formule per il loro calcolo e i legami di causa-effetto. I casi pilota hanno individuato, complessivamente, 71 indicatori di performance impattati dall’utilizzo dell’Intelligent Cargo. Per ognuno di essi hanno misurato: - Valore attuale; - Valore atteso (con l’implementazione dell’IC); - Miglioramento atteso. Si sono raccolte, in totale, 197 osservazioni di cui 183 espresse in modo quantitativo e 14 in modo qualitativo. L’analisi dei dati ha permesso di giungere a delle conclusioni di tipo qualitativo e quantitativo. I risultati qualitativi indicano la tipologia di impatto che le imprese si attendono di ottenere con l’applicazione dell’Intelligent Cargo in relazione ai tre pilastri mentre quelli quantitativi stimano i valori dei miglioramenti attesi. Dall’analisi qualitativa emerge che gli impatti nei processi interni (Parametri di Processo) che le imprese si attendono sono relativi alla maggiore velocità con la quale le informazioni di loro interesse sono disponibili e nella migliore affidabilità (assenza di errori). Tali informazioni hanno per oggetto: 1. L’identificazione del cargo (es. tipologia, quantità). 2. Il controllo delle condizioni del cargo (es. temperatura). 3. Il monitoraggio del percorso (es. deviazione dall’itinerario stabilito). 4. Il monitoraggio dello status del cargo (es. arrivato, partito). Si precisa che le imprese hanno dichiarato di attendersi un impatto nella rapidità di invio di tutte le queste tipologie di informazioni fornite dall’Intelligent Cargo mentre l’affidabilità riguarda solamente l’identificazione del cargo e la corretta stima dell’orario di arrivo. Sembra quindi che le imprese abbiano già le informazioni di cui necessitano in modo preciso ed affidabile ma non veloce. Di conseguenza i Parametri di Processo individuati dalle imprese misurano il tempo necessario a ricevere l’informazione e la sua precisione. L’impatto dell’utilizzo dell’Intelligent Cargo sulla rapidità e affidabilità dell’informazione scambiata determina una serie di conseguenze a livello “tattico”, ovvero sulle Performance di Processo. I casi pilota si attendono un miglioramento su queste categorie di impatto: 1. Gestione degli asset, ovvero nella gestione delle scorte (rotazione delle scorte e quantità di prodotto finito stoccato a magazzino), dei mezzi di trasporto (viaggi addizionali per errata consegna e fattore di riempimento dei mezzi), dell’infrastruttura (ottimizzazione dell’utilizzo della capacità dell'infrastruttura) e delle risorse umane (pianificazione dell’utilizzo delle risorse umane). 2. Servizio al cliente, ovvero nell’evasione corretta degli ordini e nei tempi di risposta al cliente. 3. Tempo necessario per svolgere un’attività. 4. Gestione della security (diminuzione di furti). I miglioramenti attesi nelle Performance di Processo determinano degli impatti in questi “Effetti di Business”: 1. Costi relativi agli asset (costo del magazzino, del trasporto e delle scorte), al lavoro (costo per il dispatching, per il re-scheduling, per la risoluzione delle problematiche sulla temperatura, per la chiusura di un ordine di prenotazione e per la gestione dei controlli di sicurezza), costi finanziari (interessi bancari passivi), dei resi e assicurativi. 2. Ricavi; rientrano in questa categoria i ricavi di vendita, l’aumento della quota di mercato e il miglioramento del servizio al cliente. Gli impatti sopra descritti sono stati individuati complessivamente dai casi pilota i quali rappresentano i tipici attori di una supply chain, ovvero: imprese di produzione e di distribuzione, operatori logistici (trasportatori, imprese di logistica e di warehousing) e autorità pubbliche. Ciò detto, si può quindi affermare che l’analisi cross-pilot ha permesso di individuare i benefici apportati da una soluzione innovativa ICT alla filiera logistico-trasportistica, nel suo complesso. Si sono inoltre individuati gli impatti attesi comuni a più casi pilota. Da un punto di vista quantitativo, è emerso che le imprese hanno importanti aspettative nei confronti dell’applicazione dell’Intelligent Cargo. Relativamente ai Parametri di Processo, il valore massimo atteso di quasi tutti gli indicatori di performance riferiti alla “rapidità” con cui è trasmessa l’informazione è pari al 100%: questo significa che le imprese si attendono di eliminare i tempi di attesa per ricevere l’informazione grazie alle comunicazioni in real time fornite dall’Intelligent Cargo. In relazione alle Performance di Processo e agli Effetti di Business non si riscontrano delle tendenze omogenee di miglioramento all’interno delle categorie individuate date le specificità dei processi delle imprese e dei relativi obiettivi a livello di impresa. Tuttavia, vi è una certa tendenza, nelle Performance di Processo, a considerare dei possibili miglioramenti soprattutto nella categoria “Tempo per svolgere un’attività”. Negli Effetti di Business tale tendenza è relativa soprattutto nella riduzione dei valori dell’indicatore “Costo del lavoro”. In conclusione, la tesi ha apportato un contributo innovativo alla ricerca in quanto ha risposto a due importanti domande di ricerca aperte relative allo studio degli impatti delle applicazioni innovative ICT per i trasporti e la logistica: - la definizione di un modello per valutarne gli impatti; - la realizzazione di uno studio empirico che quantificasse i benefici. Un nuovo modello definito “Three Pillars’ Model” in grado di superare i limiti dei precedenti approcci metodologici è stato proposto ed applicato con successo. Lo studio empirico è stato condotto in relazione ad un’innovazione ICT per i trasporti e la logistica, ovvero l’Intelligent Cargo. Lo studio potrà continuare confrontando i benefici attesi individuati con quelli reali e commisurandoli anche con il prezzo di mercato dell’innovazione. Nel lungo periodo, si potrebbero individuare in modo più approfondito gli impatti anche a livello di Business Process Reengineering per individuare eventuali cambiamenti nei Business Model delle imprese. L’indagine potrebbe essere estesa anche ad altre tipologie di impatti come quella sull’ambiente, sulla sostenibilità, su safety e security. Inoltre, si potrebbe approfondire anche l’analisi dell’Intelligent Cargo come innovazione indagandone la forma di mercato, le barriere all’entrata e la domanda attesa per riuscire a catturare valore dall’innovazione in modo che essa non rimanga solamente un’idea.1505 3337 - PublicationIl ruolo dell’investimento istituzionale nel capitale di rischio delle family business: review empirica internazionale e caso italiano(Università degli studi di Trieste, 2012-04-16)
;Principi, Silvia ;Fidanza, BarbaraZecchin, MarcoL’obiettivo della tesi di dottorato è duplice: a. offrire un quadro sinottico della letteratura empirica internazionale sul ruolo dell’investimento istituzionale nel family business (FB), ponendo particolare attenzione al fenomeno dell’investimento da parte dei fondi di private equity (PE); b. verificare empiricamente su un campione di imprese familiari italiane qual è stato il ruolo nel periodo 2001-2010 del PE in termini di governance, struttura finanziaria e perfomance. La tesi si giustifica per l’esiguità degli studi italiani nel filone di studi inquadrato, per altro, sono studi focalizzati solo su alcuni aspetti e che non hanno periodi di indagine abbastanza recenti. Un’ulteriore giustificazione è da ricercarsi nelle peculiarità del mercato italiano sia in termini di caratteristiche delle imprese che di mercato del private equity.2124 8444 - PublicationL'impresa familiare :modello di governance vincente? Una verifica empirica sulle imprese italiane quotate.(Università degli studi di Trieste, 2008-04-14)
;Morresi, OttorinoJaccod, PaoloL’obiettivo di fondo del presente lavoro è quello verificare se l’impresa familiare, come struttura proprietaria e di governance, possa costituire una determinante della performance aziendale e, in particolare, della valutazione che il mercato le attribuisce, definita attraverso il market-to-book ratio. L’ipotesi di fondo dalla quale origina lo studio prende le mosse dal complesso di caratteristiche “uniche” che questa forma di governance possiede. Caratteristiche, tanto positive quanto negative, delle quali si vuole analizzare l’eventuale impatto che esse possono avere sulla percezione che il mercato ha dell’impresa. L’indagine è condotta su un campione di 119 imprese italiane quotate non finanziarie, analizzate dal 2000 al 2004, per un totale di 595 osservazioni. Il carattere familiare dell’impresa viene osservato sia sotto il profilo della proprietà che dal punto di vista del coinvolgimento dei familiari nella gestione, attraverso differenti variabili dummy. Oltre alle variabili che identificano l’impresa familiare vengono impiegate diverse variabili di controllo: performance contabile, rischio dell’impresa, età e dimensione dell’impresa, proxy della struttura finanziaria, variabili proxy della potenziale presenza di problematiche di agenzia tra azionisti di maggioranza e minoranza. I risultati mostrano l’esistenza di un legame negativo e significativo tra impresa familiare e performance di mercato, che appare determinato, prevalentemente, dalle imprese familiari che hanno un CEO familiare, le quali mostrano le performance peggiori. L’evidenza, comunque, non appare molto robusta: l’uso di metodi econometrici alternativi confermano la debolezza dell’evidenza.5509 46037 - PublicationInfrastrutture, prezzi e regolamentazione dei mercati del gas naturale(Università degli studi di Trieste, 2011-04-26)
;Saule, Francesca Romana ;Danielis, RomeoPozzetto, DarioLo scopo della presente ricerca è quello di investigare le interdipendenze di prezzo tra i diversi mercati, con particolare attenzione agli impatti che le infrastrutture fisiche e il loro funzionamento hanno avuto sulla struttura di dipendenza della dinamica dei prezzi relativamente al caso Transitgas. A partire dall’analisi dei Day Ahead Prices sulle principali Borse Europee impattate dalla chiusura del gasdotto (APX-Olanda, EEX-Germania e PSV- Italia), e dalle simulazioni di possibili scenari di aumento di capacità gas per il PSV, sono state tracciate le principali problematiche del Sistema Gas Nazionale nell’ambito di organizzazione, regolamentazione e pricing, proponendo nel contempo alcune direttrici ed azioni di intervento per risolvere le principali criticità, attraverso: 1).la presentazione di un quadro completo e sistemico della letteratura; 2). la valutazione degli aspetti più importanti della regolamentazione del settore identificandone le principali fonti di rischio presenti nel mercato (AEEG, 2008); 3). l’analisi dei modelli esistenti della liberalizzazione nel mercato del gas (Fiorenzani, 2009) ed il relativo studio dei meccanismi di funzionamento dell’industria del gas naturale; 4). la comprensione delle modalità di determinazione delle tariffe e dei meccanismi di pricing all’interno della business supply chain del gas naturale (Portatadino, 2004); 5). l’individuazione e la scelta delle soluzioni idonee a dare liquidità, competitività e flessibilità al mercato scegliendo quale modalità di trasporto sia più efficiente ed efficace (AIEE, 2006). Sono state individuate alcune previsioni e prospettive sul mercato del gas Italia (possibili scenari e trend) per orientare gli investimenti e sapere come devono muoversi gli operatori per evidenziare quali sono gli elementi necessari per sviluppare il mercato, brevemente: a). presenza di un hub che sia in grado di concentrare la liquidità commerciale; b). presenza di una borsa del Gas Italiana (P-Gas) per aumentare la liquidità, la flessibilità di sistema e ridurre i prezzi; c). presenza di maggiori infrastrutture (potenziamento gasdotti o GNL); d). evoluzione dello stoccaggio strategico. Sono state formulate inoltre ipotesi di linee guida per operare con successo e sfruttare tutte le opportunità all’interno della complessa filiera gas: riduzione contratti take or pay con diversificazione delle fonti di approvvigionamento; assetto di mercato favorevole alla concorrenza; gas release pluriennali che inducano un comportamento di offerta concorrenziale condizione fondamentale perché la futura Borsa Gas possa produrre suoi benefici effetti.1534 17149 - PublicationIntangibili e valore nelle banche(Università degli studi di Trieste, 2010-04-12)
;Bagna, EmanuelBini, MauroIl lavoro si propone di introdurre un criterio di valutazione delle banche commerciali. Il modello proposto si fonda sul criterio del residual income e permette di enucleare il valore dei beni intangibili di una banca.1492 8934
- «
- 1 (current)
- 2
- 3
- »