To see the other types of publications on this topic, follow the link: Modello Stocastico.

Dissertations / Theses on the topic 'Modello Stocastico'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 30 dissertations / theses for your research on the topic 'Modello Stocastico.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Camborata, Caterina. "Modello stocastico per la plasticità sinaptica." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12046/.

Full text
Abstract:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.
APA, Harvard, Vancouver, ISO, and other styles
2

Zaniboni, Alessia. "Un Modello Stocastico per la Teoria dell'Evoluzione." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10077/.

Full text
Abstract:
Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.
APA, Harvard, Vancouver, ISO, and other styles
3

Sittoni, Pietro. "Un modello dinamico di ottimizzazione di portafoglio per robo-advisors." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23228/.

Full text
Abstract:
L'obiettivo di questo elaborato è quello di presentare un modello dinamico di ottimizzazione di portafoglio per robo-advisors, gestori di investimenti automatizzati. Nella prima parte viene esposta la struttura del modello, quindi il modello di mercato, l'interazione con il robo-advisor per la comunicazione dell'avversione al rischio, essenziale per elaborare la strategia di investimento. Il criterio di investimento utilizzato è un criterio di investimento mean-variance a più periodi con un orizzonte di investimento finito, in cui l'avversione al rischio è un processo stocastico. Nella seconda parte si ricerca una strategia di investimento utilizzando il criterio prima citato, il quale si colloca nell’ambito dei problemi di controllo stocastico temporalmente incoerenti. Per approcciare il problema, viene usata la teoria dei giochi, più precisamente la visione dell'intero problema come un gioco non cooperativo dove l’ennesimo "giocatore" è l’incarnazione dell’investitore al tempo ennesimo; come definizione di strategia ottimale viene usato l'equilibrio perfetto di Nash di un sottogioco.
APA, Harvard, Vancouver, ISO, and other styles
4

Chiriatti, Sara. "Implementazione di un modello stocastico per la simulazione di una microrete con tecnologia vehicle to grid." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13949/.

Full text
Abstract:
L'obiettivo della tesi è l'implementazione tramite l’utilizzo del software AIMMS di un modello stocastico multistage che permetta di simulare il comportamento di una microrete situata in un ambiente industriale. Il fine dell’algoritmo è quello di risolvere, nel rispetto dei vincoli tecnici, il problema del dispacciamento. Nella microrete considerata sono presenti un parcheggio con tecnologia vehicle-to-grid, un sistema grid-to-vehicle, dei carichi industriali e un impianto di generazione fotovoltaica. Per tenere conto delle incertezze del modello si è creata una procedura in grado di costruire un albero degli scenari, dove ogni scenario rappresenta una possibile realizzazione dei parametri e delle variabili del modello. Per lo studio del problema si è utilizzato un approccio di ottimizzazione stocastica lineare.
APA, Harvard, Vancouver, ISO, and other styles
5

Savelli, Giacomo. "Sviluppo di un modello stocastico per la simulazione di sperimentazioni cliniche di nuovi trattamenti per l’osteoporosi." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25844/.

Full text
Abstract:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
APA, Harvard, Vancouver, ISO, and other styles
6

Latino, Tiziano. "Analisi della domanda di mobilità ciclistica a Bologna mediante tecniche stocastiche." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19989/.

Full text
Abstract:
Per la Fisica dei Sistemi Complessi è di particolare interesse lo studio della mobilità umana. In questo elaborato si intende analizzare la domanda di mobilità ciclistica nella città metropolitana di Bologna attraverso modelli stocastici a partire da dati georeferenziati. I dati utilizzati fanno riferimento alle attività ciclistiche di Bologna durante il mese di maggio del 2017. Vengono mostrate le fasi di filtraggio e analisi dei dati eseguite per la costruzione del modello. Vengono descritti i passaggi effettuati per la costruzione del modello stocastico di natura Markoviana. Ed infine vengono esposti e commentati i risultati ottenuti.
APA, Harvard, Vancouver, ISO, and other styles
7

Fanigliulo, Claudio. "Valutazione su base stocastica dell'area contribuente al deflusso fluviale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15097/.

Full text
Abstract:
Il bilancio idrologico sul bacino idrografico talvolta non si chiude in pareggio; questo è dovuto alla presenza di incertezze nei dati o nella modellazione dei processi. Una delle possibili cause può essere individuata nell'area contribuente del bacino idrografico la quale viene determinata su base strettamente topografica tramite l'identificazione delle linee di spartiacque. Però, la sua definizione potrebbe non essere corretta in quanto l'area contribuente risulta influenzata anche dalla presenza di spartiacque sotterranei i quali potrebbero non essere rilevati. Tale problematica è stata affrontata considerando un numero rilevante di bacini idrografici distribuiti sia sul territorio nazionale che europeo. La base dati a disposizione è costituita da serie temporali di precipitazione, evapotraspirazione e portata rilevate alle diverse stazioni di chiusura. Il modello idrologico utilizzato è un modello afflussi-deflussi, concentrato di tipo concettuale, a cinque parametri, denominato HyMOD. La struttura di tale modello è stata modificata andando a considerare l'area contribuente come una variabile casuale, rendendo così il modello a sei parametri. Si è proceduto alla calibrazione del modello attraverso tre diversi algoritmi di ottimizzazione andando a confrontare il valore dell'area contribuente, stimata dal modello, con l'area reale di partenza. Nel primo capitolo vengono illustrati i concetti fondamentali dell'idrologia e del ciclo idrologico, della modellistica idrologica e della calibrazione dei modelli idrologici. Nel secondo capitolo viene presentato il modello afflussi-deflussi utilizzato e la sua relativa modifica. Inoltre, viene descritta la calibrazione del modello e i diversi algoritmi utilizzati. Nel terzo capitolo vengono presentati i bacini idrografici considerati, le loro caratteristiche e i dati a disposizione. Nel quarto capitolo si analizza il lavoro svolto presentando e discutendo i risultati ottenuti.
APA, Harvard, Vancouver, ISO, and other styles
8

Giaretta, Alberto. "Deterministic and Stochastic Modeling of Human Papillomavirus Gene Regulatory Network." Doctoral thesis, Università degli studi di Padova, 2016. http://hdl.handle.net/11577/3427224.

Full text
Abstract:
In this thesis a novel stochastic and deterministic mathematical model of Human papillomavirus (HPV) gene regulatory network was developed. The novelty of this project is both on methodological and biological /clinical site. The former is in line with the current challenge in recent years to have a holistic view of the basics regulatory mechanisms interconnected to form a complex machinery, where complex patterns can arise, only form the interconnection of basics modules. In fact, HPV offers a case of study of great interest in molecular systems biology. It involves a number of relevant regulatory mechanisms (e.g. transcription, translation, promoter modulation, polyadenylation regulation, splicing,…) connected together to form a complex network, albeit its genome is relatively simple, thus suitable for an accurate deterministic and even stochastic modeling. HPVs cause a series of diseases of the cutaneous and mucosal epithelium, ranging from minor lesions to precancerous cervical lesions and cervical cancer, which is considered one of the most common cancer in the women worldwide. Therefore, on the biological/clinical aspect the development of a mathematical model of HPV gene expression, is of great interest in order to dispose of an in silico simulator useful to achieve a better comprehension of the complex gene regulatory network, and capable to predict different scenarios from the first stages of viral infection up to a cervical cancer condition. As far as we know, there is no model of HPV gene regulation available in literature. A new synthesis of the HPV molecular biology with especial regard to gather/infer from literature the parameters useful for designing a dynamical model, and to shed light in what is still lacking in the biological literature, was preformed. The biological knowledge was translated into a stochastic model in terms of biochemical reactions. In particular, we modeled the HPV early and late promoters that account for the transcripts and proteins evolution during the entire viral life cycle. Even the post-transcriptional and post-translational modifications were modeled in order to properly capture the complex viral regulation known from literature. As far as we know, it is the first time a stochastic model accounts for the complex post-transcriptional control, modeling the splicing and polyadenylation sites regulation, and connect this latter to the transcriptional control layer, mediated by the promoters activities, in order to explore complex patterns that can arise only from the interconnection of different control layers. The Master Equation (ME) of the system was considered in order to predict and investigate its stochastic behavior. Because of the complex system structure it wasn't possible to solve the whole ME analytically, hence numerical exact simulations were performed by means of the Gillespie's algorithm. A quasi-equilibrium approximation of the ME was developed in order to get a deterministic approximation of the model. The model structure together with the fixed parameters we have gathered/inferred from literature was able to fit a dataset consistent of the early promoter activity and to qualitatively reproduce the main dynamical behavior of two of the most important regulatory transcripts during viral late phase. Different in silico experiments were designed to opportunely explore both the capability of the stochastic model to follows the deterministic predictions, when in fast fluctuations regimen, and to discover complex stochastic patterns, that can arise through the interconnection of the transcriptional and post-transcriptional control layers. In general, both the stochastic and deterministic formulation of the model showed the capability to reproduce the HPV gene expression dynamics, during the entire viral life cycle, in good agreement with the current biological knowledge.
In questa tesi è stato sviluppato un nuovo modello deterministico e stocastico della rete di regolazione genica dello Human papillomavirus (HPV). Gli aspetti di novità del modello ricadono sia sull'aspetto metodologico che clinico/biologico. Per quanto riguarda il primo aspetto il progetto è in linea con l'attuale sfida, presente in questi ultimi anni, di ottenere una visione olistica dei meccanismi regolatori di base interconnessi a formare un sistema complesso, all'interno del quale dinamiche complesse possono scaturire solo tramite un'interconnessione di moduli base. In linea con questo, l'HPV si pone come un caso di studio di grande interesse nella systems biology molecolare. Esso comprende una serie di importanti meccanismi regolatori (ad esempio trascrizione, traduzione, modulazione dei promotori, regolazione della poliadenilazione, splicing,...) connessi tra di loro al fine di formare una complessa rete, sebbene il genoma virale sia relativamete semplice e quindi adatto per sviluppare accuratamente una modellistica deterministica e persino stocastica. L'HPV può causare una serie di malattie della cute e della mucosa epiteliale, che spaziano da lesioni minori fino a lesioni pre-cancerogene e cancro al collo dell'utero, considerato uno dei principali tipi di cancro che affligge la popolazione femminile. Conseguentemente, da un punto di vista clinico/biologico lo sviluppo di un modello matematico dell'espressione genica dell'HPV, è di grande interesse al fine di disporre di un simulatore in silico utile per raggiungere una migliore comprensione della complessa rete di regolazione genica e capace di predire scenari differenti a partire dalle prime fasi dell'infezione virale fino all'evoluzione del cancro. Da quello che sappiamo finora, non esiste alcun modello reperibile in letterature della regolazione genica dell'HPV. E' stata effettuata una nuova sintesi della biologia molecolare dell'HPV con particolare riguardo al raccogliere/inferire da letteratura i parametri utili al fine di progettare un modello dinamico, e al fine di evidenziare le conoscenze biologiche mancanti in letteratura. La conoscenza biologica è stata tradotta in un modello stocastico in termini di un sistema di reazioni biochimiche. In particolare, sono stati modellati il primo ed il secondo promotore per tener conto della evoluzione dei trascritti e delle proteine durante l'intero ciclo virale. Sono state modellate anche le regolazioni post-trascrizionali e post-traduzionali al fine di catturare appropriatamente la complessa regolazione virale, nota in letteratura. Da quello che sappiamo finora, è la prima volta che un modello stocastico tiene conto del complesso controllo post-trascrizionale, modellando i siti di regolazione dello splicing e della poliadenilazione, e connettendo questi ultimi al modulo di controllo trascrizionale mediato dall'attività dei promotori, al fine di esplorare dinamiche complesse che possono scaturire solo dal modellare l'interconnessione dei singoli stadi di controllo. E' stata considerata la Master Equation (ME) del sistema al fine di predire a investigare il suo comportamento stocastico. A causa della complessa struttura del sistema non è stato possibile risolvere analiticamente la ME, perciò sono state effettuate simulazioni numeriche esatte facendo uso dell'algoritmo di Gillespie. Un'approssimazione al quasi-equilibrio della ME è stata sviluppata al fine di ottenere un modello deterministico. Il modello sviluppato, fissando i parametri trovati/inferiti da letteratura, è stato in grado di fittare un dataset inerente l'attività dell'early promoter e riprodurre qualitativamente il principale comportamento dinamico di due dei piu' importanti trascritti sviluppati durante la fase terminale del ciclo virale. Differenti esperimenti in silico sono stati progettati per esplorare opportunamente sia la capacità del modello stocastico di inseguire le predizioni del modello deterministico, in regime di fluttuazioni veloci, che per scoprire dinamiche complesse che possono originarsi dall'interconnessione dei moduli di regolazione trascrizionale e post-trascrizionale. In generale, sia la formulazione deterministica che stocastica del modello hanno mostrato la capacità di riprodurre, in buon accordo con l'attuale conoscenza biologica, la dinamica dell'espressione genica durante l'intero ciclo virale.
APA, Harvard, Vancouver, ISO, and other styles
9

Larotonda, Helena Michela. "Stima da tracce GPS dei tempi d'attesa dei ciclisti alle intersezioni nell'area urbana di Bologna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/17802/.

Full text
Abstract:
Per comprendere il comportamento degli utenti e avere una stima dei tempi d’attesa degli stessi in corrispondenza delle intersezioni semaforizzate, è stata effettuata un’analisi microscopica della rete ed in particolare, sono stati analizzati i singoli trips che attraversano gli incroci semaforizzati oggetto di studio: Porta San Felice e Porta San Donato. Per fare questo è stato fondamentale l’utilizzo di un software di micro – simulazione, SUMOPy, che ha permesso l’associazione della mappa digitale della città di Bologna con i punti di localizzazione delle tracce GPS forniti dall’European Cycling Challenge, 2016; questo ha consentito, tramite il processo di map-matching, di ricostruire i percorsi realmente seguiti dagli utenti e i percorsi di minimo costo. Attraverso l’utilizzo del software SUMOPy, è stato anche possibile analizzare i profili di velocità di ogni singola traccia passante per gli incroci oggetto di studio, comprendere il comportamento dei singoli utenti in corrispondenza delle intersezioni e avere un’informazione sulla percentuale di ciclisti che si fermano e di quelli che presentano un tempo d’attesa nullo in corrispondenza dell’intersezione. È stato poi determinato un modello stocastico per la determinazione dei tempi medi d'attesa.
APA, Harvard, Vancouver, ISO, and other styles
10

Vanni, Davide. "Modelli biomatematici differenziali e stocastici." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13641/.

Full text
Abstract:
La previsione dei comportamenti delle malattie infettive e delle popolazioni di animali sono argomenti molto dibattuti e popolari al giorno d'oggi. Sempre più l'uomo tenta di salvaguardare specie animali in via di estinzione e prevedere e prevenire contagi sia umani che di bestiame. I modelli di biomatematica sono uno strumento essenziale per poter prevedere e quindi agire su questi fenomeni. Talvolta, però, i fenomeni naturali sfuggono dalle previsioni matematiche tradizionali, così, sempre più spesso i modelli differenziali vengono affiancati da modelli probabilistici. In questa tesi verranno messi a confronto modelli di biomatematica differenziali e stocastici (catene di Markov a tempo discreto - DTMC), si osserveranno differenze ed analogie tra i due modelli, i loro comportamenti e le loro previsioni mettendole a confronto con dati reali. In particolare si analizzeranno i modelli SIS e SIR a popolazione costante e si utilizzerà il modello SIR per modellizzare e far previsioni su due problemi reali: l'influenza in una scuola inglese e la peste ad Eyam del 1666. Osservando gli errori tra i modelli ed i dati reali si giungerà all'interessante risultato che le modellizzazioni stocastica e differenziale richiedono due parametrizzazioni differenti, secondo il criterio dell'errore quadratico. Si sono quindi introdotte le catene di Markov a tempo continuo ed il poco esplorato settore di modellizzazione tramite esse, specialmente per processi multivariati, e, adattando un teorema di probabilità, si è costruito un algoritmo per simularle tramite calcolatore. In particolare si sono trasposti in CTMC i modelli SIS e SIR e si sono introdotti due ulteriori modelli non realizzabili stocasticamente tramite DTMC: il modello Lotka-Volterra e il modello di "due popolazioni interagenti", evidenziando i loro comportamenti limite tramite simulazioni numeriche.
APA, Harvard, Vancouver, ISO, and other styles
11

Brizzi, Maria Immacolata. "Modelli a volatilità locale-stocastica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19245/.

Full text
Abstract:
La tesi è incentrata su alcuni particolari modelli matematici per dare un prezzo ai contratti derivati. Si inizia con il lavoro di Fisher Black e Myron Scholes, pilastro per la matematica finanziaria che studia il prezzo di strumenti finanziari al variare del tempo. Il loro modello è uno dei modelli più conosciuti e utilizzati in finanza che si basa sulla stima del prezzo delle opzioni Call e Put. In questo modello il coefficiente di diffusione è costante e perciò induce a vari problemi tra cui: l'effetto smile. Ovvero la volatilità risulta essere l'unico parametro del modello che non è osservabile dal mercato, dato che usando diversi strike e scadenze otteniamo delle volatilità implicite distinte. Negli ultimi anni sono stati proposti svariati modelli per risolvere tali criticità. Perciò nel terzo capitolo si approfondisce un modello a volatilità locale: modello di Dupire. Per questo modello si formulerà l'equazione di Fokker-Planck per la densità del processo del sottostante. Ma il modello ha la criticità di una mancata robustezza della funzione volatilità che al variare di piccole perturbazioni dei dati di mercato tende a variare molto. Nel quarto capitolo si introducono i modelli a volatilità stocastica che rispecchiano in maggior modo il mondo finanziario dato che la volatilità è essa stessa un processo stocastico e descriveremo il modello di Heston. Anche se i modelli a volatilità stocastica permettono di risolvere molti problemi, non risultano sufficientemente capaci di prezzare in maniera esatta delle opzioni diverse dall'opzioni plain vanilla. Sarà posta grande attenzione al Lemma di Gyöngy che mette in relazione i modelli a volatilità locale con quelli a volatilità stocastica. Recentemente sono stati presentati i modelli a volatilità locale-stocastica, che combinano le proprietà vantaggiose dei modelli LV e SV. Principalmente nella tesi si studia il modello SLV di Heston-Dupire con la sua rispettiva leverage function, che assume un ruolo fondamentale.
APA, Harvard, Vancouver, ISO, and other styles
12

Colonna, Graziana. "Calcolo parallelo per modelli stocastici con default." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13494/.

Full text
Abstract:
In questa tesi presentiamo un particolare modello stocastico con default per la valutazione di contratti finanziari, che tenga conto del rischio del credito. Sotto determinate ipotesi di mercato, mostriamo come il prezzo di un contratto che segue le dinamiche descritte dal modello, si riduca al calcolo del valore atteso di una variabile aleatoria. Descriviamo il metodo Monte Carlo, uno dei metodi numerici più utilizzati per il calcolo di un valore atteso. Introduciamo poi il calcolo in parallelo e in particolar modo CUDA, un tipo di architettura hardware che supporta il calcolo in parallelo. Descriviamo il problema della calibrazione dei parametri di un modello e l'algoritmo di Nelder e Mead attraverso cui calibrare il modello oggetto di studio e spieghiamo il motivo della scelta di lavorare con il calcolo in parallelo. Introduciamo uno strumento finanziario, i Credit Default Swap, su cui calibrare il modello, attraverso l'utilizzo di CUDA. Infine presentiamo i risultati ottenuti dalla calibrazione.
APA, Harvard, Vancouver, ISO, and other styles
13

Polli, Elisa. "Modelli stocastici per tassi di trasferimento e di interesse." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6296/.

Full text
Abstract:
Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).
APA, Harvard, Vancouver, ISO, and other styles
14

Compiani, Vera. "Particle methods in option pricing." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13896/.

Full text
Abstract:
Lo scopo di questa tesi è la calibrazione del modello di volatilità locale-stocastico (SLV) usando il metodo delle particelle. Il modello SLV riproduce il prezzo di un asset finanziario descritto da un processo stocastico. Il coefficiente di diffusione o volatilità del processo è costituito da una parte stocastica, la varianza, e da una parte locale chiamata funzione di leva che dipende dal processo stesso e che dà origine ad un'equazione differenziale alle derivate parziali (PDE) non lineare. La funzione di leva deve essere calibrata alla tipica curva che appare nella volatilità implicita dei dati di mercato, il volatility-smile. Per fa ciò si utilizza un metodo computazionale preso dalla fisica: il metodo delle particelle. Esso consiste nell'approssimare la distribuzione di probabilità del processo con una distribuzione empirica costituita da N particelle. Le N particelle consistono in N variabili aleatorie indipendenti e identicamente distribuite che seguono ciascuna l'equazione differenziale stocastica del prezzo con N moti Browniani indipendenti. La funzione di leva dipenderà così da una misura di probabilità casuale e la PDE non-lineare si ridurrà ad una PDE lineare con N gradi di libertà. Il risultato finale è una funzione di leva determinata dall'interazione tra tutte le particelle. La simulazione al computer viene eseguita tramite la tecnica di implementazione in parallelo che accelera i calcoli sfruttando l'architettura grafica della GPU.
APA, Harvard, Vancouver, ISO, and other styles
15

FABBRI, SAMUELE. "Un modello per prezzi di titoli finanziari con eterogeneità e descrizione stocastica." Doctoral thesis, Università Politecnica delle Marche, 2013. http://hdl.handle.net/11566/242696.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

DI, TERLIZZI IVAN. "Il ruolo della varianza in sistemi stocastici classici." Doctoral thesis, Università degli studi di Padova, 2021. http://hdl.handle.net/11577/3447314.

Full text
Abstract:
We characterise stochastic systems by studying their variances. In particular, we tackle this topic from two points of view, by elaborating on the subject of stochastic uncertainty relations and by discussing a novel result that we term the variance sum rule for Langevin systems. Stochastic uncertainty relations are inequalities that usually involve a signal to noise ratio g, which can be regarded as a measure of the precision associated to the observable O, and a cost function C such that g ≤ C. The thermodynamic uncertainty relation is one of the first examples of these stochastic inequalities and considers the average total entropy production in the cost function, thus refining the second law of thermodynamics. By means of an information-theoretic approach, we provide a new uncertainty relation for a system modelled by a linear generalised Langevin equation along with a novel kinetic uncertainty relation, where the upper bound to the precision is given by the mean dynamical activity, which quantifies the degree of agitation of a discrete system. We also show how the latter is often the main limiting factor for the precision in far-from-equilibrium conditions. In the second part of the thesis we introduce some variance sum rules, which can be used to infer relevant dynamical parameters also for regimes far from equilibrium. We test our method on experimental data whose model parameters are known a priori, finding very good agreement between the results of the estimation procedure and the true values of the parameters. A specific sum rule for non-Markovian systems also shows good performances in estimating the memory kernel of complex fluids. Moreover, the same approach yields a solid formula for estimating the amount of entropy production. All of this shows that the indetermination of stochastic motion is a resource that we should continue to understand and exploit for measuring physical quantities.
We characterise stochastic systems by studying their variances. In particular, we tackle this topic from two points of view, by elaborating on the subject of stochastic uncertainty relations and by discussing a novel result that we term the variance sum rule for Langevin systems. Stochastic uncertainty relations are inequalities that usually involve a signal to noise ratio g, which can be regarded as a measure of the precision associated to the observable O, and a cost function C such that g ≤ C. The thermodynamic uncertainty relation is one of the first examples of these stochastic inequalities and considers the average total entropy production in the cost function, thus refining the second law of thermodynamics. By means of an information-theoretic approach, we provide a new uncertainty relation for a system modelled by a linear generalised Langevin equation along with a novel kinetic uncertainty relation, where the upper bound to the precision is given by the mean dynamical activity, which quantifies the degree of agitation of a discrete system. We also show how the latter is often the main limiting factor for the precision in far-from-equilibrium conditions. In the second part of the thesis we introduce some variance sum rules, which can be used to infer relevant dynamical parameters also for regimes far from equilibrium. We test our method on experimental data whose model parameters are known a priori, finding very good agreement between the results of the estimation procedure and the true values of the parameters. A specific sum rule for non-Markovian systems also shows good performances in estimating the memory kernel of complex fluids. Moreover, the same approach yields a solid formula for estimating the amount of entropy production. All of this shows that the indetermination of stochastic motion is a resource that we should continue to understand and exploit for measuring physical quantities.
APA, Harvard, Vancouver, ISO, and other styles
17

Rinaldi, Andrea. "Equazione Stocastica di McKean e Particle Method." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16411/.

Full text
Abstract:
Lo scopo di questa tesi è quello di descrivere una equazione stocastica di McKean, il Particle Method, algoritmo di tipo Monte Carlo derivante dalla fisica statistica utile per l'approssimazione della soluzione di una equazione di McKean, ed infine una loro applicazione alla finanza matematica in option pricing. Vengono mostrati risultati di esistenza e unicità di una soluzione di una equazione di McKean sotto opportune ipotesi, utilizzando anche la Metrica di Wasserstein, ed inoltre viene descritta la proprietà di propagazione del Caos, introdotta da Sznitman, utile per la dimostrazione della convergenza del Particle Method. Entrambi i concetti (McKean e Particle Method) trovano applicazione nella matematica finanza ed in particolar modo nella calibrazione di modelli a volatilità locale-stocastica. Vengono descritti tali modelli portando alcuni esempi (Modello di SABR e di Dupire-Heston) e focalizzandosi sul concetto chiave di Leverage Function, viene motivata l'introduzione di tali modelli ed infine viene data notevole attenzione al problema della calibrazione. La calibrazione di un modello a volatilità locale-stocastica richiede innanzitutto lo studio della volatilità di Dupire, della omonima equazione e del collegamento fra i coefficienti di volatilità di modelli stocastici (SV) e quelli di modelli locali (LV). La calibrazione della leverage function porta alla ricerca della soluzione di una equazione stocastica di McKean che viene approssimata attraverso il Particle Method.
APA, Harvard, Vancouver, ISO, and other styles
18

MERCURIO, Claudio. "Landslides susceptibility stochastic modelling under earthquakes and rainfalls triggering: applications to 2001 earthquakes (13th January and 13th February) and 2009 tropical storm (IDA/96E) in El Salvador." Doctoral thesis, Università degli Studi di Palermo, 2022. https://hdl.handle.net/10447/574407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Salmaso, Denny <1989&gt. "Metodi Monte Carlo sequenziali per modelli a volatilità stocastica con distribuzioni a code spesse." Master's Degree Thesis, Università Ca' Foscari Venezia, 2014. http://hdl.handle.net/10579/4554.

Full text
Abstract:
In questa tesi si stimano tre differenti modelli a volatilità stocastica con distribuzioni a code spesse utilizzando i metodi Monte Carlo sequenziali per la stima congiunta di parametri e stati. I modelli stimati vengono applicati a dati reali riguardanti i metalli preziosi, rame e petrolio, con lo scopo di combinare le tre densità di previsione ottenute per ciascuna serie ed utilizzare tale combinazione a fini previsivi. Viene proposta inoltre un’applicazione in tema di portfolio composition analizzando le differenze tra l’uso della combinazione di modelli diversi e del singolo modello migliore.
APA, Harvard, Vancouver, ISO, and other styles
20

Zanetti, Stefano. "Downscaling della pioggia di punto attraverso modelli stocastici di precipitazione: Sviluppi teorici ed applicazioni." Doctoral thesis, Università degli studi di Padova, 2009. http://hdl.handle.net/11577/3426473.

Full text
Abstract:
The identification of general relationships linking statistical properties of rainfall aggregated at different temporal and spatial scales possesses clear theoretical and practical relevance. A wide and recent literature has developed around downscaling techniques. These methods allow to estimate high resolution temporal series or precipitation fields on the basis of coarse resolution output obtained by numerical models. Nevertheless these methodologies concentrate on spatial downscaling, while relatively few attention is put on temporal downscaling of rainfall series, particularly hourly precipitation, that are of principal interest in the hydrological studies. Among other properties it is important to characterize the scale dependence of rainfall variability, which may, for many purposes, be summarized by its variance. Previous theoretical results are revised to characterize the connection of the temporal variance of rainfall to the scale of observation under the assumption of second-order stationarity. Here we present a new method for downscaling rainfall in time using theoretically-based estimates of rainfall variability at the hourly scales from daily statistics. In particular, we review non-scaling scale relations which imply a non-power-law form of the second order moment. The method is validated on a wide data set representative of different rainfall regimes and produces unbiased estimates of rainfall variance at the hourly scale when a power-law-tailed autocorrelation is used for the rainfall process. We then demonstrate how the downscaling method together with a Bartlett-Lewis rainfall stochastic model may be used to generate hourly rainfall sequences which reproduce the observed small-scale variability uniquely from daily statistics. Finally, we compare the results obtained by the application of our new downscaling method and by a commonly used approach, which assumes a power-law structure of the statistical moments. We show that non-scaling procedures outperform those based on power-law expressions of the statistical moments in the estimation of rainfall variability at the hourly scale on the basis of daily observations. Another important section presented in this work concerns long historical precipitation series. Daily rainfall observations in Padova (Italy) arguably constitute one of the longest observed rainfall time series in the world. Observations started in 1725 and were regularly annotated by the scientists who headed the Astronomic Observatory of Padova over more than two centuries. A patient work of data recovery from the original registries allowed the reconstruction of the entire precipitation time series, characterized by a very limited amount of missing data. Here we present some preliminary statistical analysis aimed at identifying the possible presence of trends, periodicities and characteristic scales, with particular attention to extreme events. The results indeed show the presence of trends in yearly amounts, average intensities, and extreme values. Cyclicities are also detected reflecting large-scale forcings as expressed by global atmospheric index (NAO, etc.), with implications for the documentation of past climatic change. The last section of this work focuses on the application of tools developed for the integration of spatial and temporal stochastic rainfall models with geomorphic models of the hydrologic response. Answering the need of reliable tools for water resources management and flood mitigation we develop and apply an approach to generate space-time rainfall fields reproducing the relevant characters of observed rainfall events, with specific applications to two catchments located in Northern Italy. The stochastic rainfall model relies on the Bartlett-Lewis formulation for the reproduction of the temporal variability of rainfall whereas it adopts a convective cells formulation (based on Cox and Isham, 1987) to describe the spatial variability and the correlation structure of rainfall fields. We show that the generated rainfall fields are respectful of the statistical characters of the observed rainfall both in space and time and allow for the reproduction of extreme events which are coherent with observed ones for the relatively low return periods accessible through existing time series.
L’identificazione di relazioni di carattere generale che leghino le proprietà statistiche della precipitazione aggregata a diverse scale, sia nel tempo che nello spazio, possiede una indiscutibile rilevanza sia dal punto di vista teorico, sia per quanto riguarda le applicazioni. Un’ampia e relativamente recente letteratura si è sviluppata in riferimento alle tecniche di downscaling. Questi metodi consentono di stimare serie temporali ad alta risoluzione o campi di precipitazione nello spazio sulla base degli output a risoluzione più grossolana ottenuti dai modelli numerici di previsione climatica o meteorologica. Tuttavia queste metodologie si concentrano prevalentemente sul downscaling spaziale, mentre relativamente poca attenzione è stata riservata al downscaling temporale delle sequenze di pioggia, in particolare la precipitazione oraria, che rivestono primaria importanza negli studi di tipo idrologico e ambientale. Tra le altre proprietà risulta importante caratterizzare la dipendenza di scala della variabilità della precipitazione, che può, per diversi motivi, essere rappresentata mediante la sua varianza. Studi teorici precedenti [Marani, 2003] e [Marani, 2005], sono stati analizzati e rivisti in modo da caratterizzare la connessione tra la varianza temporale della precipitazione e la scala di osservazione sotto l’ipotesi di stazionarietà del secondo ordine. Nella prima parte di questo lavoro viene presentato un nuovo metodo per il downscaling della varianza nel tempo, il quale utilizza stime teoricamente basate della varianza alla scala oraria sulla base di statistiche giornaliere. In particolare vengono prese in considerazione relazioni analitiche che non prevedono comportamento di scala e che implicano una forma diversa da quella di una legge di potenza per i momenti del secondo ordine al variare dell’aggregazione. Il metodo è stato validato su un ampio campione di dati rappresentativi di diversi regimi di precipitazione e produce stime della varianza oraria della pioggia non affette da errore sistematico, in particolare nel caso in cui si consideri una autocorrelazione con coda di legge di potenza per il processo di pioggia. E’ stato quindi dimostrato come il metodo di downscaling accoppiato con un modello stocastico della precipitazione del tipo Bartlett-Lewis possa essere usato per la generazione di lunghe sequenze di precipitazioni orarie che riproducano la variabilità osservata alle piccole scale di aggregazione sulla base unicamente di statistiche giornaliere. Infine, i risultati ottenuti dall’applicazione del nuovo metodo di downscaling proposto sono stati confrontati con quelli ricavati da un approccio comunemente utilizzato, che assume una struttura di legge di potenza dei momenti statistici al variare della scala di aggregazione. Si dimostra come procedure che non assumano comportamento di scala forniscano performance migliori rispetto a quelle basate su espressioni del tipo legge di potenza per i momenti nella stima della variabilità della precipitazione alla scala oraria sulla base di osservazioni giornaliere. Una sezione importante presentata in questo lavoro riguarda lo studio di lunghe sequenze di precipitazioni storiche registrate. Le osservazione della pioggia giornaliera a Padova costituiscono indiscutibilmente una delle serie storiche di precipitazione osservata più lunghe al mondo. Le osservazioni, iniziate a partire dal 1725, sono state regolarmente annotate dagli studiosi dell’Osservatorio Astronomico di Padova per più di due secoli. Un paziente lavoro di raccolta dati dai manoscritti originali ha permesso la ricostruzione dell’intera serie temporale di precipitazione, caratterizzata da pochissime e limitate interruzioni. Vengono qui presentate alcune analisi statistiche preliminari, prodotte con lo scopo di identificare la possibile presenza di trend, periodicità e scale carat teristiche, con particolare attenzione agli eventi estremi. I risultati mostrano effettivamente l’esistenza di trend nelle cumulate annuali, nelle intensità medie, e nei valori estremi. Sono state inoltre rilevate delle ciclicità, che possono riflettere l’influenza di forzanti su larga scala, come espresso dagli indici atmosferici globali (NAO, etc.), con importanti implicazioni per la documentazione di cambiamenti climatici nel passato. L’ultima sezione di questo lavoro si focalizza sull’applicazione di strumenti sviluppati per l’integrazione di modelli stocastici di precipitazione spaziotemporali con modelli geomorfologici della risposta idrologica. In risposta alla necessità di strumenti utili per la gestione delle risorse idriche e per la mitigazione delle piene, è stato sviluppato e applicato un nuovo approccio per la generazione di campi di precipitazione nello spazio e nel tempo in grado di riprodurre i caratteri principali degli eventi di pioggia osservati, con specifiche applicazioni a due bacini localizzati nel Nord Italia. Il modello stocastico proposto si basa su una formulazione di Bartlett-Lewis per la riproduzione della variabilità temporale della precipitazione, mentre adotta una formulazione a celle convettive [Cox et al., 1988] per descrivere la variabilità spaziale e la struttura di correlazione dei campi di pioggia. Si mostra come i campi generati rispettino i caratteri statistici delle piogge sperimentali sia nello spazio che nel tempo e permettano la riproduzione di eventi estremi coerenti con quelli misurati relativamente ai tempi di ritorno riproducibili sulla base delle serie storiche esistenti.
APA, Harvard, Vancouver, ISO, and other styles
21

Pasqualitto, Emanuela, and Emanuela PASQUALITTO. "Su un modello integrato di alm per la politica ottima d'investimento di un Fondo Pensione." Doctoral thesis, La Sapienza, 2006. http://hdl.handle.net/11573/917319.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Di, Pumpo Antonio. "Energie rinnovabili e rete elettrica: modelli stocastici per la scelta della configurazione ottima delle centrali di produzione dell'energia elettrica." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
Abstract:
Il dispacciamento è l'attività diretta ad impartire disposizioni per l'esercizio coordinato degli impianti di produzione dell'energia elettrica. Questa tesi è focalizzata sull'utilizzo della programmazione stocastica per il dispacciamento in presenza di incertezza sul carico non alimentato dagli impianti eolici. Sono stati definiti tre tipi di modelli stocastici a due stadi: il modello Risk-Neutral e due diversi modelli con considerazione dei rischi tramite Conditional Value at Risk, indicati in questa tesi come Rockafellar e Conejo, dai nomi degli autori delle pubblicazioni che li hanno presentati. E' stato inoltre definito il modello deterministico corrispondente. Ogni modello è stato implementato, tramite il software AIMMS, in modo completo e sono state sviluppate specifiche procedure di controllo post-esecuzione che, in caso di difficoltà di soluzione a causa della mancata possibilità di bilanciamento fra produzione e carico, aggiungono le opportune variabili di slack al modello. E' presente anche una procedura dedicata all'after uncertainty: viene risolto il modello deterministico per ogni scenario con la configurazione acceso/spento ottenuta dalla risoluzione del modello stocastico. Il programma è stato utilizzato per l'analisi della rete di trasmissione est degli Stati Uniti. I risultati indicano che il programma stocastico con CVaR valutato per basse tail probability e per basso peso del rischio garantisce un migliore andamento costi-rischi. I risultati mostrano inoltre l'inefficienza del modello deterministico Expected Value e i significativi vantaggi di tutti i modelli stocastici implementati. Il confronto dei Value of Stochastic Solution, Expected Value of Perfect Information e dei valori delle funzioni obiettivo dell'after uncertainty mostra che, per il caso in studio, il modello Risk-Neutral è la migliore strategia.
APA, Harvard, Vancouver, ISO, and other styles
23

Alessi, Celegon Elisa. "Contributi allo sviluppo di modelli idrologici accoppiati previsionali e Montecarlo." Doctoral thesis, Università degli studi di Padova, 2008. http://hdl.handle.net/11577/3426385.

Full text
Abstract:
A careful management of the environment and of water resources requires modern eco-hydrological models which allow the evaluation of flood events and of the response natural systems, especially in a context of accelerated environmental changes due to human activities and climate change. Modelling such complex dynamics requires mathematical tools, such as modern hydrological response models, rainfall stochastic models and meteorological models. In the present thesis the research activities have been focused on coupling physically-based hydrological models and models which prescribe relevant hydro-meteorological forcings on the basis of predictions (meteorological models) or probabilistic representations of statistical features of climate variables (weather stochastic generators). A geomorphological model of the hydrological response applied to a number of relevant case studies is here developed. The use of a reliable flood forecasting model is extremely beneficial to prevent extreme events because of its capability to predict the behaviour of a hydrological system under different initial and boundary conditions. The hydrological model implemented constitutes a robust basis for the study and the development of coupled meteorological and hydrological models. Special attention is devoted to the analysis of high-resolution rainfall fields which are forecasted by a LAM meteorological model (ETA model); spatial and temporal analyses are carried out to test the main characters of precipitation forecasts. Hydrological, ecological and water resources applications need as forcing input weather time series with a suitable spatial and temporal detail. Measured ground-based meteorological data are often inadequate, particularly because of their limited length which may lead to a mis-representation of extreme events. Stochastic weather generators are a viable technique for simulating time series consistent with the statistical characters of observed data. In this thesis a new stochastic model is developed, based on a multivariate autoregressive framework. The objective is the generation of a coherent set of hydro-meteorological variables including maximum and minimum air temperature, maximum and minimum air humidity, atmospheric pressure, daily mean wind velocity and direction and the meteorological tide component for a given geographic location. These variables are required to force models applied to coastal hydrological systems, where the presence of a tidal component is important in determining the response to ordinary and extreme events (e.g. as in the important case of the Venice Lagoon). However, the daily resolution is not detailed enough to describe the meteorological tidal level fluctuations in usual hyrologic applications; a down-scaling technique is thus applied in order to obtain hourly time series of simulated tidal levels. The results highlight the model capability to reproduce the main statistics both at daily and hourly resolution. Moreover the stochastic generator is able to well reproduce observed extreme events frequencies.
APA, Harvard, Vancouver, ISO, and other styles
24

Assis, Janilson Pinheiro de. "Modelo estocástico para estimação de produtividade potencial de milho em Piracicaba - SP." Universidade de São Paulo, 2004. http://www.teses.usp.br/teses/disponiveis/11/11136/tde-03082004-150848/.

Full text
Abstract:
Com o objetivo de propor um modelo estocástico para estimação da produtividade potencial da cultura de milho em Piracicaba (SP), em função de temperatura e radiação solar média diária, foi desenvolvido um programa computacional em linguagem Visual Basic para ambiente Windows, o qual foi utilizado em diferentes períodos agroclimáticos (datas de semeadura). Em função dos resultados obtidos, pode-se concluir que: (i) em escala diária, as variáveis temperatura média do ar e radiação solar em Piracicaba (SP) (períodos de 1917 a 2002 e 1978 a 2002, respectivamente) apresentaram distribuição normal; (ii) as distribuições normal truncada, triangular simétrica, e triangular assimétrica podem ser utilizadas no modelo estocástico para previsão da produtividade de milho; (iii) o programa computacional é uma ferramenta que viabiliza a operacionalização da estimação da produtividade potencial de milho utilizando a opinião de especialistas.
With the purpose of proposing a stochastic model for estimating potential maize productivity in Piracicaba (SP), as function of mean values of daily air temperature and solar radiation, a software was developed using Visual Basic for Windows, where it was applied for different agro climatic periods (sowing dates). The results allowed the following conclusions: (i) at daily scale, the variables air temperature and solar radiation (periods from 1917 to 2002 and 1978 to 2002, respectively) presented normal distribution; (ii) the normal and triangular (symmetric and asymmetric) distributions can be used in the stochastic model to forecast potential maize productivity; (iii) the software is a tool that allows to estimate the potential maize productivity using the specialist opinion.
APA, Harvard, Vancouver, ISO, and other styles
25

D'AQUINO, Luigi. "STUDIO DELLA CIRCOLAZIONE IDRICA A SCALA INGEGNERISTICA IN ACQUIFERI FRATTURATI." Doctoral thesis, La Sapienza, 2007. http://hdl.handle.net/11573/917503.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Busiello, Daniel Maria. "Entropy production in non-equilibrium systems." Doctoral thesis, Università degli studi di Padova, 2018. http://hdl.handle.net/11577/3422682.

Full text
Abstract:
In this thesis we study the entropy production of systems out of equilibrium. Initially we focus on discrete-state systems close to equilibrium amenable to be described by a master equation. It is possible to map the dynamics into a network of states, represented by nodes, connected by transition rates, identified by links. Using this framework, we analyze the entropy production of ensembles of randomly generated networks with specific constraints, for example size or symmetries, and identify the most important parameters which determine its value. This analysis provides an estimation for the entropy production based on a null-model that can be used for comparison with specific systems. In the second part of the thesis we investigate how coarse-graining influences our prediction of the physical properties of a system. For systems described by a Master Equation, the entropy production can be estimated using Schnakenberg's formula. On the other hand, some years ago Seifert derived an analogous formula for dynamics described by a Fokker-Planck. In this thesis, we aim at connecting both formulations, and starting from a Master-Equation system we calculate how Schnakenberg's entropy production is influenced by coarse-graining of the system. We show that such a value can be reduced to the Seifert's formula for some simple choices of the dynamics, but, surprisingly enough, we demonstrate that, in general, microscopic fluxes circulating in the system give a macroscopic non-negative contribution to the entropy production. As a consequence, neglecting information leads to an underestimation of the entropy production, and only a lower bound can be provided when the dynamics is coarse-grained. Finally, we study similarities and differences between non-equilibrium steady states and time-periodic driving in diffusive systems. A system that violates detailed balance evolves asymptotically into a steady state, which is not an equilibrium state since it has non-vanishing currents. Analogously, when detailed balance holds at any instant of time but the system is driven through time-periodic variations of external parameters, it evolves toward a time-periodic state, in which there are non-vanishing currents. In both cases the maintenance of currents throughout the system has a cost in terms of entropy production. Here we aim at comparing these two scenarios for a one dimensional continuous diffusive systems with periodic boundary condition, described by a Fokker-Planck equation, which is a natural framework to analyze molecular machines. First, we show that the entropy production is not equivalent in these two scenarios: the entropy production rate of a periodically driven system is always larger than the entropy production rate of a stationary system without detailed balance, when both are driving the same current and have the same averaged probability distribution. Next, we show constructively how to build both a non-equilibrium steady state and a periodic driving that support a given (time averaged) probabilities and current.
In questa tesi studiamo la produzione di entropia in sistemi fuori dall'equilibrio. Nella prima parte ci concentriamo su sistemi con un numero finito di stati, vicini all'equilibrio termodinamico, che possono essere descritti da una Master Equation. Per sistemi di questo tipo è possibile mappare la dinamica in una rete di stati, rappresentati da nodi, collegati da rate di transizione, identificati da links. In questo contesto, analizziamo la produzione di entropia di ensemble di reti generate casualmente con vincoli specifici, ad esempio la taglia del sistema, e identifichiamo i parametri più importanti che ne determinano il valore. Questa analisi fornisce una stima per la produzione di entropia basata che può essere utilizzata come punto di partenza per il confronto con particolari sistemi di interesse. Nella seconda parte della tesi esaminiamo come il coarse-graining influenzi la nostra capacità di stimare alcune proprietà fisiche di un sistema. Per sistemi fuori dall’equilibrio descritti da una Master Equation, la produzione di entropia può essere stimata utilizzando la formula di Schnakenberg. D'altra parte, alcuni anni fa Seifert ha derivato una formula analoga per sistemi descritti da una Fokker-Planck Equation. In questa tesi miriamo a creare un ponte fra queste due formulazioni e, partendo da un sistema con un numero finito di stati calcoliamo come la produzione di entropia di Schnakenberg sia influenzata dalla procedura di coarse-graining. Mostriamo che tale valore può essere ridotto alla formula di Seifert per alcune scelte particolari della dinamica, ma che, abbastanza sorprendentemente, in generale i flussi microscopici presenti nel sistema danno un contributo macroscopico non negativo alla produzione di entropia. Di conseguenza, trascurare alcune informazioni porta a sottostimare la produzione di entropia, e solo un limite inferiore può essere fornito quando la dinamica è coarse-grained. Infine, nell’ultima sezione della tesi, studiamo somiglianze e differenze tra stati stazionari di non equilibrio e driving periodico in sistemi diffusivi. Un sistema che viola il bilancio dettagliato evolve asintoticamente in uno stato stazionario, che non è uno stato di equilibrio poiché presenta correnti non nulle. Analogamente, quando il bilancio dettagliato è presente in ogni istante di tempo, ma il sistema subisce variazioni periodiche dei parametri esterni, quest’ultimo evolve verso uno stato periodico in cui sono presenti correnti non nulle. In entrambi i casi il costo per produrre tali correnti in tutto il sistema è rappresentato dalla produzione di entropia. In questa tesi miriamo a confrontare questi due scenari per un sistema diffusivo continuo monodimensionale con condizioni al contorno periodiche, descritto da un'equazione di Fokker-Planck, che è il modo più naturale per analizzare le macchine molecolari. Innanzitutto, mostriamo che la produzione di entropia non è equivalente in questi due scenari: il rate di produzione di entropia in un sistema con driving periodico è sempre maggiore del rate di produzione di entropia in un sistema stazionario senza bilancio dettagliato, quando entrambi producono la stessa corrente e hanno la stessa distribuzione di probabilità (mediata nel tempo). Successivamente, mostriamo come costruire sia uno stato stazionario di non equilibrio sia un protocollo di variazione periodica dei parametri esterni che producano una data probabilità (mediata nel tempo) e una data corrente.
APA, Harvard, Vancouver, ISO, and other styles
27

FERSINI, PAOLA. "Un modello stocastico per il calcolo del Fair Value della Riserva Sinistri R.C.Auto in presenza dell'Indennizzo Diretto e valutazione del requisito patrimoniale in ottica Solvency II." Doctoral thesis, 2012. http://hdl.handle.net/11573/916910.

Full text
Abstract:
L’introduzione dell’Indennizzo Diretto nel ramo R.C.A., ha comportato negli ultimi anni una maggiore complessità nell’utilizzo delle metodologie statistico - attuariali per la stima della riserva sinistri, sia per la eterogeneità dei dati disponibili per le valutazioni (gestione dei sinistri ante e post 2007), sia e soprattutto per le diverse dinamiche sottostanti i fattori di rischio che caratterizzano e determinano il costo aziendale complessivo delle Compagnie di assicurazioni, in relazione alla gestione sinistri. In particolare, il D.P.R. n. 254 del 18 luglio 2006, e successivamente la Convenzione tra Assicuratori per il Risarcimento Diretto (CARD) che ha recepito le norme e stabilito gli accordi, disciplinano i limiti e le modalità di applicazione del risarcimento diretto, prevedendo una nuova struttura del costo dei sinistri, basata sul meccanismo dei Forfait gestionari e debitori. Pertanto il nuovo costo aziendale risulta composto da quattro componenti (sinistri No Card, Sinistri Card, Forfait gestionari e forfait debitori), caratterizzate da evoluzioni aleatorie differenti. Le quattro tipologie di sinistri elencate presentano, infatti, profili di sviluppo diversi: basti pensare, ad esempio, alla velocità di liquidazione dei sinistri Card, presumibilmente superiore a quella dei sinistri No Card. Tuttavia, a meno che non si effettui una suddivisione a ritroso delle serie storiche dei pagamenti ed un’analisi separata delle stesse, potrebbe verificarsi la situazione in cui in un triangolo run-off compaiano importi relativi a generazioni antecedenti all’entrata in vigore dell’indennizzo diretto, e comprensivi quindi di sinistri di tipologia diversa, che pertanto rischiano di intaccare l’attendibilità di una stima, che si basi appunto su quel triangolo. In questo lavoro si intende individuare una metodologia che, utilizzando come dato di input le differenti ipotesi che descrivono l’evoluzione delle quattro gestioni, sia capace di quantificare la riserva sinistri separatamente tenendo conto delle caratteristiche di ciascuna tipologia di sinistro. L’idea è quella di applicare le tecniche attuariali delle assicurazioni sociali e delle assicurazioni vita alla stima della riserva sinistri. In particolare, l’intenzione è quella di utilizzare l’impalcatura metodologica utilizzata per la stima dei cash flows prodotti da un portafoglio assicurativo vita attraverso un approccio operativo basato su ‘models point’ (operando quindi su un numero ridotto di sinistri ‘campione’, omogenei per caratteristiche, anziché analizzarli analiticamente), con stima delle assunzioni relative alla ‘movimentazione’ del numero dei sinistri (probabilità di eliminazioni, di riapertura, di passaggio tra gestioni differenti) e dei costi medi distinti per ciascuna variabile discriminante individuata (per esempio per zona territoriale, per tipologia di gestione, per tipo di veicolo). Nel lavoro è stato utilizzato un data set di una reale compagnia di assicurazione e attraverso un’applicazione numerica è stato possibile effettuare un confronto dei risultati ottenuti con quelli derivanti dall’applicazione dei tradizionali metodi statistici sia deterministici che stocastici. In particolare, partendo dall’elenco dei sinistri ‘attivi’ a riserva alla fine di un determinato anno di bilancio, contenente tutte le informazioni disponibili per ciascun sinistro, incluso l’indicazione di eventuali pagamenti parziali, si è proceduto al raggruppamento per classi omogenee distinte sulla base delle caratteristiche ritenute rappresentative ai fine del calcolo della riserva. I modelli tradizionali di stima della riserva sinistri che raccolgono i dati di input nel noto triangolo run-off, valutano le incidenze di liquidazione e i costi medi tenendo in considerazione solo le due variabili che risultano nella tabella a doppia entrata (anno di accadimento e antidurata). L’idea in questo caso è quella di calcolare le probabilità di eliminazione e i costi medi tenendo conto delle informazioni a disposizione per ciascun sinistro, quindi non solo per anno di accadimento e anno di sviluppo. Per ogni caratteristica dei sinistri selezionata è necessario individuare gli stati che può assumere, e successivamente si stimano le probabilità di transizione tra i differenti stati. Riguardo alla stima delle probabilità di transizione tra stati, l’implementazione del modello necessita di dati di flusso, cioè dati che quantificano il numero e le caratteristiche dei sinistri che si muovono da uno status all’altro. A tale scopo si utilizzano anche i dati relativi ai sinistri ‘eliminati’ nei 5 anni precedenti alla valutazione, con indicazione di tutte le caratteristiche e della causa di chiusura (per pagamento definitivo, o per senza seguito). Ogni sinistro avrà un codice identificativo attribuito nell’anno di accadimento che permetterà di seguire la storia del sinistro (relativa a pagamenti parziali, ai passaggi tra tipo di gestioni) sino al momento di chiusura definitiva. Relativamente allo stato del sinistro possiamo avere, sinistri aperti (sono i sinistri a riserva all’anno di valutazione compresi i riaperti e al netto dei sinistri pagati parzialmente), sinistri chiusi perché pagati definitivamente, sinistri chiusi perché senza seguito ed infine i sinistri pagati parzialmente. I sinistri oggetto di valutazione sono i sinistri a riserva aperti ad una specifica chiusura di bilancio. Al fine di determinare la riserva sinistri sarà necessario stimare per ogni anno successivo a tale chiusura il numero di sinistri attesi per ciascuno stato e determinare i corrispondenti cash flow attesi. La best estimate della riserva sinistri complessiva sarà calcolata come il valore attuale di tutti i futuri cash flow attesi. La versione stocastica del modello è stata sviluppata con l’utilizzo di tecniche simulative che hanno permesso di stimare sia le probabilità di transizione tra i possibili stati che i costi medi dei sinistri. In particolare si è assunto che il costo medio dei sinistri sia distribuito secondo una Lognormale con media uguale, per ciascun gruppo, alla media del costo dei sinistri utilizzato nel modello deterministico e un dato coefficiente di variazione. È stata effettuata anche un’analisi di sensitività sia rispetto il coefficiente di variazione che facendo un’ipotesi differente sul tipo di distribuzione. Il metodo stocastico proposto permette di effettuare le valutazioni senza operare nessun raggruppamento sui dati iniziali, in altri termini si tiene conto di tutte le informazioni di ciascun sinistro accaduto che si trova nel database. L’eventuale verificarsi delle cause di passaggio dipende da estrazioni, seguite da reimbussolamento, da un’urna con composizione assegnata, urna ponderata con probabilità di passaggio riferite a ciascun sinistro singolarmente considerato. Per mezzo delle estrazioni pseudo-casuali per i passaggi di stato, si ottiene per ogni replicazione un differente cash-flow relativo alle uscite per pagamenti di sinistri. Una volta determinati i futuri cash flow per via simulativa, è possibile aggregarli per ciascuna caratteristica analizzata, per esempio per tipologia di veicolo, per area geografica, per tipologia di gestione, per anno di accadimento. Nel lavoro è stato affrontato anche il problema dell’aggregazione della riserva sinistri delle quattro gestioni (sinistri No Card, Sinistri Card, Forfait gestionari e forfait debitori), con l’obiettivo di costruire un’unica distribuzione relativa alla riserva sinistri delle quattro gestioni congiuntamente, ovvero la distribuzione della riserva sinistri aggregata. A tal fine sono state utilizzate le copule, ovvero una famiglia di funzioni che descrivono la struttura di dipendenza indipendentemente dalla forma delle distribuzioni marginali. In questo caso le distribuzioni marginali consistono nelle distribuzioni di probabilità delle riserve sinistri relative ad una singola gestione. Il modello proposto permette di determinare la distribuzione di probabilità delle riserva sinistri aggregata (in termini di differenti gestioni dei sinistri) mediante la quale è possibile determinare in ottica di fair valuation il margine di rischio utilizzando il metodo del costo del capitale. Inoltre in ottica Solvency II, è stato determinato il requisito di capitale a fronte del rischio di riservazione sulla base del modello interno proposto. Tale requisito è stato confrontato con il medesimo della formula standard proposta dall’EIOPA. Nella valutazione della riserva sinistri il valutatore ha come elemento di partenza la riserva sinistri stimata dal liquidatore per ciascun sinistro (metodo dell’inventario). E’ data poi la possibilità di affiancare la valutazione analitica da metodologie statistico-attuariali o sistemi di valutazione previsionale dell’evoluzione dei costi per i rami caratterizzati da processi liquidativi lenti. La metodologia proposta riduce la discrezionalità del valutatore nell’applicazione dei metodi statistici, dato che le ipotesi sono esplicitate e possono essere facilmente monitorate e controllate. Inoltre, è possibile effettuare stress-test su tutti i parametri che possono influenzare il fenomeno liquidativo e pertanto la riserva. Infine, il metodo proposto, in un’ottica di back testing, da la possibilità di analizzare ex-post gli scostamenti dei cash flow effettivi rispetto ai valori attesi, individuando le variabili che hanno condotto a tali differenze.
APA, Harvard, Vancouver, ISO, and other styles
28

NAPOLITANO, Francesco. "Modelli stocastici puntuali per la simulazione della precipitazione nel tempo." Doctoral thesis, 1997. http://hdl.handle.net/11573/500253.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

GOTTARD, ANNA. "Analisi di processi stocastici interdipendenti mediante modelli grafici di durata: lo studio delle relazioni dinamiche tra lavoro e fecondità." Doctoral thesis, 1998. http://hdl.handle.net/2158/651801.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

FABBRO, GIANCARLO. "Vaccino e HPV: un modello di previsione delle infezioni." Doctoral thesis, 2014. http://hdl.handle.net/2158/851927.

Full text
Abstract:
Il carcinoma della cervice uterina è il primo cancro ad essere riconosciuto dall’OMS come riconducibile nella quasi totalità dei casi ad una infezione virale: l'infezione da papillomavirus Umano (HPV) che si trasmette per via sessuale anche col semplice contatto. La maggior parte delle infezioni viene eliminata dall'organismo, mentre una certa percentuale è destinata a sviluppare un tumore. Trattandosi di un'infezione virale, negli ultimi anni è stato messo a punto un vaccino in grado di proteggere dai quattro tipi ad alto rischio oncogeno. Questo vaccino è disponibile in Italia dal 2007. Attualmente pochi sono gli studi sugli effetti a lungo termine delle vaccinazioni, tuttavia è innegabile il loro impatto sulla diffusione a lungo termine di questo virus nella popolazione, in particolare quella femminile. Dopo una prima rassegna sui modelli di trasmissione delle infezioni esistenti in letteratura, si propone un modello ad equazioni differenziali di diffusione dell'HPV. Per superare il determinismo di un modello basato su equazioni differenziali, dopo una prima fase di test con applicativi in grado di risolvere il sistema per via numerica, si presenterà un modello che implementa la variabilità e quindi permetta una stima di alcuni parametri in modo intervallare e non solo puntuale. Alla fine si presentano i risultati delle simulazioni sugli effetti a lungo termine della prevalenza dell'infezione da HPV, e dell'effetto che questo avrà sull'incidenza dei tumori alla cervice, in seguito all'introduzione del vaccino ipotizzando diversi scenari di copertura vaccinale. The cervical cancer is the first cancer to be recognized by the WHO as in almost all cases due to a viral infection with Human papillomavirus (HPV) which is transmitted through sexual contact even with the simple. The majority of infections is eliminated by the body, while a certain percentage is set to develop a tumor. Being a viral infection, in recent years it has been developed a vaccine capable of protecting from the four types with high oncogenic risk. This vaccine is available in Italy since 2007. Currently there are few studies on the long-term effects of vaccinations, but their impact is undeniable on the spread in the long term of this virus in the population, in particular that female. After an initial review on patterns of transmission of infection in the literature, we propose a differential equation model of spread of HPV. To overcome the determinism of a model based on differential equations, after a first phase of testing with applications capable of solving the system numerically, we will present a model that implements the variability and thus allow interval estimation of certain parameters. At the end we present the results of simulations for the long-term effects of the prevalence of HPV infection, and the effect that this will have on the incidence of cevix cancers, following the introduction of the vaccine, assuming different scenarios of vaccination coverage.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography