To see the other types of publications on this topic, follow the link: Metodo Montecarlo.

Dissertations / Theses on the topic 'Metodo Montecarlo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 16 dissertations / theses for your research on the topic 'Metodo Montecarlo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Iannuzzi, Alessandra. "Catene di Markov reversibili e applicazioni al metodo Montecarlo basato sulle catene di Markov." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9010/.

Full text
Abstract:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
APA, Harvard, Vancouver, ISO, and other styles
2

Ballesteros, Villegas Marco Arturo, Zimbron Carlos Alberto Rotter, Villegas Mario Arturo BAllesteros, and Zimbrón Carlos Alberto Rotter. "Analisis de la contaminacion del aire en los municipios de Toluca, Metepec, San Mateo Atenco y Zinacantepec a traves de la metodologia de simulacion bajo el metodo de montecarlo, 2000-2020." Tesis de Licenciatura, Universidad Autonoma del Estado de Mexico, 2014. http://hdl.handle.net/20.500.11799/63991.

Full text
Abstract:
Ubicada en la porción ce ntral del Estado de México, la zona m etropolitana del Valle de Toluca (ZMVT) se extiende sobre una superficie de 1,208.55 km 2 en la que habitan 1’361,500 personas, que la sitúan como la segunda concentración poblacional en importancia de la entidad y la quinta a nivel nacional. La evolución de la ZMVT es similar a la de otr as ciudades del país, al pasar de una economía rural a una industrial y de servicios, aunada a un continuo proceso de urbanización con una demanda de servicios y satisfactores a costa de los recursos naturales, provocando como consecuencia diversos problem as ambientales, tales como: cambios de los usos del suelo que han reducido la frontera agrícola y forestal, invasión de áreas naturales protegidas, deforestación, procesos de erosión, incendios forestales, quemas de residuos a cielo abierto, así como las e misiones de contaminantes provenientes de industrias que carecen de sistemas de control y de vehículos automotores con condiciones mecánicas en mal estado, entre otros.
APA, Harvard, Vancouver, ISO, and other styles
3

Leuci, Riccardo Sergio. "Modellazione numerica semi-distribuita del comportamento idrologico del Lago di Monate (VA)." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Il Lago di Monate è una risorsa ambientale di inestimabile valore. La comprensione del comportamento idrologico del bacino del Lago è di fondamentale importanza per garantirne un’adeguata tutela. La modellazione idrologica numerico-matematica, sviluppata in questo elaborato, si fonda su un’attenta gestione ed elaborazione dei dati meteorologici disponibili. Il bilancio idrologico, condotto tramite modello afflussi-deflussi HyMOD opportunamente modificato, fa riferimento ai dati relativi ai primi tre anni di monitoraggio idrologico e ambientale a cui è soggetto il bacino stesso (2014-16). Dopo aver calibrato e validato il modello, tramite differenti simulazioni del livello idrico del Lago a scala temporale giornaliera, vengono indagate le prestazioni del modello stesso e l’attendibilità dei dati di monitoraggio. Attraverso procedure analoghe è stata condotta anche un’analisi idrologica del bacino imbrifero che alimenta il laghetto della vicina Cava Faraona, per meglio comprendere se l’attività di coltivazione dei calcari nummulitici in corso presso la cava possa alterare il bilancio idrologico del Lago di Monate. Infine, il presente elaborato indaga il processo di scioglimento nivale: l’analisi, condotta tramite il Degree-Day Method e validata tramite immagini satellitari di copertura nevosa, ha messo in risalto che per descrivere accuratamente il processo per bacini di laghi prealpini potrebbero essere necessari modelli più articolati, che possano rappresentare con maggior dettaglio le caratteristiche meteoclimatiche salienti della zona di interesse.
APA, Harvard, Vancouver, ISO, and other styles
4

Vallucci, Matteo. "Metodi numerici per la definizione e soluzione di modelli probabilistici complessi per l’ingegneria della manutenzione." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
APA, Harvard, Vancouver, ISO, and other styles
5

Mariani, Chiara. "Valutazione della fluenza fotonica di un tubo a raggi X tramite metodi semiempirici basati su simulazioni Montecarlo." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8956/.

Full text
Abstract:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.
APA, Harvard, Vancouver, ISO, and other styles
6

BASTIDA, DIAZ JOSE JUAN, and DELGADO ALINA JAZMIN CASTRO. "MODELO DE SIMULACIÓN MONTECARLO PARA LA DETERMINACIÓN DEL LÍMITE MÁXIMO DE RETENCIÓN EN LA OPERACIÓN DE SEGUROS VIDA GRUPO." Tesis de Licenciatura, UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO, 2017. http://hdl.handle.net/20.500.11799/94484.

Full text
Abstract:
La metodología que se utilizó inicia con una revisión a la literatura para identificar los principales conceptos sobre seguros, reaseguros, límites de retención, medidas de tendencia central para la realización del análisis estadístico y enfoque y aplicaciones de modelo Montecarlo. Una vez recopilada la información para la compresión y análisis de la base de datos que se ocupó para el desarrollo del modelo, se depuró la base validando las variables de estudio y comprobando su confiabilidad. Se buscó la optimización del modelo planteado mediante la técnica de optimización basada en simulación Montecarlo. Apoyados en ésta técnica, se demuestra que se puede construir un modelo de simulación para encontrar el límite de retención tal que asegure con un alto grado de confiabilidad la solvencia de la empresa. Los paquetes de software a utilizar son hojas electrónicas en Microsoft Excel y programación basada en Visual Basic para el desarrollo del modelo. El contenido de ésta investigación se encuentra dividido en cuatro capítulos y una sección de conclusiones. En el capítulo uno, se desarrolló el marco teórico que está compuesto por conceptos y definiciones necesarios para el desarrollo y compresión del modelo. En el capítulo dos, se abordó el análisis estadístico para la revisión en la construcción del modelo de límite máximo de retención del seguro de vida grupo. En capítulo tres se analizó la metodología planteada en la exposición del modelo de simulación Montecarlo, esto abarca desde la construcción de la base de datos, el 10 proceso de la utilización de la macro para obtener las simulaciones, la tabla de mortalidad usada para las fórmulas que se aplicaron al modelo, y la obtención del requerimiento bruto de solvencia. En el capítulo cuarto, se muestran los resultados de las simulaciones para cada uno de los escenarios, es decir, para cada límite de retención propuesto. Para finalizar se llevó a cabo la discusión de los principales resultados y se puntualizaron las conclusiones de la investigación.
APA, Harvard, Vancouver, ISO, and other styles
7

ALVARADO, GOMEZ ALEJANDRO, and VELAZQUEZ EFREN ESTRADA. "ESTIMACIÓN DEL VALOR EN RIESGO DE UN PORTAFOLIO: UN COMPARATIVO ENTRE LOS METODOS DELTA-NORMAL Y MONTECARLO IMPLEMENTANDO UNA ESTRATEGIA DE COBERTURA." Tesis de Licenciatura, UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO, 2015. http://hdl.handle.net/20.500.11799/94336.

Full text
Abstract:
El presente trabajo se conforma de 4 capítulos y un apartado de conclusiones, donde se le dará el veredicto final a nuestra hipótesis formulada al inicio de este trabajo. En nuestro primer capítulo abordaremos toda la información referente al sistema financiero mexicano ya que es de suma importancia conocer su estructura, funcionamiento y el gran papel que juega respecto a la regulación en los mercados financieros. En mencionado capitulo abordaremos la descripción de los organismos que lo conforman, sus funciones y a su vez también sus limitantes. De igual manera contemplaremos los mercados financieros, su clasificación y poniendo mayor atención en el mercado de capitales, con todo lo que este este mercado necesita y requiere para su buen funcionamiento. En nuestro segundo capítulo abordaremos el concepto de riesgo, así como definiremos el riesgo financiero y sus clasificaciones. Trataremos algunos otros conceptos como rendimiento de los activos ya que es primario para un inversionista. Así mismo Dentro de este capítulo nos adentraremos en lo que es un portafolio de inversiones y como es que se conforma. Por ultimo en este capítulo trataremos el CAPM, puesto lo ocuparemos para la creación de nuestro portafolio y la teoría de markowitz. Se hablara del Valor en riesgo como tal “VaR” y sus metodologías para su estimación Para el tercer capítulo abordaremos nuestra investigación central que se concentra en la realización de la estimación del VaR por el método Montecarlo y el método delta normal contemplando la elección del portafolio y su diversificación. Ya para el cuarto capítulo y ultimo de esta investigación se aborda lo que es la estrategia de cobertura por medio de contratos futuros. Por ultimo tendremos nuestras conclusiones en donde se compararan los resultados de la estimación del valor en riesgo para nuestros 2 métodos y cuál es el resultado que se obtuvo con la aplicación de la estrategia de cobertura.
APA, Harvard, Vancouver, ISO, and other styles
8

Prats, Garcia Hèctor. "Monte Carlo based methods applied to heterogeneous catalysis and gas separation." Doctoral thesis, Universitat de Barcelona, 2019. http://hdl.handle.net/10803/666583.

Full text
Abstract:
The research work presented in this thesis is divided in two main topics: gas separation and heterogeneous catalysis. Although the systems studied in one part and another are quite different, they share two fundamental features: both topics have a special industrial interest and they have been studied through stochastic Monte Carlo based methods. The present work on gas separation aims to assess the performance of several faujasite structures, a well-known family of zeolites, in CO2 capture processes. Concretely, ten faujasite structures with different Al content have been evaluated in the separation of post-combustion CO2 mixtures via simulation of swing adsorption processes. Through GCMC simulations performed on a wide range of pressures and temperatures, the pure and mixture adsorption isotherms and isobars for the different structures are obtained. This data is used to calculate several performance criteria such as purity, working capacity, selectivity and energy required per ton of CO2 captured. The results show that high Al content structures are suitable for operating under a TSA unit, while intermediate and low Al content structures show better performance in PSA and VSA units, respectively. On the other hand, the research work on chemical reactivity focus on the study of the water-gas shift reaction (WGSR) on copper surfaces both from a thermodynamic and from a kinetic point of view. First, a kMC study is performed on the flat Cu(111) surface. The lattice model is quite simple, consisting on an hexagonal periodic grid of points. All sites are considered equivalent, and only repulsive lateral interactions between neighboring CO adsorbed species are included. However, even with this simple model, the kMC results agree quite well to the available experimental data, and demonstrate that the dominant reaction mechanism is the COOH mediated associative mechanism. The effect of van der Waals interactions is then studied, by performing DFT calculations of the WGSR on Cu(321) using the Grimme D2 correction accounting for the dispersion forces. The results obtained are compared with previous DFT results published in the literature where no van der Waals corrections were included. The comparison shows big differences on the adsorption energies of some gas species, as well as important differences in some energy barriers, hence demonstrating the importance of including dispersion terms in order to obtain a meaningful description of the energetics of the WGSR. New kMC simulations are then performed for the WGSR on Cu(321) surface to study the effect of step sites on the WGSR activity. The recently developed graph- theoretical kMC framework is used, coupled with cluster expansion Hamiltonians to account for the lateral interactions between neighboring species. The simulation results show that the activity is much lower on the stepped Cu(321) surface. Analysis of the kMC simulations suggests that the reason in the poisoning of step sites by CO species, as well as the presence of low energy barriers for some key steps on the reverse direction (e.g. water dissociation and COOH formation). Finally, the thesis ends with a brief tutorial on kMC simulations where several issues are discussed, like the importance of including diffusion processes of the effect of lateral interactions.
El treball de recerca presentat en aquesta tesi es divideix en dos temes principals: separació de gasos i catàlisi heterogènia. Tot i que els sistemes estudiats en ambdues parts són molt diferents, comparteixen dues característiques fonamentals: ambdós temes tenen un elevat interès industrial i s'han estudiat mitjançant mètodes estocàstics de Monte Carlo. El treball corresponent a la separació de gasos pretén avaluar el rendiment de diverses estructures de faujasites, una coneguda família de zeolites, en processos de captura de CO2. Concretament, s'han avaluat deu estructures de faujasites amb diferent contingut d’alumini en la separació de mescles post-combustió. Mitjançant simulacions GCMC realitzades en una àmplia gamma de pressions i temperatures, s’han obtingut les isotermes i isòbares d'adsorció pures i de mescla per les diferents estructures. Aquesta informació s'ha emprat per calcular diversos criteris de rendiment com ara la puresa, la capacitat de treball, la selectivitat i l'energia requerida per tona de CO2 capturat. D'altra banda, els treballs de recerca sobre reactivitat química es centren en l'estudi de la reacció water-gas shift (WGSR) sobre superfícies de coure tant des d'un punt de vista termodinàmic com cinètic. En aquest context, s’ha estudiat l’efecte de les superfícies esglaonades i de les forces de van der Waals mitjançant càlculs d’estructura electrònica i simulacions amb el mètode de Monte Carlo cinètic (kMC) en la superfície plana Cu(111) i la superfície esglaonada Cu(321). Els resultats mostren que les superfícies esglaonades no sempre són més actives que les planes, i que la introducció de les interaccions de van der Waals és crucial per a obtenir una descripció correcta dels diferents processos que ocorren en superfície.
APA, Harvard, Vancouver, ISO, and other styles
9

Rinaldi, Andrea. "Equazione Stocastica di McKean e Particle Method." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16411/.

Full text
Abstract:
Lo scopo di questa tesi è quello di descrivere una equazione stocastica di McKean, il Particle Method, algoritmo di tipo Monte Carlo derivante dalla fisica statistica utile per l'approssimazione della soluzione di una equazione di McKean, ed infine una loro applicazione alla finanza matematica in option pricing. Vengono mostrati risultati di esistenza e unicità di una soluzione di una equazione di McKean sotto opportune ipotesi, utilizzando anche la Metrica di Wasserstein, ed inoltre viene descritta la proprietà di propagazione del Caos, introdotta da Sznitman, utile per la dimostrazione della convergenza del Particle Method. Entrambi i concetti (McKean e Particle Method) trovano applicazione nella matematica finanza ed in particolar modo nella calibrazione di modelli a volatilità locale-stocastica. Vengono descritti tali modelli portando alcuni esempi (Modello di SABR e di Dupire-Heston) e focalizzandosi sul concetto chiave di Leverage Function, viene motivata l'introduzione di tali modelli ed infine viene data notevole attenzione al problema della calibrazione. La calibrazione di un modello a volatilità locale-stocastica richiede innanzitutto lo studio della volatilità di Dupire, della omonima equazione e del collegamento fra i coefficienti di volatilità di modelli stocastici (SV) e quelli di modelli locali (LV). La calibrazione della leverage function porta alla ricerca della soluzione di una equazione stocastica di McKean che viene approssimata attraverso il Particle Method.
APA, Harvard, Vancouver, ISO, and other styles
10

Blanco, Pablo Miguel. "Coupling of binding and conformational equilibria in weak polyelectrolytes. Dynamics and charge regulation of biopolymers in crowded media." Doctoral thesis, Universitat de Barcelona, 2020. http://hdl.handle.net/10803/670053.

Full text
Abstract:
I have carried out this thesis in the Biophysical Chemistry of Macromolecules and Colloids research group of the University of Barcelona. In the recent years, the research group have made significant contributions to the study of the conformational, binding, diffusion and reactivity properties of weak polyelectrolytes and biopolymers. On the one hand, the group has contributed to the design and development of the Site Binding Rotational Isomeric State (SBRIS) model for weak polyelectrolytes. They have also successfully used the SBRIS model to reproduce the complex experimental titration curves of polyethylenimine. On the other hand, the research group has done significant contributions in the study of biopolymer diffusion and reactivity in crowded media. They tracked the diffusion of α-chymiotrypsin in solutions crowded by different- sized dextran macromolecules. They rationalized the experimental results comparing them with on-lattice Monte Carlo (MC) simulations, observing a qualitative agreement between both sets of data. The present thesis follows the efforts of the research group in the development of theoretical and computational models for weak polyelectrolytes and biopolymers. I investigate different theoretical aspects of the conformational, ionization, elastic and diffusive properties of weak polyelectrolytes and biopolymers using theoretical and computational simulation techniques. The thesis includes six original peer-reviewed publications, which are distributed in six different chapters. Moreover, a complete description of the fundamental concepts and methodologies relevant for the thesis is also given. On the one hand, I focus in the complex interplay of the ionization and conformational degrees of freedom of weak polyelectrolytes using the recently developed Site Binding Rotational Isomeric State (SBRIS) model. A new analytical technique, the Local Effective Interaction Parameters (LEIP) method, is presented to solve the SBRIS model including long range intramolecular electrostatic interactions. The model is validated against constant pH Monte Carlo (MC) simulations. The SBRIS model is used to study the elastic response of a model weak polyelectrolyte. A new force regime is found for which (i) the force-extension curves are significantly dependent on the pH and the ionic strength values (ii) the polyelectrolyte charge is modified by the stretching force. The effect of charge fluctuation in the conformational and stretching properties of weak polyelectrolytes is studied comparing the results obtained with SGCMC simulation with those obtained with MC simulation with the same charge but keeping it constant. The conformational and elastic properties of the polyelectrolyte are observed to be significantly affected by the presence of charge regulation. On the other hand, I study the diffusive and ionization properties of biopolymers in solution with a high concentration of macromolecules. These conditions, known as macromolecular crowding, are characteristic of biological media where up to the 40% of the volume is occupied by macromolecules. The diffusion of two globular proteins, α-chymiotrypsin and streptavidin, is analysed in different crowding conditions with Brownian Dynamics simulations. A new coarse grained model is proposed, named as Chain Entanglement Softened Potential (CESP), which is found to reproduce quantitatively the experimental data. I have investigated the effect of macromolecular crowding in the binding and conformational properties of two Intrinsically Disordered Proteins (IDPs), histatin-5 and β-amyloid 42, which are modelled using a bead and spring model. The crowders are modelled using the CESP model mimicking Bovin Serum Albumin (BSA). The investigation is motivated by the hypothesis that, in the same way that the conformational and ionization degrees of freedom are coupled in weak polyelectrolytes, the macromolecular crowding should also cause a charge regulation in IDPs whose flexible structure is similar to those of weak polyelectrolytes. Two possible mechanisms through by macromolecular crowding can alter the IDP ionization are proposed: (i) the increase in the effective ionic strength (same ions in a reduced volume) and (ii) the IDP compaction due to macromolecular crowding. The IDPs global charge is found to exhibit significant variations when neutral and charged crowders are added to the system, due to the increase in the effective ionic strength.
Els polímers són omnipresents a la nostra vida diària, presents en múltiples aplicacions industrials i involucrats en processos biològics essencials. Per exemple, l’ADN, les proteïnes i els sucres poden ser considerats polímers, normalment denominats biopolímers. Aquells polímers amb un gran nombre de grups carregats són coneguts com a polielectròlits i freqüentment classificats en termes de la seva ionització com a forts (completament ionizats) o febles (parcialment ionizats). En aquesta tesi, investigo diferents aspectes teòrics de les propietats conformacionals, elàstiques, difusives i d'ionització de polielectròlits febles i biopolímers. Per un costat, em centro en la complexa interació entre els graus de llibertat d'ionització i conformacionals dels polielectròlits febles utilitzant el model Site Binding Rotational Isomeric State (SBRIS), desenvolupat recentment. S’introdueix una nova tècnica analítica, el mètode Local Effective Interaction Parameters (LEIP), per resoldre el model SBRIS incloent les interaccions electroestàtiques intramoleculars de llarg abast. El model es valida comparant els resultats amb la solució obtinguda per simulacions Monte Carlo a pH constant. El model SBRIS s’utilitza per estudiar la resposta elàstica d’un polielectròlit model. Es troba un nou règim de força en el que (i) les corbes força-extensió són significativament dependents del valor del pH i la força iònica (ii) la càrrega del polielectròlit es modificada per la acció de la força d’estirament. S’observa que les propietats conformacionals i elàstiques del polielectròlit es veuen significativament i moderadament afectades per la presència de fluctuacions en la càrrega, respectivament. Per l’altre costat, avaluo les propietats difusives i d'ionització de biopolímers en solució amb una elevada concentració de macromolecules. Aquestes condicions, conegudes com crowding macromolecular, son característiques dels medis biologics on fins el 40% del volum es ocupat per macromolecules. S’analitza la difusió de dues proteïnes globulars, α-chimiotripsina i estreptavidina, en diferents condicions de crowding macromolecular amb simulacions de Dinàmica Browniana. Es proposa un nou model de gra gruixut, anomenat Chain Entanglement Softened Potential (CESP), el qual es trobat que reprodueix quantitativament les dades experimentals. S’ha investigat l’efecte del \emph{crowding} macromolecular en les propietats conformacionals i de protonació de dues proteïnes intrínsecament desordenades (IDPs), histidina
APA, Harvard, Vancouver, ISO, and other styles
11

Carreras, Conill Abel. "Estudi teòric de l’estereodinàmica de rotors i engranatges moleculars." Doctoral thesis, Universitat de Barcelona, 2013. http://hdl.handle.net/10803/133335.

Full text
Abstract:
Els rotors, motors i engranatges moleculars són molècules o sistemes moleculars que tenen com a característica que presenten moviments conformacionals de gran amplitud, majoritàriament associats a rotacions internes al voltant d’un o diversos enllaços senzills entre els seus àtoms. Aquesta propietat permet a aquestes molècules adoptar diferents geometries conformacionals en funció de la rotació al voltant d’aquests enllaços, podent donar comportaments mecànics anàlogs al dʼengranatges macroscòpics, de manera que aquestes molècules puguin ser considerades com a components bàsics per a un futur disseny de màquines nanoscòpiques més complexes. És per aquesta raó que l'anàlisi del comportament dinàmic de rotors i engranatges moleculars ha despertat l’interès d’una gran quantitat de científics que, des de fa temps, treballen en la síntesi i caracterització d’aquest tipus de compostos. Una manera de poder abordar l’estudi teòric dels rotors moleculars sense haver de renunciar a l’ús d’un mètode de càlcul de les interaccions intermoleculars acurat, és efectuant una dinàmica molecular restringida, on només es tenen en compte un nombre reduït de graus de llibertat mentre que els efectes de la resta modes en el comportament dinàmic es menysprea o s’inclou només de manera aproximada com a pertorbació del moviment que s’estudia en detall. D’aquesta manera és possible reduir el cost computacional del càlcul i poder accedir així, a temps de simulació molt més elevats amb un cost computacional assumible. En aquesta tesi doctoral s’ha desenvolupat un conjunt de programes informàtics que permeten simular el comportament dinàmic de sistemes formats per un nombre de fragments que es consideren rígids amb una energia potencial total definida a partir d’interaccions a parells entre ells. Això permet tractar sistemes grans reduint el nombre de graus de llibertat, separant així les interaccions més rellevants. D’aquesta manera, al tenir en compte només uns pocs graus de llibertat, es pot realitzar un càlcul més precís de l’energia en un temps assumible. Per tal de descriure les interaccions entre fragments s’han calculat superfícies de potencial en funció de les variables que descriuen les rotacions internes entre fragments rígids. Aquesta descripció, permet veure més clarament els possibles acoblaments entre els diferents graus de llibertat rotacionals de la molècula. Per fer-ho, s’ha elaborat una metodologia que permet descriure els processos de flexió que tenen lloc a la molècula al mateix temps que és produeix la rotació. Amb aquesta metodologia, s’ha realitzat l’estudi dels tripticil[n]helicens, molècules formades per la unió d’un grup tripticil i un helicè mitjançant un enllaç senzill, que han estat estudiades per la seva relació amb els anomenats trinquets moleculars, sistemes on hi ha una rotació interna en un entorn asimètric degut a la presència de fragments moleculars quirals. Utilitzant programes de simulació de Monte Carlo i de dinàmica molecular desenvolupats en el transcurs de la tesi s’ha estudiat també en col•laboració amb el grup experimental del Prof. Miguel A. Garcia-Garibay de la Universitat de California, dos cristalls amfidinàmics, sòlids on fragments de les molècules empaquetades conserven una alta llibertat de rotació, sintetitzats recentment: el rotor de mestranol i l’IDipp-C60.
Molecular motors, rotors and gears are complex molecules that undergo wide conformational movements that mimic those of their macroscopic mechanical counterparts. For this reason these molecular systems have recently been the subject of numerous experimental and theoretical studies with the aim to incorporate them as basic building blocks of more complex nanoscopic devices. Due to their intrinsic structural complexity it is difficult to perform accurate dynamical studies using standard molecular dynamics techniques considering all atoms of the system and for this reason in this thesis we have developed programs to simulate the dynamical behavior of such systems !considering only a restricted set of degrees of freedom. The systems are modeled by a collection of rigid fragments that interact through pair potentials that lead to a reduced potential energy surface for the relevant degrees of freedom that is being used in conjunction of molecular dynamics or Monte Carlo simulation techniques to study the dynamic behavior of molecular gears or ensembles of molecular rotors. Using the general purpose molecular dynamics and Monte Carlo programs developed in this thesis have also been adapted to be used in the study of the dynamical behavior of amphidynamic solids, a new class of molecular crystals where some fragments of the constituent molecules exhibit large conformational motions. This part of the work, devoted to the simulation of the dynamic behavior of the mestranol rotor and the crystals of IDipp-C60 has been developed in collaboration with the experimental group of Prof. Miguel Angel García Garibay at UCLA that worked in the synthesis and experimental characterization of these two compounds.
APA, Harvard, Vancouver, ISO, and other styles
12

Melo, Martínez Oscar Orlando. "Modelos lineales generalizados geoestadísticos basados en distancias." Doctoral thesis, Universitat de Barcelona, 2013. http://hdl.handle.net/10803/127219.

Full text
Abstract:
En esta tesis se hace una mezcla del método de distancias con los modelos lineales generalizados mixtos tanto en lo espacial como en lo espacio-temporal. Con el empleo de las distancias se logran buenas predicciones y menores variabilidades en el espacio o espacio-tiempo de la región de estudio, provocando todo esto que se tomen mejores decisiones en los diferentes problemas de interés. Se propone un método alternativo para ajustar una variable respuesta tipo beta con dispersión variable usando distancias euclidianas entre los individuos. Se emplea el método de máxima verosimilitud para estimar los parámetros desconocidos del modelo propuesto y se presentan las principales propiedades de estos estimadores. Además, se realiza la inferencia estadística sobre los parámetros utilizando las aproximaciones obtenidas a partir de la normalidad asintótica del estimador de máxima verosimilitud; se desarrolla el diagnóstico y predicción de una nueva observación, y se estudia el problema de datos faltantes utilizando la metodología propuesta. Posteriormente, se propone una solución alterna para resolver problemas como el de prevalencia de Loa loa utilizando distancias euclidianas entre individuos; se describe un modelo lineal generalizado espacial mixto incorporando medidas generales de distancia o disimilaridad que se pueden aplicar a variables explicativas. En este caso, los parámetros involucrados en el modelo propuesto se estiman utilizando máxima verosimilitud mediante el método de Monte Carlo vía cadenas de Markov (MCMC). También se formula un modelo lineal beta espacial mixto con dispersión variable utilizando máxima verosimilitud mediante el método MCMC. El método propuesto se utiliza en situaciones donde la variable respuesta es una razón o proporción que esta relacionada con determinadas variables explicativas. Para este fin, se desarrolla una aproximación utilizando modelos lineales generalizados espaciales mixtos empleando la transformación Box-Cox en el modelo de precisión. Por lo tanto, se realiza el proceso de optimización de los parámetros tanto para modelo espacial de media como para el modelo espacial de dispersión variable. Además, se realiza la inferencia estadística sobre los parámetros utilizando las aproximaciones obtenidas a partir de la normalidad asintótica del estimador de máxima verosimilitud. También se desarrolla el diagnóstico del modelo y la predicción de nuevas observaciones. Por último, el método se ilustra a través de los contenidos de arcilla y magnesio. Adicionalmente, se describe el modelo basado en distancias para la predicción espacio-temporal usando modelos lineales generalizados. Se realiza el proceso de estimación de los parámetros involucrados en el modelo propuesto, mediante el método de ecuaciones de estimación generalizada y la inferencia estadística sobre los parámetros empleando las aproximaciones obtenidas a partir de la normalidad asintótica del estimador de máxima verosimilitud. Además, se desarrolla el diagnóstico del modelo y la predicción de nuevas observaciones. Se realiza una aplicación de la metodología propuesta para el número de acciones armadas estandarizada por cada 1000 km2 de los grupos irregulares FARC-EP y ELN en los diferentes departamentos de Colombia entre los años 2003 a 2009. Finalmente, se presenta un modelo autorregresivo espacial lineal generalizado mixto utilizando el método basado en distancias. Este modelo incluye retrasos tanto espaciales como temporales entre vectores de variables de estado estacionarias. Se utiliza la dinámica espacial de los datos econométricos tipo panel para estimar el modelo propuesto; los parámetros involucrados en el modelo se estiman utilizando el método MCMC mediante máxima verosimilitud. Además, se discute en este capítulo la interacción entre estacionariedad temporal y espacial, y se derivan las respuestas al impulso para el modelo propuesto, lo cual naturalmente depende de la dinámica temporal y espacial del modelo.
In the context of regression with a beta-type response variable, we propose a new method that links two methodologies: a distance-based model, and a beta regression with variable dispersion. The proposed model is useful for those situations where the response variable is a rate, a proportion or parts per million. This variable is related with a mixture between continuous and categorical explanatory variables. We present its main statistical properties and some measures for selection of the most predictive dimensions in the model. Furthermore, the prediction of a new observation and the problem of missing data are also developed. Using the proposed model, the mutual funds are analyzed employing the Gower distance for both the mean model and the variable dispersion model. Also, we present a new method based on distances, which allows the modeling of continuous and non-continuous random variables through distance-based spatial generalized linear mixed models (SGLMMs). The parameters are estimated using Markov chain Monte Carlo (MCMC) maximum likelihood. The method is illustrated through the analysis of the variation in the prevalence of Loa loa among a sample of village residents in Cameroon, where the explanatory variables included elevation, together with maximum normalized-difference vegetation index (NDVI) and the standard deviation of NDVI calculated from repeated satellite scans over time. Additionally, we propose a beta spatial linear mixed model with variable dispersion using MCMC. An approach to the SGLMMs using the Box-Cox transformation in the precision model is developed. Thus, the parameter optimization process is made for both the spatial mean model as the spatial variable dispersion model. Statistical inference over the parameters is performed using approximations obtained from the asymptotic normality of the maximum likelihood estimator. Diagnosis and prediction of a new observation are also developed. This model is illustrated through of the clay and magnesium contents. On the other hand, we present a solution to problems where the response variable is a count, a rate or a binary (dichotomous) using a refined distance-based generalized linear space-time-autoregressive model with space-time-autoregressive disturbances. This model may also contain additional spatial exogenous variables as well as time exogenous variables. The parameter estimation process is done by the space-time generalized estimating equations (GEE) method, and a measure of goodness-of-fit is presented. Also, the best linear unbiased predictor for prediction purposes is presented. An application for the standardized number of armed actions per 1000 km2 of rebel groups FARC-EP and ELN in different departments of Colombia from 2003 to 2009 is employed to illustrate the proposed methodology. Finally, a spatial generalized linear mixed autoregressive model using distance-based is defined including spatial as well as temporal lags between vectors of stationary state variables. Although the structural parameters are not fully identified in this model, contemporaneous spatial lag coefficients may be identified by exogenous state variables. Dynamic spatial panel data econometrics is used to estimate our proposed model. In this way, the parameters are estimated using MCMC maximum likelihood. We also discuss the interaction between temporal and spatial stationarity, and we derive the impulse responses for our model, which naturally depend upon the temporal and spatial dynamics of the model.
APA, Harvard, Vancouver, ISO, and other styles
13

Lecina, Casas Daniel. "Studying protein-ligand interactions using a Monte Carlo procedure." Doctoral thesis, Universitat de Barcelona, 2017. http://hdl.handle.net/10803/459297.

Full text
Abstract:
Biomolecular simulations have been widely used in the study of protein-ligand interactions; comprehending the mechanisms involved in the prediction of binding affinities would have a significant repercussion in the pharmaceutical industry. Notwithstanding the intrinsic difficulty of sampling the phase space, hardware and methodological developments make computer simulations a promising candidate in the resolution of biophysically relevant problems. In this context, the objective of the thesis is the development of a protocol that permits studying protein-ligand interactions, in view to be applied in drug discovery pipelines. The author contributed to the rewriting PELE, our Monte Carlo sampling procedure, using good practices of software development. These involved testing, improving the readability, modularity, encapsulation, maintenance and version control, just to name a few. Importantly, the recoding resulted in a competitive cutting-edge software that is able to integrate new algorithms and platforms, such as new force fields or a graphical user interface, while being reliable and efficient. The rest of the thesis is built upon this development. At this point, we established a protocol of unbiased all-atom simulations using PELE, often combined with Markov (state) Models (MSM) to characterize the energy landscape exploration. In the thesis, we have shown that PELE is a suitable tool to map complex mechanisms in an accurate and efficient manner. For example, we successfully conducted studies of ligand migration in prolyl oligopeptidases and nuclear hormone receptors (NHRs). Using PELE, we could map the ligand migration and binding pathway in such complex systems in less than 48 hours. On the other hand, with this technique we often run batches of 100s of simulations to reduce the wall-clock time. MSM is a useful technique to join these independent simulations in a unique statistical model, as individual trajectories only need to characterize the energy landscape locally, and the global characterization can be extracted from the model. We successfully applied the combination of these two methodologies to quantify binding mechanisms and estimate the binding free energy in systems involving NHRs and tyorsinases. However, this technique represents a significant computational effort. To reduce the computational load, we developed a new methodology to overcome the sampling limitations caused by the ruggedness of the energy landscape. In particular, we used a procedure of iterative simulations with adaptive spawning points based on reinforcement learning ideas. This permits sampling binding mechanisms at a fraction of the cost, and represents a speedup of an order of magnitude in complex systems. Importantly, we show in a proof-of-concept that it can be used to estimate absolute binding free energies. Overall, we hope that the methodologies presented herein help streamline the drug design process.
Las simulaciones biomoleculares se han usado ampliamente en el estudio de interacciones proteína-ligando. Comprender los mecanismos involucrados en la predicción de afinidades de unión tiene una gran repercusión en la industria farmacéutica. A pesar de las dificultades intrínsecas en el muestreo del espacio de fases, mejoras de hardware y metodológicas hacen de las simulaciones por ordenador un candidato prometedor en la resolución de problemas biofísicos con alta relevancia. En este contexto, el objetivo de la tesis es el desarrollo de un protocolo que introduce un estudio más eficiente de las interacciones proteína-ligando, con vistas a diseminar PELE, un procedimiento de muestreo de Monte Carlo, en el diseño de fármacos. Nuestro principal foco ha sido sobrepasar las limitaciones de muestreo causadas por la rugosidad del paisaje de energías, aplicando nuestro protocolo para hacer analsis detallados a nivel atomístico en receptores nucleares de hormonas, receptores acoplados a proteínas G, tirosinasas y prolil oligopeptidasas, en colaboración con una compañía farmacéutica y de varios laboratorios experimentales. Con todo ello, esperamos que las metodologías presentadas en esta tesis ayuden a mejorar el diseño de fármacos.
APA, Harvard, Vancouver, ISO, and other styles
14

Sánchez, Martínez Melchor. "Protein Flexibility: From local to global motions. A computational study." Doctoral thesis, Universitat de Barcelona, 2014. http://hdl.handle.net/10803/288044.

Full text
Abstract:
Proteins are flexible entities, and thus move. Its function is closely related to the flexibility. To carry out any function is necessary a conformational change. As protein motions imply an exchange of conformations, protein dynamics is also known as Protein Conformational Dynamics. The fluctuations between the different proteic configurations can be classified according to the length-scale, the time-scale and the amplitude and directionality of them. The movement could be local movement, involving only the rearrangement of a few amino- acid side chains or even backbone, or it may be a large, global movement, modulating the allostery or the conformational transitions, and even involve folding of the entire protein. Generally local motions are also fast and small amplitude motions whereas global motions are associated with slow and large amplitude motions. All these motions encompassed into protein dynamics are governed by the features of the underlying energy landscape. To fully describe a protein, a multidimensional and rugged energy landscape defining the relative probabilities of the conformational states (thermodynamics) and the energy barriers between them (kinetics) is required. To understand proteins in action, the fourth dimension, time, must be added. As these motions are important for the proteic function a deep understanding is required. To do that in this thesis we have tried to answer several questions related to these dynamical phenomena. Concretely we have performed local studies, related to enzyme catalysis and protein damage, and globally, with the determination and analysis of protein conformational ensembles. These studies have been developed using methods of computational chemistry, computational biochemistry and computational biophysics, which have proven to be very useful tools when studying the protein dynamics. Computational methods are an efficient and useful tool to characterize protein motions. However the current computational approaches present limitations and to solve them the incorporation of experimental data and its correct interpretation is crucial. This necessity of be complemented comes from different sides: 1) from experiments to computations and 2) from computations to experiments. The convergence of experimental and computational techniques to the same point is key to achieve a deep understanding of protein dynamics.
La presente tesis se centra en el estudio computacional de la dinámica de las proteínas. Las proteínas son entidades flexibles y como tales se mueven. Este movimiento es indispensable y esta directamente relacionado con su función. La dinámica de las proteínas se puede dividir en dos grandes bloques conceptuales según el número de átomos involucrados, la escala de tiempo en que tiene lugar y la amplitud y dirección de la misma. Debido a la importancia de estos fenómenos, emerge la necesidad de tener un conocimiento profundo sobre los mismos. Debido a ello, en esta tesis doctoral se ha tratado de dar respuesta a varios fenómenos observados en relación directa con la dinámica de las proteínas. Concretamente, hemos realizado estudios a nivel local, de 'centro activo', relacionados con la catálisis enzimática y el daño proteico, así como a nivel global, con la determinación y el análisis de conjuntos conformacionales de proteínas. Estos estudios, se han desarrollado usando métodos propios de la química, la bioquímica y la biofísica computacionales, los cuales se han mostrado como herramientas muy útiles a la hora de estudiar la dinámica. De todos ellos, de forma general, podemos concluir que los métodos computacionales son una herramienta eficaz y util para caracterizar la dinámica de las proteínas. Sin embargo, los métodos computacionales actuales presentan limitaciones y para resolverlos la incorporación de datos experimentales as como su correcta interpretación es crucial. Pero aunque los metodos computacionales necesitan de los experimentales, esta necesidad también se da de manera opuesta. La convergencia de los métodos experimentales y computacionales es clave para poder profundizar en el conocimiento de la dinámica de las proteínas.
APA, Harvard, Vancouver, ISO, and other styles
15

Omiccioli, Andrea. "Sviluppo di modelli e metodi di ottimizzazione per il dock assignment in un magazzino cross-docking: Il caso OneExpress Italia S.p.A." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
Il seguente elaborato evidenzia il processo utilizzato per arrivare allo sviluppo di uno strumento che favorisca il processo decisionale all’interno dell’azienda One Express. Riporta le attività preliminari realizzate per arrivare ad una comprensione chiara e univoca del processo, in particolare: mappatura BPMN, realizzazione del layout aziendale e analisi “tempi e metodi”. Dall’analisi sono emerse le principali criticità che sono state classificate sia in termini strategici come la mancanza di un sistema a supporto per la scelta della buca di scarico ottimale, sia in termini operativi come la saturazione dei polmoni e il disaccoppiamento dell’attività di carico e scarico. Tutto questo ha portato allo sviluppo di 2 strumenti: un simulatore e costificatore per l’analisi del tempo ciclo del processo e determinazione del numero di operatori e dei modelli di dock assignment per la definizione della buca di scarico ottimale. Dai modelli realizzati si è andata ad evidenziare la diversa configurazione che essi generavano rispetto alla situazione AS-IS. Per il modello [7] il più completo tra quelli sviluppati, che consente la valutazione della buca di scarico da assegnare considerando la possibilità di scaricare in due hub, la scelta tra navettaggio e doppio scarico e della buca di scarico della navetta, è stata sviluppata un’analisi su un orizzonte temporale di 4 ore per verificare con maggior precisione la bontà del modello. I risultati ottenuti hanno dimostrato come il carico di lavoro richiesto per le attività di smistamento può essere ridotto significativamente. I modelli per come sono stati pensati e sviluppati potrebbero avere sia una applicazione strategica atta a programmare anticipatamente le buche di scarico dei mezzi sia una operativa, in caso di disallineamento tra la situazione reale e quella attesa. Questo permetterebbe di riuscire a migliorare la schedulazione dei mezzi in arrivo e il bilanciamento delle attività all’interno del magazzino.
APA, Harvard, Vancouver, ISO, and other styles
16

Rondla, Preethi 1988. "MonteCarlo and Analytical Methods for Forced Outage Rate Calculations of Peaking Units." Thesis, 2012. http://hdl.handle.net/1969.1/148370.

Full text
Abstract:
All generation facilities have to report their generator un-availabilities to their respective Independent System Operators (ISOs). The un-availability of a generator is determined in terms of its probability of failure. Generators may serve the role of two kinds, base units which operates all the time and the others are peaking units which operate only for periods of time depending on load requirement. Calculation of probability of failure for peaking units using standard formulas gives pessimistic results owing to its time spent in the reserve shut down state. Therefore the normal two state representation of a generating unit is not adequate. A four state model was proposed by an IEEE committee to calculate the forced outage rate (unavailability) of such units. This thesis examines the representation of peaking units using a four-state model and performs the analytical calculations and Monte Carlo simulations to examine whether such a model does indeed represent the peaking units properly.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography