Academic literature on the topic 'Markovian approximation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Markovian approximation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Markovian approximation"

1

Mickevičius, Giedrius, and Eimutis Valakevičius. "MODELLING OF NON‐MARKOVIAN QUEUING SYSTEMS." Technological and Economic Development of Economy 12, no. 4 (2006): 295–300. http://dx.doi.org/10.3846/13928619.2006.9637757.

Full text
Abstract:
The purpose of this paper is to suggest a method and software for evaluating queuing approximations. A numerical queuing model with priorities is used to explore the behaviour of exponential phase‐type approximation of service‐time distribution. The performance of queuing systems described in the event language is used for generating the set of states and transition matrix between them. Two examples of numerical models are presented - a queuing system model with priorities and a queuing system model with quality control.
APA, Harvard, Vancouver, ISO, and other styles
2

Andrieu, Christophe, and Matti Vihola. "Markovian stochastic approximation with expanding projections." Bernoulli 20, no. 2 (2014): 545–85. http://dx.doi.org/10.3150/12-bej497.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Baviera, Roberto, Davide Vergni, and Angelo Vulpiani. "Markovian approximation in foreign exchange markets." Physica A: Statistical Mechanics and its Applications 280, no. 3-4 (2000): 566–81. http://dx.doi.org/10.1016/s0378-4371(00)00094-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Leão, Dorival, Alberto Ohashi, and Francesco Russo. "Discrete-type approximations for non-Markovian optimal stopping problems: Part I." Journal of Applied Probability 56, no. 4 (2019): 981–1005. http://dx.doi.org/10.1017/jpr.2019.57.

Full text
Abstract:
AbstractWe present a discrete-type approximation scheme to solve continuous-time optimal stopping problems based on fully non-Markovian continuous processes adapted to the Brownian motion filtration. The approximations satisfy suitable variational inequalities which allow us to construct $\varepsilon$ -optimal stopping times and optimal values in full generality. Explicit rates of convergence are presented for optimal values based on reward functionals of path-dependent stochastic differential equations driven by fractional Brownian motion. In particular, the methodology allows us to design concrete Monte Carlo schemes for non-Markovian optimal stopping time problems as demonstrated in the companion paper by Bezerra et al.
APA, Harvard, Vancouver, ISO, and other styles
5

Potts, Patrick P., Alex Arash Sand Kalaee, and Andreas Wacker. "A thermodynamically consistent Markovian master equation beyond the secular approximation." New Journal of Physics 23, no. 12 (2021): 123013. http://dx.doi.org/10.1088/1367-2630/ac3b2f.

Full text
Abstract:
Abstract Markovian master equations provide a versatile tool for describing open quantum systems when memory effects of the environment may be neglected. As these equations are of an approximate nature, they often do not respect the laws of thermodynamics when no secular approximation is performed in their derivation. Here we introduce a Markovian master equation that is thermodynamically consistent and provides an accurate description whenever memory effects can be neglected. The thermodynamic consistency is obtained through a rescaled Hamiltonian for the thermodynamic bookkeeping, exploiting the fact that a Markovian description implies a limited resolution for heat. Our results enable a thermodynamically consistent description of a variety of systems where the secular approximation breaks down.
APA, Harvard, Vancouver, ISO, and other styles
6

Tie-Fu, Li, You Jian-Qiang, Liu Jian-She, and Li Zhi-Jian. "Decoherence of qubits: results beyond Markovian approximation." Chinese Physics B 18, no. 2 (2009): 430–34. http://dx.doi.org/10.1088/1674-1056/18/2/009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bonitz, M. "Correlation time approximation in non-Markovian kinetics." Physics Letters A 221, no. 1-2 (1996): 85–93. http://dx.doi.org/10.1016/0375-9601(96)00556-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Seke, J., A. V. Soldatov, and N. N. Bogolubov. "Novel Technique for Quantum-Mechanical Eigenstate and Eigenvalue Calculations based on Seke's Self-Consistent Projection-Operator Method." Modern Physics Letters B 11, no. 06 (1997): 245–58. http://dx.doi.org/10.1142/s0217984997000311.

Full text
Abstract:
Seke's self-consistent projection-operator method has been developed for deriving non-Markovian equations of motion for probability amplitudes of a relevant set of state vectors. This method, in a Born-like approximation, leads automatically to an Hamiltonian restricted to a subspace and thus enables the construction of effective Hamiltonians. In the present paper, in order to explain the efficiency of Seke's method in particular applications, its algebraic operator structure is analyzed and a new successive approximation technique for the calculation of eigenstates and eigenvalues of an arbitrary quantum-mechanical system is developed. Unlike most perturbative techniques, in the present case each order of the approximation determines its own effective (approximating) Hamiltonian ensuring self-consistency and formal exactness of all results in the corresponding approximation order.
APA, Harvard, Vancouver, ISO, and other styles
9

Semina, I., V. Semin, F. Petruccione, and A. Barchielli. "Stochastic Schrödinger Equations for Markovian and non-Markovian Cases." Open Systems & Information Dynamics 21, no. 01n02 (2014): 1440008. http://dx.doi.org/10.1142/s1230161214400083.

Full text
Abstract:
Firstly, the Markovian stochastic Schrödinger equations are presented, together with their connections with the theory of measurements in continuous time. Moreover, the stochastic evolution equations are translated into a simulation algorithm, which is illustrated by two concrete examples — the damped harmonic oscillator and a two-level atom with homodyne photodetection. We then consider how to introduce memory effects in the stochastic Schrödinger equation via coloured noise. Specifically, the approach by using the Ornstein-Uhlenbeck process is illustrated and a simulation for the non-Markovian process proposed. Finally, an analytical approximation technique is tested with the help of the stochastic simulation in a model of a dissipative qubit.
APA, Harvard, Vancouver, ISO, and other styles
10

Ciobanu, Gabriel. "Analyzing Non-Markovian Systems by Using a Stochastic Process Calculus and a Probabilistic Model Checker." Mathematics 11, no. 2 (2023): 302. http://dx.doi.org/10.3390/math11020302.

Full text
Abstract:
The non-Markovian systems represent almost all stochastic processes, except of a small class having the Markov property; it is a real challenge to analyze these systems. In this article, we present a general method of analyzing non-Markovian systems. The novel viewpoint is given by the use of a compact stochastic process calculus developed in the formal framework of computer science for describing concurrent systems. Since phase-type distributions can approximate non-Markovian systems with arbitrary precision, we approximate a non-Markovian system by describing it easily in our stochastic process calculus, which employs phase-type distributions. The obtained process (in our calculus) are then translated into the probabilistic model checker PRISM; by using this free software tool, we can analyze several quantitative properties of the Markovian approximation of the initial non-Markovian system.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Markovian approximation"

1

Mina, Francesco. "On Markovian approximation schemes of jump processes." Thesis, Imperial College London, 2014. http://hdl.handle.net/10044/1/48049.

Full text
Abstract:
The topic of this thesis is the study of approximation schemes of jump processes whose driving noise is a Levy process. In the first part of our work we study properties of the driving noise. We present a novel approximation method for the density of a Levy process. The scheme makes use of a continuous time Markov chain defined through a careful analysis of the generator. We identify the rate of convergence and carry out a detailed analysis of the error. We also analyse the case of multidimensional Levy processes in the form of subordinate Brownian motion. We provide a weak scheme to approximate the density that does not rely on discretising the Levy measure and results in better convergence rates. The second part of the thesis concerns the analysis of schemes for BSDEs driven by Brownian motion and a Poisson random measure. Such equations appear naturally in hedging problems, stochastic control and they provide a natural probabilistic approach to the solution of certain semi linear PIDEs. While the numerical approximation of the continuous case has been studied in the literature, there has been relatively little progress in the study of such equations with a discontinuous driver. We present a weak Monte Carlo scheme in this setting based on Picard iterations. We discuss its convergence and provide a numerical illustration.
APA, Harvard, Vancouver, ISO, and other styles
2

Li, Kenny. "On non-Markovianity in Open Quantum Systems." Thesis, Griffith University, 2017. http://hdl.handle.net/10072/370927.

Full text
Abstract:
Markovian approximation is a widely-employed idea in the descriptions of the dynamics of open quantum systems. Although it is usually claimed to be a concept inspired by classical Markovianity, the physical meaning of this concept, however, is vague. In this thesis, I compare the descriptions of classical stochastic processes and open quantum systems, and show that those inherent differences lead to the non-trivial problem of characterizing quantum non-Markovianity. With various examples, I argue that the current most often used definitions of quantumMarkovianity in the literature do not fully capture the memoryless property of OQSs. To address this issue, I take a different approach by studying a host of Markov-related concepts in the quantum regime. Some of these concepts have long been used in quantum theory, while others are first proposed in this thesis. I define all these concepts under a unified framework, which allows one to rigorously build hierarchy relations among them. In this sense, quantum non-Markovianity is highly context-dependent. The results in this thesis, summarized as a hierarchy figure, are expected to bring clarity to the nature of quantumnon-Markovianity.<br>Thesis (PhD Doctorate)<br>Doctor of Philosophy (PhD)<br>School of Natural Sciences<br>Science, Environment, Engineering and Technology<br>Full Text
APA, Harvard, Vancouver, ISO, and other styles
3

Milios, Dimitrios. "On approximating the stochastic behaviour of Markovian process algebra models." Thesis, University of Edinburgh, 2014. http://hdl.handle.net/1842/8930.

Full text
Abstract:
Markov chains offer a rigorous mathematical framework to describe systems that exhibit stochastic behaviour, as they are supported by a plethora of methodologies to analyse their properties. Stochastic process algebras are high-level formalisms, where systems are represented as collections of interacting components. This compositional approach to modelling allows us to describe complex Markov chains using a compact high-level specification. There is an increasing need to investigate the properties of complex systems, not only in the field of computer science, but also in computational biology. To explore the stochastic properties of large Markov chains is a demanding task in terms of computational resources. Approximating the stochastic properties can be an effective way to deal with the complexity of large models. In this thesis, we investigate methodologies to approximate the stochastic behaviour of Markovian process algebra models. The discussion revolves around two main topics: approximate state-space aggregation and stochastic simulation. Although these topics are different in nature, they are both motivated by the need to efficiently handle complex systems. Approximate Markov chain aggregation constitutes the formulation of a smaller Markov chain that approximates the behaviour of the original model. The principal hypothesis is that states that can be characterised as equivalent can be adequately represented as a single state. We discuss different notions of approximate state equivalence, and how each of these can be used as a criterion to partition the state-space accordingly. Nevertheless, approximate aggregation methods typically require an explicit representation of the transition matrix, a fact that renders them impractical for large models. We propose a compositional approach to aggregation, as a means to efficiently approximate complex Markov models that are defined in a process algebra specification, PEPA in particular. Regarding our contributions to Markov chain simulation, we propose an accelerated method that can be characterised as almost exact, in the sense that it can be arbitrarily precise. We discuss how it is possible to sample from the trajectory space rather than the transition space. This approach requires fewer random samples than a typical simulation algorithm. Most importantly, our approach does not rely on particular assumptions with respect to the model properties, in contrast to otherwise more efficient approaches.
APA, Harvard, Vancouver, ISO, and other styles
4

Bousfiha, Amina. "Approximation des systèmes semi-markoviens via les distributions de type phase et application en fiabilité." Compiègne, 1998. http://www.theses.fr/1998COMP1092.

Full text
Abstract:
Les processus semi-markoviens sont des processus dont l'évolution future dépend du temps passé depuis la dernière transition ; ils sont fréquemment rencontrés en pratique. Ici nous nous intéressons à l'étude de la fiabilité des systèmes semi-markoviens. Leur principal inconvénient c'est la complexité des calculs pour l'obtention de la fonction de transition du processus, ce qui complique considérablement les calculs des indices de fiabilité, de performance, etc. Dans ce travail, nous nous proposons d'approximer les systèmes semi-markoviens par des systèmes markoviens en utilisant les distributions de type phase. Une distribution de type phase est une distribution de temps d'absorption d'un processus de Markov fini absorbant. Nous développons des méthodes pour approximer les fonctions de transition non exponentielles d'un système semi-markovien par des distributions de type phase. Ensuite, nous montrons comment construire le générateur du système markovien transformé. D'autre part, nous évaluons une borne sur la distance entre deux systèmes semi-markoviens. Ce résultat nous a permis de contrôler l'erreur commise sur la matrice des probabilités de transition et sur les indices de fiabilité, lors de l'approximation des systèmes semi-markoviens par des systèmes markoviens en utilisant les distributions de type phase.
APA, Harvard, Vancouver, ISO, and other styles
5

Illayk, Abbas. "Évolution du nombre de composants en panne pour un système réparable non-Markovien." Lille 1, 2003. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/8a4c0b86-722d-4ea2-8464-13200e65618f.

Full text
Abstract:
Longtemps on a utilisé la loi exponentielle pour modéliser les durées de réparations. Bien que mal adaptée cette méthode donne souvent des bons résultats. En fait, dans la pratique ces durées sont plutôt déterministes. L'utilisation d'une hypothèse de vieillissement pour les durées de réparations est donc naturelle. Nous faisons le point sur la théorie du vieillissement à partir des notions d'ordre stochastique et en particulier on montre que certaines classes récemment introduites sont inutiles. Ensuite, un test d'hypothèse est fait pour tester l'exponentialité d'une variable aléatoire contre la loi vieillissante NBU, sur la base d'une inégalité de moment d'un système série de variables aléatoires vieillissantes, on montre que notre test est asymptotiquement consistant et efficace. Le calcul de la fiabilité et de la disponibilité d'un système réparable est lié essentiellement à la probabilité des séquences de panne ne comportant aucune réparation réussie (séquences dites monotones selon Solovyev). De nombreux travaux ont pour but l'encadrement de cette probabilité. Nous proposons ici d'affiner ces encadrements à partir d'une minoration analytique et des hypothèses générales de vieillissement DMRL ou NBUE. Cette étude est étendue au cas parallèle et même plus généralement aux systèmes cohérents. Enfin on mesure l'erreur de l'approximation de la fiabilité du système par une loi exponentielle.
APA, Harvard, Vancouver, ISO, and other styles
6

Blanchet, Juliette. "Modèles markoviens et extensions pour la classification de données complexes." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00195271.

Full text
Abstract:
Nous abordons le problème de la classification d'individus à partir d'observations dites " complexes " en ce sens qu'elles ne vérifient pas certaines des hypothèses simplificatrices classiquement adoptées. Dans ce travail, les individus à classer sont supposés dépendants les uns des autres. L'approche adoptée est une approche probabiliste fondée sur une modélisation markovienne. Trois problèmes de classification sont abordés.<br />Le premier concerne la classification de données lorsque celles-ci sont de grande dimension. Pour un tel problème, nous adoptons un modèle markovien gaussien non diagonal tirant partie du fait que la plupart des observations de grande dimension vivent en réalité dans des sous-espaces propres à chacune des classes et dont les dimensions intrinsèques sont faibles. De ce fait, le nombre de paramètres libres du modèle reste raisonnable.<br />Le deuxième point abordé s'attache à relâcher l'hypothèse simplificatrice de bruit indépendant unimodal, et en particulier gaussien. Nous considérons pour cela le modèle récent de champ de Markov triplet et proposons une nouvelle famille de Markov triplet adaptée au cadre d'une classification supervisée. Nous illustrons la flexibilité et les performances de nos modèles sur une application à la reconnaissance d'images réelles de textures.<br />Enfin, nous nous intéressons au problème de la classification d'observations dites incomplètes, c'est-à-dire pour lesquelles certaines valeurs sont manquantes. Nous développons pour cela une méthode markovienne ne nécessitant pas le remplacement préalable des observations manquantes. Nous présentons une application de cette méthodologie à un problème réel de classification de gènes.
APA, Harvard, Vancouver, ISO, and other styles
7

Vignes, Matthieu. "Modèles markoviens graphiques pour la fusion de données individuelles et d'intéractions : application à la classification de gènes." Grenoble 1, 2007. http://www.theses.fr/2007GRE10208.

Full text
Abstract:
Les recherches que nous présentons dans ce mémoire s'inscrivent dans le cadre de l'intégration statistique de données post-génomiques hétérogènes. La classification non supervisée de gènes vise à regrouper en ensembles significatifs les gènes d'un organisme, vu comme un système complexe, conformément aux données expérimentales afin de dégager des actions concertées de ces gènes dans les mécanismes biologiques mis en jeu. Nous basons notre approche sur des modèles probabilistes graphiques. Plus spécifiquement, nous utilisons l'outil de champs de Markov cachés qui permet la prise en compte simultanée de données propres à chacun des gènes grâce a des distributions de probabilités et de données traduisant un réseau d'interaction au sein de l'organisme a l'aide d'un graphe non-orienté entre les gènes. Apres avoir présenté la problématique et le contexte biologique, nous décrivons le modèle utilise ainsi que les stratégies algorithmiques d'estimation des paramètres (Le. Approximations de type champ moyen). Puis nous nous intéresserons à deux particularités des données auxquelles nous avons été confrontés et qui amènent des développements du modèle utilise, notamment la prise en compte de l'absence de certaines observations et la haute dimensionnalité de celles-ci. Enfin nous présenterons des expériences sur données simulées ainsi que sur données réelles sur la levure qui évaluent le gain apporté par notre travail. Notamment nous avons voulu mettre l'accent sur des interprétations plausibles des résultats obtenus<br>The research work presented in this dissertation is on keeping with the statistical integration of post -genomics data of heterogeneous kinds. Gene clustering aims at gathering the genes of a living organism -modeled as a complex system- in meaningful groups according to experimental data to decipher the roi es of the genes acting within biological mechanisms under study. We based our approach on probabilistic graphical models. More specifically, we used Hidden Markov Random Fields (HMRF) that allow us to simultaneously account for gene-individual features thanks to probability distributions and network data that translate our knowledge on existing interactions between these genes through a non-oriented graph. Once the biological issues tackled are set, we describe the model we used as weil as algorithmic strategies to deal with parameter estimation (namely mean field-like approximations). Then we examine two specificities of the data we were faced to: the missing observation problem and the high dimensionality ofthis data. They lead to refinements ofthe model under consideration. Lastly, we present our experiments both on simulated and real Yeast data to assess the gain in using our method. Ln particular, our goal was to stress biologically plausible interpretations of our results
APA, Harvard, Vancouver, ISO, and other styles
8

Forbes, Florence. "Modèles et inférence pour des systèmes stochastiques structurés." Habilitation à diriger des recherches, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00578938.

Full text
Abstract:
Le contexte de mon travail est la mise au point d'outils statistiques pour le dévelopement et l'analyse de modèles stochastiques structurés. L'idée sous-jacente à la notion de structure est qu'il est souvent possible à l'aide d'hypothèses locales simples combinées de manière cohérente de rendre compte de phénomènes globaux potentiellement complexes. Cette idée de construction du local vers le global guide ainsi la modélisation, l'estimation et l'interprétation. Cette approche se révèle utile dans des domaines variés tels que le traitement du signal et de l'image, les neurosciences, la génomique, l'épidémiologie, etc. Inversement les besoins de ces domaines ont pu susciter en retour des développements théoriques importants. Par ailleurs, beaucoup de techniques statistiques sont encore limitées par des d'hypothèses restrictives pouvant conduire à des analyses imprécises voire erronées. Différentes sources de complexité peuvent mettre en défaut les approches classiques. Souvent les données exhibent une structure de dépendance non triviale, due par exemple à des répétitions, des groupements, des méthodes d'échantillonnage particulières, des associations dans l'espace ou le temps. Une seconde source de complexité est liée au processus de mesure qui peut impliquer l'utilisation d'instruments physiquement très différents, qui produisent des données hétérogènes, en grandes dimensions et potentiellement de manière défaillante de sorte qu'une partie des données peut être manquante. La plupart de mes objectifs de recherche sont centrés sur la mise au point de modèles et d'outils d'inférence pouvant faire face à ce genre de complications fréquentes dans les données modernes et contribuer ainsi au développement de nouvelles méthodes statistiques. En ce qui concerne la notion de dépendance et de localité, un concept central est celui d'indépendance conditionnelle. Les propriétés de Markov et les modèles markoviens permettent d'énoncer de telles indépendances conditionnelles et ce thème est central dans ma recherche. Pour ce qui est des données manquantes ou incomplètes, les modèles de mélanges sont une approche classique. Ces modèles conduisent plus généralement à la notion de modèles à structure manquantes. Ces derniers sont également utiles pour rendre compte d'hétérogénéités dans les données. Ils trouvent de nombreux échos en statistique: modèles de mélanges finis, modèles de Markov cachés, modèles à effet aléatoire, etc. La présence de données incomplètes induit cependant généralement des difficultés pour ce qui est de l'estimation des paramètres et de l'évaluation des performances. Modèles markoviens et modèles de mélanges sont mes deux principaux thèmes de recherche avec cette idée unificatrice de structure dans les modèles mais aussi dans les données. J'ai pu montrer que ces deux thèmes pouvaient être reliés utilement en traitant des problèmes difficiles dans diverses applications. Plus précisément, j'ai developpé des modèles à structure cachée essentiellement dans le but de résoudre des problèmes de classifications inhérents à certaines questions. J'ai souvent abordé le problème de l'estimation de ces modèles à partir de l'algorithme EM et développé des variantes permettant d'apporter des solutions satisfaisantes lorsque les outils classiques faisaient défaut. J'ai tenté également d'apporter des résultats sur les propriétés théoriques, e.g. convergence et vitesse, de ces algorithmes. Enfin, j'ai abordé la question de la sélection de modèles essentiellement en cherchant à proposer des critères de sélection dans les cas où les critères classiques n'étaient pas calculables.
APA, Harvard, Vancouver, ISO, and other styles
9

Yin, Biao. "Contrôle adaptatif des feux de signalisation dans les carrefours : modélisation du système de trafic dynamique et approches de résolution." Thesis, Belfort-Montbéliard, 2015. http://www.theses.fr/2015BELF0279/document.

Full text
Abstract:
La régulation adaptative des feux de signalisation est un problème très important. Beaucoup de chercheurs travaillent continuellement afin de résoudre les problémes liés à l’embouteillage dans les intersections urbaines. Il devient par conséquent très utile d’employer des algorithmes intelligents afin d’améliorer les performances de régulation et la qualité du service. Dans cette thèse, nous essayons d'étudier ce problème d’une part à travers une modèlisation microscopique et dynamique en temps discret, et d’autre part en explorant plusieurs approches de résoltion pour une intersection isolée ainsi que pour un réseau distribué d'intersections.La première partie se concentre sur la modélisation dynamique des problèmes des feux de signalisation ainsi que de la charge du réseau d’intersections. Le mode de la “séquence de phase adaptative” (APS) dans un plan de feux est d'abord considéré. Quant à la modélisation du contrôle des feux aux intersections, elle est formulée grâce à un processus décisionnel de markov (MDP). En particulier, la notion de “l'état du système accordable” est alors proposée pour la coordination du réseau de trafic. En outre, un nouveau modèle de “véhicule-suiveur” est proposé pour l'environnement de trafic. En se basant sur la modélisation proposée, les méthodes de contrôle des feux dans cette thèse comportent des algorithmes optimaux et quasi-optimaux. Deux algorithmes exacts de résolution basées sur la programmation dynamique (DP) sont alors étudiés et les résultats montrent certaines limites de cette solution DP surtout dans quelques cas complexes où l'espace d'états est assez important. En raison de l’importance du temps d’execution de l'algorithme DP et du manque d'information du modèle (notamment l’information exacte relative à l’arrivée des véhicules à l’intersection), nous avons opté pour un algorithme de programmation dynamique approximative (ADP). Enfin, un algorithme quasi-optimal utilisant l'ADP combinée à la méthode d’amélioration RLS-TD (λ) est choisi. Dans les simulations, en particulier avec l'intégration du mode de phase APS, l'algorithme proposé montre de bons résultats notamment en terme de performance et d'efficacité de calcul<br>Adaptive traffic signal control is a decision making optimization problem. People address this crucial problem constantly in order to solve the traffic congestion at urban intersections. It is very popular to use intelligent algorithms to improve control performances, such as traffic delay. In the thesis, we try to study this problem comprehensively with a microscopic and dynamic model in discrete-time, and investigate the related algorithms both for isolated intersection and distributed network control. At first, we focus on dynamic modeling for adaptive traffic signal control and network loading problems. The proposed adaptive phase sequence (APS) mode is highlighted as one of the signal phase control mechanisms. As for the modeling of signal control at intersections, problems are fundamentally formulated by Markov decision process (MDP), especially the concept of tunable system state is proposed for the traffic network coordination. Moreover, a new vehicle-following model supports for the network loading environment.Based on the model, signal control methods in the thesis are studied by optimal and near-optimal algorithms in turn. Two exact DP algorithms are investigated and results show some limitations of DP solution when large state space appears in complex cases. Because of the computational burden and unknown model information in dynamic programming (DP), it is suggested to use an approximate dynamic programming (ADP). Finally, the online near-optimal algorithm using ADP with RLS-TD(λ) is confirmed. In simulation experiments, especially with the integration of APS, the proposed algorithm indicates a great advantage in performance measures and computation efficiency
APA, Harvard, Vancouver, ISO, and other styles
10

Zhang, Jian. "Advance Surgery Scheduling with Consideration of Downstream Capacity Constraints and Multiple Sources of Uncertainty." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA023.

Full text
Abstract:
Les travaux de ce mémoire portent sur une gestion optimisée des blocs opératoires dans un service chirurgical. Les arrivées des patients chaque semaine, la durée des opérations et les temps de séjour des patients sont considérés comme des paramètres assujettis à des incertitudes. Chaque semaine, le gestionnaire hospitalier doit déterminer les blocs chirurgicaux à mettre en service et leur affecter certaines opérations figurant sur la liste d'attente. L'objectif est la minimisation d'une part des coûts liés à la réalisation et au report des opérations, et d'autre part des coûts hospitaliers liés aux ressources chirurgicaux. Lorsque nous considérons que les modèles de programmations mathématiques couramment utilisés dans la littérature n'optimisent pas la performance à long terme des programmes chirurgicaux, nous proposons un nouveau modèle d'optimisation à deux phases combinant le processus de décision Markovien (MDP) et la programmation stochastique. Le MDP de la première phase détermine les opérations à effectuer chaque semaine et minimise les coûts totaux sur un horizon infini. La programmation stochastique de la deuxième phase optimise les affectations des opérations sélectionnées dans les blocs chirurgicaux. Afin de résoudre la complexité des problèmes de grande taille, nous développons un algorithme de programmation dynamique approximatif basé sur l'apprentissage par renforcement et plusieurs autres heuristiques basés sur la génération de colonnes. Nous développons des applications numériques afin d'évaluer le modèle et les algorithmes proposés. Les résultats expérimentaux indiquent que ces algorithmes sont considérablement plus efficaces que les algorithmes traditionnels. Les programmes chirurgicaux du modèle d’optimisation à deux phases sont plus performants de manière significative que ceux d’un modèle de programmation stochastique classique en termes de temps d’attente des patients et de coûts totaux sur le long terme<br>This thesis deals with the advance scheduling of elective surgeries in an operating theatre that is composed of operating rooms and downstream recovery units. The arrivals of new patients in each week, the duration of each surgery, and the length-of-stay of each patient in the downstream recovery unit are subject to uncertainty. In each week, the surgery planner should determine the surgical blocks to open and assign some of the surgeries in the waiting list to the open surgical blocks. The objective is to minimize the patient-related costs incurred by performing and postponing surgeries as well as the hospital-related costs caused by the utilization of surgical resources. Considering that the pure mathematical programming models commonly used in literature do not optimize the long-term performance of the surgery schedules, we propose a novel two-phase optimization model that combines Markov decision process (MDP) and stochastic programming to overcome this drawback. The MDP model in the first phase determines the surgeries to be performed in each week and minimizes the expected total costs over an infinite horizon, then the stochastic programming model in the second phase optimizes the assignments of the selected surgeries to surgical blocks. In order to cope with the huge complexity of realistically sized problems, we develop a reinforcement-learning-based approximate dynamic programming algorithm and several column-generation-based heuristic algorithms as the solution approaches. We conduct numerical experiments to evaluate the model and algorithms proposed in this thesis. The experimental results indicate that the proposed algorithms are considerably more efficient than the traditional ones, and that the resulting schedules of the two-phase optimization model significantly outperform those of a conventional stochastic programming model in terms of the patients' waiting times and the total costs on the long run
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Markovian approximation"

1

Pocobelli, G. Plasma kinetic theory without the markovian approximation. Plasma Physics Laboratory, University of Saskatchewan, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Pocobelli, G. Plamsa kinetic theory without the markovian approximation - II. Plasma Physics Laboratory, University of Saskatchewan, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Morawetz, Klaus. Quantum Kinetic Equations. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198797241.003.0009.

Full text
Abstract:
The gradient approximations of the Kadanoff and Baym equations are derived up to first order. The off-shell motions responsible for the satellites are shown to ensure causality. The cancellation of off-shell motions from the drift and correlation part of the reduced density provides a precursor of the kinetic equation for the quasiparticle distribution which leads to a functional between reduced and quasiparticle distribution, named the extended quasiparticle picture. Virial corrections appear as internal gradients in the selfenergy and therefore in the considered processes. With this extended quasiparticle picture, the non-Markovian kinetic equations are transformed into Markovian ones for proper defined quasiparticles without neglect showing the exact cancellation of off-shell parts. Alternative approaches are discussed for comparison.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Markovian approximation"

1

Korolyuk, Vladimir S., Nicolas A. Derzko, and Vladimir V. Korolyuk. "Markovian Repairman Problems. Classification and Approximation." In Statistical and Probabilistic Models in Reliability. Birkhäuser Boston, 1999. http://dx.doi.org/10.1007/978-1-4612-1782-4_10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bražėnas, Mindaugas, and Eimutis Valakevičius. "Approximation of Non-Markovian Car Sharing Systems Models by Markovian One." In Lecture Notes in Networks and Systems. Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-16078-3_31.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rytov, Sergei M., Yurii A. Kravtsov, and Valeryan I. Tatarskii. "Wave Propagation in Random Media. The Markovian Approximation." In Principles of Statistical Radiophysics 4. Springer Berlin Heidelberg, 1989. http://dx.doi.org/10.1007/978-3-642-72682-8_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Spohn, H. "Kinetic Equations from Hamiltonian Dynamics: The Markovian Approximations." In Kinetic Theory and Gas Dynamics. Springer Vienna, 1988. http://dx.doi.org/10.1007/978-3-7091-2762-9_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Conti, Marco, Silvia Ghezzi, and Enrico Gregori. "Aggregation of Markovian Sources: Approximations with Error Control." In Networking 2000 Broadband Communications, High Performance Networking, and Performance of Communication Networks. Springer Berlin Heidelberg, 2000. http://dx.doi.org/10.1007/3-540-45551-5_30.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ciobanu, Gabriel, and Armand Rotaru. "Phase-Type Approximations for Non-Markovian Systems: A Case Study." In Software Engineering and Formal Methods. Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-15201-1_21.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Mbihi, Jean, Roland P. Malhamé, and Javad Sadr. "Two Approximations as a Basis for the Optimization of Production in Unreliable Markovian Long Transfer Lines." In Decision & Control in Management Science. Springer US, 2002. http://dx.doi.org/10.1007/978-1-4757-3561-1_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Dabrowski, André Robert, and Herold Dehling. "Jump diffusion approximation for a Markovian transport model." In Asymptotic Methods in Probability and Statistics. Elsevier, 1998. http://dx.doi.org/10.1016/b978-044450083-0/50008-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Accardi, L., and Y. G. Lu. "From Markovian approximation to a new type of quantum stochastic calculus." In Quantum Probability and Related Topics. WORLD SCIENTIFIC, 1992. http://dx.doi.org/10.1142/9789814354783_0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Strasberg, Philipp. "Quantum Thermodynamics Without Measurements." In Quantum Stochastic Thermodynamics. Oxford University PressOxford, 2022. http://dx.doi.org/10.1093/oso/9780192895585.003.0003.

Full text
Abstract:
Abstract We derive the basic laws of phenomenological non-equilibrium thermodynamics for small open systems, whose quantum nature can no longer be neglected. Emphasis is put from the beginning on deriving them from an underlying microscopic system on deriving them from an underlying microscopic system–bath picture. Commonly considered approximation schemes (wea k coupling master equations) are reviewed and their thermodynamics is studied. The zeroth law is discussed for small systems and exact identities for the entropy production, valid at strong coupling and in the non non-Markovian regime, are introduced. We discu ss the effect of finite baths even out of equilibrium and use the framework of repeated interactions to study microscopic non-equilibrium resources. The chapter concludes with the study of particle transport and thermoelectric devices, which were realized in experiments. This chapter focuses entirely on the dynamics of a system coupled to a bath without any external interventions.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Markovian approximation"

1

Ottobre, M. "Markovian approximation of classical open systems." In NUMERICAL ANALYSIS AND APPLIED MATHEMATICS ICNAAM 2012: International Conference of Numerical Analysis and Applied Mathematics. AIP, 2012. http://dx.doi.org/10.1063/1.4756290.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Vazquez, C. Renato, Laura Recalde, and Manuel Silva. "Stochastic continuous-state approximation of Markovian Petri net systems." In 2008 47th IEEE Conference on Decision and Control. IEEE, 2008. http://dx.doi.org/10.1109/cdc.2008.4739075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Letchner, Julie, Christopher Re, Magdalena Balazinska, and Matthai Philipose. "Approximation trade-offs in Markovian stream processing: An empirical study." In 2010 IEEE 26th International Conference on Data Engineering (ICDE 2010). IEEE, 2010. http://dx.doi.org/10.1109/icde.2010.5447926.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Huang, Minyi, Tao Li, and Ji-Feng Zhang. "Stochastic approximation for consensus over general digraphs with Markovian switches." In 2014 IEEE 53rd Annual Conference on Decision and Control (CDC). IEEE, 2014. http://dx.doi.org/10.1109/cdc.2014.7039727.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Guha, Sudipto, and Kamesh Munagala. "Approximation Algorithms for Partial-Information Based Stochastic Control with Markovian Rewards." In 48th Annual IEEE Symposium on Foundations of Computer Science (FOCS'07). IEEE, 2007. http://dx.doi.org/10.1109/focs.2007.23.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Guha, Sudipto, and Kamesh Munagala. "Approximation Algorithms for Partial-Information Based Stochastic Control with Markovian Rewards." In 48th Annual IEEE Symposium on Foundations of Computer Science (FOCS'07). IEEE, 2007. http://dx.doi.org/10.1109/focs.2007.4389518.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Care, Algo, Balazs Csanad Csaji, Balazs Gerencser, Laszlo Gerencser, and Miklos Rasonyi. "Parameter-Dependent Poisson Equations: Tools for Stochastic Approximation in a Markovian Framework*." In 2019 IEEE 58th Conference on Decision and Control (CDC). IEEE, 2019. http://dx.doi.org/10.1109/cdc40024.2019.9029383.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Beri, A. C., and Thomas F. George. "Laser-Stimulated Vibrational Excitation of an Adspecies Studied by a Generalized Master Equation." In Microphysics of Surfaces, Beams, and Adsorbates. Optica Publishing Group, 1985. http://dx.doi.org/10.1364/msba.1985.wc8.

Full text
Abstract:
Recent attempts to clearly demarcate selective and nonselective effects in the IR-laser-stimulated vibrational excitation of an atom or molecule adsorbed on a solid surface1 have included a number of model studies2 and a few that have examined the detailed nature of the individual quantum states of the adsorption potential.3,4 The presence of at least four time scales in such dynamical studies (experiment, laser, phonon, adbond) leads to difficulties in applying approximations such as the Markovian approximation (MA) which neglects memory effects in the generalized master equation (GME) describing the excitation. Use of the MA leads to the Pauli master equation (PME) which is easier to solve than the exact GME, and is therefore almost universally employed, but to our knowledge no realistic comparison has been made of the GME and the PME. We present below our results of the exact GME and the PME and find that for the few cases considered the two are drastically different in an (arbitrary) time range related to a time parameter τ necessary to force the MA in the first place. In the asymptotic (long time) limit the solutions can be made to converge. We also present the results of an approximation which gives results (for any time range) which are almost as good as those of the exact GME, but which are as easy to obtain as those of the PME.
APA, Harvard, Vancouver, ISO, and other styles
9

Ribeiro, Roberto G., Rodney R. Saldanha, and Carlos A. Maia. "Modeling and Portfolio Optimization of Stochastic Discrete-Event System through Markovian Approximation: an Open-Pit Mine Study." In Proceedings of The 9th EUROSIM Congress on Modelling and Simulation, EUROSIM 2016, The 57th SIMS Conference on Simulation and Modelling SIMS 2016. Linköping University Electronic Press, 2018. http://dx.doi.org/10.3384/ecp17142214.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Lin, J. T. "Four-wave-mixing Processes in Multiple-pump Multiphonon Systems: Effects of Coherence Length." In Instabilities and Dynamics of Lasers and Nonlinear Optical Systems. Optica Publishing Group, 1985. http://dx.doi.org/10.1364/idlnos.1985.wd25.

Full text
Abstract:
The effects of four-way-mixing (4WM) and the generation of high-order Stokes (HOS) in a single pump single phonon system have been studied previously.1 In the present paper we shall develop a general theory which provides the equations of motion in a multiple pump multiphonon system which includes all pair field interactions via both Raman and 4WM. The effects of the coherence length of the pump pairs and of the 4WM on the generation of HOS will be investigated analytically and numerically. Pump depletion and the feedback effects due to the high-order processes will be included. The dephasing of the phonon modes will be derived via the phonon-phonon interaction in the Markovian approximation.2
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!