Academic literature on the topic 'Processus Markovien'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Processus Markovien.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Processus Markovien"

1

ROUX, D. "Analyse multi-échelle d'un processus gaussien markovien au voisinage d'une singularité." Annales de l'Institut Henri Poincare (B) Probability and Statistics 33, no. 3 (1997): 295–322. http://dx.doi.org/10.1016/s0246-0203(97)80093-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bibi, Abdelouahab, та Abdelhakim Aknouche. "Stationnarité et β-mélange des processus bilinéaires généraux à changement de régime markovien". Comptes Rendus Mathematique 348, № 3-4 (2010): 185–88. http://dx.doi.org/10.1016/j.crma.2009.12.015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Cherfaoui, Mouloud, Mohamed Boualem, Djamil Aïssani, and Smail Adjabi. "Choix du paramètre de lissage dans l'estimation à noyau d'une matrice de transition d'un processus semi-markovien." Comptes Rendus Mathematique 353, no. 3 (2015): 273–77. http://dx.doi.org/10.1016/j.crma.2014.09.030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Krzysztofowicz, Roman. "Markovian Forecast Processes." Journal of the American Statistical Association 82, no. 397 (1987): 31–37. http://dx.doi.org/10.1080/01621459.1987.10478387.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Florens, J. P., M. Mouchart, and J. M. Rolin. "Noncausality and Marginalization of Markov Processes." Econometric Theory 9, no. 2 (1993): 241–62. http://dx.doi.org/10.1017/s0266466600007520.

Full text
Abstract:
In this paper it is shown that a subprocess of a Markov process is markovian if a suitable condition of noncausality is satisfied. Furthermore, a markovian condition is shown to be a natural condition when analyzing the role of the horizon (finite or infinite) in the property of noncausality. We also give further conditions implying that a process is both jointly and marginally markovian only if there is both finite and infinite noncausality and that a process verifies both finite and infinite noncausality only if it is markovian. Counterexamples are also given to illustrate the cases where th
APA, Harvard, Vancouver, ISO, and other styles
6

Figueroa-Romero, Pedro, Kavan Modi, and Felix A. Pollock. "Almost Markovian processes from closed dynamics." Quantum 3 (April 30, 2019): 136. http://dx.doi.org/10.22331/q-2019-04-30-136.

Full text
Abstract:
It is common, when dealing with quantum processes involving a subsystem of a much larger composite closed system, to treat them as effectively memory-less (Markovian). While open systems theory tells us that non-Markovian processes should be the norm, the ubiquity of Markovian processes is undeniable. Here, without resorting to the Born-Markov assumption of weak coupling or making any approximations, we formally prove that processes are close to Markovian ones, when the subsystem is sufficiently small compared to the remainder of the composite, with a probability that tends to unity exponentia
APA, Harvard, Vancouver, ISO, and other styles
7

Jakubowski, J., and A. Pytel. "The Markov consistency of Archimedean survival processes." Journal of Applied Probability 53, no. 2 (2016): 392–409. http://dx.doi.org/10.1017/jpr.2016.8.

Full text
Abstract:
Abstract In this paper we connect Archimedean survival processes (ASPs) with the theory of Markov copulas. ASPs were introduced by Hoyle and Mengütürk (2013) to model the realized variance of two assets. We present some new properties of ASPs related to their dependency structure. We study weak and strong Markovian consistency properties of ASPs. An ASP is weak Markovian consistent, but generally not strong Markovian consistent. Our results contain necessary and sufficient conditions for an ASP to be strong Markovian consistent. These properties are closely related to the concept of Markov cop
APA, Harvard, Vancouver, ISO, and other styles
8

Bertoin, Jean. "Markovian growth-fragmentation processes." Bernoulli 23, no. 2 (2017): 1082–101. http://dx.doi.org/10.3150/15-bej770.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Fazeli, S. M., A. H. Shirazi, and G. R. Jafari. "Probing rough surfaces: Markovian versus non-Markovian processes." New Journal of Physics 10, no. 8 (2008): 083020. http://dx.doi.org/10.1088/1367-2630/10/8/083020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Asmussen, Søren, and Ger Koole. "Marked point processes as limits of Markovian arrival streams." Journal of Applied Probability 30, no. 2 (1993): 365–72. http://dx.doi.org/10.2307/3214845.

Full text
Abstract:
A Markovian arrival stream is a marked point process generated by the state transitions of a given Markovian environmental process and Poisson arrival rates depending on the environment. It is shown that to a given marked point process there is a sequence of such Markovian arrival streams with the property that as m →∞. Various related corollaries (involving stationarity, convergence of moments and ergodicity) and counterexamples are discussed as well.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Processus Markovien"

1

Dinetan, Lee. "Ruine et investissement en environnement markovien." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30141/document.

Full text
Abstract:
L'objet de cette thèse est de modéliser et optimiser les stratégies d'investissement d'un agent soumis à un environnement markovien, et à un risque de liquidité se déclarant quand il ne peut plus faire face à une sortie d'argent faute d'actifs liquides. Durant cette étude, nous supposerons que son objectif est d'éviter la faillite ; il dispose pour cela d'opportunités d'investissement, lui permettant d'accroître ses gains futurs en échange d'une dépense immédiate, risquant ainsi une ruine prématurée puisque l'investissement est supposé illiquide : le but du travail est de déterminer les condit
APA, Harvard, Vancouver, ISO, and other styles
2

Barbot, Nelly. "Files d'attente fluides en environnement markovien." Rennes 1, 2002. http://www.theses.fr/2002REN10094.

Full text
Abstract:
On considère une file d'attente fluide dont les taux d'arrivées et de service sont controlés par une chaîne de Markov en temps continu. On étudie les distributions du niveau et de la période d'occupation de la file fluide en régimes transitoire et stationnaire. En régime transitoire, on résoud pour cela un système infini d'équations aux dérivées partielles hyperbolique à coefficients constants. Les solutions sont exprimées sous forme d'une série entière. Le calcul des coefficients associés est très stable et précis. Pour une file fluide pilotée par une file d'attente M/M/1, la convergence des
APA, Harvard, Vancouver, ISO, and other styles
3

Profeta, Christophe. "Pénalisations, pseudo-inverses et peacocks dans un cadre markovien." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10088/document.

Full text
Abstract:
Comme son titre l'indique, cette thèse comporte 3 parties.- La première partie est consacrée à la pénalisation de diffusions linéaires régulières récurrentes. Plus précisément, nous étudions, dans un premier temps, la pénalisation de diffusions récurrentes nulles, et nous présentons une large classe de fonctionnelles pour lesquelles le principe de pénalisation est satisfait. Cette étude repose sur la construction d'une mesure sigma-finie W similaire à celle de Najnudel-Roynette-Yor. Nous traitons également, dans un second temps, le cas de la pénalisation d'une diffusion récurrente positive réf
APA, Harvard, Vancouver, ISO, and other styles
4

Saint, Pierre Philippe. "Modèles multi-états de type Markovien et application à l'asthme." Phd thesis, Université Montpellier I, 2005. http://tel.archives-ouvertes.fr/tel-00010146.

Full text
Abstract:
Dans de nombreux domaines, décrire l'évolution des phénomènes dans le temps est d'un intérêt capital, en particulier pour aborder les problématiques de la prédiction et de la recherche de facteurs causaux. En épidémiologie, on dispose de données de cohorte qui renseignent sur un groupe de patients suivis dans le temps. Les modèles multi-états de type Markovien proposent un outil intéressant qui permet d'étudier l'évolution d'un patient à travers les différents stades d'une maladie. Dans ce manuscrit, nous rappelons tout d'abord la méthodologie relative au modèle de Markov homogène. Ce modèle e
APA, Harvard, Vancouver, ISO, and other styles
5

Bouhlel, Nizar. "Caractérisation de texture d'écographie RF par champ markovien." Paris 5, 2006. http://www.theses.fr/2006PA05S014.

Full text
Abstract:
L’échographie est un outil d’imagerie médicale qui s’impose pour le diagnostic de nombreuses pathologies. En conséquence, une large littérature du domaine de l’image s’intéresse à ces images pour fournir des outils d’analyse et de caractérisation tissulaire. L’objectif de cette thèse est de modéliser la texture échographique par des champs markoviens pour en extraire des paramètres susceptibles de caractériser l’organisation des tissus. Dans une première partie, nous évaluons l’habilité des lois de distribution proposées dans la littérature (Gamma, K et Nakagami) à modéliser les niveaux de l’e
APA, Harvard, Vancouver, ISO, and other styles
6

Ye, Yinna. "PROBABILITÉ DE SURVIE D'UN PROCESSUS DE BRANCHEMENT DANS UN ENVIRONNEMENT ALÉATOIRE MARKOVIEN." Phd thesis, Université François Rabelais - Tours, 2011. http://tel.archives-ouvertes.fr/tel-00605751.

Full text
Abstract:
L'objet de cette thèse est d'étudier la probabilité de survie d'un processus de branchement en environnement aléatoire markovien et d'étendre dans ce cadre les résultats connus en milieu aléatoire indépendant et identiquement distribué. Le coeur de l'étude repose sur l'utilisation des théorèmes limites locaux pour une marche aléatoire centrée (Sn)n 0 sur R à pas markoviens et pour (mn)n 0, où mn = min (0; S1; ; Sn). Pour traiter le cas d'un environnement aléatoire markovien, nous développons dans un premier temps une étude des théorèmes locaux pour une chaîne semi-markovienne à valeurs réelles
APA, Harvard, Vancouver, ISO, and other styles
7

Bailey, Ian. "Planification heuristique avec les processus de décision markovien et création d'un environnement de programmation." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/4630.

Full text
Abstract:
Dans ce mémoire, nous présentons un environnement de programmation nommé JIP pour «Java Intelligent Planning» et l’implémentation de l’algorithme LAO* que nous avons appelé LAOPlan. LAO* est un algorithme de planification conçu pour supporter la recherche guidée par heuristique dans un graphe non déterministe possédant des cycles. Ce mémoire explique le fonctionnement de LAO* et présente des tests de performance faits avec LAOPlan en le comparant au planificateur non déterministe et non probabiliste MBP. Nous exposons aussi des extensions intéressantes à intégrer dans JIP ou LAOPlan. Dans ce c
APA, Harvard, Vancouver, ISO, and other styles
8

Levernier, Nicolas. "Temps de premier passage de processus non-markoviens." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066118/document.

Full text
Abstract:
Cette thèse cherche à quantifier le temps de premier passage (FPT) d'un marcheur non-markovien sur une cible. La première partie est consacrée au calcul du temps moyen de premier passage (MFPT) pour différents processus non-markoviens confinés, pour lesquels les variables cachées sont connues. Notre méthode, qui adapte un formalisme existant, repose sur la détermination de la distribution des variables cachées au moment du FPT. Nous étendons ensuite ces idées à processus non-markoviens confinés généraux, sans introduire les variables cachées - en général inconnues. Nous montrons que le MFPT es
APA, Harvard, Vancouver, ISO, and other styles
9

Brandejsky, Adrien. "Méthodes numériques pour les processus markoviens déterministes par morceaux." Phd thesis, Bordeaux 1, 2012. http://tel.archives-ouvertes.fr/tel-00733731.

Full text
Abstract:
Les processus markoviens déterministes par morceaux (PMDM) ont été introduits dans la littérature par M.H.A. Davis en tant que classe générale de modèles stochastiques non-diffusifs. Les PMDM sont des processus hybrides caractérisés par des trajectoires déterministes entrecoupées de sauts aléatoires. Dans cette thèse, nous développons des méthodes numériques adaptées aux PMDM en nous basant sur la quantification d'une chaîne de Markov sous-jacente au PMDM. Nous abordons successivement trois problèmes : l'approximation d'espérances de fonctionnelles d'un PMDM, l'approximation des moments et de
APA, Harvard, Vancouver, ISO, and other styles
10

Degris, Thomas. "Apprentissage par renforcement dans les processus de décision Markoviens factorisés." Paris 6, 2007. http://www.theses.fr/2007PA066594.

Full text
Abstract:
Les méthodes classiques d'apprentissage par renforcement ne sont pas applicables aux problèmes de grande taille. Les Processus de Décision Markovien Factorisés (FMDPs) permettent de représenter de tels problèmes de façon compacte en spécifiant leur structure. Des méthodes de planification adaptées aux FMDPs obtiennent de bons résultats mais nécessitent que cette structure soit spécifiée manuellement. Cette thèse étudie l'apprentissage de la structure d'un problème représenté par un FMDP en utilisant l'induction d'arbres de décision et propose une adaptation des méthodes de planification dans l
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Processus Markovien"

1

P, Sharma O. Markovian queues. Ellis Horwood, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Two-dimensional Markovian holonomy fields. Societé mathématique de France, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Zhang, Qingling. Analysis and design of singular Markovian jump systems. Springer, 2014.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Wolthuis, Henk. Life insurance mathematics: The Markovian model. Caire, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

1952-, Zoller P., ed. Quantum noise: A handbook of Markovian and non-Markovian quantum stochastic methods with applications to quantum optics. 2nd ed. Springer, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

1952-, Zoller P., ed. Quantum noise: A handbook of Markovian and non-Markovian quantum stochastic methods with applications to quantum optics. 3rd ed. Springer, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Milch, Paul R. FORECASTER, a Markovian model to analyze the distribution of Naval Officers. Naval Postgraduate School, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Dufour, Jean-Marie. Markovian processes, two-sided autoregressions and finite-sample inference for stationary and nonstationary autoregressive processes. University of Bristol, Department of Economics, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Spreeuw, J. Solutions to the exercises of Life insurance mathematics: the Markovian model. Afdeling Kwantitatieve Economie, Faculteit der Economische Wetenschappen en Econometrie, Universiteit van Amsterdam, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ycart, Bernard. Modèles et Algorithmes Markoviens (Mathématiques et Applications). Springer, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Processus Markovien"

1

Bladt, Mogens, and Bo Friis Nielsen. "Markovian Point Processes." In Matrix-Exponential Distributions in Applied Probability. Springer US, 2017. http://dx.doi.org/10.1007/978-1-4939-7049-0_10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Buchholz, Peter, Jan Kriege, and Iryna Felko. "Markovian Arrival Processes." In Input Modeling with Phase-Type Distributions and Markov Models. Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-06674-5_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Kanazawa, Kiyoshi. "Markovian Stochastic Processes." In Springer Theses. Springer Singapore, 2017. http://dx.doi.org/10.1007/978-981-10-6332-9_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Breuer, Lothar. "Spatial Markovian Arrival Processes." In From Markov Jump Processes to Spatial Queues. Springer Netherlands, 2003. http://dx.doi.org/10.1007/978-94-010-0239-4_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

He, Qi-Ming. "From the Poisson Process to Markovian Arrival Processes." In Fundamentals of Matrix-Analytic Methods. Springer New York, 2013. http://dx.doi.org/10.1007/978-1-4614-7330-5_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Bernardo, Marco, and Roberto Gorrieri. "Extended Markovian Process Algebra." In CONCUR '96: Concurrency Theory. Springer Berlin Heidelberg, 1996. http://dx.doi.org/10.1007/3-540-61604-7_63.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Gass, Saul I., and Carl M. Harris. "Markovian arrival process (Map)." In Encyclopedia of Operations Research and Management Science. Springer US, 2001. http://dx.doi.org/10.1007/1-4020-0611-x_581.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Gheorghe, Adrian V. "Partially Observable Markovian Decision Processes." In Decision Processes in Dynamic Probabilistic System. Springer Netherlands, 1990. http://dx.doi.org/10.1007/978-94-009-0493-4_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Bittanti, Sergio, and Giuseppe De Nicolao. "Markovian representations of cyclostationary processes." In Topics in Stochastic Systems: Modelling, Estimation and Adaptive Control. Springer Berlin Heidelberg, 1991. http://dx.doi.org/10.1007/bfb0009297.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Breuer, Lothar. "Examples of Markovian Arrival Processes." In From Markov Jump Processes to Spatial Queues. Springer Netherlands, 2003. http://dx.doi.org/10.1007/978-94-010-0239-4_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Processus Markovien"

1

Abadi, Eden, and Ronen I. Brafman. "Learning and Solving Regular Decision Processes." In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/270.

Full text
Abstract:
Regular Decision Processes (RDPs) are a recently introduced model that extends MDPs with non-Markovian dynamics and rewards. The non-Markovian behavior is restricted to depend on regular properties of the history. These can be specified using regular expressions or formulas in linear dynamic logic over finite traces. Fully specified RDPs can be solved by compiling them into an appropriate MDP. Learning RDPs from data is a challenging problem that has yet to be addressed, on which we focus in this paper. Our approach rests on a new representation for RDPs using Mealy Machines that emit a distri
APA, Harvard, Vancouver, ISO, and other styles
2

Gillespie, Daniel T. "Non-Markovian stochastic processes." In Unsolved problems of noise and fluctuations. AIP, 2000. http://dx.doi.org/10.1063/1.60002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"PATH PLANNING WITH MARKOVIAN PROCESSES." In 6th International Conference on Informatics in Control, Automation and Robotics. SciTePress - Science and and Technology Publications, 2009. http://dx.doi.org/10.5220/0002209704790482.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hallak, Assaf, Dotan Di-Castro, and Shie Mannor. "Model selection in markovian processes." In KDD' 13: The 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2013. http://dx.doi.org/10.1145/2487575.2487613.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Zimmermann, R., J. Wauer, and A. Leitenstorfer. "Non-Markovian dynamics in optically detected electron-phonon relaxation." In Radiative Processes and Dephasing in Semiconductors. OSA, 1998. http://dx.doi.org/10.1364/rpds.1998.rma3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

García, Jesús E., V. A. González-López, and F. H. Kubo de Andrade. "Dissimilarity between Markovian processes applied to industrial processes." In INTERNATIONAL CONFERENCE OF NUMERICAL ANALYSIS AND APPLIED MATHEMATICS (ICNAAM 2016). Author(s), 2017. http://dx.doi.org/10.1063/1.4992383.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

WEGENER, MARTIN. "NON-MARKOVIAN SCATTERING PROCESSES IN SEMICONDUCTORS." In Proceedings of the 16th Course of the International School of Atomic and Molecular Spectroscopy. WORLD SCIENTIFIC, 2001. http://dx.doi.org/10.1142/9789812810960_0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Levine, A. M., A. G. Kofman, R. Zaibel, and Yehiam Prior. "Non-Markovian jump processes in lasers." In ADVANCES IN LASER SCIENCE−IV. AIP, 1989. http://dx.doi.org/10.1063/1.38571.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

De Giacomo, Giuseppe, Marco Favorito, Luca Iocchi, Fabio Patrizi, and Alessandro Ronca. "Temporal Logic Monitoring Rewards via Transducers." In 17th International Conference on Principles of Knowledge Representation and Reasoning {KR-2020}. International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/kr.2020/89.

Full text
Abstract:
In Markov Decision Processes (MDPs), rewards are assigned according to a function of the last state and action. This is often limiting, when the considered domain is not naturally Markovian, but becomes so after careful engineering of extended state space. The extended states record information from the past that is sufficient to assign rewards by looking just at the last state and action. Non-Markovian Reward Decision Processes (NRMDPs) extend MDPs by allowing for non-Markovian rewards, which depend on the history of states and actions. Non-Markovian rewards can be specified in temporal logic
APA, Harvard, Vancouver, ISO, and other styles
10

Mendes, Fábio Mace^do, Anníbal Dias Figueiredo, Paul M. Goggans, and Chun-Yong Chan. "On the representation of autonomous Markovian processes." In BAYESIAN INFERENCE AND MAXIMUM ENTROPY METHODS IN SCIENCE AND ENGINEERING: The 29th International Workshop on Bayesian Inference and Maximum Entropy Methods in Science and Engineering. AIP, 2009. http://dx.doi.org/10.1063/1.3275608.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Processus Markovien"

1

Abdel-Hameed, M. Markovian Shock Models, Deterioration Processes, Stratified Markov Processes Replacement Policies. Defense Technical Information Center, 1985. http://dx.doi.org/10.21236/ada174646.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Newell, Alan. Markovian Shock Models, Deterioration Processes, Stratified Markov Processes and Replacement Policies. Defense Technical Information Center, 1986. http://dx.doi.org/10.21236/ada174995.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Gómez-González, José Eduardo, and Nicholas M. Kiefer. Evidence of non-markovian behavior in the process of bank rating migrations. Banco de la República, 2007. http://dx.doi.org/10.32468/be.448.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!