To see the other types of publications on this topic, follow the link: Markov, Processus de – Méthodes graphiques.

Dissertations / Theses on the topic 'Markov, Processus de – Méthodes graphiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Markov, Processus de – Méthodes graphiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tabourier, Lionel. "Méthode de comparaison des topologies de graphes complexes : applications aux réseaux sociaux." Paris 6, 2010. http://www.theses.fr/2010PA066335.

Full text
Abstract:
Les graphes des réseaux d'interactions sociales révèlent des propriétés topologiques dont nous cherchons à comprendre l'origine. Dans ce but nous manquons de références qui permettraient de construire une échelle de comparaison de leurs caractéristiques géométriques. Cette thèse propose une méthode générique pour produire des graphes synthétiques dont les propriétés sont ajustables, dans l'ambition de réaliser un balisage de l'espace des graphes. La méthode proposée dérive de procédures markoviennes dont l'étape élémentaire consiste à échanger les extrêmités de liens du graphe. Selon les contraintes imposées, une telle procédure doit être adaptée; nous discutons alors des difficultés inhérentes à sa réalisation pratique et les moyens à notre disposition pour estimer sa validité. Puis nous rendons compte d'applications pratiques sur des réseaux technologiques, de collaborations, ou d'échanges commerciaux. Le principe mis en oeuvre dans ces illustrations consiste à construire une suite d'ensembles de graphes obéissant à des contraintes de plus en plus exigeantes; puis à comparer les propriétés de chacun aux données réelles afin de déterminer quels éléments topologiques ont un rôle essentiel. Au fil des exemples, nous proposons des améliorations techniques de nos algorithmes qui permettraient d'en élargir les utilisations possibles. Cette méthode serait suffisamment générale pour pouvoir décrire des réseaux d'interactions d'une autre nature, mais aussi pour intégrer des informations supplémentaires à la description graphique telles que l'activité temporelle des agents; nous proposons pour conclure quelques éléments de réflexion pour réaliser ces objectifs.
APA, Harvard, Vancouver, ISO, and other styles
2

Radoszycki, Julia. "Résolution de processus décisionnels de Markov à espace d'état et d'action factorisés - Application en agroécologie." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0022/document.

Full text
Abstract:
Cette thèse porte sur la résolution de problèmes de décision séquentielle sous incertitude,modélisés sous forme de processus décisionnels de Markov (PDM) dont l’espace d’étatet d’action sont tous les deux de grande dimension. La résolution de ces problèmes avecun bon compromis entre qualité de l’approximation et passage à l’échelle est encore unchallenge. Les algorithmes de résolution dédiés à ce type de problèmes sont rares quandla dimension des deux espaces excède 30, et imposent certaines limites sur la nature desproblèmes représentables.Nous avons proposé un nouveau cadre, appelé PDMF3, ainsi que des algorithmesde résolution approchée associés. Un PDMF3 est un processus décisionnel de Markov àespace d’état et d’action factorisés (PDMF-AF) dont non seulement l’espace d’état etd’action sont factorisés mais aussi dont les politiques solutions sont contraintes à unecertaine forme factorisée, et peuvent être stochastiques. Les algorithmes que nous avonsproposés appartiennent à la famille des algorithmes de type itération de la politique etexploitent des techniques d’optimisation continue et des méthodes d’inférence dans lesmodèles graphiques. Ces algorithmes de type itération de la politique ont été validés sur un grand nombre d’expériences numériques. Pour de petits PDMF3, pour lesquels la politique globale optimale est disponible, ils fournissent des politiques solutions proches de la politique globale optimale. Pour des problèmes plus grands de la sous-classe des processus décisionnels de Markov sur graphe (PDMG), ils sont compétitifs avec des algorithmes de résolution de l’état de l’art en termes de qualité. Nous montrons aussi que nos algorithmes permettent de traiter des PDMF3 de très grande taille en dehors de la sous-classe des PDMG, sur des problèmes jouets inspirés de problèmes réels en agronomie ou écologie. L’espace d’état et d’action sont alors tous les deux de dimension 100, et de taille 2100. Dans ce cas, nous comparons la qualité des politiques retournées à celle de politiques expertes. Dans la seconde partie de la thèse, nous avons appliqué le cadre et les algorithmesproposés pour déterminer des stratégies de gestion des services écosystémiques dans unpaysage agricole. Les adventices, plantes sauvages des milieux agricoles, présentent desfonctions antagonistes, étant à la fois en compétition pour les ressources avec la cultureet à la base de réseaux trophiques dans les agroécosystèmes. Nous cherchons à explorerquelles organisations du paysage (ici composé de colza, blé et prairie) dans l’espace etdans le temps permettent de fournir en même temps des services de production (rendementen céréales, fourrage et miel), des services de régulation (régulation des populationsd’espèces adventices et de pollinisateurs sauvages) et des services culturels (conservationd’espèces adventices et de pollinisateurs sauvages). Pour cela, nous avons développé unmodèle de la dynamique des adventices et des pollinisateurs et de la fonction de récompense pour différents objectifs (production, maintien de la biodiversité ou compromisentre les services). L’espace d’état de ce PDMF3 est de taille 32100, et l’espace d’actionde taille 3100, ce qui en fait un problème de taille conséquente. La résolution de ce PDMF3 a conduit à identifier différentes organisations du paysage permettant d’atteindre différents bouquets de services écosystémiques, qui diffèrent dans la magnitude de chacune des trois classes de services écosystémiques
This PhD thesis focuses on the resolution of problems of sequential decision makingunder uncertainty, modelled as Markov decision processes (MDP) whose state and actionspaces are both of high dimension. Resolution of these problems with a good compromisebetween quality of approximation and scaling is still a challenge. Algorithms for solvingthis type of problems are rare when the dimension of both spaces exceed 30, and imposecertain limits on the nature of the problems that can be represented.We proposed a new framework, called F3MDP, as well as associated approximateresolution algorithms. A F3MDP is a Markov decision process with factored state andaction spaces (FA-FMDP) whose solution policies are constrained to be in a certainfactored form, and can be stochastic. The algorithms we proposed belong to the familyof approximate policy iteration algorithms and make use of continuous optimisationtechniques, and inference methods for graphical models.These policy iteration algorithms have been validated on a large number of numericalexperiments. For small F3MDPs, for which the optimal global policy is available, theyprovide policy solutions that are close to the optimal global policy. For larger problemsfrom the graph-based Markov decision processes (GMDP) subclass, they are competitivewith state-of-the-art algorithms in terms of quality. We also show that our algorithmsallow to deal with F3MDPs of very large size outside the GMDP subclass, on toy problemsinspired by real problems in agronomy or ecology. The state and action spaces arethen both of dimension 100, and of size 2100. In this case, we compare the quality of thereturned policies with the one of expert policies. In the second part of the thesis, we applied the framework and the proposed algorithms to determine ecosystem services management strategies in an agricultural landscape.Weed species, ie wild plants of agricultural environments, have antagonistic functions,being at the same time in competition with the crop for resources and keystonespecies in trophic networks of agroecosystems. We seek to explore which organizationsof the landscape (here composed of oilseed rape, wheat and pasture) in space and timeallow to provide at the same time production services (production of cereals, fodder andhoney), regulation services (regulation of weed populations and wild pollinators) andcultural services (conservation of weed species and wild pollinators). We developed amodel for weeds and pollinators dynamics and for reward functions modelling differentobjectives (production, conservation of biodiversity or trade-off between services). Thestate space of this F3MDP is of size 32100, and the action space of size 3100, which meansthis F3MDP has substantial size. By solving this F3MDP, we identified various landscapeorganizations that allow to provide different sets of ecosystem services which differ inthe magnitude of each of the three classes of ecosystem services
APA, Harvard, Vancouver, ISO, and other styles
3

Viricel, Clement. "Contributions au développement d'outils computationnels de design de protéine : méthodes et algorithmes de comptage avec garantie." Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0019/document.

Full text
Abstract:
Cette thèse porte sur deux sujets intrinsèquement liés : le calcul de la constante de normalisation d’un champ de Markov et l’estimation de l’affinité de liaison d’un complexe de protéines. Premièrement, afin d’aborder ce problème de comptage #P complet, nous avons développé Z*, basé sur un élagage des quantités de potentiels négligeables. Il s’est montré plus performant que des méthodes de l’état de l’art sur des instances issues d’interaction protéine-protéine. Par la suite, nous avons développé #HBFS, un algorithme avec une garantie anytime, qui s’est révélé plus performant que son prédécesseur. Enfin, nous avons développé BTDZ, un algorithme exact basé sur une décomposition arborescente qui a fait ses preuves sur des instances issues d’interaction intermoléculaire appelées “superhélices”. Ces algorithmes s’appuient sur des méthodes issuse des modèles graphiques : cohérences locales, élimination de variable et décompositions arborescentes. A l’aide de méthodes d’optimisation existantes, de Z* et des fonctions d’énergie de Rosetta, nous avons développé un logiciel open source estimant la constante d’affinité d’un complexe protéine protéine sur une librairie de mutants. Nous avons analysé nos estimations sur un jeu de données de complexes de protéines et nous les avons confronté à deux approches de l’état de l’art. Il en est ressorti que notre outil était qualitativement meilleur que ces méthodes
This thesis is focused on two intrinsically related subjects : the computation of the normalizing constant of a Markov random field and the estimation of the binding affinity of protein-protein interactions. First, to tackle this #P-complete counting problem, we developed Z*, based on the pruning of negligible potential quantities. It has been shown to be more efficient than various state-of-the-art methods on instances derived from protein-protein interaction models. Then, we developed #HBFS, an anytime guaranteed counting algorithm which proved to be even better than its predecessor. Finally, we developed BTDZ, an exact algorithm based on tree decomposition. BTDZ has already proven its efficiency on intances from coiled coil protein interactions. These algorithms all rely on methods stemming from graphical models : local consistencies, variable elimination and tree decomposition. With the help of existing optimization algorithms, Z* and Rosetta energy functions, we developed a package that estimates the binding affinity of a set of mutants in a protein-protein interaction. We statistically analyzed our esti- mation on a database of binding affinities and confronted it with state-of-the-art methods. It appears that our software is qualitatively better than these methods
APA, Harvard, Vancouver, ISO, and other styles
4

Roy, Valérie. "Autograph : un outil de visualisation pour les calculs de processus." Nice, 1990. http://www.theses.fr/1990NICE4381.

Full text
Abstract:
On présente un formalisme de représentation graphique pour les systèmes parallèles et communicants, par signaux de synchronisation. Ces descriptions sont ensuite reliées au formalisme algébrique des calculs de processus, qui procure un cadre formel pour en étudier la sémantique et en vérifier les propriétés. On décrit l'outil de visualisation AUTOGRAPH, basé sur ces concepts. AUTOGRAPH contient un éditeur graphique multifenêtres, un interprète/traducteur des dessins vers leurs formes algébriques textuelles, ainsi que des fonctionnalités de retour vers les descriptions graphiques. La phase d'interprétation contient trois types d'analyse sur les dessins : étude de leur cohérence ; expansion de conventions graphiques ; complétion de leurs éléments facultatifs. Ces phases ultérieures permettent de garantir à l'utilisateur des conditions d’édition souples et économiques au niveau graphique, en conservant la précision des significations. AUTOGRAPH est interfacé avec plusieurs systèmes de vérification, et principalement avec AUTO, qui s'adapte aux principes de visualisation d'AUTOGRAPH. Des exemples typiques d'utilisation d'AUTOGRAPH dans des sessions de développement et de vérification sont présentés et commentes. Ces exemples incluent des expériences de traitement de programmes ESTEREL, pour lesquels AUTOGRAPH permet une analyse des automates après compilation
APA, Harvard, Vancouver, ISO, and other styles
5

Mourad, Mahmoud. "Comparaison entre méthodes vectorielles autorégressives et méthodes markoviennes dans l'analyse de séries chronologiques multidimensionnelles." Paris 5, 1990. http://www.theses.fr/1990PA05H033.

Full text
Abstract:
Cette these a eu pour but de mettre en pratique les modeles autoregressifs et l'application de la technique de la chaine de markov sur les residus des modeles de la decomposition saisonniere additive (hds). Notre analyse appliquee aux secteurs de la production industrielle francaise, nous a permis de detecter les ordres autoregressifs optimaux proposes par les criteres automatiques fpe, aic, bic, cat et hq, puis les parametres dynamiques "porteurs" sur lesquels se basent la memoire croisee (cas vectorial). Nous avons utilise le modele mds pour estimer ma tendance et les coefficients saisonniers, ensuite nous avons applique le modele markovien du premier ordre pour analyses la nature de la dependance des transitions entre les differents etats des residus. La comparaison de l'efficacite previsionnelle entre les differents modeles, a montre l'importance du modele autoregressif vectoriel a court terme, le modele mds a long terme et le role que peut jouer le modele markovien comme un"correcteur" des previsions pour le modele mds
This thesis aims at putting into practive the autoregressive models and the application of the markov chain on remainders of the additive seasonal decomposition models -mds-. Our analysis applied to the french industriel production sector has enable us to detect first the optimum autoregressive orders which were suggested by the automatic criterions fpe, aic, bic, cat an hq, then the dynamic "carrying" parameters on which are based the specific memory -univaried case- and the crossed memory -vectorial case-. We used the mds model to estimate the trend and the seasonal coefficients then we applied the markovian model of the first order to analyse the nature of the transitions dependencies between the different states of the remainders. The comparaison of the forcast efficiency between the different models showed the importance of the short-term vectorial autoregressive model, the long-term mds model ant the part that can play the markovian model as a forescast "corrector" for the mds model
APA, Harvard, Vancouver, ISO, and other styles
6

Boudaren, Mohamed El Yazid. "Modèles graphiques évidentiels." Phd thesis, Institut National des Télécommunications, 2014. http://tel.archives-ouvertes.fr/tel-01004504.

Full text
Abstract:
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d'images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d'estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d'estimer les paramètres du modèle à partir de l'observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l'évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l'aspect hétérogène des distributions de bruit s'inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l'hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l'instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d'estimation des paramètres associées. L'intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles
APA, Harvard, Vancouver, ISO, and other styles
7

Dascalu, Daniel. "Méthodes probabilistes pour la modélisation de la maintenance préventive." Compiègne, 2002. http://www.theses.fr/2002COMP1386.

Full text
Abstract:
Cette thèse représente une contribution dans les domaines de fiabilité et de maintenance de systèmes techniques, en particulier dans le domaine de maintenance préventive. Choisir une politique de maintenance pour une installation complexe représente une tâche difficile, avec un effet considérable sur la qualité et le coût de fonctionnement des installations larges, sur les conditions environnementales aussi. Ce manuscrit aide le décideur à faire le choix d’une politique de maintenance, de mise en œuvre la méthodologie et de calculer la performance de système. La thèse contient six chapitres. Le chapitre 1 présente l’histoire de la maintenance et les définitions principales, une classification des politiques de maintenance et les facteurs de décision. Le chapitre 2 présente les méthodes de maintenance les plus importantes et les modèles mathématiques. Le chapitre 3 présente les politiques de maintenance classiques pour les systèmes complexes et l’algorithme nécessaire pour la mise en œuvre en utilisant la théorie de processus stochastiques semi-Markov. Le chapitre 4 présente une politique de maintenance nouvelle, plus réaliste. L’aspect innovant de cet algorithme est le fait qu’il tienne compte des aspects pratiques des actions de maintenance. Le chapitre 5 présente une méthode complètement nouvelle, qui permet de quantifier les actions de maintenance. Le principal avantage est qu’il n’utilise aucune hypothèse irréaliste pour obtenir des résultats concrets pour la performance du système. En addition, l’algorithme permet de calculer l’efficience d’une méthode de maintenance donnée ou de comparer différentes méthodes de maintenance sur la même base. Finalement, le chapitre 5 de Conclusion présente l’importance de la maintenance préventive pour le fonctionnement des installations techniques, les avantages qui résultent en utilisant des procédures automatiques de maintenance et les directions nouvelles dans le domaine de modélisation de la maintenance.
APA, Harvard, Vancouver, ISO, and other styles
8

Idoumghar, Lhassane. "Méthodes algorithmiques pour l'allocation de fréquences." Nancy 1, 2002. http://www.theses.fr/2002NAN10235.

Full text
Abstract:
La génération d'un plan de fréquences est une tâche difficile dans le processus de planification, qui peut conduire à des plans de fréquences peu adéquats d'un point de vue métier. En effet, le processus de génération s'appuie d'une part sur une modélisation des contraintes existant entre les points de service du réseau étudié, et d'autre part sur une optimisation combinatoire qui vise à satisfaire ces contraintes. Cette optimisation combinatoire fournit une solution optimale d'un point de vue mathématique, mais selon la finesse de modélisation des contraintes, la solution générée peut être inutilisable dans la réalité. Dans cette thèse, nous présentons de nouvelles méthodes algorithmiques permettant de résoudre efficacement le problème d'allocation de fréquences dans le cadre de la radiodiffusion. L'utilisation de ces nouvelles approches a montré que la qualité des solutions obtenues est nettement meilleure que les meilleures solutions opérationnelles existant dans ce domaine
Generating a frequency plan is a difficult task in the radionetwork planning process, that may lead to obtain frequency plans with poor efficiency under real propagation conditions. In fact, the generation process uses a modelling of existing constraints between transmitters of the radionetwork under study, and a combinatorial optimization that tries to satisfy those constraints. This combinatorial optimization provides an optimal solution from a mathematical viewpoint, but according to the refinement of constraints modelling, the generated solution can be unusable under real propagation conditions. In this thesis, we intoduce new algorithmic approaches to solve the Frequency Assignment Problem in the field of radiobroadcasting. The experiments performed on real radionetworks show that the results obtained by these approaches are better than the best operational solutions that are existing in this domain
APA, Harvard, Vancouver, ISO, and other styles
9

Descombes, Xavier. "Méthodes stochastiques en analyse d'image : des champs de Markov aux processus ponctuels marqués." Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00506084.

Full text
Abstract:
Ce mémoire résume mes travaux sur la décennie (entre 1994 et 2003) suivant ma thèse de doctorat qui était consacrée aux champs de Markov en analyse d'image et fut soutenue en décembre 1993. Ces travaux ont vu le jour dans différents laboratoires d'accueil : – Laboratoire Image - Télécom Paris – Université Catholique de Louvain (K.U.Leuven) – Projet Pastis - INRIA Sophia Antipolis – Institut Max Planck pour les Neuroscience - Leipzig – Projet Ariana - INRIA Sophia Antipolis La diversité des laboratoires d'accueil a permis de traiter de plusieurs applications sur différents types d'images parmi lesquelles : – La binarisation d'empreintes digitales – La segmentation d'IRM du cerveau – La restauration d'angiographies cérébrales – La détection des régions d'activation en IRM fonctionnelle – La détection des espaces de Virchow Robin à partir d'IRM – La segmentation d'images satellitaires – L'extraction et la caractérisation des tissus urbains – L'extraction des réseaux routiers – La reconstruction du bâti
APA, Harvard, Vancouver, ISO, and other styles
10

Delplancke, Claire. "Méthodes quantitatives pour l'étude asymptotique de processus de Markov homogènes et non-homogènes." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30107/document.

Full text
Abstract:
L'objet de cette thèse est l'étude de certaines propriétés analytiques et asymptotiques des processus de Markov, et de leurs applications à la méthode de Stein. Le point de vue considéré consiste à déployer des inégalités fonctionnelles pour majorer la distance entre lois de probabilité. La première partie porte sur l'étude asymptotique de processus de Markov inhomogènes en temps via des inégalités de type Poincaré, établies par l'analyse spectrale fine de l'opérateur de transition. On se place d'abord dans le cadre du théorème central limite, qui affirme que la somme renormalisée de variables aléatoires converge vers la mesure gaussienne, et l'étude est consacrée à l'obtention d'une borne à la Berry-Esseen permettant de quantifier cette convergence. La distance choisie est une quantité naturelle et encore non étudiée dans ce cadre, la distance du chi-2, complétant ainsi la littérature relative à d'autres distances (Kolmogorov, variation totale, Wasserstein). Toujours dans le contexte non-homogène, on s'intéresse ensuite à un processus peu mélangeant relié à un algorithme stochastique de recherche de médiane. Ce processus évolue par sauts de deux types (droite ou gauche), dont la taille et l'intensité dépendent du temps. Une majoration de la distance de Wasserstein d'ordre 1 entre la loi du processus et la mesure gaussienne est établie dans le cas où celle-ci est invariante sous la dynamique considérée, et étendue à des exemples où seule la normalité asymptotique est vérifiée. La seconde partie s'attache à l'étude des entrelacements entre processus de Markov (homogènes) et gradients, qu'on peut interpréter comme un raffinement du critère de Bakry-Emery, et leur application à la méthode de Stein, qui est un ensemble de techniques permettant de majorer la distance entre deux mesures de probabilité. On prouve l'existence de relations d'entrelacement du second ordre pour les processus de naissance-mort, allant ainsi plus loin que les relations du premier ordre connues. Ces relations sont mises à profit pour construire une méthode originale et universelle d'évaluation des facteurs de Stein relatifs aux mesures de probabilité discrètes, qui forment une composante essentielle de la méthode de Stein-Chen
The object of this thesis is the study of some analytical and asymptotic properties of Markov processes, and their applications to Stein's method. The point of view consists in the development of functional inequalities in order to obtain upper-bounds on the distance between probability distributions. The first part is devoted to the asymptotic study of time-inhomogeneous Markov processes through Poincaré-like inequalities, established by precise estimates on the spectrum of the transition operator. The first investigation takes place within the framework of the Central Limit Theorem, which states the convergence of the renormalized sum of random variables towards the normal distribution. It results in the statement of a Berry-Esseen bound allowing to quantify this convergence with respect to the chi-2 distance, a natural quantity which had not been investigated in this setting. It therefore extends similar results relative to other distances (Kolmogorov, total variation, Wasserstein). Keeping with the non-homogeneous framework, we consider a weakly mixing process linked to a stochastic algorithm for median approximation. This process evolves by jumps of two sorts (to the right or to the left) with time-dependent size and intensity. An upper-bound on the Wasserstein distance of order 1 between the marginal distribution of the process and the normal distribution is provided when the latter is invariant under the dynamic, and extended to examples where only the asymptotic normality stands. The second part concerns intertwining relations between (homogeneous) Markov processes and gradients, which can be seen as refinment of the Bakry-Emery criterion, and their application to Stein's method, a collection of techniques to estimate the distance between two probability distributions. Second order intertwinings for birth-death processes are stated, going one step further than the existing first order relations. These relations are then exploited to construct an original and universal method of evaluation of discrete Stein's factors, a key component of Stein-Chen's method
APA, Harvard, Vancouver, ISO, and other styles
11

Pérez, Frédéric. "Travail de l'archai͏̈que et processus graphiques : le fractal comme moyen d'émergence du chaos dans un "groupe psychotique" : son repérage dans les processus graphiques : ou un outil méthodologique pour une survie psychique." Lyon 2, 2004. http://theses.univ-lyon2.fr/documents/lyon2/2004/perez_f.

Full text
Abstract:
L'approche thérapeutique de sujets déficitaires (autistes, psychotiques) fait courir le risque au thérapeute de perdre ses repères par attaque de son travail de liens. Peu de dispositifs pensés et théorisés leur sont proposés. Pour pallier ce manque, ce travail reviendra tout d'abord sur différentes notions métapsychologiques relatives aux questions de l'archai͏̈que et du déficit. Cette recherche porte autant sur les traces graphiques comme objet d'investigation que comme outil méthodologique. Aussi, l'ensemble des outils choisis (groupe, traces graphiques) seront travaillés à leur source, à leurs points d'intersections psychiques et physiques. Les hypothèses proposées ici viseront à approfondir nos outils méthodologiques pour interroger leur efficacité dans notre dispositif peinture-dessin proposé à un groupe de sujets déficitaires. Il s'agira d'appréhender la notion de traces graphiques comme des plus petits communs dénominateurs du fonctionnement intra et inter subjectif. Comme les traces psychiques, elles se créent à partir de l'espace groupal, toutes ces données se situent dans un autre registre que celui de l'espace physique euclidien. En méthodologie sont proposés une étude longitudinale sur le lien entre graphisme et intersubjectivité pour l'ensemble de nos cas cliniques et un travail d'analyse d'œuvres de peintres oscillant également autour des questions archai͏̈ques ainsi que sur l'analyse des fondements du rêve. Nous dégagerons les notions de groupe archai͏̈que, d'intersubjectivité primaire, de porte-inertie et de porte-figuration puis questionnerons l'approche thérapeutique à partir des notions d'attracteurs psychiques dans un procès de fractalisation
In a therapeutic approach with defective persons (autistics, psychotics) there is a risk for the therapeutist to loose his marks when his work on bonds is attacked. Only few thought and theorized studies are available. To fill up with this lack, this study will initially reconsider various metapsychological notions about archaic and deficit. In this research, graphic lines are considered as much as an investigation object as a methodological tool. Thus, all the tools choosen (group, graphic lines) will be studied from their base, and from their psychic and physical points of intersection. The assumption suggested here will aim at deepening thoughtfully our methodological tools, to enquire their effectiveness in the paintings / drawings device we will submit to an archaic group. The graphic lines notion will be studied as the smallest common factors in the intra and inter subjective organisation. Graphic lines, as well as physical lines, are created from a group environment. All the data are not part of the euclidien physical environment. On a methodological point of view, there will be two studies : a longitudinal study of the link between graphism and intersubjectivity (for all our clinical cases) and a work based on the analysis of paintings dealing also with archaic questions and the analysis of the bases of dreams. We will define notions of archaic group, primary intersubjectivity, inertia-carrier and figuration-carrier. Lastly, we will enquire about the therapeutic approach using notions such as psychic attractors in a fractalisationʺ process
APA, Harvard, Vancouver, ISO, and other styles
12

Youcef, Samir. "Méthodes et outils d'évaluation de performances des services web." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090031.

Full text
Abstract:
Les architectures orientées service (SOA) ont certainement apporté des réponses pour de nombreux problèmes que les précédentes technologies, telles que RMI et CORBA, n'ont pas pu offrir. Elles ont essentiellement fournit des réponses méthologiques pour garantir interopérabilité et le couplage faible entre systèmes d'information (SI) de plus en plus hétérogènes. Cependant, les services Web engendrent des problèmes de différentes natures telles que l'adaptation au changement dynamique du comportement du fournisseur d'un service et sa qualité de service (QdS) rendue. Il est donc indispensable de développer des méthodes et outils d'évaluation afin de surveiller et d'analyser la QdS rendue par les services. Cette thèse se situe justement dans le cadre de développement de méthodes et d'outils d'évaluation de performances des services Web. A cette fin, nous avons abordé le sujet sous trois aspects, à savoir le calcul exacte, le calcul des bornes du temps moyen et la prise en compte des critères de qualité de service dans la découverte et la sélection des services Web. Pour le premier aspect, nous avons proposé des formules analytiques pour le calcul exact et l'analyse du temps moyen de réponse des différents constructeurs du standard BPEL. Pour le second aspect, nous avons proposé des familles de modèles bornant supérieurement le temps de réponse d'un service Web composite. Le cadre de l'analyse, dans cette partie, est celle des chaînes de Markov à temps continu (DTMC) et la technique utilisée est celle du couplage des processus aléatoires. Pour le troisième aspect, nous avons proposé l'extension de l'architecture conventionnelle des services Web afin de prendre en compte la QdS dans leur découverte et sélection
Service Oriented Architecture (SOA) has certainly provided answers for many problems that previous technologies, like RMI and CORBA, could not offer. They mainly provide methodological answers to ensure interoperability and low coupling between heterogeneous information systems (IS). However, Web services create problems of various kinds such as adaptation to change the dynamic behavior of a service provider and quality of service (QoS) delivered. It is therefore essential to develop methods and tools to monitor and analyze the QoS delivered by the services. This PH. D. Thesis stands justly for the context of developing methods and tools for Web services performance evaluation. For this goal, we have approached the subject from three aspects, namely, the exact computation, the bounds computation for the average response time of Web services and taken into account the quality of service in the discovery and the selection of Web services. For the first aspect, we have proposed analytical formulas for the exact computation and analysis of average response time of the various of standard BPEL constructors. For the second aspect, we proposed upper bounds for the response time of a composite Web service. The analysis in this section is that of continous Markov chain (DTMC) and the technique used is the processes coupling. For the third aspect, we have proposed an extension of the conventional Web services architecture in ordre to take into account the QoS in their discovery and selection
APA, Harvard, Vancouver, ISO, and other styles
13

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066042/document.

Full text
Abstract:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
APA, Harvard, Vancouver, ISO, and other styles
14

Brandejsky, Adrien. "Méthodes numériques pour les processus markoviens déterministes par morceaux." Phd thesis, Bordeaux 1, 2012. http://tel.archives-ouvertes.fr/tel-00733731.

Full text
Abstract:
Les processus markoviens déterministes par morceaux (PMDM) ont été introduits dans la littérature par M.H.A. Davis en tant que classe générale de modèles stochastiques non-diffusifs. Les PMDM sont des processus hybrides caractérisés par des trajectoires déterministes entrecoupées de sauts aléatoires. Dans cette thèse, nous développons des méthodes numériques adaptées aux PMDM en nous basant sur la quantification d'une chaîne de Markov sous-jacente au PMDM. Nous abordons successivement trois problèmes : l'approximation d'espérances de fonctionnelles d'un PMDM, l'approximation des moments et de la distribution d'un temps de sortie et le problème de l'arrêt optimal partiellement observé. Dans cette dernière partie, nous abordons également la question du filtrage d'un PMDM et établissons l'équation de programmation dynamique du problème d'arrêt optimal. Nous prouvons la convergence de toutes nos méthodes (avec le plus souvent des bornes de la vitesse de convergence) et les illustrons par des exemples numériques.
APA, Harvard, Vancouver, ISO, and other styles
15

Lefebvre, Yannick. "Nouveaux développements et justifications de méthodes de calcul de mesures de performance en sûreté de fonctionnement." Université de Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0210.

Full text
Abstract:
Dans cette thèse, nous nous intéressons au calcul de la fiabilité et de la disponibilité de systèmes complexes. Dans un premier temps, nous considérons le cas d’un système modélisé par un processus de Markov possédant toutes les caractéristiques gênantes pour les méthodes de quantification usuelles : le nombre d’états du système est très important, et la défaillance est un événement rare. Plusieurs algorithmes ont été proposés dans la littérature pour calculer la fiabilité dans de tels modèles en explorant les séquences d’événements menant à la panne du système. Nous proposons des extensions de deux de ces algorithmes, extensions visant à améliorer l’efficacité numérique du calcul de fiabilité et à permettre le calcul de la disponibilité asymptotique. Dans la seconde partie de la thèse, nous nous intéressons à la prise en compte du vieillissementdes composants dans le calcul de la disponibilité d’un système modélisé par arbre de défaillances. Nous unifions de nombreux modèles de vieillissement proposés dans la littérature à l’aide d’un modèle très général de fiabilité dynamique. Les propriétés mathématiques de ce modèle suggèrent une méthode d’accélération de la simulation de Monte-Carlo. Elles permettent également de clarifier la validité et les limites d’une approche simple basée sur l’utilisation de logiciels pourtant initialement prévus pour traiter le cas de composants non vieillissants. Enfin, nous étudions un modèle particulier de vieillissement dont le principe repose sur la méthode des phases
In this thesis, we are interested in the computation of the reliability and availability of complex systems. At first, we consider the case of a Markov process for which the usual quantification methods may be inefficient : the number of states of the system is very important, and the system failure is a rare event. Several algorithms were proposed in literature to compute reliability in such models by investigating the paths leading to the system failure. We extend two of these algorithms in order to improve the efficiency of the reliability computation and to allow the long-run availability computation. In the second part of the thesis, our aim is to take into account the components ageing in the system availability computation, more precisely in the framework of a fault-tree model. We unify numerous ageing models proposed in literature by means of a very general dynamic reliability model. The mathematical properties of this model suggest an accelerated Monte-Carlo simulation method. They also clarify the validity and the limits of a simple approach based on the use of software initially designed to process the case of non-ageing components. Finally, we study a particular ageing model based on the phase method
APA, Harvard, Vancouver, ISO, and other styles
16

Parisot, Sarah. "Compréhension, modélisation et détection de tumeurs cérébrales : modèles graphiques et méthodes de recalage/segmentation simultanés." Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-00944541.

Full text
Abstract:
L'objectif principal de cette thèse est la modélisation, compréhension et segmentation automatique de tumeurs diffuses et infiltrantes appelées Gliomes Diffus de Bas Grade. Deux approches exploitant des connaissances a priori de l'ordre spatial et anatomique ont été proposées. Dans un premier temps, la construction d'un atlas probabiliste qui illustre les positions préférentielles des tumeurs dans le cerveau est présentée. Cet atlas représente un excellent outil pour l'étude des mécanismes associés à la genèse des tumeurs et fournit des indications sur la position probable des tumeurs. Cette information est exploitée dans une méthode de segmentation basée sur des champs de Markov aléatoires, dans laquelle l'atlas guide la segmentation et caractérise la position préférentielle de la tumeur. Dans un second temps, nous présentons une méthode pour la segmentation de tumeur et le recalage avec absence de correspondances simultanés. Le recalage introduit des informations anatomiques qui améliorent les résultats de segmentation tandis que la détection progressive de la tumeur permet de surmonter l'absence de correspondances sans l'introduction d'un à priori. La méthode est modélisée comme un champ de Markov aléatoire hiérarchique et à base de grille sur laquelle les paramètres de segmentation et recalage sont estimés simultanément. Notre dernière contribution est une méthode d'échantillonnage adaptatif guidé par les incertitudes pour de tels modèles discrets. Ceci permet d'avoir une grande précision tout en maintenant la robustesse et rapidité de la méthode. Le potentiel des deux méthodes est démontré sur de grandes bases de données de gliomes diffus de bas grade hétérogènes. De par leur modularité, les méthodes proposées ne se limitent pas au contexte clinique présenté et pourraient facilement être adaptées à d'autres problèmes cliniques ou de vision par ordinateur.
APA, Harvard, Vancouver, ISO, and other styles
17

Bao, Ran. "Modélisation formelle de systèmes de drones civils à l’aide de méthodes probabilistes paramétrées." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4002.

Full text
Abstract:
Les drones sont maintenant très répandus dans la société et sont souvent utilisés dans des situations dangereuses pour le public environnant. Il est alors nécessaire d’étudier leur fiabilité, en particulier dans le contexte de vols au-dessus d’un public. Dans cette thèse, nous étudions la modélisation et l’analyse de drones dans le contexte de leur plan de vol. Pour cela, nous construisons plusieurs modèles probabilistes du drone et les utilisons ainsi que le plan de vol pour modéliser la trajectoire du drone. Le modèle le plus détaillé obtenu prend en compte des paramètres comme la précision de l’estimation de la position par les différents capteurs, ainsi que la force et la direction du vent. Le modèle est analysé afin de mesurer la probabilité que le drone entre dans une zone dangereuse. Du fait de la nature et de la complexité des modèles successifs obtenus, leur vérification avec les outils classiques, tels que PRISM ou PARAM, est impossible. Nous utilisons donc une nouvelle méthode d’approximation, appelée Model Checking Statistique Paramétrique. Cette méthode a été implémentée dans un prototype, que nous avons mis à l’épreuve sur ce cas d’étude complexe. Nous avons pour finir utilisé les résultats fournis par ce prototype afin de proposer des pistes permettant d’améliorer la sécurité du public dans le contexte considéré
Unmanned Aerial Vehicles (UAV) are now widespread in our society and are often used in a context where they can put people at risk. Studying their reliability, in particular in the context of flight above a crowd, thus becomes a necessity. In this thesis, we study the modeling and analysis of UAV in the context of their flight plan. To this purpose, we build several parametrics probabilistic models of the UAV and use them, as well as a given flight plan, in order to model its trajectory. Our most advanced model takes into account the precision of position estimation by embedded sensors, as well as wind force and direction. The model is analyzed in order to measure the probability that the drone enters an unsafe zone. Because of the nature and complexity of the obtained models, their exact verification using classical tools such as PRISM or PARAM is impossible. We therefore develop a new approximation method, called Parametric Statistical Model Checking. This method has been implemented in a prototype tool, which we tested on this complex case study. Finally, we use the result to propose some ways to improve the safety of the public in our context
APA, Harvard, Vancouver, ISO, and other styles
18

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov." Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
APA, Harvard, Vancouver, ISO, and other styles
19

Keskessa, Bachir. "Contribution à la modélisation didactique d'outils graphiques dans la maîtrise d'un processus en temps réel." Grenoble 2, 1998. http://www.theses.fr/1998GRE29052.

Full text
Abstract:
Nous abordons la question des outils graphiques fonctionnels en technologie dans la transition collège/lycée. Les graphiques fonctionnels apparaissent lies au système des objets techniques du système de production. Les notions d'incident, d'internalite et d'externalité introduites ont permis une analyse fine d'éléments sémiotiques dans l'instrumentation graphique en contexte de production. L'étude expérimentale fait apparaître des différences significatives d'habiletés graphiques selon les modalités internaliste ou externaliste du système de production. La confrontation de ces deux modalités a favorise une modélisation de l'outil graphique en vue d'une maîtrise d'un processus de production en temps réel a des fins d'enseignement et d'apprentissage
We tackle the problem of functional graphic tools in technology in the transition secondary school/high school. The functional graphic tools appear to be linked to the system of the technical objects within the productive system. The notions of incident, internality and externality introduced, have allowed a fine analysis of semiotic elements in the graphic instrumentation within the production. The experimental study shows different significant graphic skills according to the internal or external modes of the productive system. The comparison of these two modes has enabled a modelization of the graphic tool for the command of a productive system in real time aiming at teaching and training
APA, Harvard, Vancouver, ISO, and other styles
20

Casarin, Roberto. "Méthodes de simulation pour l'estimation bayésienne des modèles à variables latentes." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090056.

Full text
Abstract:
Les modèles à variables latentes sont très utilisées en économétrie et statistique. Cette thèse se concentre sur l'utilisation des variables latentes dans la modélisation des mélanges des lois, dans l'analyse des séries temporelles et dans les modèles à temps continue. On suit une approche bayésienne de l'inférence fondée sur simulation. La partie recherche a été développée dans quatre chapitres. Le Chapitre 3 propose un modèle de mélange des lois alpha-stables qui prennent en compte, l'asymétrie, les queues épaisses et la multimodalité qui caractérisent les données financières. Le Chapitre 4 propose un modèle à volatilité stochastique à changements de régime avec des innovations du type queues épaisses pour le processus observable. Nous utiliserons une méthode bayésienne de filtrage par simulation, pour filtrer les processus latents et pour estimer les paramètres inconnus. Le Chapitre 5 traite l'estimation de paramètres et l'extraction de la volatilité en utilisant un nouvel algorithme SMC régularisé. Le Chapitre 6 traite l'inférence bayèsienne par Population de Monte Carlo, d'une équation différentielle stochastique, observée à temps discret
Latent variable models are now very common in econometrics and statistics. This thesis mainly focuses on the use of latent variables in mixture modelling, time series analysis and continuous time models. We follow a Bayesian inference framework based on simulation methods. In the third chapter we propose alfa-stable mixtures in order to account for skewness, heavy tails and multimodality in financial modelling. Chapter four proposes a Markov-Switching Stochastic-Volatility model with a heavy-tail observable process. We follow a Bayesian approach and make use of Particle Filter, in order to filter the state and estimate the parameters. Chapter five deals with the parameter estimation and the extraction of the latent structure in the volatilities of the US business cycle and stock market valuations. We propose a new regularised SMC procedure for doing Bayesian inference. In chapter six we employ a Bayesian inference procedure, based on Population Monte Carlo, to estimate the parameters in the drift and diffusion terms of a stochastic differential equation (SDE), from discretely observed data
APA, Harvard, Vancouver, ISO, and other styles
21

Younès, Sana. "Model checking stochastique par les méthodes de comparaison stochastique." Versailles-St Quentin en Yvelines, 2008. http://www.theses.fr/2008VERS0008.

Full text
Abstract:
We propose in this work a new method to verify Markov chains. The verification is performed by transient or steady-state distributions of the considered chain. We use stochastic comparison techniques to obtain bounding measures in order to verify the considered chain. These measures are obtained by the construction of a bounding chain to the initial chain that can be very large. Bounding models have to be easier to analyze that let to consider models for which numerical analysis are difficult or impossible. We have explored some schemes of construction of bounding chains as lumpability and class C matrices. We have also developed other methods of construction of bounding chains for censored Markov chains. Clearly, bounding measures can not always lead to a conclusion. In this case, the bounding model must be refined if it is possible. We have showed that bounding techniques that we propose are appropriate for the verification of Markov chains and they may reduce drastically the verification time
Nous proposons dans cette thèse une nouvelle méthode de vérification des chaînes de Markov. La vérification de ces modèles est effectuée à partir des distributions transitoires ou stationnaire de la chaîne de Markov considérée. Nous utilisons les méthodes de comparaison stochastique pour obtenir des mesures bornantes afin de vérifier la chaîne considérée. Ces mesures sont obtenues par la construction d'une chaîne bornante à la chaîne initiale qui est en générale de très grande taille. Les chaînes bornantes construites doivent être plus simples à analyser permettant de construire des bornes pour les modèles dont la résolution numérique est difficile voire impossible. Nous avons exploré certains schémas pour construire des chaînes bornantes comme la lumpabilité et la classe C. Nous avons développé également d'autres schémas de construction de chaînes bornantes sur les chaînes de Markov censurées. Il est évident que les mesures bornantes ne permettent pas toujours de conclure. Dans ce cas il faut affiner le modèle bornant si le schéma de borne le permet. Nous avons montré que les méthodes de bornes que nous proposons sont pertinentes pour la vérification de chaînes de Markov et permettent de réduire remarquablement le temps de vérification
APA, Harvard, Vancouver, ISO, and other styles
22

Mercier, Sophie. "Modèles stochastiques et méthodes numériques pour la fiabilité." Habilitation à diriger des recherches, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00368100.

Full text
Abstract:
En premier lieu, nous proposons, étudions et optimisons différentes politiques de maintenance pour des systèmes réparables à dégradation markovienne ou semi-markovienne, dont les durées de réparation suivent des lois générales.
Nous nous intéressons ensuite au remplacement préventif de composants devenus obsolescents, du fait de l'apparition de nouveaux composants plus performants. Le problème est ici de déterminer la stratégie optimale de remplacement des anciens composants par les nouveaux. Les résultats obtenus conduisent à des stratégies très différentes selon que les composants ont des taux de panne constants ou non.
Les travaux suivants sont consacrés à l'évaluation numérique de différentes quantités fiabilistes, les unes liées à des sommes de variables aléatoires indépendantes, du type fonction de renouvellement par exemple, les autres liées à des systèmes markoviens ou semi-markoviens. Pour chacune de ces quantités, nous proposons des bornes simples et aisément calculables, dont la précision peut être ajustée en fonction d'un pas de temps. La convergence des bornes est par ailleurs démontrée, et des algorithmes de calcul proposés.
Nous nous intéressons ensuite à des systèmes hybrides, issus de la fiabilité dynamique, dont l'évolution est modélisée à l'aide d'un processus de Markov déterministe par morceaux (PDMP). Pour de tels systèmes, les quantités fiabilistes usuelles ne sont généralement pas atteignables analytiquement et doivent être calculées numériquement. Ces quantités s'exprimant à l'aide des lois marginales du PDMP (les lois à t fixé), nous nous attachons plus spécifiquement à leur évaluation. Pour ce faire, nous commençons par les caractériser comme unique solution d'un système d'équations intégro-différentielles. Puis, partant de ces équations, nous proposons deux schémas de type volumes finis pour les évaluer, l'un explicite, l'autre implicite, dont nous démontrons la convergence. Nous étudions ensuite un cas-test issu de l'industrie gazière, que nous modélisons à l'aide d'un PDMP, et pour lequel nous calculons différentes quantités fiabilistes, d'une part par méthodes de volumes finis, d'autre part par simulations de Monte-Carlo. Nous nous intéressons aussi à des études de sensibilité : les caractéristiques d'un PDMP sont supposées dépendre d'une famille de paramètres et le problème est de comparer l'influence qu'ont ces différents paramètres sur un critère donné, à horizon fini ou infini. Cette étude est faite au travers des dérivées du critère d'étude par rapport aux paramètres, dont nous démontrons l'existence et que nous calculons.
Enfin, nous présentons rapidement les travaux effectués par Margot Desgrouas lors de sa thèse consacrée au comportement asymptotique des PDMP, et nous donnons un aperçu de quelques travaux en cours et autres projets.
APA, Harvard, Vancouver, ISO, and other styles
23

Ziani, Ahmed. "Interprétation en temps réel de séquence vidéo par exploitation des modèles graphiques probabilistes." Littoral, 2010. http://www.theses.fr/2010DUNK0271.

Full text
Abstract:
Le travail de recherche concerne l'étude et la mise en oeuvre de systèmes de reconnaissance de scénarios dans des séquences d'images de vidéosurveillance. Les couches hautes du système de reconnaissance exploitent principalement les approches graphiques probabilistes (réseaux bayésiens et les modèles de Markov Cachés et leurs extensions) qui permettent de gérer de manière efficace les incertitudes au sein du système d'interprétation. Un premier algorithme de reconnaissance de séquences d'événements, combinant deux extensions de modèles de Markov cachés (hiérarchique et semi-markovien) a été proposé. Il permet de modéliser des scénarios complexes basés sur une structure hiérarchisée intégrant des contraintes temporelles sur la durée de chaque événement. Ensuite, nous avons étudié une approche de reconnaissance de trajectoire d'objets en utilisant les modèles de Markov cachés semi-continus. Nous avons adapté une méthode de quantification permettant d'obtenir automatiquement les états du modèle. Dans le but d'accélérer le comportement du système de reconnaissance, nous avons proposé une technique de prédiction basée sur la reconnaissance des débuts de trajectoires et qui permet rapidement d'écarter les modèles ne pouvant être compatibles avec les observations. La dernière partie du travail a été le développement d'une structure globale et modulaire d'un système de reconnaissance de scénarios. L'intérêt principal de cette architecture est de pouvoir exploiter des techniques probabilistes tout en intégrant des capacités de raisonnement temporel. L'architecture logique du système exploite une approche multi agents organisée selon trois couches. Afin de gérer les contraintes temps réel de l'application, la stratégie de contrôle du système de reconnaissance active un nombre minimal 'agents en fonction de ses décisions internes. Les agents de la première couche ont pour rôle de mettre en évidence les événements élémentaires et sont construits principalement à base de réseaux bayésiens ou de modèles de Markov cachés. Les agents temporels de la deuxième couche sont construits également à partir d'une structure spécifique de type réseau bayésien. Ils ont pour rôle de modéliser de manière explicite les relations temporelles entre événements mis en évidence à partir de la première couche. Les agents du troisième niveau interviennent dans l'étape finale de décision en exploitant l'ensemble des décisions des agents intermédiaires. Les différentes approches de reconnaissance de scénarios ont été testées sur divers séquences réelles en environnement extérieur et intérieur
The research covers the design and implementation of systems for recognition of scenarios in video image sequences. The upper layers of the recognition system operating primarily graphical probabilistic approaches (Bayesian networks and Hidden Markov models and their extensions) that can effectively handle uncertainties in the interpretation system. A first algorithm for recognition of sequences of events, combining two extensions of HMM (hierarchical and semi-Markov) was proposed. It allows to model complex scenarios based on a hierarchical structure integrating temporal constraints on the duration of each event. Then, we proposed a prediction technique based on the recognition of early tracks and allows quick to dismiss the models may be consistent with the observations. The last part of the work was the development of a global structure and a modular recognition system scenarios. The main advantage of this architecture is to use probabilistic techniques while integrating temporal reasoning capabilities. The logical architecture of the system uses a multi agents. In order to manage real-time constraints of the application, the control strategy of the recognition systems enables a minimum number of agents according to its internal decisions. The agents of the first layer has a role to highlight the basic events and are constructed mainly of Bayesian networks or hidden Markov models. The agents of the second temporal layer are also built from a specific structure type Bayesian network. Their role is to model explicitly the temporal relationships between events highlighted from the first layer. The third level officials involved in the final stage of decision using all of the decisions of intermediate agents. Different approaches to recognition of scenarios were tested on various real images in external and internal environment
APA, Harvard, Vancouver, ISO, and other styles
24

Marchand, Jean-Louis. "Conditionnement de processus markoviens." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00733301.

Full text
Abstract:
Le but de cette thèse est de décrire la loi conditionnelle d'un processus markovien multidimensionnel connaissant la valeur de certaines combinaisons linéaires de ses coordonnées à des instants donnés. La description recherchée consiste à mettre en évidence un processus de même type, facile à simuler, dont la loi est équivalente à la loi conditionnelle ciblée.La classe principalement étudiée est celle des processus à diffusion. Dans un premier temps, des techniques de grossissement de filtration (Jacod 1985) permettent de déterminer les paramètres de l'équation différentielle stochastique vérifiée par le processus conditionnel. Cependant, on s'aperçoit alors que la dérive n'est pas explicite, car celle-ci dépend des densités de transition du processus initial, inconnues en général. Ceci rend impossible,une simulation directe par exemple à l'aide d'un schéma d'Euler. Afin de pallier ce défaut, nous proposons une alternative, dans l'esprit de Delyon et Hu (2006). L'approche consiste à proposer une équation différentielle stochastique de paramètres explicites, dont la solution est de loi équivalente à la loi conditionnelle. Une application en collaboration avec Anne Cuzol et Etienne Mémin de l'INRIA, dans le cadre des écoulements fluides est également présentée. On applique la méthode proposée précédemment à un modèle stochastique inspiré des équations de Navier-Stokes. Enfin, la classe des processus markoviens à sauts est également abordée.
APA, Harvard, Vancouver, ISO, and other styles
25

Verzelen, Nicolas. "Modèles graphiques gaussiens et sélection de modèles." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00352802.

Full text
Abstract:
Cette thèse s'inscrit dans les domaines de la statistique non-paramétrique, de la théorie statistique de l'apprentissage et des statistiques spatiales. Son objet est la compréhension et la mise en oeuvre de méthodes d'estimation et de décision pour des modèles graphiques gaussiens. Ces outils probabilistes rencontrent un succès grandissant pour la modélisation de systêmes complexes dans des domaines aussi différents que la génomique ou l'analyse spatiale. L'inflation récente de la taille des données analysées rend maintenant nécessaire la construction de procédures statistiques valables en << grande dimension >>, c'est à dire lorsque le nombre de variables est potentiellement plus grand que le nombre d'observations. Trois problèmes généraux sont considérés dans cette thèse: le test d'adéquation d'un graphe à un modèle graphique gaussien, l'estimation du graphe d'un modèle graphique gaussien et l'estimation de la covariance d'un modèle graphique gaussien, ou plus généralement d'un vecteur gaussien. Suite à cela, nous étudions l'estimation de la covariance d'un champ gaussien stationnaire sur un réseau, sous l'angle de la modélisation graphique.

En utilisant le lien entre modèles graphiques et régression linéaire à plan d'expérience gaussien, nous développons une approche basée sur des techniques de sélection de modèles. Les procédures ainsi introduites sont analysés d'un point de vue non-asymptotique. Nous prouvons notamment des inégalités oracles et des propriétés d'adaptation au sens minimax valables en grande dimension. Les performances pratiques des méthodes statistiques sont illustrées sur des données simulées ainsi que sur des données réelles.
APA, Harvard, Vancouver, ISO, and other styles
26

Altaleb, Anas. "Méthodes d'échantillonnage par mélanges et algorithmes MCMC." Rouen, 1999. http://www.theses.fr/1999ROUES034.

Full text
Abstract:
Nous abordons dans cette thèse, deux aspects distincts : (a) la construction et le test de certaines méthodes de simulation pour l'approximation des intégrales. Nous étudions en particulier les estimateurs de Monte Carlo auxquels il est souvent fait appel dans le traitement de modèles statistiques complexes. Notre apport en ce domaine consiste en l'utilisation des mélanges pour la stabilisation des échantillonnages d'importance. Pour valider l'estimateur pondéré, il est indispensable d'étudier son comportement pour les méthodes MCMC qui permettent la mise en œuvre d'une forme généralisée de l'estimateur pondéré. L'estimateur pondéré obtenu améliore à nouveau l'estimateur standard de Monte Carlo en termes de réduction de la variance et de vitesse de convergence. Cette forme généralisée de l'estimateur pondéré permet d'étendre le domaine d'application de notre estimateur à une grande classe de problèmes d'intégration rencontrés en statistique. (b) l'étude d'un modèle de régression non linéaire généralisée, le modèle Logit, suivant deux méthodes : celle de Damien et Walker (1997) et une technique générique de Hastings-Metropolis. L'ensemble des résultats exposés est illustré par différentes simulations, qui montrent les comportements et les performances de l'algorithme de Hastings-Metropolis en termes de vitesse de convergence vers la loi stationnaire et de rapidité d'exploration de la surface de la loi a posteriori, par rapport à la méthode de Damien et Walker.
APA, Harvard, Vancouver, ISO, and other styles
27

Dridi, Noura. "Estimation aveugle de chaînes de Markov cachées simples et doubles : Application au décodage de codes graphiques." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0022.

Full text
Abstract:
Depuis leur création, les codes graphiques constituent un outil d'identification automatique largement exploité en industrie. Cependant, les performances de lecture sont limitées par un flou optique et un flou de mouvement. L'objectif de la thèse est l'optimisation de lecture des codes 1D et 2D en exploitant des modèles de Markov cachés simples et doubles, et des méthodes d'estimation aveugles. En premier lieu, le système de lecture de codes graphiques est modélisé par une chaîne de Markov cachée, et des nouveaux algorithmes pour l'estimation du canal et la détection des symboles sont développés. Ils tiennent compte de la non stationnarité de la chaîne de Markov. De plus une méthode d'estimation de la taille du flou et de sa forme est proposée. La méthode utilise des critères de sélection permettant de choisir le modèle de dégradation le plus adéquat. Enfin nous traitons le problème de complexité qui est particulièrement important dans le cas d'un canal à mémoire longue. La solution proposée consiste à modéliser le canal à mémoire longue par une chaîne de Markov double. Sur la base de ce modèle, des algorithmes offrant un rapport optimisé performance-complexité sont présentés
Since its birth, the technology of barcode is well investigated for automatic identification. When reading, a barcode can be degraded by a blur , caused by a bad focalisation and/ or a camera movement. The goal of this thesis is the optimisation of the receiver of 1D and 2D barcode from hidden and double Markov model and blind statistical estimation approaches. The first phase of our work consists of modelling the original image and the observed one using Hidden Markov model. Then, new algorithms for joint blur estimation and symbol detection are proposed, which take into account the non-stationarity of the hidden Markov process. Moreover, a method to select the most relevant model of the blur is proposed, based on model selection criterion. The method is also used to estimate the blur length. Finally, a new algorithm based on the double Markov chain is proposed to deal with digital communication through a long memory channel. Estimation of such channel is not possible using the classical detection algorithms based on the maximum likelihood due to the prohibitive complexity. New algorithm giving good trade off between complexity and performance is provided
APA, Harvard, Vancouver, ISO, and other styles
28

Ferrante, Enzo. "Recalage déformable à base de graphes : mise en correspondance coupe-vers-volume et méthodes contextuelles." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC039/document.

Full text
Abstract:
Les méthodes de recalage d’images, qui ont pour but l’alignement de deux ou plusieurs images dans un même système de coordonnées, sont parmi les algorithmes les plus anciens et les plus utilisés en vision par ordinateur. Les méthodes de recalage servent à établir des correspondances entre des images (prises à des moments différents, par différents senseurs ou avec différentes perspectives), lesquelles ne sont pas évidentes pour l’œil humain. Un type particulier d’algorithme de recalage, connu comme « les méthodes de recalage déformables à l’aide de modèles graphiques » est devenu de plus en plus populaire ces dernières années, grâce à sa robustesse, sa scalabilité, son efficacité et sa simplicité théorique. La gamme des problèmes auxquels ce type d’algorithme peut être adapté est particulièrement vaste. Dans ce travail de thèse, nous proposons plusieurs extensions à la théorie de recalage déformable à l’aide de modèles graphiques, en explorant de nouvelles applications et en développant des contributions méthodologiques originales.Notre première contribution est une extension du cadre du recalage à l’aide de graphes, en abordant le problème très complexe du recalage d’une tranche avec un volume. Le recalage d’une tranche avec un volume est le recalage 2D dans un volume 3D, comme par exemple le mapping d’une tranche tomographique dans un système de coordonnées 3D d’un volume en particulier. Nos avons proposé une formulation scalable, modulaire et flexible pour accommoder des termes d'ordre élevé et de rang bas, qui peut sélectionner le plan et estimer la déformation dans le plan de manière simultanée par une seule approche d'optimisation. Le cadre proposé est instancié en différentes variantes, basés sur différentes topologies du graph, définitions de l'espace des étiquettes et constructions de l'énergie. Le potentiel de notre méthode a été démontré sur des données réelles ainsi que des données simulées dans le cadre d’une résonance magnétique d’ultrason (où le cadre d’installation et les stratégies d’optimisation ont été considérés).Les deux autres contributions inclues dans ce travail de thèse, sont liées au problème de l’intégration de l’information sémantique dans la procédure de recalage (indépendamment de la dimensionnalité des images). Actuellement, la plupart des méthodes comprennent une seule fonction métrique pour expliquer la similarité entre l’image source et l’image cible. Nous soutenons que l'intégration des informations sémantiques pour guider la procédure de recalage pourra encore améliorer la précision des résultats, en particulier en présence d'étiquettes sémantiques faisant du recalage un problème spécifique adapté à chaque domaine.Nous considérons un premier scénario en proposant un classificateur pour inférer des cartes de probabilité pour les différentes structures anatomiques dans les images d'entrée. Notre méthode vise à recaler et segmenter un ensemble d'images d'entrée simultanément, en intégrant cette information dans la formulation de l'énergie. L'idée principale est d'utiliser ces cartes estimées des étiquettes sémantiques (fournie par un classificateur arbitraire) comme un substitut pour les données non-étiquettées, et les combiner avec le recalage déformable pour améliorer l'alignement ainsi que la segmentation.Notre dernière contribution vise également à intégrer l'information sémantique pour la procédure de recalage, mais dans un scénario différent. Dans ce cas, au lieu de supposer que nous avons des classificateurs arbitraires pré-entraînés à notre disposition, nous considérons un ensemble d’annotations précis (vérité terrain) pour une variété de structures anatomiques. Nous présentons une contribution méthodologique qui vise à l'apprentissage des critères correspondants au contexte spécifique comme une agrégation des mesures de similarité standard à partir des données annotées, en utilisant une adaptation de l’algorithme « Latent Structured Support Vector Machine »
Image registration methods, which aim at aligning two or more images into one coordinate system, are among the oldest and most widely used algorithms in computer vision. Registration methods serve to establish correspondence relationships among images (captured at different times, from different sensors or from different viewpoints) which are not obvious for the human eye. A particular type of registration algorithm, known as graph-based deformable registration methods, has become popular during the last decade given its robustness, scalability, efficiency and theoretical simplicity. The range of problems to which it can be adapted is particularly broad. In this thesis, we propose several extensions to the graph-based deformable registration theory, by exploring new application scenarios and developing novel methodological contributions.Our first contribution is an extension of the graph-based deformable registration framework, dealing with the challenging slice-to-volume registration problem. Slice-to-volume registration aims at registering a 2D image within a 3D volume, i.e. we seek a mapping function which optimally maps a tomographic slice to the 3D coordinate space of a given volume. We introduce a scalable, modular and flexible formulation accommodating low-rank and high order terms, which simultaneously selects the plane and estimates the in-plane deformation through a single shot optimization approach. The proposed framework is instantiated into different variants based on different graph topology, label space definition and energy construction. Simulated and real-data in the context of ultrasound and magnetic resonance registration (where both framework instantiations as well as different optimization strategies are considered) demonstrate the potentials of our method.The other two contributions included in this thesis are related to how semantic information can be encompassed within the registration process (independently of the dimensionality of the images). Currently, most of the methods rely on a single metric function explaining the similarity between the source and target images. We argue that incorporating semantic information to guide the registration process will further improve the accuracy of the results, particularly in the presence of semantic labels making the registration a domain specific problem.We consider a first scenario where we are given a classifier inferring probability maps for different anatomical structures in the input images. Our method seeks to simultaneously register and segment a set of input images, incorporating this information within the energy formulation. The main idea is to use these estimated maps of semantic labels (provided by an arbitrary classifier) as a surrogate for unlabeled data, and combine them with population deformable registration to improve both alignment and segmentation.Our last contribution also aims at incorporating semantic information to the registration process, but in a different scenario. In this case, instead of supposing that we have pre-trained arbitrary classifiers at our disposal, we are given a set of accurate ground truth annotations for a variety of anatomical structures. We present a methodological contribution that aims at learning context specific matching criteria as an aggregation of standard similarity measures from the aforementioned annotated data, using an adapted version of the latent structured support vector machine (LSSVM) framework
APA, Harvard, Vancouver, ISO, and other styles
29

Ramdane, Saïd. "Identification automatique de types de formulaires par des méthodes stochastiques markoviennes." Le Havre, 2002. http://www.theses.fr/2002LEHA0018.

Full text
Abstract:
L'identification de formulaires est une opération importante de la chaîne de traitement d'un système de lecture automatique. Aucun signe distinctif n'est supposé marquer le formulaire. Le traitement commence par l'extraction des blocs rectangulaires de textes ou de rectangles englobant les dessins ou les images. Etant donné que les formulaires comprennent des champs manuscrits, la position, les dimensions des blocs rectangulaires présents sont variables. Les phénomènes de fusionnement et de fragmentation résultant de la segmentation induisent une variabilité supplémentaire dans le nombre des rectangles. Cette double variabilité des rectangles, présentent un caractère aléatoire. Une première méthode, de nature statistique, effectue la reconnaissance par le calcul d'une distance, qui généralise celle de Mahalanobis, entre la forme inconnue et un modèle déterminé par appariement dans chaque classe. L'apprentissage nécessite la délicate prise en compte du phénomène de fusionnement/fragmentation. Ce modèle statistique se révèle être en réalité un modèle stochastique markovien d'ordre 0. Une deuxième méthode, de nature stochastique, repose sur la construction de modèles de Markov cachés planaires (PHMM : Pseudo-2D Hidden Markov Model). Nous décrivons notamment un nouvel apprentissage non supervisé du nombre d'états par une méthode d'agrégation dynamique. La reconnaissance est basée sur l'estimation de la probabilité conditionnelle calculée par une extension de l'algorithme de Viterbi doublement imbriqué. Pour les deux méthodes, nous avons cherché à rendre automatiques toutes les phases de l'apprentissage et de la reconnaissance. Les résultats expérimentaux confirment la validité des deux méthodes
Identification of forms is a significant operation of an automatic system of reading. No distinctive sign is supposed to mark the form. The treatment starts with the extraction of the rectangular blocks of texts or rectangles including the drawings or the images. Since the forms include handwritten fields, the position, dimensions of the rectangular blocks present are variable. The phenomena of merging and fragmentation resulting from the segmentation induce an additional variability in the number of the rectangles. This double variability of the rectangles is naturally random. A first statistical method carries out the recognition by the calculation of a distance, which generalizes the Mahalanobis distance. Learning requires taking care of the phenomenon of merging/fragmentation. This statistical model appears to be actually a Markovian stochastic model of order 0. A second stochastic method rests on the construction of planar hidden Markov models (PHMM: Pseudo-2D Hidden Markov Model). We describe in particular a new unsupervised training of the states number by a dynamic aggregation method. The recognition is based on the estimation of the conditional probability calculated by an extension of a doubly imbricated Viterbi algorithm. For the two methods, we sought to make automatic all the phases of the training and the recognition. The experimental results confirm the validity of the two methods
APA, Harvard, Vancouver, ISO, and other styles
30

Kadi, Imène Yamina. "Simulation et monotonie." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0029.

Full text
Abstract:
Les travaux de cette thèse portent sur l'apport de la monotonie sur les méthodes de simulations. Dans un premier temps, nous nous intéressons à l'étude des différentes notions de monotonie utilisées dans la modélisation stochastique, en essayant de définir les relations qui existent entre elles. Trois concepts ont été définis dans ce domaine: la monotonie stochastique basée sur la comparaison stochastique, la monotonie réalisable et enfin, la monotonie événementielle utilisée dans la simulation parfaite. Cette étude a permis d'utiliser les propriétés de monotonie stochastique dans le cadre de la simulation parfaite monotone. D'un autre coté, nous avons proposé des codages monotones inversibles pour des systèmes dont la représentation naturelle est non monotone. Ce codage permet d'accélérer les simulations monotones et a trouvé son application dans la simulation de burst optiques. Un autre travail a été réalisé, cette fois-ci, dans le domaine de la simulation parallèle, il consiste à utiliser les propriétés de monotonie des systèmes simulés afin de mieux paralléliser le processus de simulation. Ce qui devrait produire une accélération conséquente des simulations
The work of this thesis concern the contribution of the monotony in simulation methods. Initially, we focus on the study of different monotonicity notions used in stochastic modeling, trying to define the relationships between them. Three concepts have been defined in this field: the stochastic monotonicity based on stochastic comparison, the realizable monotony and finally the events monotony used in the perfect simulation. This study allowed us to use the stochastic monotonicity properties under the monotone perfect simulation. On the other hand, we have proposed monotone invertible encodings for systems whose natural representation is not monotone. This encoding allows to accelerate monotonous simulations and found its application in the simulation of optical burst. Another work was done in the field of parallel simulation, it use monotonicity properties of simulated systems to better parallelize the simulation process. This should produce a substantial acceleration in simulations
APA, Harvard, Vancouver, ISO, and other styles
31

Rozas, Rony. "Intégration du retour d'expérience pour une stratégie de maintenance dynamique." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1112/document.

Full text
Abstract:
L'optimisation de stratégies de maintenance est un sujet primordial pour un grand nombre d'industriels. Il s'agit d'établir un plan de maintenance qui garantisse des niveaux de sécurité, de sûreté et de fiabilité élevé avec un coût minimum et respectant d'éventuelles contraintes. Le nombre de travaux grandissant sur l'optimisation de paramètres de maintenance et notamment sur la planification d'actions préventives de maintenance souligne l'intérêt de ce problème. Un grand nombre d'études sur la maintenance repose sur une modélisation du processus de dégradation du système étudié. Les Modèles Graphiques Probabilistes (MGP) et particulièrement les MGP Markoviens (MGPM) fournissent un cadre de travail pour la modélisation de processus stochastiques complexes. Le problème de ce type d'approche est que la qualité des résultats est dépendante de celle du modèle. De plus, les paramètres du système considéré peuvent évoluer au cours du temps. Cette évolution est généralement la conséquence d'un changement de fournisseur pour les pièces de remplacement ou d'un changement de paramètres d'exploitation. Cette thèse aborde le problème d'adaptation dynamique d'une stratégie de maintenance face à un système dont les paramètres changent. La méthodologie proposée repose sur des algorithmes de détection de changement dans un flux de données séquentielles et sur une nouvelle méthode d'inférence probabiliste spécifique aux réseaux bayésiens dynamiques. D'autre part, les algorithmes proposés dans cette thèse sont mis en place dans le cadre d'un projet d'étude avec Bombardier Transport. L'étude porte sur la maintenance du système d'accès voyageurs d'une nouvelle automotrice destiné à une exploitation sur le réseau ferré d'Ile-de-France. L'objectif général est de garantir des niveaux de sécurité et de fiabilité importants au cours de l'exploitation du train
The optimization of maintenance strategies is a major issue for many industrial applications. It involves establishing a maintenance plan that ensures security levels, security and high reliability with minimal cost and respecting any constraints. The increasing number of works on optimization of maintenance parameters in particular in scheduling preventive maintenance action underlines the importance of this issue. A large number of studies on maintenance are based on a modeling of the degradation of the system studied. Probabilistic Models Graphics (PGM) and especially Markovian PGM (M-PGM) provide a framework for modeling complex stochastic processes. The issue with this approach is that the quality of the results is dependent on the model. More system parameters considered may change over time. This change is usually the result of a change of supplier for replacement parts or a change in operating parameters. This thesis deals with the issue of dynamic adaptation of a maintenance strategy, with a system whose parameters change. The proposed methodology is based on change detection algorithms in a stream of sequential data and a new method for probabilistic inference specific to the dynamic Bayesian networks. Furthermore, the algorithms proposed in this thesis are implemented in the framework of a research project with Bombardier Transportation. The study focuses on the maintenance of the access system of a new automotive designed to operate on the rail network in Ile-de-France. The overall objective is to ensure a high level of safety and reliability during train operation
APA, Harvard, Vancouver, ISO, and other styles
32

Coq, Guilhelm. "Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Coq-Guilhelm/2008-Coq-Guilhelm-These.pdf.

Full text
Abstract:
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l’image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d’une quantité réelle à minimiser appelée critère d’information ou critère entropique pénalisé. La principale motivation de ce travail de thèse est de justifier l’utilisation d’un tel critère face à un problème de sélection de modèles typiquement issu d’un contexte de traitement du signal. La justification attendue se doit, elle, d’avoir un solide fondement mathématique. Nous abordons aussi le problème classique de la détermination de l’ordre d’une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d’un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l’utilisation est justifiée par la minimisation du coût résultant de l’estimation obtenue. Les chaînes de Markov multiples modèlisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d’une image. Nous nous intéressons au problème de la détermination de l’ordre d’une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l’estimation d’ une densité par un histogramme. Dans ces deux domaines, nous justifions l’ utilisation d’ un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de « Minimum description Length ». Nous nous efforçons également, à travers ces différents domaines d’application, de présenter des méthodes alternatives d’ utilisation des critères d’ information. Ces méthodes, dites comparatives, présentent une complexité d’ utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle
Model selection problems appear frequently in a wide array of applicative domains such as data compression and signal or image processing. One of the most used tools to solve those problems is a real quantity to be minimized called information criterion or penalized likehood criterion. The principal purpose of this thesis is to justify the use of such a criterion responding to a given model selection problem, typically set in a signal processing context. The sought justification must have a strong mathematical background. To this end, we study the classical problem of the determination of the order of an autoregression. . We also work on Gaussian regression allowing to extract principal harmonics out of a noised signal. In those two settings we give a criterion the use of which is justified by the minimization of the cost resulting from the estimation. Multiple Markov chains modelize most of discrete signals such as letter sequences or grey scale images. We consider the determination of the order of such a chain. In the continuity we study the problem, a priori distant, of the estimation of an unknown density by an histogram. For those two domains, we justify the use of a criterion by coding notions to which we apply a simple form of the “Minimum Description Length” principle. Throughout those application domains, we present alternative methods of use of information criteria. Those methods, called comparative, present a smaller complexity of use than usual methods but allow nevertheless a precise description of the model
APA, Harvard, Vancouver, ISO, and other styles
33

Bercu, Sophie. "Modélisation stochastique du signal écrit par chaînes de Markov cachées : application à la reconnaissance automatique de l'écriture manuscrite." Rennes 1, 1994. http://www.theses.fr/1994REN10115.

Full text
Abstract:
Avec le développement récent du multi-media et le désir de rendre la communication homme-machine plus naturelle et plus conviviale, de nouvelles interfaces orientées stylo sont apparues. L'acquisition des données se fait alors par l'intermédiaire d'un papier électronique et d'un stylo. Dans le cadre de l'interface entre la tablette et l'ordinateur, nous présentons dans cette thèse un système de reconnaissance en-ligne de mots dans un vocabulaire limité. La difficulté de la reconnaissance de l'écriture cursive manuscrite provient du degré important de variabilité inter- et intra-scripteur. Notre souci est de tenir compte de cette variabilité a tous les niveaux du traitement: lors du pretraitement, de l'extraction de primitives et enfin de la reconnaissance. Le pretraitement proposé reduit la quantité d'informations à analyser sans toutefois perdre d'informations pertinentes pour la reconnaissance du mot. Le choix des primitives constitue l'une des originalités de ce travail car elles tiennent compte des mécanismes de l'écriture ce qui élargit la reconnaissance a un grand nombre de scripteurs. La reconnaissance des mots est mise en oeuvre par l'intermédiaire d'un modèle de Markov caché construit à partir de ces primitives. Ce modèle est particulièrement bien adapté à notre problème: il permet d'intégrer différentes sources de connaissances nécessaires à la reconnaissance des mots et de par sa structure aléatoire, modélisé au mieux les phénomènes de variabilité de l'écriture. Les résultats obtenus attestent de l'intérêt et de l'efficacité de cette approche
APA, Harvard, Vancouver, ISO, and other styles
34

Nivot, Christophe. "Analyse et étude des processus markoviens décisionnels." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0057/document.

Full text
Abstract:
Nous explorons l'étendue du champ applicatif des processus markoviens décisionnels au travers de deux problématiques. La première, de nature industrielle, propose l'étude numérique de l'optimisation d'un processus d'intégration lanceur en collaboration avec Airbus DS. Il s'agit d'un cas particulier des problèmes de gestion d'inventaire dans lequel un calendrier de tirs joue un rôle central. La modélisation adoptée entraîne l'impossibilité d'appliquer les procédures d'optimisation classiques liées au formalisme des processus markoviens décisionnels. Nous étudions alors des algorithmes basés sur des simulations qui rendent des stratégies optimales non triviales et qui sont utilisables dans la pratique. La deuxième problématique, de nature théorique, se concentre sur les questions d'arrêt optimal partiellement observables. Nous proposons une méthode d'approximation par quantification de ces problèmes lorsque les espaces d'états sont quelconques. Nous étudions la convergence de la valeur optimale approchée vers la valeur optimale réelle ainsi que sa vitesse. Nous appliquons notre méthode à un exemple numérique
We investigate the potential of the Markov decision processes theory through two applications. The first part of this work is dedicated to the numerical study of an industriallauncher integration process in co-operation with Airbus DS. It is a particular case of inventory control problems where a launch calendar has a key role. The model we propose implies that standard optimization techniques cannot be used. We then investigate two simulation-based algorithms. They return non trivial optimal policies which can be applied in actual practice. The second part of this work deals with the study of partially observable optimal stopping problems. We propose an approximation method using optimal quantization for problems with general state space. We study the convergence of the approximated optimal value towards the real optimal value. The convergence rate is also under study. We apply our method to a numerical example
APA, Harvard, Vancouver, ISO, and other styles
35

Dubarry, Cyrille. "Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00762243.

Full text
Abstract:
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles
APA, Harvard, Vancouver, ISO, and other styles
36

Ataya, Abbas. "Renforcement des méthodes de prise de décision par des a priori pour la mesure automatique de l'activité physique des personnes." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0071/document.

Full text
Abstract:
Les récents progrès technologiques ont permis la miniaturisation des capteurs de mouvement permettant ainsi leur intégration dans des micro-systèmes médicaux de manière à ce qu'ils soient aisément portables par les personnes. Dans cette thèse nous proposons des algorithmes de traitement de données permettant d’interpréter les mesures de capteurs accélérométriques et de les associer aux différentes activités. Notre approche est fondée sur l’observation que la séquence d’activités à détecter possède une structure forte de dépendance temporelle. Nous proposons un système de reconnaissance de l’activité reposant sur une modélisation des activités comme une chaîne de Markov. En outre, notre système s’appuie sur des méthodes de classification paramétriques et non paramétriques. La sortie douce des classifieurs permet de construire des mesures de confiance en les activités. Ces mesures sont injectées dans l’algorithme de Viterbi qui fournit la séquence d’activités finale. Nos algorithmes sont validés à partir d’une base de données comportant 48 sujets ayant chacun réalisé environ 90 minutes d’activités physiques variées. Par ailleurs, cette thèse vise à fournir des réponses pratiques aux problèmes posés par l’élaboration d’un système de reconnaissance de l’activité physique. En premier lieu, nous nous posons la question du placement optimal des capteurs sur le corps, et du nombre de capteurs nécessaires pour une estimation fiable de l’activité. Nous abordons le problème de la sélection des caractéristiques pertinentes pour les classifieurs. Enfin, un problème crucial est lié à l’estimation autodidacte et en ligne de l’orientation des capteurs sur le corps du sujet : il s’agit du problème de la calibration des capteurs. Pour terminer, nous fournissons une implémentation “temps-réel” du système proposé, et construisons une base de données en vie libre pour valider notre démonstrateur temps-réel
Advances in technology have led to the miniaturization of motion sensors, facilitating their use in small comfortable wearable devices. Such devices are of great interest in the biomedical field especially for applications aimed at estimating the daily physical activity of people. In this thesis, we propose signal processing algorithms allowing better interpretation of sensors measures and thus their mapping to different activities. Our approach is based on that activities have strong temporal dependencies. We propose a recognition system that models the activity sequence by a Markov chain. Our system relies on parametric and non-parametric classification methods. The soft output of classifiers permits the construction of confidence measures in the activities. These measures are later used as input to a Viterbi algorithm that gives the final estimation of the activity sequence. We validate our algorithms using a database containing 48 subjects, each of whom having carried out activities for more than 90 minutes. Moreover, this thesis aims at providing practical answers to challenges concerning the development of an activity recognition system. First of all, we wonder about the optimal sensor placement on the body, and about the number of sensors needed for a reliable estimation of activities. We also approach the problem of selecting relevant features for classifiers. Another crucial issue concerns the estimation of the sensor’s orientation on the body : this involves the problem of sensor calibration. Finally, we provide a “real-time” implementation of our system, and collect a database under realistic conditions to validate our implemented real-time demostrator
APA, Harvard, Vancouver, ISO, and other styles
37

Coquidé, Célestin. "Analyse de réseaux complexes réels via des méthodes issues de la matrice de Google." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD038.

Full text
Abstract:
Dans une époque où Internet est de plus en plus utilisé et où les populations sont de plus en plus connectées à travers le monde, notre vie quotidienne est grandement facilitée. Un domaine scientifique très récent, la science des réseaux, dont les prémices viennent des mathématiques et plus précisément de la théorie des graphes a justement pour objet d'étude de tels systèmes complexes. Un réseau est un objet mathématique fait de nœuds et de connexions entre ces nœuds. Dans la nature, on retrouve une multitude de phénomènes pouvant être vus ainsi, par exemple, le mycélium qui est un réseau souterrain capable d'avoir accès à courtes et moyennes distances aux ressources organiques propices à sa survie, ou bien encore le réseau vasculaire sanguin. À notre échelle, il existe aussi des réseaux dont nous sommes les nœuds. Dans cette thèse, nous allons nous intéresser aux réseaux réels, réseaux construits à partir de banques de données, afin de les analyser, puis d'extraire des informations difficilement accessibles dans des réseaux pouvant contenir, parfois, des millions de nœuds et cent fois plus de connexions. Les réseaux étudiés sont aussi dirigés, autrement dit, les liens ont une direction. On représente une marche aléatoire dans un tel réseau à l'aide d'une matrice stochastique appelée matrice de Google. Elle permet notamment de mesurer l'importance des nœuds d'un réseau à l'aide de son vecteur propre dominant, le vecteur PageRank. À partir de la matrice de Google, nous pouvons aussi construire une matrice de Google de taille réduite représentant toutes les connexions entre les éléments d'un sous-réseau d'intérêt, le réseau réduit, mais aussi et surtout de pouvoir quantifier les connexions indirectes entre ces nœuds, obtenues par diffusion à travers tout le reste du réseau. Cette matrice de Google réduite permet, en plus de réduire considérablement la taille du réseau et de la matrice de Google associée, d'extraire des liens indirects non-triviaux entre les nœuds d'intérêts, appelés liens cachés. À l'aide d'outils construits à partir de la matrice de Google, notamment la matrice de Google réduite, nous allons, à travers le réseau Wikipédia, identifier les interactions entre les universités et leurs influences sur le monde, et utiliser des données de comportements utilisateurs Wikipédia afin de mesurer les tendances culturelles actuelles. À partir de réseaux économiques, nous allons mesurer la résistance économique de l'Union européenne face à une hausse des prix liés au pétrole et au gaz extérieurs, mais aussi établir les interdépendances entre secteurs de production propres à quelques puissances économiques comme les États-Unis ou encore la Chine. Enfin, nous allons établir un modèle de propagation de crise économique et l'appliquer au réseau du commerce international et au réseau de transactions de Bitcoin
In a current period where people use more and more the Internet and are connected worldwide, our lives become easier. The Network science, a recent scientific domain coming from graph theory, handle such connected complex systems. A network is a mathematical object consisting in a set of interconnected nodes and a set of links connecting them. We find networks in nature such as networks of mycelium which grow underground and are able to feed their cells with organic nutrients located at low and long range from them, as well as the circulation system transporting blood throughout the human body. Networks also exist at a human scale where humans are nodes of such networks. In this thesis we are interested in what we call real complex networks which are networks constructed from databases. We can extract information which is normally hard to get since such a network might contain one million of nodes and one hundred times more links. Moreover, networks we are going to study are directed meaning that links have a direction. One can represent a random walk through a directed network with the use of the so-called Google matrix. The PageRank is the leading eigenvector associated to this stochastic matrix and allows us to measure nodes importance. We can also build a smaller Google matrix based on the Google matrix and a subregion of the network. This reduced Google matrix allows us to extract every existing links between the nodes composing the subregion of interest as well as all possible indirect connections between them by spreading through the entire network. With the use of tools developed from the Google matrix, especially the reduced Google matrix, considering the network of Wikipedia's articles we have identified interactions between universities of the world as well as their influence. We have extracted social trends by using data related to actual Wikipedia's users behaviour. Regarding the World Trade Network, we were able to measure economic response of the European Union to external petroleum and gas price variation. Regarding the World Network of economical activities we have figured out interdependence of sectors of production related to powerhouse such as The United States of America and China. We also built a crisis contagion model we applied on the World Trade Network and on the Bitcoin transactions Network
APA, Harvard, Vancouver, ISO, and other styles
38

Stupfler, Gilles Claude. "Un modèle de Markov caché en assurance et estimation de frontière et de point terminal." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/STUPFLER_Gilles_Claude_2011.pdf.

Full text
Abstract:
Cette thèse est divisée en deux parties indépendantes. Dans une première partie, on introduit et on étudie un nouveau processus de pertes en assurance : c'est un triplet (J, N, S) où (J, N) est un processus de Poisson à modulation markovienne et S est un processus dont toutes les composantes sont des fonctions en escalier, croissantes en temps. Le processus S est supposé à accroissements indépendants conditionnellement au processus (J, N). En faisant une hypothèse paramétrique sur la loi de ses sauts, on démontre que l'estimateur du maximum de vraisemblance des paramètres du modèle est consistant. On donne un algorithme EM permettant de calculer en pratique cet estimateur : le procédé ainsi développé est utilisé sur des données réelles en assurance et ses performances sont évaluées sur simulations. Dans une seconde partie, on s'intéresse au problème de l'estimation du point terminal, supposé fini, d'une fonction de répartition F : étant donné un échantillon de variables aléatoires indépendantes identiquement distribuées de fonction de répartition F, on construit un estimateur du point terminal à droite de F en utilisant une méthode des moments d'ordre élevé. L'étude est scindée en deux cas : dans un premier temps, on suppose que les variables sont positives, puis on généralise la méthode au cas où elles sont de signe quelconque en proposant un autre estimateur. On étudie les propriétés asymptotiques de nos estimateurs, et leurs performances sont examinées sur simulations. On s'inspire ensuite des techniques développées pour construire un estimateur de la frontière du support d'un couple aléatoire. On étudie ses propriétés asymptotiques, et on le compare à des estimateurs classiques dans ce cadre
This thesis is divided into two parts. We first focus on introducing a new model for loss processes in insurance: it is a process (J, N, S) where (J, N) is a Markov-modulated Poisson process and S is a process whose components are piecewise constant, nondecreasing processes. The increments of S are assumed to be conditionally independent given (J, N). Assuming further that the distribution of the jumps of S belongs to some parametric family, it is shown that the maximum likelihood estimator (MLE) of the parameters of this model is strongly consistent. An EM algorithm is given to help compute the MLE in practice. The method is used on real insurance data and its performances are examined on some finite sample situations. In an independent second part, the extreme-value theory problem of estimating the (finite) right endpoint of a cumulative distribution function F is considered : given a sample of independent copies of a random variable X with distribution function F, an estimator of the right endpoint of F is designed, using a high order moments method. We first consider the case when X is nonnegative, and the method is then generalised to the case when X is an arbitrary random variable with finite right endpoint by introducing another estimator. The asymptotic properties of both estimators are studied, and their performances are examined on some simulations. Based upon that work, an estimator of the frontier of the support of a random pair is constructed. Its asymptotic properties are discussed, and the method is compared to other classical methods in this framework
APA, Harvard, Vancouver, ISO, and other styles
39

Mrad, Mehdi. "Méthodes numériques d'évaluation et de couverture des options exotiques multi-sous-jacents : modèles de marché et modèles à volatilité incertaine." Paris 1, 2008. http://www.theses.fr/2008PA010010.

Full text
Abstract:
L'évaluation des produits à exercice anticipé en dimension élevée nécessite l'emploi de techniques de discrétisation pour les méthodes Monte Carlo. L'objectif de cette thèse est de résoudre ce type de problème dans le cadre des modèles de marché et des modèles à volatilité incertaine. Dans le premier cas nous cherchons à résoudre un problème de temps d'arrêt optimal, dans le second nous cherchons à résoudre un problème de contrôle optimal stochastique. Les équations rétrogrades associées font intervenir des espérances conditionnelles que nous cherchons à estimer numériquement. Là précision des estimations des prix et des ratios de couverture est primordiale pour la gestion des portefeuilles de produits structurés. Ainsi nous étudions également dans le cadre de cette thèse les méthodes de réduction de va­riance appliquées aux techniques Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
40

Bentayeb, Salah. "Modélisation et performances des boucles à verrouillage de phase numériques en présence de bruit." Toulouse, ENSAE, 1985. http://www.theses.fr/1985ESAE0005.

Full text
Abstract:
Étude de boucles à verrouillage de phase numériques. Modèle général des boucles numériques fonctionnant à faible rapport signal sur bruit. Étude des boucles numériques par la théorie des chaînes de Markov, des boucles numériques par simulation.
APA, Harvard, Vancouver, ISO, and other styles
41

Jacquemart, Damien. "Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S186/document.

Full text
Abstract:
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative
The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error
APA, Harvard, Vancouver, ISO, and other styles
42

Cannaméla, Claire. "Apport des méthodes probabilistes dans la simulation du comportement sous irradiation du combustible à particules." Paris 7, 2007. http://www.theses.fr/2007PA077082.

Full text
Abstract:
Ce travail de thèse se consacre à l'évaluation d'espérances mathématiques et se place plus particulièrement dans un contexte de fiabilité des structures. Nous cherchons à estimer une probabilité de défaillance (supposée faible) en tenant compte des incertitudes des paramètres influents du système. Notre objectif est d'atteindre un bon compromis entre la précision de l'estimation et le coût de calcul associé. L'application porte sur l'estimation de la probabilité de rupture du combustible à particules d'un réacteur nucléaire de type HTR, via un code de calcul numérique coûteux. Nous considérons différentes approches probabilistes pour traiter le problème. Tout d'abord, nous examinons une méthode de Monte Carlo de réduction de variance : le tirage d'importance. Pour le cas paramétrique, nous proposons des algorithmes adaptatifs pour construire une suite de densités de probabilité qui convergerait vers la densité d'importance optimale. Nous présentons ensuite plusieurs estimateurs de l'espérance mathématique à partir de cette suite de densités. Par la suite, nous examinons une méthode de simulation multi-niveaux utilisant les algorithmes de Monte Cario par Chaînes de Markov. Enfin, nous nous intéressons au problème connexe de l'estimation de quantité (non extrême) de quantité physique simulée par un code numérique coûteux. Nous proposons une méthode de stratification contrôlée où des réalisations des variables d'entrées sont échantillonnées dans des zones déterminées à partir d'un modèle réduit de la réponse. L'estimation du quantile se fait alors à partir de cet échantillon
TThis work is devoted to the evaluation of mathematica! expectations in the context of structural reliability. We seek a failure probability estimate (that we assume low), taking into account the uncertainty of influential parameters of the System. Our goal is to reach a good copromise between the accuracy of the estimate and the associated computational cost. This approach is used to estimate the failure probability of fuel particles from a HTR-type nuclear reactor. This estimate is obtain by means of costly numerical simulations. We consider differents probabilistic methods to tackle the problem. First, we consider a variance reducing Monte Carlo method : importance sampling. For the parametric case, we propose adaptive algorithms in order to build a series of probability densities that will eventually converge to optimal importance density. We then present several estimates of the mathematical expectation based on this series of densities. Next, we consider a multi-level method using Monte Carlo Markov Chain algorithm. Finally, we turn our attention to the related problem of quantile estimation (non extreme) of physical output from a large-scale numerical code. We propose a controled stratification method. The random input parameters are sampled in specific regions obtained from surrogate of the response. The estimation of the quantile is then computed from this sample
APA, Harvard, Vancouver, ISO, and other styles
43

Harb, Ali. "Faisabilité. Méthodes non standard pour la stabilité des réseaux de files d'attente. GI/GI/q + G." Rouen, 1998. http://www.theses.fr/1998ROUES075.

Full text
Abstract:
Cette thèse est subdivisée en trois parties. Faisabilité : dans cette partie, nous étudions la faisabilité de n flux déterministes d'arrivées dans une file d'attente soumise à la contrainte temps-réel forte. Cette contrainte spécifie que les clients ont un délai maximum sur le temps de séjour dans la file, le client est rejeté dès que le délai maximum est échu. Pour différentes disciplines de service, nous étudions les conditions sous lesquelles la contrainte temps-réel forte est respectée. Réseau de Jackson : ce chapitre traite les réseaux de Jackson sous l'angle de l'analyse non standard. Nous analysons dans cette partie des conditions non habituelles pour la stabilité des réseaux de files d'attente. GI/GI/q + G : cette dernière partie est consacrée à l'étude de la chaîne de Markov associée à la file GI/GI/q + G : on retrouve ici le cadre de la première partie où les clients ont un temps d'impatience qui limite leurs temps de séjour dans la file. Nous démontrons l'irréductibilité et la récurrence au sens de Harris de la chaîne concernée.
APA, Harvard, Vancouver, ISO, and other styles
44

Messika, Stéphane. "Méthodes probabilistes pour la vérification des systèmes distribués." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00136083.

Full text
Abstract:
Les probabilités sont de plus en plus utilisées dans la conception et l'analyse des systèmes logiciels et matériels informatiques. L'introduction des tirages aléatoires dans les algorithmes concurrents et distribués permet de résoudre certains problèmes insolubles dans le cadre déterministe et de réduire la complexité de nombreux autres. Nous avons été amenés à étudier deux types de propriétés probabilistes. La convergence : cette propriété assure que, quel que soit l'état de départ et quel que soit l'enchainement des actions, le système atteindra toujours (avec probabilité 1) un ensemble donné d'états d'arrivée en un nombre fini d'actions (auto-stabilisation).L'accessibilité : ce type de propriété répond à des questions telles que "quelle est la probabilité p qu'une exécution partant d'un état initial donné atteigne un état final donné ? Quelles sont les bornes maximales et minimales de p ?" En ce qui concerne le premier point, nous avons développé de nouveaux critères permettant d'assurer la convergence et d'en calculer la vitesse (mixing time). Ces crotères utilisent l'analogie avec des modèles de physiquestatistique (champs de Markov) et exploitent des outils d'analyse probabiliste classiques (coupling, chaînes de Markov, processus de décision markoviens). Pour le second point, nous avons obtenu des résultats pratiques sur la vérification de protocoles de communication, comme le protocole Ethernet, en les modélisant à l'aide d'automates temporisés probabilistes et utilisant des outils de model-checking temporisés (HyTech) et probabiliste (PRISM, APMC).
APA, Harvard, Vancouver, ISO, and other styles
45

Ben, Mamoun Mouad. "Encadrements stochastiques et évaluation de performances des réseaux." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS0012.

Full text
Abstract:
Cette thèse porte sur l'utilisation des techniques de comparaison stochastique pour l'évaluation de performances des systèmes complexes. Ces techniques constituent à construire des modèles plus simples qui fournissent des bornes sur la distribution de probabilité de l'indice de performance considéré. Nous avons considéré cette approche pour l'analyse des systèmes modélisés par des chaînes de Markov. Dans ce cadre, nous avons défini une classe particulière de matrices de transition de chînes de Markov qui ont des propriétés très intéressantes, dont une forme close pour le calcul de la distribution stationnaire. Nous avons ensuite fourni des algorithmes qui permettent de construire des matrices appartenant à cette classe, qui sont bornantes et monotones selon différents ordres stochastiques. Les distributions stationnaires des matrices construites peuvent être calculées à travers la forme close et elles constituent des bornes sur les distributions stationnaires des matrices initiales. Dans ce travail, nous avons porté un intérêt particulier aux ordres stochastiques de variabilité qui fournissent des bornes plus précises que les bornes au sens de l'ordre fort[\preceq]st, habituellement utilisé. Nous avons aussi utilisé l'approche d'encadrements stochastiques pour l'analyse des délais des disciplines de services équitables "Fair Queueing" (FQ) dont la dynamique est très complexe. Nous avons proposé des disciplines bornantes de type "Weighted Round Robin" qui sont plus simples à analyser. En fait, ces disciplines ont un comportement périodique. Ceci nous a permis de faire une analyse Markovienne et fournir des bornes sur les distributions de délais des disciplines FQ. La comparaison des délais est établie au sens de l'ordre trajectoriel [\preceq]st.
APA, Harvard, Vancouver, ISO, and other styles
46

Forsell, Nicklas. "Planification dans le risque et l'incertain : optimisation des stratégies de gestion spatiale des forêts." Toulouse 3, 2009. http://www.theses.fr/2009TOU30260.

Full text
Abstract:
Cette thèse s'intéresse à l'optimisation de politiques de gestion à grande échelle dans le risque et l'incertain. Dans l'article I, nous nous concentrons sur le problème de résolution de problèmes de gestion à grande échelle des ressources naturelles spatiales et temporelles. Pour modéliser ce type de problème, le cadre des Processus Décisionnels de Markov sur Graphe (PDMG) peut être utilisé. Deux algorithmes pour le calcul de politiques de gestion de grande qualité sont proposés : le premier basé sur le Programmation Linéaire Approchée (PLA), le second sur une Itération de la Politique Approchée et sur une approximation de Champ Moyen (IPA-CM). L'efficacité et l'adéquation de ces algorithmes ont été démontrées par leur capacité à calculer des politiques de gestion quasi-optimales pour deux problèmes de gestion à grande échelle. La conclusion a été que ces deux algorithmes calculent des politiques de qualité semblable. Cependant, l'algorithme IPACM est souhaitable lorsque l'on requiert à la fois la politique et la valeur attendue de la politique calculée, alors que l'algorithme PLA est préférable lorsque seulement la politique est demandée. Dans l'article II, sont présentés certains algorithmes d'apprentissage par renforcement que l'on peut utiliser pour calculer des politiques de gestion pour des PDMG lorsque la fonction de transition ne peut être simulée parce que sa formulation explicite est inconnue. Des études sur l'efficacité de ces algorithmes dans le cas de trois problèmes de gestion nous ont amenés à conclure que certains de ces algorithmes pouvaient calculer des politiques quasi-optimales. Dans l'article III, nous avons utilisé le cadre PDMG pour optimiser des politiques de gestion forestière à long terme dans le cas d'événements liés aux risques de tempête stochastiques. Ce modèle a été démontré dans l'étude par l'étude d'un domaine forestier de 1 200 hectares, divisé en 623 parcelles. .
This thesis concentrates on the optimization of large-scale management policies under conditions of risk and uncertainty. In paper I, we address the problem of solving large-scale spatial and temporal natural resource management problems. To model these types of problems, the framework of graph-based Markov decision processes (GMDPs) can be used. Two algorithms for computation of high-quality management policies are presented: the first is based on approximate linear programming (ALP) and __ the second is based on mean-field approximation and approximate policy iteration (MF-API). The applicability and efficiency of the algorithms were demonstrated by their ability to compute near-optimal management policies for two large-scale management problems. It was concluded that the two algorithms compute policies of similar quality. However, the MF-API algorithm should be used when both the policy and the expected value of the computed policy are required, while the ALP algorithm may be preferred when only the policy is required. In paper II, a number of reinforcement learning algorithms are presented that can be used to compute management policies for GMDPs when the transition function can only be simulated because its explicit formulation is unknown. Studies of the efficiency of the algorithms for three management problems led us to conclude that some of these algorithms were able to compute near-optimal management policies. In paper III, we used the GMDP framework to optimize long-term forestry management policies under stochastic wind-damage events. The model was demonstrated by a case study of an estate consisting of 1,200 ha of forest land, divided into 623 stands. We concluded that managing the estate according to the risk of wind damage increased the expected net present value (NPV) of the whole estate only slightly, less than 2%, under different wind-risk assumptions. Most of the stands were managed in the same manner as when the risk of wind damage was not considered. However, the analysis rests on properties of the model that need to be refined before definite conclusions can be drawn
APA, Harvard, Vancouver, ISO, and other styles
47

Guidara, Rima. "Méthodes markoviennes pour la séparation aveugle de signaux et images." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/705/.

Full text
Abstract:
Cette thèse présente de nouvelles méthodes markoviennes pour la séparation aveugle de mélanges linéaires instantanés des signaux unidimensionnels et des images. Dans la première partie, nous avons proposé plusieurs améliorations pour une méthode existante de séparation de signaux temporels. La nouvelle méthode exploite simultanément la non-gaussianité, l'autocorrélation et la nonstationnarité des sources. D'excellentes performances ont été obtenues pour la séparation de mélanges artificiels de signaux de parole, et nous avons réussi à séparer des mélanges réels de spectres astrophysiques. Une extension à la séparation des images a été ensuite proposée. La dépendance entre pixels a été modélisée par un champ de Markov à demi-plan non-symétrique. De très bonnes performances ont été obtenues pour la séparation de mélanges artificiels d'images naturelles et d'observations non-bruitées du satellite Planck. Les résultats pour un faible bruit sont acceptables
This thesis presents new Markovian methods for blind separation of instantaneous linear mixtures of one-dimensional signals and images. In the first part, we propose several improvements to an existent method for separating temporal signals. The new method exploits simultaneously non-Gaussianity, autocorrelation and non-stationarity of the sources. Excellent performance is obtained for the separation of artificial mixtures of speech signals, and we succeed to separate real mixtures of astrophysical spectra. An extension to image separation is then proposed. The dependence within the image pixels is modelled by non-symetrical half-plane Markov random fields. Very good performance is obtained for the separation of artificial mixtures of natural images and noiseless observations of the Planck satellite. The results obtained with a low level noise are acceptable
APA, Harvard, Vancouver, ISO, and other styles
48

Hallouli, Khalid. "Reconnaissance de caractères par méthodes markoviennes et réseaux bayésiens." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000740.

Full text
Abstract:
Cette thése porte sur la reconnaissance de caractères imprimés et manuscrits par méthodes markoviennes et réseaux bayésiens. La première partie consiste à effectuer une modélisation stochastique markovienne en utilisant les HMMs classiques dans deux cas: semi-continu et discret. Un premier modèle HMM est obtenu à partir d'observations de type colonnes de pixels (HMM-vertical), le second à partir d'observations de type lignes (HMM-horizontal). Ensuite nous proposons deux types de modèles de fusion : modèle de fusion de scores qui consiste à combiner les deux vraisemblances résultantes des deux HMMs, et modèle de fusion de données qui regroupe simultanément les deux observations lignes et colonnes. Les résultats montrent l'importance du cas semi-continu et la performance des modèles de fusion. Dans la deuxième partie nous développons les réseaux bayésiens statiques et dynamiques, l'algorithme de Jensen Lauritzen Olesen (JLO) servant comme moteur d'inférence exacte, ainsi que l'apprentissage des paramètres avec des données complètes et incomplètes. Nous proposons une approche pour la reconnaissance de caractères (imprimés et manuscrits) en employant le formalisme des réseaux bayésiens dynamiques. Nous construisons certains types de modèles: HMM sous forme de réseau bayésien dynamique, modèle de trajectoire et modèles de couplages. Les résultats obtenus mettent en évidence la bonne performance des modèles couplés. En général nos applications nous permettent de conclure que l'utilisation des réseaux bayésiens est efficace et très prometteuse par le fait de modéliser les dépendances entre différentes observations dans les images de caractères.
APA, Harvard, Vancouver, ISO, and other styles
49

Tombuyses, Béatrice. "Modélisation markovienne en fiabilité: réduction des grands systèmes." Doctoral thesis, Universite Libre de Bruxelles, 1994. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212700.

Full text
Abstract:
Le sujet de cette thèse de doctorat est l'étude de divers aspects liés à l'approche markovienne dans le cadre des études de fiabilité.

La première partie de cette thèse concerne Ia modélisation d'installations industrielles et la construction de la matrice de transition. Le but poursuivi est le développement d'un code markovien permettant une description réaliste et aisée du système. Le système est décrit en termes de composants multiétats :pompes, vannes .

La définition d'une série de règles types permet l'introduction de dépendances entre composants. Grâce à la modélisation standardisée du système, un algorithme permettant la construction automatique de la matrice de transition est développé. L'introduction d'opérations de maintenance ou d'information est également présentée.

La seconde partie s'intéresse aux techniques de réduction de la taille de la matrice, afin de rendre possible le traitement de grosses installations. En effet, le nombre d'états croit exponentiellement avec le nombre de composants, ce qui limite habituellement les installations analysables à une dizaine de composants. Les techniques classiques de réduction sont passées en revue :

accessibilité des états,

séparation des groupes de composants indépendants,

symétrie et agrégation exacte des états (cfr Papazoglou). Il faut adapter la notion de symétrie des composants en tenant compte des dépendances pouvant exister entre composants.

Une méthode d'agrégation approchée pour le calcul de la fiabilité et de la disponibilité de groupes de composants à deux états est développée.

La troisième partie de la thèse contient une approche originale pour l'utilisation de la méthode markovienne. Il s'agit du développement d'une technique de réduction basée sur le graphe d'influence des composants. Un graphe d'influence des composants est construit à partir des dépendances existant entre composants. Sur base de ce graphe, un système markovien non homogène est construit, décrivant de manière approchée le comportement du système exact. Les résultats obtenus sur divers exemples sont très bons.

Une quatrième partie de cette thèse s'intéresse aux problèmes numériques liés à l'intégration du système différentiel du problème markovien. Ces problèmes résultent principalement du caractère stiff du système. Différentes méthodes classiques sont implantées pour l'intégration du système différentiel. Elles sont testées sur un exemple type de problème de fiabilité.

Pour finir, on trouve la présentation du code CAMERA dans lequel ont été implantées les différentes techniques présentées ci-dessus.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
50

Zurita, Julio. "Styles cognitifs et processus d'acquisition des connaissances spatiales dans des environnements cartographiques : encodage et traitement de l'information en mémoire de travail, construction des représentations et des référentiels au cours de la localisation et l'orientation spatiale." Montpellier 3, 2002. http://www.theses.fr/2002MON30040.

Full text
Abstract:
Le style cognitif (stratégies globale vs analytique) des sujets est influencé par les performances de traitement de l'information phonologique et de l'information visuo-spatiale (MT). Il en est de même pour la construction des représentations spatiales, autant sur l'apprentissage d'un parcours sur un plan complexe que sur un plan simple indicé. Dès que certains indices (sémantiques et iconiques) sur ces plans sont supprimés, ces différences de traitement de l'information spatiale sont homogènes quelle que soit la stratégie des sujets. C'est ce qui permet d'en conclure que la différence de performance ne résulte pas uniquement du mode d'appréhension perceptif caractérisant le style cognitif des sujets, car elle dépend aussi de la complexité et de la nature des informations à traiter. Par ailleurs, ce traitement serait aussi influencé par la charge mentale occasionnée par le nombre d'information des plans, ainsi que par le phénomène de vicariance mis en évidence entre stratégies
The cognitive style (global vs analytical strategies) of the subjects is influenced by the performances of phonological data processing and visuo-spatial information (WM). The same is true of construction of spatial representations in route processing on both complex and simple indication levels. As soon as certain indices (semantic and iconic) are removed from these routes, the differences in spatial data processing are homogeneous whatever the strategy adopted by the subjects. It is thus possible to conclude that the difference in performance does not result solely from the perceptive mode of acquisition characterizing the cognitive style of the subjects, but also depends on the complexity and nature of the information to be processed. In addition, processing would be influenced by the mental load caused by the amount of information contained in the maps, as well as by the phenomenon of vicariance observed between strategies
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography