To see the other types of publications on this topic, follow the link: Modèles de Markov cachés (HMM).

Dissertations / Theses on the topic 'Modèles de Markov cachés (HMM)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles de Markov cachés (HMM).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gagnon, Sébastien. "Modèles de Markov cachés à haute précision dynamique." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8996.

Full text
Abstract:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
APA, Harvard, Vancouver, ISO, and other styles
2

Sorel, Anthony. "Gestion de la variabilité morphologique pour la reconnaissance de gestes naturels à partir de données 3D." Phd thesis, Université Rennes 2, 2012. http://tel.archives-ouvertes.fr/tel-00763619.

Full text
Abstract:
La reconnaissance de mouvements naturels est de toute première importance dans la mise en oeuvre d'Interfaces Homme-Machine intelligentes et efficaces, utilisables de manière intuitive en environnement virtuel. En effet, elle permet à l'utilisateur d'agir de manière naturelle et au système de reconnaitre les mouvements corporel effectués tels qu'ils seraient perçu par un humain. Cette tâche est complexe, car elle demande de relever plusieurs défis : prendre en compte les spécificités du dispositif d'acquisition des données de mouvement, gérer la variabilité cinématique dans l'exécution du mouvement, et enfin gérer les différences morphologiques inter-individuelles, de sorte que les mouvements de tout nouvel utilisateur puissent être reconnus. De plus, de part la nature interactive des environnements virtuels, cette reconnaissancedoit pouvoir se faire en temps-réel, sans devoir attendre la fin du mouvement. La littérature scientifique propose de nombreuses méthodes pour répondre aux deux premiers défis mais la gestion de la variabilité morphologique est peu abordée. Dans cette thèse, nous proposons une description du mouvement permettant de répondre à cette problématique et évaluons sa capacité à reconnaitre les mouvements naturels d'un utilisateur inconnu. Enfin, nous proposons unenouvelle méthode permettant de tirer partie de cette représentation dans une reconnaissance précoce du mouvement
APA, Harvard, Vancouver, ISO, and other styles
3

Rocher, Gérald. "Évaluation de l’effectivité des systèmes ambiants." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4003.

Full text
Abstract:
D’un environnement fermé, contrôlé et négligeant toutes perturbations extérieures, le traitement de l’information est aujourd’hui exposé à la complexité et aux aléas de l’environnement physique, ouvert et non contrôlé. En effet, concrétisée par les progrès réalisés autour des communications sans fil, du stockage de l’énergie et de la miniaturisation des composants informatiques, la fusion des mondes physiques et numériques est une réalité qui s’incarne dans les systèmes dits ambiants. Au coeur de ces systèmes, les objets physiques de la vie quotidienne sont transcendés par des moyens informatiques et électroniques de traitement de l’information (actionneurs, capteurs, processeurs, etc.) offrant toujours plus de perspectives d’interactions entre les mondes physiques et numériques. Cette évolution convoque cependant une rupture épistémologique. Devenus complexes par leur fusion avec l’environnement physique, il ne s’agit plus de prédire in silico le comportement de tels systèmes à partir de modèles établis sur la base d’une connaissance supposée complète et fiable. Au contraire, conscient de la complexité intrinsèque de ces systèmes et de l’incapacité d’en obtenir un modèle fiable, il convient de s’assurer in vivo de l’effectivité de la réalisation de leurs finalités. Car, sans modèle fiable sur lequel bâtir des lois de contrôle, le comportement des systèmes ambiants est susceptible de dériver jusqu’à ne plus produire les effets attendus.Les travaux de cette thèse se proposent d’apporter une solution à cette problématique sur la base d’une approche méthodologique qui trouve ses fondements dans la systémique. Résultat de cette approche, le modèle systémique d’un système ambiant traduit ses finalités. Il répond à la question « qu’est-ce que le système ambiant doit faire ? ». À partir de ce modèle et de l’observation des effets produits dans l’environnement, la notion d’effectivité des systèmes ambiants est alors formalisée dans le cadre de la théorie de la mesure. Un ensemble de mesures est appliqué à cette formalisation (probabilités, possibilités et fonctions de croyance dans le cadre du modèle des croyances transférables) et les résultats sont discutés. Ces résultats ouvrent de nombreuses perspectives. Dans le contexte des méthodes agiles de développement logiciel pour systèmes ambiants, l’évaluation de l’effectivité pourra s’inscrire dans une démarche de tests continus. Dans celui des systèmes auto-adaptatifs, elle pourra être utilisée comme indicateur de récompense, d’erreur, etc. Dans le cas où le modèle systémique représente le comportement préféré d’un système ambiant, l’évaluation de l’effectivité s’apparente à un indicateur de la qualité de l’expérience des utilisateurs en interaction avec le système<br>From a closed and controlled environment, neglecting all the external disturbances, information processing is now exposed to the complexity and the hazards of the physical environment, open and uncontrolled. Indeed, as a result of the progresses made on wireless communications, energy storage and the miniaturization of computer components, the fusion of the physical and digital worlds is a reality embodied in so-called ambient systems. At the heart of these systems, everyday objects are transcended by computer and electronic information processing means (actuators, sensors, processors, etc.) offering new perspectives of interactions between the physical and digital worlds.This evolution, however, calls for an epistemological break. Being complex by their fusion with the physical environment, it is no longer a matter of predicting in silico the behavior of such systems from models established on the basis of a knowledge supposed to be complete and reliable. On the contrary, aware of the intrinsic complexity of these systems and the inability to obtain a reliable model, it is necessary to ensure their effectiveness in vivo. Indeed, without a reliable model of these systems on which to build control laws, their behavior is likely to drift until it no longer produces the expected effects.This thesis proposes to provide a solution to this problem on the basis of a methodological approach based on the systemic principles. As a result of this approach, the systemic model of an ambient system answers the question “what does the ambient system have to do?”. From this model and the observation of the effects produced in the environment, the notion of effectiveness is then formalized within the framework of the measure theory. A set of measures is applied to this formalization (probabilities, possibilities and belief functions in the framework of the transferable belief model) and the results are discussed.The results of this work are opening up numerous perspectives. In the context of agile software development methods for ambient systems, the evaluation of effectiveness can be part of a continuous testing process. In the case of self-adaptive systems, it can be used as an indicator of reward, error, etc. In the case where the systemic model represents the preferred behavior of an ambient system, the evaluation of the effectiveness is like an indicator of the quality of the user experience interacting with the system
APA, Harvard, Vancouver, ISO, and other styles
4

Khlaifi, Hajer. "Preliminary study for detection and classification of swallowing sound". Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2485/document.

Full text
Abstract:
Les maladies altérant le processus de la déglutition sont multiples, affectant la qualité de vie du patient et sa capacité de fonctionner en société. La nature exacte et la gravité des changements post/pré-traitement dépendent de la localisation de l’anomalie. Une réadaptation efficace de la déglutition, cliniquement parlant, dépend généralement de l’inclusion d’une évaluation vidéo-fluoroscopique de la déglutition du patient dans l’évaluation post-traitement des patients en risque de fausse route. La restriction de cette utilisation est due au fait qu’elle est très invasive, comme d’autres moyens disponibles, tels que la fibre optique endoscopique. Ces méthodes permettent d’observer le déroulement de la déglutition et d’identifier les lieux de dysfonctionnement, durant ce processus, avec une précision élevée. "Mieux vaut prévenir que guérir" est le principe de base de la médecine en général. C’est dans ce contexte que se situe ce travail de thèse pour la télésurveillance des malades et plus spécifiquement pour suivre l’évolution fonctionnelle du processus de la déglutition chez des personnes à risques dysphagiques, que ce soit à domicile ou bien en institution, en utilisant le minimum de capteurs non-invasifs. C’est pourquoi le principal signal traité dans ce travail est le son. La principale problématique du traitement du signal sonore est la détection automatique du signal utile du son, étape cruciale pour la classification automatique de sons durant la prise alimentaire, en vue de la surveillance automatique. L’étape de la détection du signal utile permet de réduire la complexité du système d’analyse sonore. Les algorithmes issus de l’état de l’art traitant la détection du son de la déglutition dans le bruit environnemental n’ont pas montré une bonne performance. D’où l’idée d’utiliser un seuil adaptatif sur le signal, résultant de la décomposition en ondelettes. Les problématiques liées à la classification des sons en général et des sons de la déglutition en particulier sont abordées dans ce travail avec une analyse hiérarchique, qui vise à identifier dans un premier temps les segments de sons de la déglutition, puis à le décomposer en trois sons caractéristiques, ce qui correspond parfaitement à la physiologie du processus. Le couplage est également abordé dans ce travail. L’implémentation en temps réel de l’algorithme de détection a été réalisée. Cependant, celle de l’algorithme de classification reste en perspective. Son utilisation en clinique est prévue<br>The diseases affecting and altering the swallowing process are multi-faceted, affecting the patient’s quality of life and ability to perform well in society. The exact nature and severity of the pre/post-treatment changes depend on the location of the anomaly. Effective swallowing rehabilitation, clinically depends on the inclusion of a video-fluoroscopic evaluation of the patient’s swallowing in the post-treatment evaluation. There are other available means such as endoscopic optical fibre. The drawback of these evaluation approaches is that they are very invasive. However, these methods make it possible to observe the swallowing process and identify areas of dysfunction during the process with high accuracy. "Prevention is better than cure" is the fundamental principle of medicine in general. In this context, this thesis focuses on remote monitoring of patients and more specifically monitoring the functional evolution of the swallowing process of people at risk of dysphagia, whether at home or in medical institutions, using the minimum number of non-invasive sensors. This has motivated the monitoring of the swallowing process based on the capturing only the acoustic signature of the process and modeling the process as a sequence of acoustic events occuring within a specific time frame. The main problem of such acoustic signal processing is the automatic detection of the relevent sound signals, a crucial step in the automatic classification of sounds during food intake for automatic monitoring. The detection of relevant signal reduces the complexity of the subsequent analysis and characterisation of a particular swallowing process. The-state-of-the-art algorithms processing the detection of the swallowing sounds as distinguished from environmental noise were not sufficiently accurate. Hence, the idea occured of using an adaptive threshold on the signal resulting from wavelet decomposition. The issues related to the classification of sounds in general and swallowing sounds in particular are addressed in this work with a hierarchical analysis that aims to first identify the swallowing sound segments and then to decompose them into three characteristic sounds, consistent with the physiology of the process. The coupling between detection and classification is also addressed in this work. The real-time implementation of the detection algorithm has been carried out. However, clinical use of the classification is discussed with a plan for its staged deployment subject to normal processes of clinical approval
APA, Harvard, Vancouver, ISO, and other styles
5

Hacine-Gharbi, Abdenour. "Sélection de paramètres acoustiques pertinents pour la reconnaissance de la parole." Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00843652.

Full text
Abstract:
L'objectif de cette thèse est de proposer des solutions et améliorations de performance à certains problèmes de sélection des paramètres acoustiques pertinents dans le cadre de la reconnaissance de la parole. Ainsi, notre première contribution consiste à proposer une nouvelle méthode de sélection de paramètres pertinents fondée sur un développement exact de la redondance entre une caractéristique et les caractéristiques précédemment sélectionnées par un algorithme de recherche séquentielle ascendante. Le problème de l'estimation des densités de probabilités d'ordre supérieur est résolu par la troncature du développement théorique de cette redondance à des ordres acceptables. En outre, nous avons proposé un critère d'arrêt qui permet de fixer le nombre de caractéristiques sélectionnées en fonction de l'information mutuelle approximée à l'itération j de l'algorithme de recherche. Cependant l'estimation de l'information mutuelle est difficile puisque sa définition dépend des densités de probabilités des variables (paramètres) dans lesquelles le type de ces distributions est inconnu et leurs estimations sont effectuées sur un ensemble d'échantillons finis. Une approche pour l'estimation de ces distributions est basée sur la méthode de l'histogramme. Cette méthode exige un bon choix du nombre de bins (cellules de l'histogramme). Ainsi, on a proposé également une nouvelle formule de calcul du nombre de bins permettant de minimiser le biais de l'estimateur de l'entropie et de l'information mutuelle. Ce nouvel estimateur a été validé sur des données simulées et des données de parole. Plus particulièrement cet estimateur a été appliqué dans la sélection des paramètres MFCC statiques et dynamiques les plus pertinents pour une tâche de reconnaissance des mots connectés de la base Aurora2.
APA, Harvard, Vancouver, ISO, and other styles
6

Lehéricy, Luc. "Estimation adaptative pour les modèles de Markov cachés non paramétriques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS550/document.

Full text
Abstract:
Dans cette thèse, j'étudie les propriétés théoriques des modèles de Markov cachés non paramétriques. Le choix de modèles non paramétriques permet d'éviter les pertes de performance liées à un mauvais choix de paramétrisation, d'où un récent intérêt dans les applications. Dans une première partie, je m'intéresse à l'estimation du nombre d'états cachés. J'y introduis deux estimateurs consistants : le premier fondé sur un critère des moindres carrés pénalisés, le second sur une méthode spectrale. Une fois l'ordre connu, il est possible d'estimer les autres paramètres. Dans une deuxième partie, je considère deux estimateurs adaptatifs des lois d'émission, c'est-à-dire capables de s'adapter à leur régularité. Contrairement aux méthodes existantes, ces estimateurs s'adaptent à la régularité de chaque loi au lieu de s'adapter seulement à la pire régularité. Dans une troisième partie, je me place dans le cadre mal spécifié, c'est-à-dire lorsque les observations sont générées par une loi qui peut ne pas être un modèle de Markov caché. J'établis un contrôle de l'erreur de prédiction de l'estimateur du maximum de vraisemblance sous des conditions générales d'oubli et de mélange de la vraie loi. Enfin, j'introduis une variante non homogène des modèles de Markov cachés : les modèles de Markov cachés avec tendances, et montre la consistance de l'estimateur du maximum de vraisemblance<br>During my PhD, I have been interested in theoretical properties of nonparametric hidden Markov models. Nonparametric models avoid the loss of performance coming from an inappropriate choice of parametrization, hence a recent interest in applications. In a first part, I have been interested in estimating the number of hidden states. I introduce two consistent estimators: the first one is based on a penalized least squares criterion, and the second one on a spectral method. Once the order is known, it is possible to estimate the other parameters. In a second part, I consider two adaptive estimators of the emission distributions. Adaptivity means that their rate of convergence adapts to the regularity of the target distribution. Contrary to existing methods, these estimators adapt to the regularity of each distribution instead of only the worst regularity. The third part is focussed on the misspecified setting, that is when the observations may not come from a hidden Markov model. I control of the prediction error of the maximum likelihood estimator when the true distribution satisfies general forgetting and mixing assumptions. Finally, I introduce a nonhomogeneous variant of hidden Markov models : hidden Markov models with trends, and show that the maximum likelihood estimators of such models is consistent
APA, Harvard, Vancouver, ISO, and other styles
7

Aupetit, Sébastien. "Contributions aux Modèles de Markov Cachés : métaheuristiques d'apprentissage, nouveaux modèles et visualisation de dissimilarité." Phd thesis, Université François Rabelais - Tours, 2005. http://tel.archives-ouvertes.fr/tel-00168392.

Full text
Abstract:
Dans ce travail de thèse, nous présentons plusieurs contributions visant à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle. Nous nous sommes concentrés sur trois objectifs : l'amélioration de l'apprentissage de MMC, l'expérimentation d'un nouveau type de MMC et la visualisation de dissimilarité pour mieux comprendre les interactions entre MMC. Dans la première partie, nous proposons, évaluons et comparons plusieurs nouvelles applications<br />de métaheuristiques biomimétiques classiques (les algorithmes génétiques, l'algorithme de fourmis artificielles API et l'optimisation par essaim particulaire) au problème de l'apprentissage de MMC. Dans la<br />deuxième partie, nous proposons un nouveau type de modèle de Markov caché, appelé modèle Markov caché à substitutions de symboles (MMCSS). Un MMCSS permet d'incorporer des connaissances a priori dans le processus d'apprentissage et de reconnaissance. Les premières expérimentations de ces modèles sur des images démontrent leur intérêt. Dans la troisième partie, nous proposons une nouvelle méthode de représentation de dissimilarité appelée matrice de scatterplots pseudo-euclidienne (MSPE), permettant de mieux comprendre les interactions entre des MMC. Cette MSPE est construite à partir<br />d'une technique que nous nommons analyse en composantes principales à noyau indéfini (ACPNI). Nous terminons par la présentation de la bibliothèque HMMTK, développée au cours de ce travail. Cette dernière intègre des mécanismes de parallélisation et les algorithmes développés au cours de la thèse.
APA, Harvard, Vancouver, ISO, and other styles
8

Votsi, Irène. "Evaluation des risques sismiques par des modèles markoviens cachés et semi-markoviens cachés et de l'estimation de la statistique." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2058.

Full text
Abstract:
Le premier chapitre présente les axes principaux de recherche ainsi que les problèmes traités dans cette thèse. Plus précisément, il expose une synthèse sur le sujet, en y donnant les propriétés essentielles pour la bonne compréhension de cette étude, accompagnée des références bibliographiques les plus importantes. Il présente également les motivations de ce travail en précisant les contributions originales dans ce domaine. Le deuxième chapitre est composé d’une recherche originale sur l’estimation du risque sismique, dans la zone du nord de la mer Egée (Grèce), en faisant usage de la théorie des processus semi-markoviens à temps continue. Il propose des estimateurs des mesures importantes qui caractérisent les processus semi-markoviens, et fournit une modélisation dela prévision de l’instant de réalisation d’un séisme fort ainsi que la probabilité et la grandeur qui lui sont associées. Les chapitres 3 et 4 comprennent une première tentative de modélisation du processus de génération des séismes au moyen de l’application d’un temps discret des modèles cachés markoviens et semi-markoviens, respectivement. Une méthode d’estimation non paramétrique est appliquée, qui permet de révéler des caractéristiques fondamentales du processus de génération des séismes, difficiles à détecter autrement. Des quantités importantes concernant les niveaux des tensions sont estimées au moyen des modèles proposés. Le chapitre 5 décrit les résultats originaux du présent travail à la théorie des processus stochastiques, c’est- à-dire l’étude et l’estimation du « Intensité du temps d’entrée en temps discret (DTIHT) » pour la première fois dans des chaînes semi-markoviennes et des chaînes de renouvellement markoviennes cachées. Une relation est proposée pour le calcul du DTIHT et un nouvel estimateur est présenté dans chacun de ces cas. De plus, les propriétés asymptotiques des estimateurs proposés sont obtenues, à savoir, la convergence et la normalité asymptotique. Le chapitre 6 procède ensuite à une étude de comparaison entre le modèle markovien caché et le modèle semi-markovien caché dans un milieu markovien et semi-markovien en vue de rechercher d’éventuelles différences dans leur comportement stochastique, déterminé à partir de la matrice de transition de la chaîne de Markov (modèle markovien caché) et de la matrice de transition de la chaîne de Markov immergée (modèle semi-markovien caché). Les résultats originaux concernent le cas général où les distributions sont considérées comme distributions des temps de séjour ainsi que le cas particulier des modèles qui sont applique´s dans les chapitres précédents où les temps de séjour sont estimés de manière non-paramétrique. L’importance de ces différences est spécifiée à l’aide du calcul de la valeur moyenne et de la variance du nombre de sauts de la chaîne de Markov (modèle markovien caché) ou de la chaîne de Markov immergée (modèle semi-markovien caché) pour arriver dans un état donné, pour la première fois. Enfin, le chapitre 7 donne des conclusions générales en soulignant les points les plus marquants et des perspectives pour développements futurs<br>The first chapter describes the definition of the subject under study, the current state of science in this area and the objectives. In the second chapter, continuous-time semi-Markov models are studied and applied in order to contribute to seismic hazard assessment in Northern Aegean Sea (Greece). Expressions for different important indicators of the semi- Markov process are obtained, providing forecasting results about the time, the space and the magnitude of the ensuing strong earthquake. Chapters 3 and 4 describe a first attempt to model earthquake occurrence by means of discrete-time hidden Markov models (HMMs) and hidden semi-Markov models (HSMMs), respectively. A nonparametric estimation method is followed by means of which, insights into features of the earthquake process are provided which are hard to detect otherwise. Important indicators concerning the levels of the stress field are estimated by means of the suggested HMM and HSMM. Chapter 5 includes our main contribution to the theory of stochastic processes, the investigation and the estimation of the discrete-time intensity of the hitting time (DTIHT) for the first time referring to semi-Markov chains (SMCs) and hidden Markov renewal chains (HMRCs). A simple formula is presented for the evaluation of the DTIHT along with its statistical estimator for both SMCs and HMRCs. In addition, the asymptotic properties of the estimators are proved, including strong consistency and asymptotic normality. In chapter 6, a comparison between HMMs and HSMMs in a Markov and a semi-Markov framework is given in order to highlight possible differences in their stochastic behavior partially governed by their transition probability matrices. Basic results are presented in the general case where specific distributions are assumed for sojourn times as well as in the special case concerning the models applied in the previous chapters, where the sojourn time distributions are estimated non-parametrically. The impact of the differences is observed through the calculation of the mean value and the variance of the number of steps that the Markov chain (HMM case) and the EMC (HSMM case) need to make for visiting for the first time a particular state. Finally, Chapter 7 presents concluding remarks, perspectives and future work
APA, Harvard, Vancouver, ISO, and other styles
9

Binsztok, Henri. "Apprentissage de modèles Markoviens pour l'analyse de séquences." Paris 6, 2007. http://www.theses.fr/2007PA066568.

Full text
Abstract:
Initialement, l'apprentissage supervisé a permis d'apprendre des modèles à partir de données étiquetées. Mais, pour de nombreuses tâches, notamment dans le cadre de la modélisation utilisateur, si la quantité de données disponible est potentiellement sans limite, la quantité de données étiquetées est quasi-nulle. Dans le cadre de cette thèse, nous nous intéressons à l'apprentissage non-supervisé de modèles de séquences. L'information de séquence constitue le premier niveau de données structurées, où les données ne sont plus de simples vecteurs de caractéristiques. Nous proposons des approches d'apprentissage non-supervisé de séquences que nous appliquons à l'apprentissage automatique de modèles de Markov cachés (MMC) et modèles de Markov cachés hiérarchiques (MMCH) notamment. Notre but est d'apprendre simultanément la structure et les paramètres de modèles markoviens, pour minimiser la quantité d'information a priori nécessaire<br>Initially, Machine Learning allowed to learn models from labeled data. But, for numerous tasks, notably for the task of user modeling, if the available quantity of data is potentially without limit, the quantity of labeled data is almost nonexistent. Within the framework of this thesis, we are interested in the unsupervised learning of sequence models. The information of sequence constitutes the first level of structured data, where the data are no more simple vectors of characteristics. We propose approaches that we apply to the automatic learning of Hidden Markov Models ( HMMs) and Hierarchical HMMs (HHMMs). Our purpose is to learn simultaneously the structure and the parameters of these Markovian Models, to minimize the quantity of prior information necessary to learn them
APA, Harvard, Vancouver, ISO, and other styles
10

Robles, Bernard. "Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-01058784.

Full text
Abstract:
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
APA, Harvard, Vancouver, ISO, and other styles
11

Le, Cam Steven. "Analyse temps/fréquence pour l'identification de signatures pulmonaires par modèles de Markov cachés." Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/LE_CAM_Steven_2009.pdf.

Full text
Abstract:
Les bruits respiratoires sont employés par le médecin comme des indicateurs de l’état physiologique du patient et lui permettent d’établir son diagnostic. Néanmoins, leur interprétation fait intervenir une grande part de subjectivité, liée à la perception du médecin. C’est pourquoi il est actuellement envisagée une analyse automatique de ces sons dans les buts d’assurer la formation des futurs médecins et d’identifier des pathologies pour l’aide au diagnostic. La structure du signal respiratoire se compose du bruit respiratoire normal sur lequel s’additionne éventuellement un son anormal qui peut être soit transitoire (un craquement, un crépitant), soit musical (un sibilant, un stridor) ou encore un mélange (squawk). Les méthodes développés dans ce travail de thèse concernent l’analyse multirésolution des signaux par des outils bayésiens dans le domaine des paquets d’ondelettes, associés à des modèles markoviens multivariés originaux adaptés au contexte difficile du traitement des sons pulmonaires. Nous proposons ainsi une méthodologie pour l’étude des signaux respiratoires, avec pour ambition la possibilité de traiter un large panel de cas pathologiques. Une méthode basée sur l’analyse multivariée du signal après recalage de portions d’intérêt du signal est présentée. Nous introduisons ensuite un nouveau graphe de Markov adapté à la décomposition en paquets d’ondelettes, dans le but d’une analyse multirésolution des signaux pulmonaires et d’une détection plus précise des caractéristiques statistiques de ces signaux particulièrement variables à la fois en temps et en fréquence<br>The detection of abnormal respiratory sounds is still carried out by pulmonary auscultation using a stethoscope and implies limitations due to the subjectivity of this process. Indeed, it depends on the individual’s own hearing, experience and its ability to differentiate patterns. Nowadays, there is a clear need for a normalization of the diagnosis methodology and for the development of a common framework for all the medical community. In this context, much of the knowledge gained in recent years has resulted from the use of modern digital processing techniques, which leads to objective analysis and comparisons of respiratory sounds. Abnormal respiratory sounds are added to the normal breathing sounds and, according to the American Thoracic Society, they fall in two main categories : continuous sounds (Wheezes, Stridors) and discontinuous sounds (crackles). The methods developped in this thesis concern multiresolution analysis of the signals using bayesian tools in the wavelet packets domain, associated to original Markov models well adapted to the difficult context of lung sounds analysis. We then propose a methodology for the study of respiratory signals, with the ambition to be able to handle a wide panel of pathological cases. First, a method based on multivariate signal analysis after a scaling of interesting features is presented. We then introduce a new Markov graph adapted to the wavelet packet decomposition, with the aim of a multiresolution analysis of the lung signals and a more precise detection of the statistical characteristics of these highly unstable signals
APA, Harvard, Vancouver, ISO, and other styles
12

Olivier, Brice. "Analyse conjointe de traces oculométriques et d'EEG à l'aide de modèles de Markov cachés couplés." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM030/document.

Full text
Abstract:
Cette thèse consiste à analyser conjointement des signaux de mouvement des yeux et d’électroencéphalogrammes (EEG) multicanaux acquis simultanément avec des participants effectuant une tâche de lecture de recueil d'informations afin de prendre une décision binaire - le texte est-il lié à un sujet ou non? La recherche d'informations textuelles n'est pas un processus homogène dans le temps - ni d'un point de vue cognitif, ni en termes de mouvement des yeux. Au contraire, ce processus implique plusieurs étapes ou phases, telles que la lecture normale, le balayage, la lecture attentive - en termes d'oculométrie - et la création et le rejet d'hypothèses, la confirmation et la décision - en termes cognitifs.Dans une première contribution, nous discutons d'une méthode d'analyse basée sur des chaînes semi-markoviennes cachées sur les signaux de mouvement des yeux afin de mettre en évidence quatre phases interprétables en termes de stratégie d'acquisition d'informations: lecture normale, lecture rapide, lecture attentive et prise de décision.Dans une deuxième contribution, nous lions ces phases aux changements caractéristiques des signaux EEG et des informations textuelles. En utilisant une représentation en ondelettes des EEG, cette analyse révèle des changements de variance et de corrélation des coefficients inter-canaux, en fonction des phases et de la largeur de bande. En utilisant des méthodes de plongement des mots, nous relions l’évolution de la similarité sémantique au sujet tout au long du texte avec les changements de stratégie.Dans une troisième contribution, nous présentons un nouveau modèle dans lequel les EEG sont directement intégrés en tant que variables de sortie afin de réduire l’incertitude des états. Cette nouvelle approche prend également en compte les aspects asynchrones et hétérogènes des données<br>This PhD thesis consists in jointly analyzing eye-tracking signals and multi-channel electroencephalograms (EEGs) acquired concomitantly on participants doing an information collection reading task in order to take a binary decision - is the text related to some topic or not ? Textual information search is not a homogeneous process in time - neither on a cognitive point of view, nor in terms of eye-movement. On the contrary, this process involves several steps or phases, such as normal reading, scanning, careful reading - in terms of oculometry - and creation and rejection of hypotheses, confirmation and decision - in cognitive terms.In a first contribution, we discuss an analysis method based on hidden semi-Markov chains on the eye-tracking signals in order to highlight four interpretable phases in terms of information acquisition strategy: normal reading, fast reading, careful reading, and decision making.In a second contribution, we link these phases with characteristic changes of both EEGs signals and textual information. By using a wavelet representation of EEGs, this analysis reveals variance and correlation changes of the inter-channels coefficients, according to the phases and the bandwidth. And by using word embedding methods, we link the evolution of semantic similarity to the topic throughout the text with strategy changes.In a third contribution, we present a new model where EEGs are directly integrated as output variables in order to reduce the state uncertainty. This novel approach also takes into consideration the asynchronous and heterogeneous aspects of the data
APA, Harvard, Vancouver, ISO, and other styles
13

Augustin, Emmanuel. "Reconnaissance de mots manuscrits par systèmes hybrides : Réseaux de neurones et modèles de Markov cachés." Paris 5, 2001. http://www.theses.fr/2001PA05S026.

Full text
Abstract:
Ce mémoire présente un système de lecture de mots manuscrits isolés, appartenant à un lexique, avec des techniques combinées réseaux de neurones (RN) et modèles de Markov cachés (MMC). Les RN et les MMC ont été abondamment étudiés pour la reconnaissance de la parole entre autre. Leur maitrise a motivé depuis 10 ans de nombreux travaux pour combiner les atouts des deux outils, en discrimination et en modélisation des séquences. Quelques systèmes sont présentés pour la parole ou l'écrit. Le principe des systèmes hybrides RN et MMC est présenté avec son apprentissage itératif selon l'algorithme expectation maximisation (EM). Ce système pemet de remplacer la qualification vectorielle des MMC discrets, classification non supervisée qui perd beaucoup d'information, par un RN. . .<br>This thesis presents a recognition system for isolated handwritten words, given a dictionary, using a combination of neural networks (NN) and hidden markov models (HMM). NN and HMM have been extensively studied, the former in the field of isolated character recognition and the later in speech recognition, among other applications. Know-how on NN and HMM has motivated within the last 10 years many researches to combine the advantages of the two tools, that is discrimination power and sequence modelling. Some historical and original systems are recalled from speech and handwriting recognition. .
APA, Harvard, Vancouver, ISO, and other styles
14

Delmas, Adrien. "Contribution à l'estimation de la durée de vie résiduelle des systèmes en présence d'incertitudes." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2476/document.

Full text
Abstract:
La mise en place d’une politique de maintenance prévisionnelle est un défi majeur dans l’industrie qui tente de réduire le plus possible les frais relatifs à la maintenance. En effet, les systèmes sont de plus en plus complexes et demandent un suivi de plus en plus poussé afin de rester opérationnels et sécurisés. Une maintenance prévisionnelle nécessite d’une part d’évaluer l’état de dégradation des composants du système, et d’autre part de pronostiquer l’apparition future d’une panne. Plus précisément, il s’agit d’estimer le temps restant avant l’arrivée d’une défaillance, aussi appelé Remaining Useful Life ou RUL en anglais. L’estimation d’une RUL constitue un réel enjeu car la pertinence et l’efficacité des actions de maintenance dépendent de la justesse et de la précision des résultats obtenus. Il existe de nombreuses méthodes permettant de réaliser un pronostic de durée de vie résiduelle, chacune avec ses spécificités, ses avantages et ses inconvénients. Les travaux présentés dans ce manuscrit s’intéressent à une méthodologie générale pour estimer la RUL d’un composant. L’objectif est de proposer une méthode applicable à un grand nombre de cas et de situations différentes sans nécessiter de modification majeure. De plus, nous cherchons aussi à traiter plusieurs types d’incertitudes afin d’améliorer la justesse des résultats de pronostic. Au final, la méthodologie développée constitue une aide à la décision pour la planification des opérations de maintenance. La RUL estimée permet de décider de l’instant optimal des interventions nécessaires, et le traitement des incertitudes apporte un niveau de confiance supplémentaire dans les valeurs obtenues<br>Predictive maintenance strategies can help reduce the ever-growing maintenance costs, but their implementation represents a major challenge. Indeed, it requires to evaluate the health state of the component of the system and to prognosticate the occurrence of a future failure. This second step consists in estimating the remaining useful life (RUL) of the components, in Other words, the time they will continue functioning properly. This RUL estimation holds a high stake because the precision and accuracy of the results will influence the relevance and effectiveness of the maintenance operations. Many methods have been developed to prognosticate the remaining useful life of a component. Each one has its own particularities, advantages and drawbacks. The present work proposes a general methodology for component RUL estimation. The objective i to develop a method that can be applied to many different cases and situations and does not require big modifications. Moreover, several types of uncertainties are being dealt With in order to improve the accuracy of the prognostic. The proposed methodology can help in the maintenance decision making process. Indeed, it is possible to select the optimal moment for a required intervention thanks to the estimated RUL. Furthermore, dealing With the uncertainties provides additional confidence into the prognostic results
APA, Harvard, Vancouver, ISO, and other styles
15

Terrapon, Nicolas. "Recherche de domaines protéiques divergents à l'aide de modèles de Markov cachés : application à Plasmodium falciparum." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00811835.

Full text
Abstract:
Les modèles de Markov cachés (MMC) - par exemple ceux de la librairie Pfam - sont des outils très populaires pour l'annotation des domaines protéiques. Cependaqnt, ils ne sont pas toujours adaptés aux protéines les plus divergentes. C'est notamment le cas avec Plasmodium falciparum (principal agent du paludisme chez l'Homme), où les MMC de Pfam identifient peu de familles distinctes de domaines, et couvrent moins de 50% des protéines de l'organisme. L'objectif de cette thèse est d'apporter des méthodes nouvelles pour affiner la détection de domaines dans les protéines divergentes. Le premier axe développé est une approche d'identification de domaines utilisant leurs propriétés de co- occurrence. Différentes études ont montré que la majorité des domaines apparaissent dans les protéines avec un ensemble très réduits d'autres domaines favoris. Notre méthode exploite cette propriété pour détecter des domaines trop divergents pour être identifiés par l'approche classique. Cette détection s'accompagne d'une estimation du taux d'erreur par une procédure de ré-échantillonnage. Chez P. falciparum, elle permet d'identifier, avec un taux d'erreur estimé inférieur à 20%, 585 nouveaux domaines - dont 159 familles étaient inédites dans cet organisme -, ce qui représente 16% du nombre de domaines connus. Le second axe de mes recherches présente plusieurs méthodes de corrections statistiques et évolutives des MMC pour l'annotation d'organismes divergents. Deux types d'approches ont été proposées. D'un côté, nous intégrons aux alignements d'apprentissage des MMC les séquences précédemment identifiés dans l'organisme cible ou ses proches relatifs. La limitation de cette solution est que seules des familles de domaines déjà connues dans le taxon peuvent ainsi être identifiées. Le deuxième type d'approches contourne cette limitation en corrigeant tous les modèles par une prise en compte de l'évolution des séquences d'apprentissage. Pour cela, nous faisons appel à des techniques classiques de la bioinformatique et de l'apprentissage statistique. Les résultats obtenus offrent un ensemble de prédictions complémentaires totalisant 663 nouveaux domaines supplémentaires - dont 504 familles inédites -, soit une augmentation de 18% à ajouter aux précédents résultats.
APA, Harvard, Vancouver, ISO, and other styles
16

Tay, Yong Haur. "Reconnaissance de l'écriture manuscrite hors-ligne par réseau de neurones artificiels et modèles de Markov cachés." Nantes, 2002. http://www.theses.fr/2002NANT2106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Akhbari, Mahsa. "Analyse des intervalles ECG inter- et intra-battement sur des modèles d'espace d'état et de Markov cachés." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT026.

Full text
Abstract:
Les maladies cardiovasculaires sont l'une des principales causes de mortalité chez l'homme. Une façon de diagnostiquer des maladies cardiaques et des anomalies est le traitement de signaux cardiaques tels que le ECG. Dans beaucoup de ces traitements, des caractéristiques inter-battements et intra-battements de signaux ECG doivent être extraites. Ces caractéristiques comprennent les points de repère des ondes de l’ECG (leur début, leur fin et leur point de pic), les intervalles significatifs et les segments qui peuvent être définis pour le signal ECG. L'extraction des points de référence de l'ECG consiste à identifier l'emplacement du pic, de début et de la fin de l'onde P, du complexe QRS et de l'onde T. Ces points véhiculent des informations cliniquement utiles, mais la segmentation precise de chaque battement de l'ECG est une tâche difficile, même pour les cardiologues expérimentés.Dans cette thèse, nous utilisons un cadre bayésien basé sur le modèle dynamique d'ECG proposé par McSharry. Depuis ce modèle s'appuyant sur la morphologie des ECG, il peut être utile pour la segmentation et l'analyse d'intervalles d'ECG. Afin de tenir compte de la séquentialité des ondes P, QRS et T, nous utiliserons également l'approche de Markov et des modèles de Markov cachés (MMC). En bref dans cette thèse, nous utilisons un modèle dynamique (filtre de Kalman), un modèle séquentiel (MMC) et leur combinaison (commutation de filtres de Kalman (SKF)). Nous proposons trois méthodes à base de filtres de Kalman, une méthode basée sur les MMC et un procédé à base de SKF. Nous utilisons les méthodes proposées pour l'extraction de points de référence et l'analyse d'intervalles des ECG. Le méthodes basées sur le filtrage de Kalman sont également utilisés pour le débruitage d'ECG, la détection de l'alternation de l'onde T, et la détection du pic R de l'ECG du foetus.Pour évaluer les performances des méthodes proposées pour l'extraction des points de référence de l'ECG, nous utilisons la base de données "Physionet QT", et une base de données "Swine" qui comprennent ECG annotations de signaux par les médecins. Pour le débruitage d'ECG, nous utilisons les bases de données "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" et "MIT-BIH noise stress test". La base de données "TWA Challenge 2008 database" est utilisée pour la détection de l'alternation de l'onde T. Enfin, la base de données "Physionet Computing in Cardiology Challenge 2013 database" est utilisée pour la détection du pic R de l'ECG du feotus. Pour l'extraction de points de reference, la performance des méthodes proposées sont évaluées en termes de moyenne, écart-type et l'erreur quadratique moyenne (EQM). Nous calculons aussi la sensibilité des méthodes. Pour le débruitage d'ECG, nous comparons les méthodes en terme d'amélioration du rapport signal à bruit<br>Cardiovascular diseases are one of the major causes of mortality in humans. One way to diagnose heart diseases and abnormalities is processing of cardiac signals such as ECG. In many of these processes, inter-beat and intra-beat features of ECG signal must be extracted. These features include peak, onset and offset of ECG waves, meaningful intervals and segments that can be defined for ECG signal. ECG fiducial point (FP) extraction refers to identifying the location of the peak as well as the onset and offset of the P-wave, QRS complex and T-wave which convey clinically useful information. However, the precise segmentation of each ECG beat is a difficult task, even for experienced cardiologists.In this thesis, we use a Bayesian framework based on the McSharry ECG dynamical model for ECG FP extraction. Since this framework is based on the morphology of ECG waves, it can be useful for ECG segmentation and interval analysis. In order to consider the time sequential property of ECG signal, we also use the Markovian approach and hidden Markov models (HMM). In brief in this thesis, we use dynamic model (Kalman filter), sequential model (HMM) and their combination (switching Kalman filter (SKF)). We propose three Kalman-based methods, an HMM-based method and a SKF-based method. We use the proposed methods for ECG FP extraction and ECG interval analysis. Kalman-based methods are also used for ECG denoising, T-wave alternans (TWA) detection and fetal ECG R-peak detection.To evaluate the performance of proposed methods for ECG FP extraction, we use the "Physionet QT database", and a "Swine ECG database" that include ECG signal annotations by physicians. For ECG denoising, we use the "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" and "MIT-BIH noise stress test" databases. "TWA Challenge 2008 database" is used for TWA detection and finally, "Physionet Computing in Cardiology Challenge 2013 database" is used for R-peak detection of fetal ECG. In ECG FP extraction, the performance of the proposed methods are evaluated in terms of mean, standard deviation and root mean square of error. We also calculate the Sensitivity for methods. For ECG denoising, we compare methods in their obtained SNR improvement
APA, Harvard, Vancouver, ISO, and other styles
18

Jacob, Bruno. "Un outil informatique de gestion de modèles de Markov cachés : expérimentations en reconnaissance automatique de la parole." Toulouse 3, 1995. http://www.theses.fr/1995TOU30240.

Full text
Abstract:
Nous proposons dans ce document l'utilisation d'un compilateur de modeles de markov caches dans le cadre de la reconnaissance automatique de la parole. Apres avoir presente les caracteristiques du compilateur, nous presentons quelques applications le mettant en uvre afin de valider cet outil: ? une methode de filtrage lexical en deux etapes: un sous-dictionnaire est selectionne par un modele de markov cache principal, dont les unites sont des classes majeures. A partir de celui-ci, un modele de markov cache temporaire est construit avec des unites pseudo-diphones afin d'obtenir le mot reconnu. Le compilateur est ici utilise dans une application classique de reconnaissance. ? une nouvelle methode de fusion de donnees acoustiques et articulatoires a l'aide d'une relation de type maitre/esclave entre deux modeles de markov caches, dans le but d'augmenter la robustesse des reconnaissances dans le bruit. Nous avons adapte le compilateur afin qu'il construise ces variantes des modeles de markov caches. ? un systeme de decodage acoustico-phonetique base sur des unites phonetiques issues d'une quantification vectorielle. Nous utilisons le compilateur comme un outil de validation du systeme de decodage. ? une proposition de post-traitement des resultats d'un systeme de reconnaissance de mots isoles afin d'en augmenter les performances. Nous testons ici la compatibilite des reseaux construits par le compilateur avec ceux d'un systeme deja existant. Nous concluons par une discussion sur les extensions possibles du compilateur
APA, Harvard, Vancouver, ISO, and other styles
19

Sekhi, Ikram. "Développement d'un alphabet structural intégrant la flexibilité des structures protéiques." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC084/document.

Full text
Abstract:
L’objectif de cette thèse est de proposer un Alphabet Structural (AS) permettant une caractérisation fine et précise des structures tridimensionnelles (3D) des protéines, à l’aide des chaînes de Markov cachées (HMM) qui permettent de prendre en compte la logique issue de l’enchaînement des fragments structuraux en intégrant l’augmentation des conformations 3D des structures protéiques désormais disponibles dans la banque de données de la Protein Data Bank (PDB). Nous proposons dans cette thèse un nouvel alphabet, améliorant l’alphabet structural HMM-SA27,appelé SAFlex (Structural Alphabet Flexibility), dans le but de prendre en compte l’incertitude des données (données manquantes dans les fichiers PDB) et la redondance des structures protéiques. Le nouvel alphabet structural SAFlex obtenu propose donc un nouveau modèle d’encodage rigoureux et robuste. Cet encodage permet de prendre en compte l’incertitude des données en proposant trois options d’encodages : le Maximum a posteriori (MAP), la distribution marginale a posteriori (POST)et le nombre effectif de lettres à chaque position donnée (NEFF). SAFlex fournit également un encodage consensus à partir de différentes réplications (chaînes multiples, monomères et homomères) d’une même protéine. Il permet ainsi la détection de la variabilité structurale entre celles-ci. Les avancées méthodologiques ainsi que l’obtention de l’alphabet SAFlex constituent les contributions principales de ce travail de thèse. Nous présentons aussi le nouveau parser de la PDB (SAFlex-PDB) et nous démontrons que notre parser a un intérêt aussi bien sur le plan qualitatif (détection de diverses erreurs)que quantitatif (rapidité et parallélisation) en le comparant avec deux autres parsers très connus dans le domaine (Biopython et BioJava). Nous proposons également à la communauté scientifique un site web mettant en ligne ce nouvel alphabet structural SAFlex. Ce site web représente la contribution concrète de cette thèse alors que le parser SAFlex-PDB représente une contribution importante pour le fonctionnement du site web proposé. Cette caractérisation précise des conformations 3D et la prise en compte de la redondance des informations 3D disponibles, fournies par SAFlex, a en effet un impact très important pour la modélisation de la conformation et de la variabilité des structures 3D, des boucles protéiques et des régions d’interface avec différents partenaires, impliqués dans la fonction des protéines<br>The purpose of this PhD is to provide a Structural Alphabet (SA) for more accurate characterization of protein three-dimensional (3D) structures as well as integrating the increasing protein 3D structure information currently available in the Protein Data Bank (PDB). The SA also takes into consideration the logic behind the structural fragments sequence by using the hidden Markov Model (HMM). In this PhD, we describe a new structural alphabet, improving the existing HMM-SA27 structural alphabet, called SAFlex (Structural Alphabet Flexibility), in order to take into account the uncertainty of data (missing data in PDB files) and the redundancy of protein structures. The new SAFlex structural alphabet obtained therefore offers a new, rigorous and robust encoding model. This encoding takes into account the encoding uncertainty by providing three encoding options: the maximum a posteriori (MAP), the marginal posterior distribution (POST), and the effective number of letters at each given position (NEFF). SAFlex also provides and builds a consensus encoding from different replicates (multiple chains, monomers and several homomers) of a single protein. It thus allows the detection of structural variability between different chains. The methodological advances and the achievement of the SAFlex alphabet are the main contributions of this PhD. We also present the new PDB parser(SAFlex-PDB) and we demonstrate that our parser is therefore interesting both qualitative (detection of various errors) and quantitative terms (program optimization and parallelization) by comparing it with two other parsers well-known in the area of Bioinformatics (Biopython and BioJava). The SAFlex structural alphabet is being made available to the scientific community by providing a website. The SAFlex web server represents the concrete contribution of this PhD while the SAFlex-PDB parser represents an important contribution to the proper function of the proposed website. Here, we describe the functions and the interfaces of the SAFlex web server. The SAFlex can be used in various fashions for a protein tertiary structure of a given PDB format file; it can be used for encoding the 3D structure, identifying and predicting missing data. Hence, it is the only alphabet able to encode and predict the missing data in a 3D protein structure to date. Finally, these improvements; are promising to explore increasing protein redundancy data and obtain useful quantification of their flexibility
APA, Harvard, Vancouver, ISO, and other styles
20

Le, Corff Sylvain. "Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées." Phd thesis, Telecom ParisTech, 2012. http://tel.archives-ouvertes.fr/tel-00773405.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées dans un cadre paramétrique et dans un cadre non paramétrique. Dans le cas paramétrique, nous imposons des contraintes sur le calcul de l'estimateur proposé : un premier volet de cette thèse est l'estimation en ligne d'un paramètre au sens du maximum de vraisemblance. Le fait d'estimer en ligne signifie que les estimations doivent être produites sans mémoriser les observations. Nous proposons une nouvelle méthode d'estimation en ligne pour les chaînes de Markov cachées basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. La consistance de l'algorithme ainsi que des vitesses de convergence en probabilité ont été prouvées. Dans le cas d'espaces d'états généraux, l'implémentation numérique de l'algorithme BOEM requiert d'introduire des méthodes de Monte Carlo séquentielles - aussi appelées méthodes particulaires - pour approcher des espérances conditionnelles sous des lois de lissage qui ne peuvent être calculées explicitement. Nous avons donc proposé une approximation Monte Carlo de l'algorithme BOEM appelée Monte Carlo BOEM. Parmi les hypothèses nécessaires à la convergence de l'algorithme Monte Carlo BOEM, un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en fonction du nombre d'observations T et du nombre de particules N est nécessaire. Par conséquent, une seconde partie de cette thèse a été consacrée à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles : l'algorithme Forward Filtering Backward Smoothing et l'algorithme Forward Filtering Backward Simulation. Ensuite, nous considérons des applications de l'algorithme Monte Carlo BOEM à des problèmes de cartographie et de localisation simultanées. Ces problèmes se posent lorsqu'un mobile se déplace dans un environnement inconnu. Il s'agit alors de localiser le mobile tout en construisant une carte de son environnement. Enfin, la dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré a été très peu étudié et nous avons donc choisi de l'aborder dans un cadre précis. Nous supposons que la chaîne (Xk) est une marche aléatoire sur un sous-espace compact de Rm dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons également que, pour tout k, Yk est une observation dans un bruit additif gaussien de f(Xk), où f est une fonction à valeurs dans Rl que nous cherchons à estimer. Le premier résultat que nous avons établi est l'identifiabilité du modèle statistique considéré. Nous avons également proposé une estimation de la fonction f et du paramètre a à partir de la log-vraisemblance par paires des observations. Nous avons prouvé la convergence en probabilité de ces estimateurs lorsque le nombre d'observations utilisées tend vers l'infini.
APA, Harvard, Vancouver, ISO, and other styles
21

Kijak, Ewa. "Structuration multimodale des vidéos de sport par modèles stochastiques." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00532944.

Full text
Abstract:
Cette étude présente une méthode de structuration d'une vidéo utilisant des indices sonores et visuels. Cette méthode repose sur un modèle statistique de l'entrelacement temporel des plans de la vidéo. Le cadre général de la modélisation est celui des modèles de Markov cachés. Les indices visuels sont utilisés pour caractériser le type des plans. Les indices audio décrivent les événements sonores apparaissant durant un plan. La structure de la vidéo est représentée par un modèle de Markov caché hiérarchique, intégrant les informations a priori sur le contenu de la vidéo, ainsi que sur les règles d'édition. L'approche est validée dans le cadre des vidéos de tennis, ce dernier présentant une structure intrinsèque hiérarchique bien définie. En résultat de l'analyse de l'entrelacement temporel des différents types de plans, des scènes caractéristiques du tennis sont identifiées. De plus, chaque plan de la vidéo est assigné à un niveau de hiérarchie décrit en terme de point, jeu et set. Cette classification et segmentation simultanées de la structure globale de la vidéo peuvent être utilisées pour la création de résumés vidéo ou pour permettre une navigation non linéaire dans le document vidéo.
APA, Harvard, Vancouver, ISO, and other styles
22

Ahmad, Abdul Rahim. "Reconnaissance de l'écriture manuscrite en-ligne par approche combinant systèmes à vastes marges et modèles de Markov cachés." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00426903.

Full text
Abstract:
Nos travaux concernent la reconnaissance de l'écriture manuscrite qui est l'un des domaines de prédilection pour la reconnaissance des formes et les algorithmes d'apprentissage. Dans le domaine de l'écriture en-ligne, les applications concernent tous les dispositifs de saisie permettant à un usager de communiquer de façon transparente avec les systèmes d'information. Dans ce cadre, nos travaux apportent une contribution pour proposer une nouvelle architecture de reconnaissance de mots manuscrits sans contrainte de style. Celle-ci se situe dans la famille des approches hybrides locale/globale où le paradigme de la segmentation/reconnaissance va se trouver résolu par la complémentarité d'un système de reconnaissance de type discriminant agissant au niveau caractère et d'un système par approche modèle pour superviser le niveau global. Nos choix se sont portés sur des Séparateurs à Vastes Marges (SVM) pour le classifieur de caractères et sur des algorithmes de programmation dynamique, issus d'une modélisation par Modèles de Markov Cachés (HMM). Cette combinaison SVM/HMM est unique dans le domaine de la reconnaissance de l'écriture manuscrite. Des expérimentations ont été menées, d'abord dans un cadre de reconnaissance de caractères isolés puis sur la base IRONOFF de mots cursifs. Elles ont montré la supériorité des approches SVM par rapport aux solutions à bases de réseaux de neurones à convolutions (Time Delay Neural Network) que nous avions développées précédemment, et leur bon comportement en situation de reconnaissance de mots.
APA, Harvard, Vancouver, ISO, and other styles
23

Ahouandjinou, Arnaud. "Reconnaissance de scénario par les Modèles de Markov Cachés Crédibilistes : Application à l'interprétation automatique de séquences vidéos médicales." Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0380/document.

Full text
Abstract:
Les travaux de recherche développés dans cette thèse concernent la mise en oeuvre d'un système de vidéo surveillance intelligente en milieu hospitalier. Dans le contexte d'une application en unité de soins intensifs médicale, nous introduisons la notion originale de Boite Noire Médicale et nous proposons un nouveau système de monitoring visuel de Détection Automatique de Situations à risque et d'Alerte (DASA) basé sur un système de vidéosurveillance multi-caméra intelligent. L'objectif étant d'interpréter les flux d'informations visuelles et de détecter en temps réel les situations à risque afin de prévenir l'équipe médicale et ensuite archiver les évènements dans une base de donnée vidéo qui représente la Boite Noire Médicale. Le système d'interprétation est basé sur des algorithmes de reconnaissance de scénarios qui exploitent les Modèles de Markovs Cachés (MMCs). Une extension du modèle MMC standard est proposé afin de gérer la structure hiérarchique interne des scénarios et de contrôler la durée de chaque état du modèle markovien. La contribution majeure de ce travail repose sur l'intégration d'un raisonnement de type évènementiel, pour gérer la décision de reconnaissance en tenant compte des imperfections des informations disponibles. Les techniques de reconnaissance de scénarios proposées ont été testées et évaluées sur une base de séquences vidéo médicales et comparés aux modèles de Markov cachés probabilistiques classiques<br>This thesis focuses on the study and the implementation of an intelligent visual monitoring system in hospitals. In the context of an application for patient monitoring in mediacal intensive care unit, we introduce an original concept of the Medical Black Box and we propose a new system for visual monitoring of Automatic Detection of risk Situations and Alert (DASA) based on a CCTV system with network smart camera. The aim is to interpret the visual information flow and to detect at real-time risk situations to prevent the mediacl team and then archive the events in a video that is based Medical Black Box data. The interpretation system is based on scenario recognition algorithms that exploit the Hidden Markov Models (HMM). An extension of the classic model of HMM is proposed to handle the internal reporting structure of the scenarios and to control the duration of each state of the Markov model. The main contribution of this work relies on the integration of an evidential reasoning, in order to manage the recognition decision taking into account the imperfections of available information. The proposed scenarios recognition method have been tested and assessed on database of medical video sequences and compared to standard probabilistic Hidden Markov Models
APA, Harvard, Vancouver, ISO, and other styles
24

Bréhélin, Laurent. "Modèles de Markov cachés et apprentissage pas fusions d'états : algorithmes, applications, utilisations pour le test de circuits intégrés." Montpellier 2, 2001. http://www.theses.fr/2001MON20051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Bettayeb, Miloud. "Modélisation d'un usager de jeu vidéo avec un modèle de Markov caché." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28472/28472.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Ait-Mohand, Kamel. "Techniques d'adaptation de modèles markoviens. Application à la reconnaissance de documents anciens." Rouen, 2011. http://www.theses.fr/2011ROUES008.

Full text
Abstract:
Ce travail s'intéresse à la reconnaissance de caractères dans les documents imprimés. Le but est de créer un OCR suffisamment robuste pour être performant sur les documents anciens dont les particularités les rendent difficiles à traiter par les OCRs. Nous avons créé un système de reconnaissance polyfonte basé sur des modèles de Markov cachés (MMC) et nous l'avons intégré dans une chaîne de traitement OCR complète en utilisant des outils logiciels libres. Afin d'améliorer les performances de ce système sur de nouvelles données, nous avons créé des algorithmes d'adaptation qui modifient conjointement la structure et les probabilités d'émission des MMC. Nous avons évalué le système de reconnaissance polyfonte ainsi que les algorithmes d'adaptation sur des bases d'images réelles et synthétiques. Les résultats obtenus montrent que le système de reconnaissance polyfonte est compétitif comparé aux systèmes d'OCR industriels et que nos algorithmes d'adaptation de la structure devancent nettement les algorithmes d'adaptation de l'état de l'art<br>This work focuses on the recognition of characters in printed documents. The goal is to create a sufficiently robust OCR system that can deal with ancient documents whose peculiarity makes them difficult to process. We created a polyfont recognition system based on Hidden Markov Models (HMM) and we have integrated it into a complete processing chain using open source OCR tools. To improve the performance of this system on new data, we created new adaptation algorithms that jointly modify the structure and emission probabilities of HMMs. We evaluated the polyfont recognition system and the adaptation algorithms on synthetic and real images datasets. The results show that the polyfont recognition system is competitive compared to commercial OCR systems and that our structure-adaptation algorithms are more efficient than other state of the art adaptation algorithms
APA, Harvard, Vancouver, ISO, and other styles
27

Bianne-Bernard, Anne-Laure. "Reconnaissance de mots manuscrits cursifs par modèles de Markov cachés en contexte : application au français, à l'anglais et à l'arabe." Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00656402.

Full text
Abstract:
L'objectif de cette thèse est d'élaborer un système de reconnaissance de mots manuscrits pouvant être appris et appliqué sur différents styles d'écriture. L'approche utilisée est une approche analytique: les mots sont découpés en sous-parties (caractères) à modéliser. Le découpage est effectué de manière implicite par l'utilisation de fenêtres glissantes qui permettent de transformer les images de mots en séquences. La méthode choisie pour apprendre les modèles de caractères utilise les modèles de Markov cachés (HMMs). Chaque caractère est représenté par un HMM de type Bakis, ce qui permet d'absorber les variations d'écriture entre scripteurs. Les mots sont reconstruits ensuite par concaténation des modèles qui les composent. Dans cette thèse, le choix est fait de chercher à améliorer la modélisation HMM de caractères en agissant au coeur même des modèles. A cette fin, une nouvelle approche est proposée, qui utilise l'aspect contextuel pour la modélisation : un caractère est modélisé en fonction de son contexte et son modèle est nommé trigraphe. La prise en compte de l'environnement d'un caractère pour sa modélisation implique cependant une multiplication des paramètres HMMs à apprendre sur un nombre souvent restreint de données d'observation. Une méthode originale de regroupement de paramètres est proposée dans ces travaux : le clustering d'états par position à l'aide d'arbres binaires de décision. Ce type de clustering, inédit dans les systèmes de reconnaissance de l'écriture, permet au système de réduire le nombre de paramètres tout en conservant l'un des principaux attraits des HMMs : l'utilisation d'un lexique de test indépendant de celui d'apprentissage<br>This thesis aims at elaborating a new handwritten words recognition system that can be learned and applied on any handwriting style and any alphabet. An analytic approach is used. Words are divided into subparts (characters or graphemes) that have to be modelled. The division is made implicitly thanks to sliding windows, which transform the word images into sequences. Hidden Markov Models, widely known as one of the most powerful tools for sequence modelling, are chosen to model the characters. A Bakis-type HMM represents each character. This enables the model to absorb variations in handwriting. A word model is built by concatenating its compound characters models. In this thesis, the choice is made to strengthen the HMM modelling by acting directly within the models. To this end, a new approach is proposed, using context knowledge : each character model depends on its context (its preceding and following characters). This new character model is named trigraph. Taking into account the characters environment allows more precise and more effective models to be built. However, this implies a multiplication of HMM parameters to be learned (often on a restricted number of observation data). An original method for parameter grouping is proposed in this thesis to overcome this issue : a state-based clustering, performed on each state position and based on binary decision trees. This type of clustering is new in the handwriting recognition field. It has many advantages, including parameter reduction. Moreover, the use of decision trees allows the HMMs to keep one of their most interesting attributes : independence between training and testing lexicon
APA, Harvard, Vancouver, ISO, and other styles
28

Bianne, Bernard Anne-Laure. "Reconnaissance de mots manuscrits cursifs par modèles de Markov cachés en contexte : application au français, à l'anglais et à l'arabe." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00656402.

Full text
Abstract:
L'objectif de cette thèse est d'élaborer un système de reconnaissance de mots manuscrits pouvant être appris et appliqué sur différents styles d'écriture. L'approche utilisée est une approche analytique: les mots sont découpés en sous-parties (caractères) à modéliser. Le découpage est effectué de manière implicite par l'utilisation de fenêtres glissantes qui permettent de transformer les images de mots en séquences. La méthode choisie pour apprendre les modèles de caractères utilise les modèles de Markov cachés (HMMs). Chaque caractère est représenté par un HMM de type Bakis, ce qui permet d'absorber les variations d'écriture entre scripteurs. Les mots sont reconstruits ensuite par concaténation des modèles qui les composent. Dans cette thèse, le choix est fait de chercher à améliorer la modélisation HMM de caractères en agissant au coeur même des modèles. A cette fin, une nouvelle approche est proposée, qui utilise l'aspect contextuel pour la modélisation : un caractère est modélisé en fonction de son contexte et son modèle est nommé trigraphe. La prise en compte de l'environnement d'un caractère pour sa modélisation implique cependant une multiplication des paramètres HMMs à apprendre sur un nombre souvent restreint de données d'observation. Une méthode originale de regroupement de paramètres est proposée dans ces travaux : le clustering d'états par position à l'aide d'arbres binaires de décision. Ce type de clustering, inédit dans les systèmes de reconnaissance de l'écriture, permet au système de réduire le nombre de paramètres tout en conservant l'un des principaux attraits des HMMs : l'utilisation d'un lexique de test indépendant de celui d'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
29

Kriouile, Abdelaziz. "La reconnaissance automatique de la parole et les modèles markoviens cachés : modèles du second ordre et distance de Viterbi à optimalité locale." Nancy 1, 1990. http://www.theses.fr/1990NAN10273.

Full text
Abstract:
Des travaux intensifs sur la reconnaissance automatique de la parole utilisant les modèles stochastiques ont été réalisés durant les cinq dernières années. L'application des modèles markoviens cachés (HMM) du premier ordre a conduit 0 des résultats impressionnants dans le domaine de la reconnaissance de mots isolés et de la parole continue. Notre objectif était de montrer que l'apport des modèles markoviens cachés à la reconnaissance automatique de la parole est d'autant plus important qu'on mène des réflexions fondamentales sur les modèles markoviens eux-mêmes et sur la façon de les appliquer. Nous avons développé une nouvelle formulation de Baum-Welch et une extension de l'algorithme de Viterbi, qui rendent les modèles markoviens cachés du second ordre efficaces en calcul pour des applications en temps réel. Il y avait une nette amélioration du taux de reconnaissance avec le second ordre. L'extension a des HMM d'ordre plus élevé a été aussi discutée. Enfin, nous avons proposé une nouvelle stratégie d'utilisation de l'algorithme de Viterbi pour la reconnaissance de la parole continue. Elle est basée sur la comparaison d'optimums locaux dans une fenêtre de trames. Cette stratégie, par bloc, a donné de meilleurs résultats que les versions classiques de l'algorithme de Viterbi. Elle permet une interaction avec d'autres processeurs.
APA, Harvard, Vancouver, ISO, and other styles
30

Infantes, Guillaume. "Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00129505.

Full text
Abstract:
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
APA, Harvard, Vancouver, ISO, and other styles
31

Ahmed, Eman Ahmed Sayed. "Modélisation constructive des systèmes à événements discrets. Application aux organismes artificiels." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4016.

Full text
Abstract:
Les humains peuvent ressentir leurs muscles. Ils peuvent également reconnaître leur environnement et les objets qui s'y trouvent. Enfin, ils sont capables de se situer dans cet environnement et d'y atteindre des objets. Comment ces capacités sont acquises et interagissent les unes avec les autres au cours du développement ? Cette question demeure ouverte en biologie. Notre objectif est donc d’aider les biologistes à mieux comprendre comment un humain est capable de construire sa carte cognitive et d’effectuer des mouvements dirigés vers un objectif. Sur le plan développemental, l’acquisition des capacités sensorimotrices humaines débute avec le fœtus. Nous présentons ici un modèle théorique du développement de la carte cognitive d’un fœtus humain à partir de son système sensorimoteur. Le modèle intègre les proprioceptions des membres du corps et les perceptions de l’environnement et comment celles-ci coopèrent pour construire une carte cognitive. Cette carte est essentielle afin d'effectuer des mouvements dirigés vers un objectif et atteindre différents objets au sein de l’environnement. Nous proposons un nouvel algorithme de clustering appelé “Frequency-based-means”, qui est utilisé pour obtenir les proprioceptions et les perceptions qui constituant la carte d’association. Des modèles de Markov cachés sont utilisés pour modéliser l’apprentissage et la production de mouvements<br>Humans can internally sense their muscles. They can also recognize their environment with its objects and are able to navigate through it easily to reach them. How these abilities are gained and interact each other is still an open question in biology. Our aim is to help biologists to understand how a human is able to build his cognitive map and make goal-directed movements. The origin of human capabilities goes back to the fetus stage. We present a theoretical model of the development of the cognitive map of a fetus human from his sensorimotor system. The model integrates the proprioceptions of body limbs and perceptions from the environment and how these cooperate to build a cognitive map, which in turn, is essential for making goal-directed movements to reach different objects in the surrounding environment. We propose a new clustering algorithm called “Frequency-based-means”; which is used to get the proprioceptions and the perceptions that form the association map. Hidden Markov Models are used to model movement learning and production
APA, Harvard, Vancouver, ISO, and other styles
32

Durand, Jean-Baptiste. "Modèles à structure cachée : inférence, estimation, sélection de modèles et applications." Phd thesis, Université Joseph Fourier (Grenoble), 2003. https://tel.archives-ouvertes.fr/tel-00002754v3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Essid, Houcine. "Modélisation spatio-temporelle à base de modèles de Markov cachés pour la prévision des changements en imagerie satellitaire : cas de la végétation et de l'urbain." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-01037990.

Full text
Abstract:
Les séries temporelles d'images satellitaires sont une source d'information importante pour le suivi des changements spatio-temporels des surfaces terrestres. En outre, le nombre d'images est en augmentation constante. Pour les exploiter pleinement, des outils dédiés au traitement automatique du contenu informationnel sont développés. Néanmoins ces techniques ne satisfont pas complètement les géographes qui exploitent pourtant, de plus en plus couramment, les données extraites des images dans leurs études afin de prédire le futur. Nous proposons dans cette thèse, une méthodologie générique à base d'un modèle de Markov caché pour l'analyse et la prédiction des changements sur une séquence d'images satellitaires. Cette méthodologie présente deux modules : un module de traitement intégrant les descripteurs et les algorithmes classiquement utilisés en interprétation d'images, et un module d'apprentissage basé sur les modèles de Markov cachés. La performance de notre approche est évaluée par des essais d'interprétations des évènements spatio-temporels effectués sur plusieurs sites d'études. Les résultats obtenus permettront d'analyser et de prédire les changements issus des différentes séries temporelles d'images SPOT et LANDSAT pour l'observation des évènements spatio-temporels telle que l'expansion urbaine et la déforestation.
APA, Harvard, Vancouver, ISO, and other styles
34

Douc, Randal. "Problèmes statistiques pour des modèles à variables latentes : propriétés asymptotiques de l'estimateur du maximum de vraisemblance." Palaiseau, Ecole polytechnique, 2001. http://www.theses.fr/2001EPXXO001.

Full text
Abstract:
Un modèle autorégressif à régime markovien est un processus à temps discret à deux composantes x n, y n évoluant de la façon suivante : x n est une chaine de Markov homogène et y n suit une loi conditionnelle dépendante non seulement de x n mais aussi de y n 1, , y n 8. Le processus x n, usuellement appelé régime n'est pas observé et l'inférence doit être menée à partir du processus observable y n. Ces modèles incluent en particulier les modèles de chaines de Markov cachées utilisés en reconnaissance de la parole, économétrie, neuro-physiologie ou analyse des séries temporelles. Dans ce travail, nous prouvons consistance et normalité asymptotique de l'estimateur de maximum de vraisemblance dans le cas où les variables aléatoires cachées vivent dans un espace compact non nécessairement fini. Nous investissons deux techniques différentes, la première appliquée aux modèles de Markov cachées utilise l'ergodicité géométrique de certaines chaines de Markov étendues, et s'appuie sur une méthode proposée par Legland et Mevel (1997) dans le cas où les x k prennent un nombre fini de valeurs. Bien que cette technique semble adaptée à l'étude des estimateurs récursifs (ou l'estimateur est réévalue à chaque nouvelle observation), sa mise en oeuvre nécessite néanmoins des hypothèses relativement fortes. Une seconde approche que nous avons directement applique aux modèles autorégressifs non-linéaires a régime markovien utilise des approximations par des suites stationnaires et permet de prouver consistance et normalité asymptotique sous des hypothèses plus faibles
APA, Harvard, Vancouver, ISO, and other styles
35

Delakis, Emmanouil. "Structuration multimodale des vidéos de tennis en utilisant des modèles segmentaux." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00524285.

Full text
Abstract:
L'analyse automatique du contenu de la vidéo est un sujet de recherche émergent avec de nombreuses applications pratiques sur de grandes bases de données de vidéo ou sur les enregistreurs vidéo personnels. Le centre de cette étude est la construction automatique de la table des matières d'une émission de tennis en utilisant les modèles markoviens et la programmation dynamique. Motivés par le besoin de représentations multimodales plus efficaces, nous proposons l'utilisation des caractéristiques segmentales dans le cadre des modèles de segment, au lieu des caractéristiques en trames des modèles de Markov cachés. En considérant chaque scène de la vidéo comme un segment, les points de synchronisation entre différentes modalités sont étendus aux frontières de la scène, qui est l'unité thématique de base de la vidéo. Les caractéristiques visuelles venant de la vidéo diffusée et les caractéristiques auditives enregistrées dans le court sont traitées avant fusion dans leurs propres segments, avec leurs propres modèles et fréquences d'échantillonnage. Diverses techniques pour modéliser les segments sont examinées, y compris les modèles de Markov cachés de densité discrète ou continue, les modèles bigrames ou des approches connexionnistes, fonctionnant sur les caractéristiques audiovisuelles automatiquement extraites. Des modèles de segments et des modèles de Markov cachés, avec des topologies hiérarchiques ou ergodiques, sont établis et comparés sur un corpus de 15 heures de vidéos de tennis. Les paramètres des modèles sont estimés sur des données étiquetées. Selon le modèle segmentale utilisé, la fusion asynchrone avec des modèles de segments peut atteindre le même niveau de performance que les modèles de Markov cachés. La fusion des ressources textuelles de la vidéo, c'est-à-dire les annonces de points, est également considérée. Pour exploiter entièrement leur contenu sémantique sur l'évolution réelle du jeu et tenir compte des événements non reconnus, un arrangement original du décodage de Viterbi a été développé. Il produit des solutions qui sont conformes aux annonces de points et apporte ainsi une nette amélioration de la performance du système.
APA, Harvard, Vancouver, ISO, and other styles
36

Trevezas, Samis. "Etude de l'estimation du Maximum de Vraisemblance dans des modèles Markoviens, Semi-Markoviens et Semi-Markoviens Cachés avec Applications." Phd thesis, Université de Technologie de Compiègne, 2008. http://tel.archives-ouvertes.fr/tel-00472644.

Full text
Abstract:
Dans ce travail je présente une étude unifiée basée sur l'estimation du maximum de vraisemblance pour des modèles markoviens, semi-markoviens et semi-markoviens cachés. Il s'agit d'une étude théorique des propriétés asymptotiques de l'EMV des modèles mentionnés ainsi que une étude algorithmique. D'abord, nous construisons l'estimateur du maximum de vraisemblance (EMV) de la loi stationnaire et de la variance asymptotique du théorème de la limite centrale (TLC) pour des fonctionnelles additives des chaînes de Markov ergodiques et nous démontrons sa convergence forte et sa normalité asymptotique. Ensuite, nous considérons un modèle semi-markovien non paramétrique. Nous présentons l'EMV exact du noyau semi-markovien qui gouverne l'évolution de la chaîne semi-markovienne (CSM) et démontrons la convergence forte, ainsi que la normalité asymptotique de chaque sous-vecteur fini de cet estimateur en obtenant des formes explicites pour les matrices de covariance asymptotiques. Ceci a été appliqué pour une observation de longue durée d'une seule trajectoire d'une CSM, ainsi que pour une suite des trajectoires i.i.d. d'une CSM censurée à un instant fixe. Nous introduisons un modèle semi-markovien caché (MSMC) général avec dépendance des temps de récurrence en arrière. Nous donnons des propriétés asymptotiques de l'EMV qui correspond à ce modèle. Nous déduisons également des expressions explicites pour les matrices de covariance asymptotiques qui apparaissent dans le TLC pour l'EMV des principales caractéristiques des CSM. Enfin, nous proposons une version améliorée de l'algorithme EM (Estimation-Maximisation) et une version stochastique de cet algorithme (SAEM) afin de trouver l'EMV pour les MSMC non paramétriques. Des exemples numériques sont présentés pour ces deux algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
37

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Full text
Abstract:
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes (composition, taille du génome) en lien avec leur écosystème spécifique : le sol pour les S. coelicolor et le milieu lait pour S. thermophilus<br>Second-order Hidden Markov Models (HMM2) are stochastic processes with a high efficiency in exploring bacterial genome sequences. Different types of HMM2 (M1M2, M2M2, M2M0) combined to combinatorial methods were developed in a new approach to discriminate genomic regions without a priori knowledge on their genetic content. This approach was applied on two bacterial models in order to validate its achievements: Streptomyces coelicolor and Streptococcus thermophilus. These bacterial species exhibit distinct genomic traits (base composition, global genome size) in relation with their ecological niche: soil for S. coelicolor and dairy products for S. thermophilus. In S. coelicolor, a first HMM2 architecture allowed the detection of short discrete DNA heterogeneities (5-16 nucleotides in size), mostly localized in intergenic regions. The application of the method on a biologically known gene set, the SigR regulon (involved in oxidative stress response), proved the efficiency in identifying bacterial promoters. S. coelicolor shows a complex regulatory network (up to 12% of the genes may be involved in gene regulation) with more than 60 sigma factors, involved in initiation of transcription. A classification method coupled to a searching algorithm (i.e. R’MES) was developed to automatically extract the box1-spacer-box2 composite DNA motifs, structure corresponding to the typical bacterial promoter -35/-10 boxes. Among the 814 DNA motifs described for the whole S. coelicolor genome, those of sigma factors (B, WhiG) could be retrieved from the crude data. We could show that this method could be generalized by applying it successfully in a preliminary attempt to the genome of Bacillus subtilis
APA, Harvard, Vancouver, ISO, and other styles
38

Delattre, Maud. "Inférence statistique dans les modèles mixtes à dynamique Markovienne." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00765708.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'estimation par maximum de vraisemblance dans les modèles mixtes à dynamique markovienne. Nous considérons plus précisément des modèles de Markov cachés à effets mixtes et des modèles de diffusion à effets mixtes. Dans le Chapitre 2, nous combinons l'algorithme de Baum-Welch à l'algorithme SAEM pour estimer les paramètres de population dans les modèles de Markov cachés à effets mixtes. Nous proposons également des procédures spécifiques pour estimer les paramètres individuels et les séquences d' états cachées. Nous étudions les propriétés de cette nouvelle méthodologie sur des données simulées et l'appliquons sur des données réelles de nombres de crises d' épilepsie. Dans le Chapitre 3, nous proposons d'abord des modèles de diffusion à effets mixtes pour la pharmacocin étique de population. Nous en estimons les paramètres en combinant l'algorithme SAEM a un filtre de Kalman étendu. Nous étudions ensuite les propriétés asymptotiques de l'estimateur du maximum de vraisemblance dans des modèles de diffusion observés sans bruit de mesure continûment sur un intervalle de temps fixe lorsque le nombre de sujets tend vers l'infini. Le Chapitre 4 est consacré a la s élection de covariables dans des modèles mixtes généraux. Nous proposons une version du BIC adaptée au contexte de double asymptotique où le nombre de sujets et le nombre d'observations par sujet tendent vers l'infini. Nous présentons quelques simulations pour illustrer cette procédure.
APA, Harvard, Vancouver, ISO, and other styles
39

Baron, Standley-Réginald. "Analyse de la conjoncture et des données sujettes à la révision : application au Canada." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28582/28582.pdf.

Full text
Abstract:
Ce papier met l`accent sur deux points essentiels : l`analyse de la conjoncture en temps réel et la révision des données. Contrairement à d`autres travaux, nous cherchons non seulement à évaluer la conjoncture en temps réel mais aussi nous essayons de voir à quel point la révision des données peut affecter notre estimation de la conjoncture. Pour déterminer les différentes phases du cycle économique canadien, nous adoptons l`approche d`Hamilton et Chauvet (2006). En utilisant le PIB comme indice pour caractériser la conjoncture et en appliquant les modèles à changements de régime markoviens, comme méthode moderne de séparation des phases d’expansion et de récession dans une économie. Les résultats obtenus permettent de faire ressortir deux points importants. La révision des données n`affecte pas significativement l`analyse des points tournants en temps réel, par contre elle s`avère importante quand il faut juger de l`ampleur d`une récession ou d`une expansion. Mots clés : cycle économique en temps réel, révision des données, modèles à changements de régime markoviens.
APA, Harvard, Vancouver, ISO, and other styles
40

Koenig, Lionel. "Masquage de pertes de paquets en voix sur IP." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0010/document.

Full text
Abstract:
Les communications téléphoniques en voix sur IP souffrent de la perte de paquets causée par les problèmes d'acheminement dus aux nœuds du réseau. La perte d'un paquet de voix induit la perte d'un segment de signal de parole (généralement 10ms par paquet perdu). Face à la grande diversité des codeurs de parole, nous nous sommes intéressés dans le cadre de cette thèse à proposer une méthode de masquage de pertes de paquets générique, indépendante du codeur de parole utilisé. Ainsi, le masquage de pertes de paquets est appliqué au niveau du signal de parole reconstruit, après décodage, s'affranchissant ainsi du codeur de parole. Le système proposé repose sur une modélisation classique de type « modèles de Markov cachés » afin de suivre l'évolution acoustique de la parole. À notre connaissance, une seule étude a proposé l'utilisation des modèles de Markov cachés dans ce cadre [4]. Toutefois, Rødbro a utilisé l'utilisation de deux modèles, l'un pour la parole voisée, l'autre pour les parties non voisées, posant ainsi le problème de la distinction voisée/non voisée. Dans notre approche, un seul modèle de Markov caché est mis en œuvre. Aux paramètres classiques (10 coefficients de prédiction linéaire dans le domaine cepstral (LPCC) et dérivées premières) nous avons adjoint un nouvel indicateur continu de voisement [1, 2]. La recherche du meilleur chemin avec observations manquantes conduit à une version modifiée de l'algorithme de Viterbi pour l'estimation de ces observations. Les différentes contributions (indice de voisement, décodage acoutico-phonétique et restitution du signal) de cette thèse sont évaluées [3] en terme de taux de sur et sous segmentation, taux de reconnaissance et distances entre l'observation attendue et l'observation estimée. Nous donnons une indication de la qualité de la parole au travers d'une mesure perceptuelle : le PESQ<br>Packet loss due to misrouted or delayed packets in voice over IP leads to huge voice quality degradation. Packet loss concealment algorithms try to enhance the perceptive quality of the speech. The huge variety of vocoders leads us to propose a generic framework working directly on the speech signal available after decoding. The proposed system relies on one single "hidden Markov model" to model time evolution of acoustic features. An original indicator of continuous voicing is added to conventional parameters (Linear Predictive Cepstral Coefficients) in order to handle voiced/unvoiced sound. Finding the best path with missing observations leads to one major contribution: a modified version of the Viterbi algorithm tailored for estimating missing observations. All contributions are assessed using both perceptual criteria and objective metrics
APA, Harvard, Vancouver, ISO, and other styles
41

Rouan, Lauriane. "Apports des chaînes de Markov cachées à l'analyse de données de capture-recapture." Montpellier 2, 2007. http://www.theses.fr/2007MON20188.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Ziani, Ahmed. "Interprétation en temps réel de séquence vidéo par exploitation des modèles graphiques probabilistes." Littoral, 2010. http://www.theses.fr/2010DUNK0271.

Full text
Abstract:
Le travail de recherche concerne l'étude et la mise en oeuvre de systèmes de reconnaissance de scénarios dans des séquences d'images de vidéosurveillance. Les couches hautes du système de reconnaissance exploitent principalement les approches graphiques probabilistes (réseaux bayésiens et les modèles de Markov Cachés et leurs extensions) qui permettent de gérer de manière efficace les incertitudes au sein du système d'interprétation. Un premier algorithme de reconnaissance de séquences d'événements, combinant deux extensions de modèles de Markov cachés (hiérarchique et semi-markovien) a été proposé. Il permet de modéliser des scénarios complexes basés sur une structure hiérarchisée intégrant des contraintes temporelles sur la durée de chaque événement. Ensuite, nous avons étudié une approche de reconnaissance de trajectoire d'objets en utilisant les modèles de Markov cachés semi-continus. Nous avons adapté une méthode de quantification permettant d'obtenir automatiquement les états du modèle. Dans le but d'accélérer le comportement du système de reconnaissance, nous avons proposé une technique de prédiction basée sur la reconnaissance des débuts de trajectoires et qui permet rapidement d'écarter les modèles ne pouvant être compatibles avec les observations. La dernière partie du travail a été le développement d'une structure globale et modulaire d'un système de reconnaissance de scénarios. L'intérêt principal de cette architecture est de pouvoir exploiter des techniques probabilistes tout en intégrant des capacités de raisonnement temporel. L'architecture logique du système exploite une approche multi agents organisée selon trois couches. Afin de gérer les contraintes temps réel de l'application, la stratégie de contrôle du système de reconnaissance active un nombre minimal 'agents en fonction de ses décisions internes. Les agents de la première couche ont pour rôle de mettre en évidence les événements élémentaires et sont construits principalement à base de réseaux bayésiens ou de modèles de Markov cachés. Les agents temporels de la deuxième couche sont construits également à partir d'une structure spécifique de type réseau bayésien. Ils ont pour rôle de modéliser de manière explicite les relations temporelles entre événements mis en évidence à partir de la première couche. Les agents du troisième niveau interviennent dans l'étape finale de décision en exploitant l'ensemble des décisions des agents intermédiaires. Les différentes approches de reconnaissance de scénarios ont été testées sur divers séquences réelles en environnement extérieur et intérieur<br>The research covers the design and implementation of systems for recognition of scenarios in video image sequences. The upper layers of the recognition system operating primarily graphical probabilistic approaches (Bayesian networks and Hidden Markov models and their extensions) that can effectively handle uncertainties in the interpretation system. A first algorithm for recognition of sequences of events, combining two extensions of HMM (hierarchical and semi-Markov) was proposed. It allows to model complex scenarios based on a hierarchical structure integrating temporal constraints on the duration of each event. Then, we proposed a prediction technique based on the recognition of early tracks and allows quick to dismiss the models may be consistent with the observations. The last part of the work was the development of a global structure and a modular recognition system scenarios. The main advantage of this architecture is to use probabilistic techniques while integrating temporal reasoning capabilities. The logical architecture of the system uses a multi agents. In order to manage real-time constraints of the application, the control strategy of the recognition systems enables a minimum number of agents according to its internal decisions. The agents of the first layer has a role to highlight the basic events and are constructed mainly of Bayesian networks or hidden Markov models. The agents of the second temporal layer are also built from a specific structure type Bayesian network. Their role is to model explicitly the temporal relationships between events highlighted from the first layer. The third level officials involved in the final stage of decision using all of the decisions of intermediate agents. Different approaches to recognition of scenarios were tested on various real images in external and internal environment
APA, Harvard, Vancouver, ISO, and other styles
43

Obin, Nicolas. "MeLos : analysis and modelling of speech prosody and speaking style." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00694687.

Full text
Abstract:
Cette thèse a pour objet la modélisation de la prosodie dans le cadre de la synthèse de la parole. Nous présenterons MeLos : un système complet d'analyse et de modélisation de la prosodie, "la musique de la parole". L'objectif de cette thèse est de modéliser la stratégie, les alternatives, et le style de parole d'un locuteur pour permettre une synthèse de parole naturelle, expressive, et variée. Nous présenterons un système unifié fondé sur des modèles de Markov cachés (HMMs) à observation discrète/continue pour modéliser les caractéristiques symbolique et acoustique de la prosodie : 1) Une chaîne de traitement linguistique de surface et profonde sera introduite pour enrichir la description des caractéristiques du texte. 2) Un modèle segmental associé à la fusion de Dempster-Shafer sera utilisé pour combiner les contraintes linguistique et métrique dans la production des pauses. 3) Un modèle de trajectoire basé sur la stylisation des contours prosodiques sera présenté pour permettre de modéliser simultanément les variations à court et long terme de la F0. Le système proposé est utilisé pour modéliser les stratégies et le style d'un locuteur, et est étendu à la modélisation du style de parole par des méthodes de modélisation en contexte partagé et de normalisation du locuteur.
APA, Harvard, Vancouver, ISO, and other styles
44

Rondy-Turcotte, Jean-Christophe. "Détection des potentiels d'action par la fluorescence calcique chez le poisson zèbre." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66419.

Full text
Abstract:
L'utilisation de fluorofores sensibles au calcium permet de mesurer de manière non invasive l'activité des neurones. En effet, les potentiels d'actions font augmenter la concentration de calcium à l'intérieur d'une cellule, ce qui à son tour fait augmenter la fluorescence. Un dé important est de retrouver la séquence de potentiels d'actions à partir d'une mesure de fluorescence. Dans ce mémoire, nous verrons comment utiliser la fluorescence calcique pour déterminer une séquence de potentiels d'actions. Nous appliquons un algorithme basé sur l'algorithme de Viterbi et les chaînes de Markov à états cachés, développés par Deneux et al. À l'aide de cet algorithme, nous estimons les trains de potentiels d'actions ayant lieu dans un ensemble de neurones de poisson zèbres in vivo.
APA, Harvard, Vancouver, ISO, and other styles
45

Vernet, Elodie Edith. "Modèles de mélange et de Markov caché non-paramétriques : propriétés asymptotiques de la loi a posteriori et efficacité." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS418/document.

Full text
Abstract:
Les modèles latents sont très utilisés en pratique, comme en génomique, économétrie, reconnaissance de parole... Comme la modélisation paramétrique des densités d’émission, c’est-à-dire les lois d’une observation sachant l’état latent, peut conduire à de mauvais résultats en pratique, un récent intérêt pour les modèles latents non paramétriques est apparu dans les applications. Or ces modèles ont peu été étudiés en théorie. Dans cette thèse je me suis intéressée aux propriétés asymptotiques des estimateurs (dans le cas fréquentiste) et de la loi a posteriori (dans le cadre Bayésien) dans deux modèles latents particuliers : les modèles de Markov caché et les modèles de mélange. J’ai tout d’abord étudié la concentration de la loi a posteriori dans les modèles non paramétriques de Markov caché. Plus précisément, j’ai étudié la consistance puis la vitesse de concentration de la loi a posteriori. Enfin je me suis intéressée à l’estimation efficace du paramètre de mélange dans les modèles semi paramétriques de mélange<br>Latent models have been widely used in diverse fields such as speech recognition, genomics, econometrics. Because parametric modeling of emission distributions, that is the distributions of an observation given the latent state, may lead to poor results in practice, in particular for clustering purposes, recent interest in using non parametric latent models appeared in applications. Yet little thoughts have been given to theory in this framework. During my PhD I have been interested in the asymptotic behaviour of estimators (in the frequentist case) and the posterior distribution (in the Bayesian case) in two particuliar non parametric latent models: hidden Markov models and mixture models. I have first studied the concentration of the posterior distribution in non parametric hidden Markov models. More precisely, I have considered posterior consistency and posterior concentration rates. Finally, I have been interested in efficient estimation of the mixture parameter in semi parametric mixture models
APA, Harvard, Vancouver, ISO, and other styles
46

Quillon, Aurélia. "Prédiction markovienne in silico des régions constantes et variables des lentivirus." Phd thesis, Université Claude Bernard - Lyon I, 2006. http://tel.archives-ouvertes.fr/tel-00124142.

Full text
Abstract:
Les lentivirus présentent une évolution rapide du gène env, notamment dans la région codant la glycoprotéine de surface (SU). Un fait remarquable est que les mutations de la SU sont localisées dans des zones spécifiques, appelées régions variables (V), séparées par des régions dites constantes (C). Afin de déterminer s'il existe des signatures spécifiques des régions C et V, nous avons développé des modèles de Markov cachés, ou HMM (Hidden Markov Models), basés sur la composition en oligonucléotides de chaque type de région, capables de différencier les régions C et V des lentivirus. Nous avons entraîné des modèles de Markov cachés sur des séquences des SU des lentivirus équins, humains, simiens et des petits ruminants. Nous avons obtenu une délimitation claire des régions C et V de tous ces lentivirus ainsi que des lentivirus bovins et félins qui n'avaient pas été utilisés pour définir les modèles. Nos résultats suggèrent que les régions C et V des lentivirus ont des compositions statistiques en mots de nucléotides et d'acides aminés différentes. Des signatures caractéristiques des régions C et V ont été extraites à partir des modèles définis.
APA, Harvard, Vancouver, ISO, and other styles
47

Karaman, Svebor. "Indexation de la vidéo portée : application à l’étude épidémiologique des maladies liées à l’âge." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14402/document.

Full text
Abstract:
Le travail de recherche de cette thèse de doctorat s'inscrit dans le cadre du suivi médical des patients atteints de démences liées à l'âge à l'aide des caméras videos portées par les patients. L'idée est de fournir aux médecins un nouvel outil pour le diagnostic précoce de démences liées à l'âge telles que la maladie d'Alzheimer. Plus précisément, les Activités Instrumentales du Quotidien (IADL: Instrumental Activities of Daily Living en anglais) doivent être indexées automatiquement dans les vidéos enregistrées par un dispositif d'enregistrement portable.Ces vidéos présentent des caractéristiques spécifiques comme de forts mouvements ou de forts changements de luminosité. De plus, la tâche de reconnaissance visée est d'un très haut niveau sémantique. Dans ce contexte difficile, la première étape d'analyse est la définition d'un équivalent à la notion de « plan » dans les contenus vidéos édités. Nous avons ainsi développé une méthode pour le partitionnement d'une vidéo tournée en continu en termes de « points de vue » à partir du mouvement apparent.Pour la reconnaissance des IADL, nous avons développé une solution selon le formalisme des Modèles de Markov Cachés (MMC). Un MMC hiérarchique à deux niveaux a été introduit, modélisant les activités sémantiques ou des états intermédiaires. Un ensemble complexe de descripteurs (dynamiques, statiques, de bas niveau et de niveau intermédiaire) a été exploité et les espaces de description joints optimaux ont été identifiés expérimentalement.Dans le cadre de descripteurs de niveau intermédiaire pour la reconnaissance d'activités nous nous sommes particulièrement intéressés aux objets sémantiques que la personne manipule dans le champ de la caméra. Nous avons proposé un nouveau concept pour la description d'objets ou d'images faisant usage des descripteurs locaux (SURF) et de la structure topologique sous-jacente de graphes locaux. Une approche imbriquée pour la construction des graphes où la même scène peut être décrite par plusieurs niveaux de graphes avec un nombre de nœuds croissant a été introduite. Nous construisons ces graphes par une triangulation de Delaunay sur des points SURF, préservant ainsi les bonnes propriétés des descripteurs locaux c'est-à-dire leur invariance vis-à-vis de transformations affines dans le plan image telles qu'une rotation, une translation ou un changement d'échelle.Nous utilisons ces graphes descripteurs dans le cadre de l'approche Sacs-de-Mots-Visuels. Le problème de définition d'une distance, ou dissimilarité, entre les graphes pour la classification non supervisée et la reconnaissance est nécessairement soulevé. Nous proposons une mesure de dissimilarité par le Noyau Dépendant du Contexte (Context-Dependent Kernel: CDK) proposé par H. Sahbi et montrons sa relation avec la norme classique L2 lors de la comparaison de graphes triviaux (les points SURF).Pour la reconnaissance d'activités par MMC, les expériences sont conduites sur le premier corpus au monde de vidéos avec caméra portée destiné à l'observation des d'IADL et sur des bases de données publiques comme SIVAL et Caltech-101 pour la reconnaissance d'objets<br>The research of this PhD thesis is fulfilled in the context of wearable video monitoring of patients with aged dementia. The idea is to provide a new tool to medical practitioners for the early diagnosis of elderly dementia such as the Alzheimer disease. More precisely, Instrumental Activities of Daily Living (IADL) have to be indexed in videos recorded with a wearable recording device.Such videos present specific characteristics i.e. strong motion or strong lighting changes. Furthermore, the tackled recognition task is of a very strong semantics. In this difficult context, the first step of analysis is to define an equivalent to the notion of “shots” in edited videos. We therefore developed a method for partitioning continuous video streams into viewpoints according to the observed motion in the image plane.For the recognition of IADLs we developed a solution based on the formalism of Hidden Markov Models (HMM). A hierarchical HMM with two levels modeling semantic activities or intermediate states has been introduced. A complex set of features (dynamic, static, low-level, mid-level) was proposed and the most effective description spaces were identified experimentally.In the mid-level features for activities recognition we focused on the semantic objects the person manipulates in the camera view. We proposed a new concept for object/image description using local features (SURF) and the underlying semi-local connected graphs. We introduced a nested approach for graphs construction when the same scene can be described by levels of graphs with increasing number of nodes. We build these graphs with Delaunay triangulation on SURF points thus preserving good properties of local features i.e. the invariance with regard to affine transformation of image plane: rotation, translation and zoom.We use the graph features in the Bag-of-Visual-Words framework. The problem of distance or dissimilarity definition between graphs for clustering or recognition is obviously arisen. We propose a dissimilarity measure based on the Context Dependent Kernel of H. Sahbi and show its relation with the classical entry-wise norm when comparing trivial graphs (SURF points).The experiments are conducted on the first corpus in the world of wearable videos of IADL for HMM based activities recognition, and on publicly available academic datasets such as SIVAL and Caltech-101 for object recognition
APA, Harvard, Vancouver, ISO, and other styles
48

Caron, Francois. "Inférence bayésienne pour la détermination et lasélection de modèles stochastiques." Phd thesis, Ecole Centrale de Lille, 2006. http://tel.archives-ouvertes.fr/tel-00140088.

Full text
Abstract:
On s'intéresse à l'ajout d'incertitudes supplémentaires dans les modèles de Markov cachés. L'inférence est réalisée dans un cadre bayésien à l'aide des méthodes de Monte Carlo. Dans un cadre multicapteur, on suppose que chaque capteur peut commuter entre plusieurs états de fonctionnement. Un modèle à saut original est développé et des algorithmes de Monte Carlo efficaces sont présentés pour différents types de situations, prenant en compte des données synchrones/asynchrones et le cas binaire capteur valide/défaillant. Le modèle/algorithme développé est appliqué à la localisation d'un véhicule terrestre équipé de trois capteurs, dont un récepteur GPS, potentiellement défaillant à cause de phénomènes de trajets multiples. <br />On s'intéresse ensuite à l'estimation de la densité de probabilité des bruits d'évolution et de mesure dans les modèles de Markov cachés, à l'aide des mélanges de processus de Dirichlet. Le cas de modèles linéaires est tout d'abord étudié, et des algorithmes MCMC et de filtrage particulaire sont développés. Ces algorithmes sont testés sur trois applications différentes. Puis le cas de l'estimation des densités de probabilité des bruits dans les modèles non linéaires est étudié. On définit pour cela des processus de Dirichlet variant temporellement, permettant l'estimation en ligne d'une densité de probabilité non stationnaire.
APA, Harvard, Vancouver, ISO, and other styles
49

Sim, Tepmony. "Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0020/document.

Full text
Abstract:
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM)<br>Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs)
APA, Harvard, Vancouver, ISO, and other styles
50

Petetin, Yohan. "Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens." Phd thesis, Institut National des Télécommunications, 2013. http://tel.archives-ouvertes.fr/tel-00939083.

Full text
Abstract:
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre " Probability Hypothesis Density ". Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits " localement optimaux ", c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography