To see the other types of publications on this topic, follow the link: Fouille de processus Modèles de Markov cachés.

Dissertations / Theses on the topic 'Fouille de processus Modèles de Markov cachés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 47 dissertations / theses for your research on the topic 'Fouille de processus Modèles de Markov cachés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Khodabandelou, Ghazaleh. "Mining Intentional Process Models." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2014. http://tel.archives-ouvertes.fr/tel-01010756.

Full text
Abstract:
Jusqu'à présent, les techniques de fouille de processus ont modélisé les processus en termes des séquences de tâches qui se produisent lors de l'exécution d'un processus. Cependant, les recherches en modélisation du processus et de guidance ont montrée que de nombreux problèmes, tels que le manque de flexibilité ou d'adaptation, sont résolus plus efficacement lorsque les intentions sont explicitement spécifiées. Cette thèse présente une nouvelle approche de fouille de processus, appelée Map Miner méthode (MMM). Cette méthode est conçue pour automatiser la construction d'un modèle de processus intentionnel à partir des traces d'activités des utilisateurs. MMM utilise les modèles de Markov cachés pour modéliser la relation entre les activités des utilisateurs et leurs stratégies (i.e., les différentes façons d'atteindre des intentions). La méthode comprend également deux algorithmes spécifiquement développés pour déterminer les intentions des utilisateurs et construire le modèle de processus intentionnel de la Carte. MMM peut construire le modèle de processus de la Carte avec différents niveaux de précision (pseudo-Carte et le modèle du processus de la carte) par rapport au formalisme du métamodèle de Map. L'ensemble de la méthode proposée a été appliqué et validé sur des ensembles de données pratiques, dans une expérience à grande échelle, sur les traces d'événements des développeurs de Eclipse UDC.
APA, Harvard, Vancouver, ISO, and other styles
2

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Full text
Abstract:
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes (composition, taille du génome) en lien avec leur écosystème spécifique : le sol pour les S. coelicolor et le milieu lait pour S. thermophilus<br>Second-order Hidden Markov Models (HMM2) are stochastic processes with a high efficiency in exploring bacterial genome sequences. Different types of HMM2 (M1M2, M2M2, M2M0) combined to combinatorial methods were developed in a new approach to discriminate genomic regions without a priori knowledge on their genetic content. This approach was applied on two bacterial models in order to validate its achievements: Streptomyces coelicolor and Streptococcus thermophilus. These bacterial species exhibit distinct genomic traits (base composition, global genome size) in relation with their ecological niche: soil for S. coelicolor and dairy products for S. thermophilus. In S. coelicolor, a first HMM2 architecture allowed the detection of short discrete DNA heterogeneities (5-16 nucleotides in size), mostly localized in intergenic regions. The application of the method on a biologically known gene set, the SigR regulon (involved in oxidative stress response), proved the efficiency in identifying bacterial promoters. S. coelicolor shows a complex regulatory network (up to 12% of the genes may be involved in gene regulation) with more than 60 sigma factors, involved in initiation of transcription. A classification method coupled to a searching algorithm (i.e. R’MES) was developed to automatically extract the box1-spacer-box2 composite DNA motifs, structure corresponding to the typical bacterial promoter -35/-10 boxes. Among the 814 DNA motifs described for the whole S. coelicolor genome, those of sigma factors (B, WhiG) could be retrieved from the crude data. We could show that this method could be generalized by applying it successfully in a preliminary attempt to the genome of Bacillus subtilis
APA, Harvard, Vancouver, ISO, and other styles
3

Augustin, Emmanuel. "Reconnaissance de mots manuscrits par systèmes hybrides : Réseaux de neurones et modèles de Markov cachés." Paris 5, 2001. http://www.theses.fr/2001PA05S026.

Full text
Abstract:
Ce mémoire présente un système de lecture de mots manuscrits isolés, appartenant à un lexique, avec des techniques combinées réseaux de neurones (RN) et modèles de Markov cachés (MMC). Les RN et les MMC ont été abondamment étudiés pour la reconnaissance de la parole entre autre. Leur maitrise a motivé depuis 10 ans de nombreux travaux pour combiner les atouts des deux outils, en discrimination et en modélisation des séquences. Quelques systèmes sont présentés pour la parole ou l'écrit. Le principe des systèmes hybrides RN et MMC est présenté avec son apprentissage itératif selon l'algorithme expectation maximisation (EM). Ce système pemet de remplacer la qualification vectorielle des MMC discrets, classification non supervisée qui perd beaucoup d'information, par un RN. . .<br>This thesis presents a recognition system for isolated handwritten words, given a dictionary, using a combination of neural networks (NN) and hidden markov models (HMM). NN and HMM have been extensively studied, the former in the field of isolated character recognition and the later in speech recognition, among other applications. Know-how on NN and HMM has motivated within the last 10 years many researches to combine the advantages of the two tools, that is discrimination power and sequence modelling. Some historical and original systems are recalled from speech and handwriting recognition. .
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Cam Steven. "Analyse temps/fréquence pour l'identification de signatures pulmonaires par modèles de Markov cachés." Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/LE_CAM_Steven_2009.pdf.

Full text
Abstract:
Les bruits respiratoires sont employés par le médecin comme des indicateurs de l’état physiologique du patient et lui permettent d’établir son diagnostic. Néanmoins, leur interprétation fait intervenir une grande part de subjectivité, liée à la perception du médecin. C’est pourquoi il est actuellement envisagée une analyse automatique de ces sons dans les buts d’assurer la formation des futurs médecins et d’identifier des pathologies pour l’aide au diagnostic. La structure du signal respiratoire se compose du bruit respiratoire normal sur lequel s’additionne éventuellement un son anormal qui peut être soit transitoire (un craquement, un crépitant), soit musical (un sibilant, un stridor) ou encore un mélange (squawk). Les méthodes développés dans ce travail de thèse concernent l’analyse multirésolution des signaux par des outils bayésiens dans le domaine des paquets d’ondelettes, associés à des modèles markoviens multivariés originaux adaptés au contexte difficile du traitement des sons pulmonaires. Nous proposons ainsi une méthodologie pour l’étude des signaux respiratoires, avec pour ambition la possibilité de traiter un large panel de cas pathologiques. Une méthode basée sur l’analyse multivariée du signal après recalage de portions d’intérêt du signal est présentée. Nous introduisons ensuite un nouveau graphe de Markov adapté à la décomposition en paquets d’ondelettes, dans le but d’une analyse multirésolution des signaux pulmonaires et d’une détection plus précise des caractéristiques statistiques de ces signaux particulièrement variables à la fois en temps et en fréquence<br>The detection of abnormal respiratory sounds is still carried out by pulmonary auscultation using a stethoscope and implies limitations due to the subjectivity of this process. Indeed, it depends on the individual’s own hearing, experience and its ability to differentiate patterns. Nowadays, there is a clear need for a normalization of the diagnosis methodology and for the development of a common framework for all the medical community. In this context, much of the knowledge gained in recent years has resulted from the use of modern digital processing techniques, which leads to objective analysis and comparisons of respiratory sounds. Abnormal respiratory sounds are added to the normal breathing sounds and, according to the American Thoracic Society, they fall in two main categories : continuous sounds (Wheezes, Stridors) and discontinuous sounds (crackles). The methods developped in this thesis concern multiresolution analysis of the signals using bayesian tools in the wavelet packets domain, associated to original Markov models well adapted to the difficult context of lung sounds analysis. We then propose a methodology for the study of respiratory signals, with the ambition to be able to handle a wide panel of pathological cases. First, a method based on multivariate signal analysis after a scaling of interesting features is presented. We then introduce a new Markov graph adapted to the wavelet packet decomposition, with the aim of a multiresolution analysis of the lung signals and a more precise detection of the statistical characteristics of these highly unstable signals
APA, Harvard, Vancouver, ISO, and other styles
5

Aupetit, Sébastien. "Contributions aux Modèles de Markov Cachés : métaheuristiques d'apprentissage, nouveaux modèles et visualisation de dissimilarité." Phd thesis, Université François Rabelais - Tours, 2005. http://tel.archives-ouvertes.fr/tel-00168392.

Full text
Abstract:
Dans ce travail de thèse, nous présentons plusieurs contributions visant à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle. Nous nous sommes concentrés sur trois objectifs : l'amélioration de l'apprentissage de MMC, l'expérimentation d'un nouveau type de MMC et la visualisation de dissimilarité pour mieux comprendre les interactions entre MMC. Dans la première partie, nous proposons, évaluons et comparons plusieurs nouvelles applications<br />de métaheuristiques biomimétiques classiques (les algorithmes génétiques, l'algorithme de fourmis artificielles API et l'optimisation par essaim particulaire) au problème de l'apprentissage de MMC. Dans la<br />deuxième partie, nous proposons un nouveau type de modèle de Markov caché, appelé modèle Markov caché à substitutions de symboles (MMCSS). Un MMCSS permet d'incorporer des connaissances a priori dans le processus d'apprentissage et de reconnaissance. Les premières expérimentations de ces modèles sur des images démontrent leur intérêt. Dans la troisième partie, nous proposons une nouvelle méthode de représentation de dissimilarité appelée matrice de scatterplots pseudo-euclidienne (MSPE), permettant de mieux comprendre les interactions entre des MMC. Cette MSPE est construite à partir<br />d'une technique que nous nommons analyse en composantes principales à noyau indéfini (ACPNI). Nous terminons par la présentation de la bibliothèque HMMTK, développée au cours de ce travail. Cette dernière intègre des mécanismes de parallélisation et les algorithmes développés au cours de la thèse.
APA, Harvard, Vancouver, ISO, and other styles
6

Votsi, Irène. "Evaluation des risques sismiques par des modèles markoviens cachés et semi-markoviens cachés et de l'estimation de la statistique." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2058.

Full text
Abstract:
Le premier chapitre présente les axes principaux de recherche ainsi que les problèmes traités dans cette thèse. Plus précisément, il expose une synthèse sur le sujet, en y donnant les propriétés essentielles pour la bonne compréhension de cette étude, accompagnée des références bibliographiques les plus importantes. Il présente également les motivations de ce travail en précisant les contributions originales dans ce domaine. Le deuxième chapitre est composé d’une recherche originale sur l’estimation du risque sismique, dans la zone du nord de la mer Egée (Grèce), en faisant usage de la théorie des processus semi-markoviens à temps continue. Il propose des estimateurs des mesures importantes qui caractérisent les processus semi-markoviens, et fournit une modélisation dela prévision de l’instant de réalisation d’un séisme fort ainsi que la probabilité et la grandeur qui lui sont associées. Les chapitres 3 et 4 comprennent une première tentative de modélisation du processus de génération des séismes au moyen de l’application d’un temps discret des modèles cachés markoviens et semi-markoviens, respectivement. Une méthode d’estimation non paramétrique est appliquée, qui permet de révéler des caractéristiques fondamentales du processus de génération des séismes, difficiles à détecter autrement. Des quantités importantes concernant les niveaux des tensions sont estimées au moyen des modèles proposés. Le chapitre 5 décrit les résultats originaux du présent travail à la théorie des processus stochastiques, c’est- à-dire l’étude et l’estimation du « Intensité du temps d’entrée en temps discret (DTIHT) » pour la première fois dans des chaînes semi-markoviennes et des chaînes de renouvellement markoviennes cachées. Une relation est proposée pour le calcul du DTIHT et un nouvel estimateur est présenté dans chacun de ces cas. De plus, les propriétés asymptotiques des estimateurs proposés sont obtenues, à savoir, la convergence et la normalité asymptotique. Le chapitre 6 procède ensuite à une étude de comparaison entre le modèle markovien caché et le modèle semi-markovien caché dans un milieu markovien et semi-markovien en vue de rechercher d’éventuelles différences dans leur comportement stochastique, déterminé à partir de la matrice de transition de la chaîne de Markov (modèle markovien caché) et de la matrice de transition de la chaîne de Markov immergée (modèle semi-markovien caché). Les résultats originaux concernent le cas général où les distributions sont considérées comme distributions des temps de séjour ainsi que le cas particulier des modèles qui sont applique´s dans les chapitres précédents où les temps de séjour sont estimés de manière non-paramétrique. L’importance de ces différences est spécifiée à l’aide du calcul de la valeur moyenne et de la variance du nombre de sauts de la chaîne de Markov (modèle markovien caché) ou de la chaîne de Markov immergée (modèle semi-markovien caché) pour arriver dans un état donné, pour la première fois. Enfin, le chapitre 7 donne des conclusions générales en soulignant les points les plus marquants et des perspectives pour développements futurs<br>The first chapter describes the definition of the subject under study, the current state of science in this area and the objectives. In the second chapter, continuous-time semi-Markov models are studied and applied in order to contribute to seismic hazard assessment in Northern Aegean Sea (Greece). Expressions for different important indicators of the semi- Markov process are obtained, providing forecasting results about the time, the space and the magnitude of the ensuing strong earthquake. Chapters 3 and 4 describe a first attempt to model earthquake occurrence by means of discrete-time hidden Markov models (HMMs) and hidden semi-Markov models (HSMMs), respectively. A nonparametric estimation method is followed by means of which, insights into features of the earthquake process are provided which are hard to detect otherwise. Important indicators concerning the levels of the stress field are estimated by means of the suggested HMM and HSMM. Chapter 5 includes our main contribution to the theory of stochastic processes, the investigation and the estimation of the discrete-time intensity of the hitting time (DTIHT) for the first time referring to semi-Markov chains (SMCs) and hidden Markov renewal chains (HMRCs). A simple formula is presented for the evaluation of the DTIHT along with its statistical estimator for both SMCs and HMRCs. In addition, the asymptotic properties of the estimators are proved, including strong consistency and asymptotic normality. In chapter 6, a comparison between HMMs and HSMMs in a Markov and a semi-Markov framework is given in order to highlight possible differences in their stochastic behavior partially governed by their transition probability matrices. Basic results are presented in the general case where specific distributions are assumed for sojourn times as well as in the special case concerning the models applied in the previous chapters, where the sojourn time distributions are estimated non-parametrically. The impact of the differences is observed through the calculation of the mean value and the variance of the number of steps that the Markov chain (HMM case) and the EMC (HSMM case) need to make for visiting for the first time a particular state. Finally, Chapter 7 presents concluding remarks, perspectives and future work
APA, Harvard, Vancouver, ISO, and other styles
7

Tay, Yong Haur. "Reconnaissance de l'écriture manuscrite hors-ligne par réseau de neurones artificiels et modèles de Markov cachés." Nantes, 2002. http://www.theses.fr/2002NANT2106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Bianne-Bernard, Anne-Laure. "Reconnaissance de mots manuscrits cursifs par modèles de Markov cachés en contexte : application au français, à l'anglais et à l'arabe." Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00656402.

Full text
Abstract:
L'objectif de cette thèse est d'élaborer un système de reconnaissance de mots manuscrits pouvant être appris et appliqué sur différents styles d'écriture. L'approche utilisée est une approche analytique: les mots sont découpés en sous-parties (caractères) à modéliser. Le découpage est effectué de manière implicite par l'utilisation de fenêtres glissantes qui permettent de transformer les images de mots en séquences. La méthode choisie pour apprendre les modèles de caractères utilise les modèles de Markov cachés (HMMs). Chaque caractère est représenté par un HMM de type Bakis, ce qui permet d'absorber les variations d'écriture entre scripteurs. Les mots sont reconstruits ensuite par concaténation des modèles qui les composent. Dans cette thèse, le choix est fait de chercher à améliorer la modélisation HMM de caractères en agissant au coeur même des modèles. A cette fin, une nouvelle approche est proposée, qui utilise l'aspect contextuel pour la modélisation : un caractère est modélisé en fonction de son contexte et son modèle est nommé trigraphe. La prise en compte de l'environnement d'un caractère pour sa modélisation implique cependant une multiplication des paramètres HMMs à apprendre sur un nombre souvent restreint de données d'observation. Une méthode originale de regroupement de paramètres est proposée dans ces travaux : le clustering d'états par position à l'aide d'arbres binaires de décision. Ce type de clustering, inédit dans les systèmes de reconnaissance de l'écriture, permet au système de réduire le nombre de paramètres tout en conservant l'un des principaux attraits des HMMs : l'utilisation d'un lexique de test indépendant de celui d'apprentissage<br>This thesis aims at elaborating a new handwritten words recognition system that can be learned and applied on any handwriting style and any alphabet. An analytic approach is used. Words are divided into subparts (characters or graphemes) that have to be modelled. The division is made implicitly thanks to sliding windows, which transform the word images into sequences. Hidden Markov Models, widely known as one of the most powerful tools for sequence modelling, are chosen to model the characters. A Bakis-type HMM represents each character. This enables the model to absorb variations in handwriting. A word model is built by concatenating its compound characters models. In this thesis, the choice is made to strengthen the HMM modelling by acting directly within the models. To this end, a new approach is proposed, using context knowledge : each character model depends on its context (its preceding and following characters). This new character model is named trigraph. Taking into account the characters environment allows more precise and more effective models to be built. However, this implies a multiplication of HMM parameters to be learned (often on a restricted number of observation data). An original method for parameter grouping is proposed in this thesis to overcome this issue : a state-based clustering, performed on each state position and based on binary decision trees. This type of clustering is new in the handwriting recognition field. It has many advantages, including parameter reduction. Moreover, the use of decision trees allows the HMMs to keep one of their most interesting attributes : independence between training and testing lexicon
APA, Harvard, Vancouver, ISO, and other styles
9

Jacob, Bruno. "Un outil informatique de gestion de modèles de Markov cachés : expérimentations en reconnaissance automatique de la parole." Toulouse 3, 1995. http://www.theses.fr/1995TOU30240.

Full text
Abstract:
Nous proposons dans ce document l'utilisation d'un compilateur de modeles de markov caches dans le cadre de la reconnaissance automatique de la parole. Apres avoir presente les caracteristiques du compilateur, nous presentons quelques applications le mettant en uvre afin de valider cet outil: ? une methode de filtrage lexical en deux etapes: un sous-dictionnaire est selectionne par un modele de markov cache principal, dont les unites sont des classes majeures. A partir de celui-ci, un modele de markov cache temporaire est construit avec des unites pseudo-diphones afin d'obtenir le mot reconnu. Le compilateur est ici utilise dans une application classique de reconnaissance. ? une nouvelle methode de fusion de donnees acoustiques et articulatoires a l'aide d'une relation de type maitre/esclave entre deux modeles de markov caches, dans le but d'augmenter la robustesse des reconnaissances dans le bruit. Nous avons adapte le compilateur afin qu'il construise ces variantes des modeles de markov caches. ? un systeme de decodage acoustico-phonetique base sur des unites phonetiques issues d'une quantification vectorielle. Nous utilisons le compilateur comme un outil de validation du systeme de decodage. ? une proposition de post-traitement des resultats d'un systeme de reconnaissance de mots isoles afin d'en augmenter les performances. Nous testons ici la compatibilite des reseaux construits par le compilateur avec ceux d'un systeme deja existant. Nous concluons par une discussion sur les extensions possibles du compilateur
APA, Harvard, Vancouver, ISO, and other styles
10

Bréhélin, Laurent. "Modèles de Markov cachés et apprentissage pas fusions d'états : algorithmes, applications, utilisations pour le test de circuits intégrés." Montpellier 2, 2001. http://www.theses.fr/2001MON20051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Robles, Bernard. "Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-01058784.

Full text
Abstract:
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
APA, Harvard, Vancouver, ISO, and other styles
12

Ait-Mohand, Kamel. "Techniques d'adaptation de modèles markoviens. Application à la reconnaissance de documents anciens." Rouen, 2011. http://www.theses.fr/2011ROUES008.

Full text
Abstract:
Ce travail s'intéresse à la reconnaissance de caractères dans les documents imprimés. Le but est de créer un OCR suffisamment robuste pour être performant sur les documents anciens dont les particularités les rendent difficiles à traiter par les OCRs. Nous avons créé un système de reconnaissance polyfonte basé sur des modèles de Markov cachés (MMC) et nous l'avons intégré dans une chaîne de traitement OCR complète en utilisant des outils logiciels libres. Afin d'améliorer les performances de ce système sur de nouvelles données, nous avons créé des algorithmes d'adaptation qui modifient conjointement la structure et les probabilités d'émission des MMC. Nous avons évalué le système de reconnaissance polyfonte ainsi que les algorithmes d'adaptation sur des bases d'images réelles et synthétiques. Les résultats obtenus montrent que le système de reconnaissance polyfonte est compétitif comparé aux systèmes d'OCR industriels et que nos algorithmes d'adaptation de la structure devancent nettement les algorithmes d'adaptation de l'état de l'art<br>This work focuses on the recognition of characters in printed documents. The goal is to create a sufficiently robust OCR system that can deal with ancient documents whose peculiarity makes them difficult to process. We created a polyfont recognition system based on Hidden Markov Models (HMM) and we have integrated it into a complete processing chain using open source OCR tools. To improve the performance of this system on new data, we created new adaptation algorithms that jointly modify the structure and emission probabilities of HMMs. We evaluated the polyfont recognition system and the adaptation algorithms on synthetic and real images datasets. The results show that the polyfont recognition system is competitive compared to commercial OCR systems and that our structure-adaptation algorithms are more efficient than other state of the art adaptation algorithms
APA, Harvard, Vancouver, ISO, and other styles
13

Terrapon, Nicolas. "Recherche de domaines protéiques divergents à l'aide de modèles de Markov cachés : application à Plasmodium falciparum." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00811835.

Full text
Abstract:
Les modèles de Markov cachés (MMC) - par exemple ceux de la librairie Pfam - sont des outils très populaires pour l'annotation des domaines protéiques. Cependaqnt, ils ne sont pas toujours adaptés aux protéines les plus divergentes. C'est notamment le cas avec Plasmodium falciparum (principal agent du paludisme chez l'Homme), où les MMC de Pfam identifient peu de familles distinctes de domaines, et couvrent moins de 50% des protéines de l'organisme. L'objectif de cette thèse est d'apporter des méthodes nouvelles pour affiner la détection de domaines dans les protéines divergentes. Le premier axe développé est une approche d'identification de domaines utilisant leurs propriétés de co- occurrence. Différentes études ont montré que la majorité des domaines apparaissent dans les protéines avec un ensemble très réduits d'autres domaines favoris. Notre méthode exploite cette propriété pour détecter des domaines trop divergents pour être identifiés par l'approche classique. Cette détection s'accompagne d'une estimation du taux d'erreur par une procédure de ré-échantillonnage. Chez P. falciparum, elle permet d'identifier, avec un taux d'erreur estimé inférieur à 20%, 585 nouveaux domaines - dont 159 familles étaient inédites dans cet organisme -, ce qui représente 16% du nombre de domaines connus. Le second axe de mes recherches présente plusieurs méthodes de corrections statistiques et évolutives des MMC pour l'annotation d'organismes divergents. Deux types d'approches ont été proposées. D'un côté, nous intégrons aux alignements d'apprentissage des MMC les séquences précédemment identifiés dans l'organisme cible ou ses proches relatifs. La limitation de cette solution est que seules des familles de domaines déjà connues dans le taxon peuvent ainsi être identifiées. Le deuxième type d'approches contourne cette limitation en corrigeant tous les modèles par une prise en compte de l'évolution des séquences d'apprentissage. Pour cela, nous faisons appel à des techniques classiques de la bioinformatique et de l'apprentissage statistique. Les résultats obtenus offrent un ensemble de prédictions complémentaires totalisant 663 nouveaux domaines supplémentaires - dont 504 familles inédites -, soit une augmentation de 18% à ajouter aux précédents résultats.
APA, Harvard, Vancouver, ISO, and other styles
14

Ahmad, Abdul Rahim. "Reconnaissance de l'écriture manuscrite en-ligne par approche combinant systèmes à vastes marges et modèles de Markov cachés." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00426903.

Full text
Abstract:
Nos travaux concernent la reconnaissance de l'écriture manuscrite qui est l'un des domaines de prédilection pour la reconnaissance des formes et les algorithmes d'apprentissage. Dans le domaine de l'écriture en-ligne, les applications concernent tous les dispositifs de saisie permettant à un usager de communiquer de façon transparente avec les systèmes d'information. Dans ce cadre, nos travaux apportent une contribution pour proposer une nouvelle architecture de reconnaissance de mots manuscrits sans contrainte de style. Celle-ci se situe dans la famille des approches hybrides locale/globale où le paradigme de la segmentation/reconnaissance va se trouver résolu par la complémentarité d'un système de reconnaissance de type discriminant agissant au niveau caractère et d'un système par approche modèle pour superviser le niveau global. Nos choix se sont portés sur des Séparateurs à Vastes Marges (SVM) pour le classifieur de caractères et sur des algorithmes de programmation dynamique, issus d'une modélisation par Modèles de Markov Cachés (HMM). Cette combinaison SVM/HMM est unique dans le domaine de la reconnaissance de l'écriture manuscrite. Des expérimentations ont été menées, d'abord dans un cadre de reconnaissance de caractères isolés puis sur la base IRONOFF de mots cursifs. Elles ont montré la supériorité des approches SVM par rapport aux solutions à bases de réseaux de neurones à convolutions (Time Delay Neural Network) que nous avions développées précédemment, et leur bon comportement en situation de reconnaissance de mots.
APA, Harvard, Vancouver, ISO, and other styles
15

Kriouile, Abdelaziz. "La reconnaissance automatique de la parole et les modèles markoviens cachés : modèles du second ordre et distance de Viterbi à optimalité locale." Nancy 1, 1990. http://www.theses.fr/1990NAN10273.

Full text
Abstract:
Des travaux intensifs sur la reconnaissance automatique de la parole utilisant les modèles stochastiques ont été réalisés durant les cinq dernières années. L'application des modèles markoviens cachés (HMM) du premier ordre a conduit 0 des résultats impressionnants dans le domaine de la reconnaissance de mots isolés et de la parole continue. Notre objectif était de montrer que l'apport des modèles markoviens cachés à la reconnaissance automatique de la parole est d'autant plus important qu'on mène des réflexions fondamentales sur les modèles markoviens eux-mêmes et sur la façon de les appliquer. Nous avons développé une nouvelle formulation de Baum-Welch et une extension de l'algorithme de Viterbi, qui rendent les modèles markoviens cachés du second ordre efficaces en calcul pour des applications en temps réel. Il y avait une nette amélioration du taux de reconnaissance avec le second ordre. L'extension a des HMM d'ordre plus élevé a été aussi discutée. Enfin, nous avons proposé une nouvelle stratégie d'utilisation de l'algorithme de Viterbi pour la reconnaissance de la parole continue. Elle est basée sur la comparaison d'optimums locaux dans une fenêtre de trames. Cette stratégie, par bloc, a donné de meilleurs résultats que les versions classiques de l'algorithme de Viterbi. Elle permet une interaction avec d'autres processeurs.
APA, Harvard, Vancouver, ISO, and other styles
16

Le, Corff Sylvain. "Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées." Phd thesis, Telecom ParisTech, 2012. http://tel.archives-ouvertes.fr/tel-00773405.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées dans un cadre paramétrique et dans un cadre non paramétrique. Dans le cas paramétrique, nous imposons des contraintes sur le calcul de l'estimateur proposé : un premier volet de cette thèse est l'estimation en ligne d'un paramètre au sens du maximum de vraisemblance. Le fait d'estimer en ligne signifie que les estimations doivent être produites sans mémoriser les observations. Nous proposons une nouvelle méthode d'estimation en ligne pour les chaînes de Markov cachées basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. La consistance de l'algorithme ainsi que des vitesses de convergence en probabilité ont été prouvées. Dans le cas d'espaces d'états généraux, l'implémentation numérique de l'algorithme BOEM requiert d'introduire des méthodes de Monte Carlo séquentielles - aussi appelées méthodes particulaires - pour approcher des espérances conditionnelles sous des lois de lissage qui ne peuvent être calculées explicitement. Nous avons donc proposé une approximation Monte Carlo de l'algorithme BOEM appelée Monte Carlo BOEM. Parmi les hypothèses nécessaires à la convergence de l'algorithme Monte Carlo BOEM, un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en fonction du nombre d'observations T et du nombre de particules N est nécessaire. Par conséquent, une seconde partie de cette thèse a été consacrée à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles : l'algorithme Forward Filtering Backward Smoothing et l'algorithme Forward Filtering Backward Simulation. Ensuite, nous considérons des applications de l'algorithme Monte Carlo BOEM à des problèmes de cartographie et de localisation simultanées. Ces problèmes se posent lorsqu'un mobile se déplace dans un environnement inconnu. Il s'agit alors de localiser le mobile tout en construisant une carte de son environnement. Enfin, la dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré a été très peu étudié et nous avons donc choisi de l'aborder dans un cadre précis. Nous supposons que la chaîne (Xk) est une marche aléatoire sur un sous-espace compact de Rm dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons également que, pour tout k, Yk est une observation dans un bruit additif gaussien de f(Xk), où f est une fonction à valeurs dans Rl que nous cherchons à estimer. Le premier résultat que nous avons établi est l'identifiabilité du modèle statistique considéré. Nous avons également proposé une estimation de la fonction f et du paramètre a à partir de la log-vraisemblance par paires des observations. Nous avons prouvé la convergence en probabilité de ces estimateurs lorsque le nombre d'observations utilisées tend vers l'infini.
APA, Harvard, Vancouver, ISO, and other styles
17

Akhbari, Mahsa. "Analyse des intervalles ECG inter- et intra-battement sur des modèles d'espace d'état et de Markov cachés." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT026.

Full text
Abstract:
Les maladies cardiovasculaires sont l'une des principales causes de mortalité chez l'homme. Une façon de diagnostiquer des maladies cardiaques et des anomalies est le traitement de signaux cardiaques tels que le ECG. Dans beaucoup de ces traitements, des caractéristiques inter-battements et intra-battements de signaux ECG doivent être extraites. Ces caractéristiques comprennent les points de repère des ondes de l’ECG (leur début, leur fin et leur point de pic), les intervalles significatifs et les segments qui peuvent être définis pour le signal ECG. L'extraction des points de référence de l'ECG consiste à identifier l'emplacement du pic, de début et de la fin de l'onde P, du complexe QRS et de l'onde T. Ces points véhiculent des informations cliniquement utiles, mais la segmentation precise de chaque battement de l'ECG est une tâche difficile, même pour les cardiologues expérimentés.Dans cette thèse, nous utilisons un cadre bayésien basé sur le modèle dynamique d'ECG proposé par McSharry. Depuis ce modèle s'appuyant sur la morphologie des ECG, il peut être utile pour la segmentation et l'analyse d'intervalles d'ECG. Afin de tenir compte de la séquentialité des ondes P, QRS et T, nous utiliserons également l'approche de Markov et des modèles de Markov cachés (MMC). En bref dans cette thèse, nous utilisons un modèle dynamique (filtre de Kalman), un modèle séquentiel (MMC) et leur combinaison (commutation de filtres de Kalman (SKF)). Nous proposons trois méthodes à base de filtres de Kalman, une méthode basée sur les MMC et un procédé à base de SKF. Nous utilisons les méthodes proposées pour l'extraction de points de référence et l'analyse d'intervalles des ECG. Le méthodes basées sur le filtrage de Kalman sont également utilisés pour le débruitage d'ECG, la détection de l'alternation de l'onde T, et la détection du pic R de l'ECG du foetus.Pour évaluer les performances des méthodes proposées pour l'extraction des points de référence de l'ECG, nous utilisons la base de données "Physionet QT", et une base de données "Swine" qui comprennent ECG annotations de signaux par les médecins. Pour le débruitage d'ECG, nous utilisons les bases de données "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" et "MIT-BIH noise stress test". La base de données "TWA Challenge 2008 database" est utilisée pour la détection de l'alternation de l'onde T. Enfin, la base de données "Physionet Computing in Cardiology Challenge 2013 database" est utilisée pour la détection du pic R de l'ECG du feotus. Pour l'extraction de points de reference, la performance des méthodes proposées sont évaluées en termes de moyenne, écart-type et l'erreur quadratique moyenne (EQM). Nous calculons aussi la sensibilité des méthodes. Pour le débruitage d'ECG, nous comparons les méthodes en terme d'amélioration du rapport signal à bruit<br>Cardiovascular diseases are one of the major causes of mortality in humans. One way to diagnose heart diseases and abnormalities is processing of cardiac signals such as ECG. In many of these processes, inter-beat and intra-beat features of ECG signal must be extracted. These features include peak, onset and offset of ECG waves, meaningful intervals and segments that can be defined for ECG signal. ECG fiducial point (FP) extraction refers to identifying the location of the peak as well as the onset and offset of the P-wave, QRS complex and T-wave which convey clinically useful information. However, the precise segmentation of each ECG beat is a difficult task, even for experienced cardiologists.In this thesis, we use a Bayesian framework based on the McSharry ECG dynamical model for ECG FP extraction. Since this framework is based on the morphology of ECG waves, it can be useful for ECG segmentation and interval analysis. In order to consider the time sequential property of ECG signal, we also use the Markovian approach and hidden Markov models (HMM). In brief in this thesis, we use dynamic model (Kalman filter), sequential model (HMM) and their combination (switching Kalman filter (SKF)). We propose three Kalman-based methods, an HMM-based method and a SKF-based method. We use the proposed methods for ECG FP extraction and ECG interval analysis. Kalman-based methods are also used for ECG denoising, T-wave alternans (TWA) detection and fetal ECG R-peak detection.To evaluate the performance of proposed methods for ECG FP extraction, we use the "Physionet QT database", and a "Swine ECG database" that include ECG signal annotations by physicians. For ECG denoising, we use the "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" and "MIT-BIH noise stress test" databases. "TWA Challenge 2008 database" is used for TWA detection and finally, "Physionet Computing in Cardiology Challenge 2013 database" is used for R-peak detection of fetal ECG. In ECG FP extraction, the performance of the proposed methods are evaluated in terms of mean, standard deviation and root mean square of error. We also calculate the Sensitivity for methods. For ECG denoising, we compare methods in their obtained SNR improvement
APA, Harvard, Vancouver, ISO, and other styles
18

Low-Kam, Cécile. "Etude probabiliste et statistique des grandes bases de données." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20171.

Full text
Abstract:
Cette thèse se situe à l'interface de la statistique et de la fouille de données. Elle est composée de trois parties indépendantes. Dans la première, nous cherchons à estimer l'ordre (le nombre d'États cachés) d'un modèle de Markov caché dont la distribution d'émission appartient à la famille exponentielle. Nous nous plaçons dans le cas où aucune borne supérieure sur cet ordre n'est connue a priori. Nous définissons deux estimateurs pénalisés pour cet ordre, l'un basé sur le maximum de vraisemblance et l'autre sur une statistique de mélange bayésien. Nous montrons la consistance forte de ces estimateurs. Dans la deuxième partie, nous extrayons des motifs séquentiels dont la fréquence est exceptionnellement élevée par rapport à un modèle de Markov. L'approche consiste à dénombrer dynamiquement toutes les positions possibles d'un motif au sein d'une séquence. Puis la fréquence observée est comparée à la fréquence attendue à l'aide d'un test binomial. Une procédure est utilisée pour tenir compte des tests multiples. Des expérimentations sont menées sur des bases synthétiques et des séquences de protéines. Enfin, dans la troisième partie, nous nous intéressons au calcul de l'estimateur à noyau de la densité. Les observations sont regroupées dans des structures hiérarchiques d'arbres binaires. Les calculs sont réalisés sur les nœuds, plutôt que sur les points, pour une plus grande efficacité. Nous effectuons le calcul sur un Échantillon de points de chaque nœud, au lieu de sa totalité, en utilisant des inégalités de concentration non-paramétriques pour contrôler l'erreur. Puis, nous proposons un nouveau parcours de l'arbre pour effectuer ces échantillonnages sur un nombre réduit de nœuds. Nous testons notre approche sur des jeux de données synthétiques<br>This Ph.D thesis lies at the interface of statistics and data mining. It contains three independent parts. In the first one, we aim at estimating the order (the number of hidden states) of a Hidden Markov Model, whose emission distribution belongs to the exponential family. We suppose that no upper bound is known on this order. We define two penalised estimators for this order, one based on the maximum likelihood, an the other on a bayesian mixture statistic. We prove that both estimators are strongly consistent. In the second part, we extract sequential patterns of exceptional frequency given a Markov model. We first dynamically enumerate all the possible occurences of a pattern in a sequence. Then, the observed frequency is compared to the expected frequency using a binomial test. Multiple testing is taken into account. Experiments are led on synthetic databases and protein sequences. Finally, in the third chapter, we are interested in kernel density estimation. The observations are gathered in hierarchical structures called binary trees. Computations are done on nodes of trees, rather than on raw observations, for greater efficiency. We only take into account samples on each node, instead of all the observations, using a non-parametric concentration inequality to control the error. We also propose to only browse some parts of the tree. We test our approach on synthetic datasets
APA, Harvard, Vancouver, ISO, and other styles
19

Ahmed, Eman Ahmed Sayed. "Modélisation constructive des systèmes à événements discrets. Application aux organismes artificiels." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4016.

Full text
Abstract:
Les humains peuvent ressentir leurs muscles. Ils peuvent également reconnaître leur environnement et les objets qui s'y trouvent. Enfin, ils sont capables de se situer dans cet environnement et d'y atteindre des objets. Comment ces capacités sont acquises et interagissent les unes avec les autres au cours du développement ? Cette question demeure ouverte en biologie. Notre objectif est donc d’aider les biologistes à mieux comprendre comment un humain est capable de construire sa carte cognitive et d’effectuer des mouvements dirigés vers un objectif. Sur le plan développemental, l’acquisition des capacités sensorimotrices humaines débute avec le fœtus. Nous présentons ici un modèle théorique du développement de la carte cognitive d’un fœtus humain à partir de son système sensorimoteur. Le modèle intègre les proprioceptions des membres du corps et les perceptions de l’environnement et comment celles-ci coopèrent pour construire une carte cognitive. Cette carte est essentielle afin d'effectuer des mouvements dirigés vers un objectif et atteindre différents objets au sein de l’environnement. Nous proposons un nouvel algorithme de clustering appelé “Frequency-based-means”, qui est utilisé pour obtenir les proprioceptions et les perceptions qui constituant la carte d’association. Des modèles de Markov cachés sont utilisés pour modéliser l’apprentissage et la production de mouvements<br>Humans can internally sense their muscles. They can also recognize their environment with its objects and are able to navigate through it easily to reach them. How these abilities are gained and interact each other is still an open question in biology. Our aim is to help biologists to understand how a human is able to build his cognitive map and make goal-directed movements. The origin of human capabilities goes back to the fetus stage. We present a theoretical model of the development of the cognitive map of a fetus human from his sensorimotor system. The model integrates the proprioceptions of body limbs and perceptions from the environment and how these cooperate to build a cognitive map, which in turn, is essential for making goal-directed movements to reach different objects in the surrounding environment. We propose a new clustering algorithm called “Frequency-based-means”; which is used to get the proprioceptions and the perceptions that form the association map. Hidden Markov Models are used to model movement learning and production
APA, Harvard, Vancouver, ISO, and other styles
20

Infantes, Guillaume. "Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00129505.

Full text
Abstract:
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
APA, Harvard, Vancouver, ISO, and other styles
21

Trevezas, Samis. "Etude de l'estimation du Maximum de Vraisemblance dans des modèles Markoviens, Semi-Markoviens et Semi-Markoviens Cachés avec Applications." Phd thesis, Université de Technologie de Compiègne, 2008. http://tel.archives-ouvertes.fr/tel-00472644.

Full text
Abstract:
Dans ce travail je présente une étude unifiée basée sur l'estimation du maximum de vraisemblance pour des modèles markoviens, semi-markoviens et semi-markoviens cachés. Il s'agit d'une étude théorique des propriétés asymptotiques de l'EMV des modèles mentionnés ainsi que une étude algorithmique. D'abord, nous construisons l'estimateur du maximum de vraisemblance (EMV) de la loi stationnaire et de la variance asymptotique du théorème de la limite centrale (TLC) pour des fonctionnelles additives des chaînes de Markov ergodiques et nous démontrons sa convergence forte et sa normalité asymptotique. Ensuite, nous considérons un modèle semi-markovien non paramétrique. Nous présentons l'EMV exact du noyau semi-markovien qui gouverne l'évolution de la chaîne semi-markovienne (CSM) et démontrons la convergence forte, ainsi que la normalité asymptotique de chaque sous-vecteur fini de cet estimateur en obtenant des formes explicites pour les matrices de covariance asymptotiques. Ceci a été appliqué pour une observation de longue durée d'une seule trajectoire d'une CSM, ainsi que pour une suite des trajectoires i.i.d. d'une CSM censurée à un instant fixe. Nous introduisons un modèle semi-markovien caché (MSMC) général avec dépendance des temps de récurrence en arrière. Nous donnons des propriétés asymptotiques de l'EMV qui correspond à ce modèle. Nous déduisons également des expressions explicites pour les matrices de covariance asymptotiques qui apparaissent dans le TLC pour l'EMV des principales caractéristiques des CSM. Enfin, nous proposons une version améliorée de l'algorithme EM (Estimation-Maximisation) et une version stochastique de cet algorithme (SAEM) afin de trouver l'EMV pour les MSMC non paramétriques. Des exemples numériques sont présentés pour ces deux algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
22

Delakis, Emmanouil. "Structuration multimodale des vidéos de tennis en utilisant des modèles segmentaux." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00524285.

Full text
Abstract:
L'analyse automatique du contenu de la vidéo est un sujet de recherche émergent avec de nombreuses applications pratiques sur de grandes bases de données de vidéo ou sur les enregistreurs vidéo personnels. Le centre de cette étude est la construction automatique de la table des matières d'une émission de tennis en utilisant les modèles markoviens et la programmation dynamique. Motivés par le besoin de représentations multimodales plus efficaces, nous proposons l'utilisation des caractéristiques segmentales dans le cadre des modèles de segment, au lieu des caractéristiques en trames des modèles de Markov cachés. En considérant chaque scène de la vidéo comme un segment, les points de synchronisation entre différentes modalités sont étendus aux frontières de la scène, qui est l'unité thématique de base de la vidéo. Les caractéristiques visuelles venant de la vidéo diffusée et les caractéristiques auditives enregistrées dans le court sont traitées avant fusion dans leurs propres segments, avec leurs propres modèles et fréquences d'échantillonnage. Diverses techniques pour modéliser les segments sont examinées, y compris les modèles de Markov cachés de densité discrète ou continue, les modèles bigrames ou des approches connexionnistes, fonctionnant sur les caractéristiques audiovisuelles automatiquement extraites. Des modèles de segments et des modèles de Markov cachés, avec des topologies hiérarchiques ou ergodiques, sont établis et comparés sur un corpus de 15 heures de vidéos de tennis. Les paramètres des modèles sont estimés sur des données étiquetées. Selon le modèle segmentale utilisé, la fusion asynchrone avec des modèles de segments peut atteindre le même niveau de performance que les modèles de Markov cachés. La fusion des ressources textuelles de la vidéo, c'est-à-dire les annonces de points, est également considérée. Pour exploiter entièrement leur contenu sémantique sur l'évolution réelle du jeu et tenir compte des événements non reconnus, un arrangement original du décodage de Viterbi a été développé. Il produit des solutions qui sont conformes aux annonces de points et apporte ainsi une nette amélioration de la performance du système.
APA, Harvard, Vancouver, ISO, and other styles
23

Ziani, Ahmed. "Interprétation en temps réel de séquence vidéo par exploitation des modèles graphiques probabilistes." Littoral, 2010. http://www.theses.fr/2010DUNK0271.

Full text
Abstract:
Le travail de recherche concerne l'étude et la mise en oeuvre de systèmes de reconnaissance de scénarios dans des séquences d'images de vidéosurveillance. Les couches hautes du système de reconnaissance exploitent principalement les approches graphiques probabilistes (réseaux bayésiens et les modèles de Markov Cachés et leurs extensions) qui permettent de gérer de manière efficace les incertitudes au sein du système d'interprétation. Un premier algorithme de reconnaissance de séquences d'événements, combinant deux extensions de modèles de Markov cachés (hiérarchique et semi-markovien) a été proposé. Il permet de modéliser des scénarios complexes basés sur une structure hiérarchisée intégrant des contraintes temporelles sur la durée de chaque événement. Ensuite, nous avons étudié une approche de reconnaissance de trajectoire d'objets en utilisant les modèles de Markov cachés semi-continus. Nous avons adapté une méthode de quantification permettant d'obtenir automatiquement les états du modèle. Dans le but d'accélérer le comportement du système de reconnaissance, nous avons proposé une technique de prédiction basée sur la reconnaissance des débuts de trajectoires et qui permet rapidement d'écarter les modèles ne pouvant être compatibles avec les observations. La dernière partie du travail a été le développement d'une structure globale et modulaire d'un système de reconnaissance de scénarios. L'intérêt principal de cette architecture est de pouvoir exploiter des techniques probabilistes tout en intégrant des capacités de raisonnement temporel. L'architecture logique du système exploite une approche multi agents organisée selon trois couches. Afin de gérer les contraintes temps réel de l'application, la stratégie de contrôle du système de reconnaissance active un nombre minimal 'agents en fonction de ses décisions internes. Les agents de la première couche ont pour rôle de mettre en évidence les événements élémentaires et sont construits principalement à base de réseaux bayésiens ou de modèles de Markov cachés. Les agents temporels de la deuxième couche sont construits également à partir d'une structure spécifique de type réseau bayésien. Ils ont pour rôle de modéliser de manière explicite les relations temporelles entre événements mis en évidence à partir de la première couche. Les agents du troisième niveau interviennent dans l'étape finale de décision en exploitant l'ensemble des décisions des agents intermédiaires. Les différentes approches de reconnaissance de scénarios ont été testées sur divers séquences réelles en environnement extérieur et intérieur<br>The research covers the design and implementation of systems for recognition of scenarios in video image sequences. The upper layers of the recognition system operating primarily graphical probabilistic approaches (Bayesian networks and Hidden Markov models and their extensions) that can effectively handle uncertainties in the interpretation system. A first algorithm for recognition of sequences of events, combining two extensions of HMM (hierarchical and semi-Markov) was proposed. It allows to model complex scenarios based on a hierarchical structure integrating temporal constraints on the duration of each event. Then, we proposed a prediction technique based on the recognition of early tracks and allows quick to dismiss the models may be consistent with the observations. The last part of the work was the development of a global structure and a modular recognition system scenarios. The main advantage of this architecture is to use probabilistic techniques while integrating temporal reasoning capabilities. The logical architecture of the system uses a multi agents. In order to manage real-time constraints of the application, the control strategy of the recognition systems enables a minimum number of agents according to its internal decisions. The agents of the first layer has a role to highlight the basic events and are constructed mainly of Bayesian networks or hidden Markov models. The agents of the second temporal layer are also built from a specific structure type Bayesian network. Their role is to model explicitly the temporal relationships between events highlighted from the first layer. The third level officials involved in the final stage of decision using all of the decisions of intermediate agents. Different approaches to recognition of scenarios were tested on various real images in external and internal environment
APA, Harvard, Vancouver, ISO, and other styles
24

Essid, Houcine. "Modélisation spatio-temporelle à base de modèles de Markov cachés pour la prévision des changements en imagerie satellitaire : cas de la végétation et de l'urbain." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-01037990.

Full text
Abstract:
Les séries temporelles d'images satellitaires sont une source d'information importante pour le suivi des changements spatio-temporels des surfaces terrestres. En outre, le nombre d'images est en augmentation constante. Pour les exploiter pleinement, des outils dédiés au traitement automatique du contenu informationnel sont développés. Néanmoins ces techniques ne satisfont pas complètement les géographes qui exploitent pourtant, de plus en plus couramment, les données extraites des images dans leurs études afin de prédire le futur. Nous proposons dans cette thèse, une méthodologie générique à base d'un modèle de Markov caché pour l'analyse et la prédiction des changements sur une séquence d'images satellitaires. Cette méthodologie présente deux modules : un module de traitement intégrant les descripteurs et les algorithmes classiquement utilisés en interprétation d'images, et un module d'apprentissage basé sur les modèles de Markov cachés. La performance de notre approche est évaluée par des essais d'interprétations des évènements spatio-temporels effectués sur plusieurs sites d'études. Les résultats obtenus permettront d'analyser et de prédire les changements issus des différentes séries temporelles d'images SPOT et LANDSAT pour l'observation des évènements spatio-temporels telle que l'expansion urbaine et la déforestation.
APA, Harvard, Vancouver, ISO, and other styles
25

Caron, Francois. "Inférence bayésienne pour la détermination et lasélection de modèles stochastiques." Phd thesis, Ecole Centrale de Lille, 2006. http://tel.archives-ouvertes.fr/tel-00140088.

Full text
Abstract:
On s'intéresse à l'ajout d'incertitudes supplémentaires dans les modèles de Markov cachés. L'inférence est réalisée dans un cadre bayésien à l'aide des méthodes de Monte Carlo. Dans un cadre multicapteur, on suppose que chaque capteur peut commuter entre plusieurs états de fonctionnement. Un modèle à saut original est développé et des algorithmes de Monte Carlo efficaces sont présentés pour différents types de situations, prenant en compte des données synchrones/asynchrones et le cas binaire capteur valide/défaillant. Le modèle/algorithme développé est appliqué à la localisation d'un véhicule terrestre équipé de trois capteurs, dont un récepteur GPS, potentiellement défaillant à cause de phénomènes de trajets multiples. <br />On s'intéresse ensuite à l'estimation de la densité de probabilité des bruits d'évolution et de mesure dans les modèles de Markov cachés, à l'aide des mélanges de processus de Dirichlet. Le cas de modèles linéaires est tout d'abord étudié, et des algorithmes MCMC et de filtrage particulaire sont développés. Ces algorithmes sont testés sur trois applications différentes. Puis le cas de l'estimation des densités de probabilité des bruits dans les modèles non linéaires est étudié. On définit pour cela des processus de Dirichlet variant temporellement, permettant l'estimation en ligne d'une densité de probabilité non stationnaire.
APA, Harvard, Vancouver, ISO, and other styles
26

Delattre, Maud. "Inférence statistique dans les modèles mixtes à dynamique Markovienne." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00765708.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'estimation par maximum de vraisemblance dans les modèles mixtes à dynamique markovienne. Nous considérons plus précisément des modèles de Markov cachés à effets mixtes et des modèles de diffusion à effets mixtes. Dans le Chapitre 2, nous combinons l'algorithme de Baum-Welch à l'algorithme SAEM pour estimer les paramètres de population dans les modèles de Markov cachés à effets mixtes. Nous proposons également des procédures spécifiques pour estimer les paramètres individuels et les séquences d' états cachées. Nous étudions les propriétés de cette nouvelle méthodologie sur des données simulées et l'appliquons sur des données réelles de nombres de crises d' épilepsie. Dans le Chapitre 3, nous proposons d'abord des modèles de diffusion à effets mixtes pour la pharmacocin étique de population. Nous en estimons les paramètres en combinant l'algorithme SAEM a un filtre de Kalman étendu. Nous étudions ensuite les propriétés asymptotiques de l'estimateur du maximum de vraisemblance dans des modèles de diffusion observés sans bruit de mesure continûment sur un intervalle de temps fixe lorsque le nombre de sujets tend vers l'infini. Le Chapitre 4 est consacré a la s élection de covariables dans des modèles mixtes généraux. Nous proposons une version du BIC adaptée au contexte de double asymptotique où le nombre de sujets et le nombre d'observations par sujet tendent vers l'infini. Nous présentons quelques simulations pour illustrer cette procédure.
APA, Harvard, Vancouver, ISO, and other styles
27

Vernet, Elodie Edith. "Modèles de mélange et de Markov caché non-paramétriques : propriétés asymptotiques de la loi a posteriori et efficacité." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS418/document.

Full text
Abstract:
Les modèles latents sont très utilisés en pratique, comme en génomique, économétrie, reconnaissance de parole... Comme la modélisation paramétrique des densités d’émission, c’est-à-dire les lois d’une observation sachant l’état latent, peut conduire à de mauvais résultats en pratique, un récent intérêt pour les modèles latents non paramétriques est apparu dans les applications. Or ces modèles ont peu été étudiés en théorie. Dans cette thèse je me suis intéressée aux propriétés asymptotiques des estimateurs (dans le cas fréquentiste) et de la loi a posteriori (dans le cadre Bayésien) dans deux modèles latents particuliers : les modèles de Markov caché et les modèles de mélange. J’ai tout d’abord étudié la concentration de la loi a posteriori dans les modèles non paramétriques de Markov caché. Plus précisément, j’ai étudié la consistance puis la vitesse de concentration de la loi a posteriori. Enfin je me suis intéressée à l’estimation efficace du paramètre de mélange dans les modèles semi paramétriques de mélange<br>Latent models have been widely used in diverse fields such as speech recognition, genomics, econometrics. Because parametric modeling of emission distributions, that is the distributions of an observation given the latent state, may lead to poor results in practice, in particular for clustering purposes, recent interest in using non parametric latent models appeared in applications. Yet little thoughts have been given to theory in this framework. During my PhD I have been interested in the asymptotic behaviour of estimators (in the frequentist case) and the posterior distribution (in the Bayesian case) in two particuliar non parametric latent models: hidden Markov models and mixture models. I have first studied the concentration of the posterior distribution in non parametric hidden Markov models. More precisely, I have considered posterior consistency and posterior concentration rates. Finally, I have been interested in efficient estimation of the mixture parameter in semi parametric mixture models
APA, Harvard, Vancouver, ISO, and other styles
28

Karaman, Svebor. "Indexation de la vidéo portée : application à l’étude épidémiologique des maladies liées à l’âge." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14402/document.

Full text
Abstract:
Le travail de recherche de cette thèse de doctorat s'inscrit dans le cadre du suivi médical des patients atteints de démences liées à l'âge à l'aide des caméras videos portées par les patients. L'idée est de fournir aux médecins un nouvel outil pour le diagnostic précoce de démences liées à l'âge telles que la maladie d'Alzheimer. Plus précisément, les Activités Instrumentales du Quotidien (IADL: Instrumental Activities of Daily Living en anglais) doivent être indexées automatiquement dans les vidéos enregistrées par un dispositif d'enregistrement portable.Ces vidéos présentent des caractéristiques spécifiques comme de forts mouvements ou de forts changements de luminosité. De plus, la tâche de reconnaissance visée est d'un très haut niveau sémantique. Dans ce contexte difficile, la première étape d'analyse est la définition d'un équivalent à la notion de « plan » dans les contenus vidéos édités. Nous avons ainsi développé une méthode pour le partitionnement d'une vidéo tournée en continu en termes de « points de vue » à partir du mouvement apparent.Pour la reconnaissance des IADL, nous avons développé une solution selon le formalisme des Modèles de Markov Cachés (MMC). Un MMC hiérarchique à deux niveaux a été introduit, modélisant les activités sémantiques ou des états intermédiaires. Un ensemble complexe de descripteurs (dynamiques, statiques, de bas niveau et de niveau intermédiaire) a été exploité et les espaces de description joints optimaux ont été identifiés expérimentalement.Dans le cadre de descripteurs de niveau intermédiaire pour la reconnaissance d'activités nous nous sommes particulièrement intéressés aux objets sémantiques que la personne manipule dans le champ de la caméra. Nous avons proposé un nouveau concept pour la description d'objets ou d'images faisant usage des descripteurs locaux (SURF) et de la structure topologique sous-jacente de graphes locaux. Une approche imbriquée pour la construction des graphes où la même scène peut être décrite par plusieurs niveaux de graphes avec un nombre de nœuds croissant a été introduite. Nous construisons ces graphes par une triangulation de Delaunay sur des points SURF, préservant ainsi les bonnes propriétés des descripteurs locaux c'est-à-dire leur invariance vis-à-vis de transformations affines dans le plan image telles qu'une rotation, une translation ou un changement d'échelle.Nous utilisons ces graphes descripteurs dans le cadre de l'approche Sacs-de-Mots-Visuels. Le problème de définition d'une distance, ou dissimilarité, entre les graphes pour la classification non supervisée et la reconnaissance est nécessairement soulevé. Nous proposons une mesure de dissimilarité par le Noyau Dépendant du Contexte (Context-Dependent Kernel: CDK) proposé par H. Sahbi et montrons sa relation avec la norme classique L2 lors de la comparaison de graphes triviaux (les points SURF).Pour la reconnaissance d'activités par MMC, les expériences sont conduites sur le premier corpus au monde de vidéos avec caméra portée destiné à l'observation des d'IADL et sur des bases de données publiques comme SIVAL et Caltech-101 pour la reconnaissance d'objets<br>The research of this PhD thesis is fulfilled in the context of wearable video monitoring of patients with aged dementia. The idea is to provide a new tool to medical practitioners for the early diagnosis of elderly dementia such as the Alzheimer disease. More precisely, Instrumental Activities of Daily Living (IADL) have to be indexed in videos recorded with a wearable recording device.Such videos present specific characteristics i.e. strong motion or strong lighting changes. Furthermore, the tackled recognition task is of a very strong semantics. In this difficult context, the first step of analysis is to define an equivalent to the notion of “shots” in edited videos. We therefore developed a method for partitioning continuous video streams into viewpoints according to the observed motion in the image plane.For the recognition of IADLs we developed a solution based on the formalism of Hidden Markov Models (HMM). A hierarchical HMM with two levels modeling semantic activities or intermediate states has been introduced. A complex set of features (dynamic, static, low-level, mid-level) was proposed and the most effective description spaces were identified experimentally.In the mid-level features for activities recognition we focused on the semantic objects the person manipulates in the camera view. We proposed a new concept for object/image description using local features (SURF) and the underlying semi-local connected graphs. We introduced a nested approach for graphs construction when the same scene can be described by levels of graphs with increasing number of nodes. We build these graphs with Delaunay triangulation on SURF points thus preserving good properties of local features i.e. the invariance with regard to affine transformation of image plane: rotation, translation and zoom.We use the graph features in the Bag-of-Visual-Words framework. The problem of distance or dissimilarity definition between graphs for clustering or recognition is obviously arisen. We propose a dissimilarity measure based on the Context Dependent Kernel of H. Sahbi and show its relation with the classical entry-wise norm when comparing trivial graphs (SURF points).The experiments are conducted on the first corpus in the world of wearable videos of IADL for HMM based activities recognition, and on publicly available academic datasets such as SIVAL and Caltech-101 for object recognition
APA, Harvard, Vancouver, ISO, and other styles
29

Touron, Augustin. "Modélisation multivariée de variables météorologiques." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS264/document.

Full text
Abstract:
La production d'énergie renouvelable et la consommation d'électricité dépendent largement des conditions météorologiques : température, précipitations, vent, rayonnement solaire... Ainsi, pour réaliser des études d'impact sur l'équilibre offre-demande, on peut utiliser un générateur de temps, c'est-à-dire un modèle permettant de simuler rapidement de longues séries de variables météorologiques réalistes, au pas de temps journalier. L'une des approches possibles pour atteindre cet objectif utilise les modèles de Markov caché : l'évolution des variables à modéliser est supposée dépendre d'une variable latente que l'on peut interpréter comme un type de temps. En adoptant cette approche, nous proposons dans cette thèse un modèle permettant de simuler simultanément la température, la vitesse du vent et les précipitations, en tenant compte des non-stationnarités qui caractérisent les variables météorologiques. D'autre part, nous nous intéressons à certaines propriétés théoriques des modèles de Markov caché cyclo-stationnaires : nous donnons des conditions simples pour assurer leur identifiabilité et la consistance forte de l'estimateur du maximum de vraisemblance. On montre aussi cette propriété de l'EMV pour des modèles de Markov caché incluant des tendances de long terme sous forme polynomiale<br>Renewable energy production and electricity consumption both depend heavily on weather: temperature, precipitations, wind, solar radiation... Thus, making impact studies on the supply/demand equilibrium may require a weather generator, that is a model capable of quickly simulating long, realistic times series of weather variables, at the daily time step. To this aim, one of the possible approaches is using hidden Markov models : we assume that the evolution of the weather variables are governed by a latent variable that can be interpreted as a weather type. Using this approach, we propose a model able to simulate simultaneously temperature, wind speed and precipitations, accounting for the specific non-stationarities of weather variables. Besides, we study some theoretical properties of cyclo-stationary hidden Markov models : we provide simple conditions of identifiability and we show the strong consistency of the maximum likelihood estimator. We also show this property of the MLE for hidden Markov models including long-term polynomial trends
APA, Harvard, Vancouver, ISO, and other styles
30

Lazrak, El Ghali. "Fouille de données stochastique pour la compréhension des dynamiques temporelles et spatiales des territoires agricoles. Contribution à une agronomie numérique." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00782768.

Full text
Abstract:
L'agriculture est l'activité humaine qui utilise et transforme la plus grande partie de la surface terrestre. Son intensification et son uniformisation ont engendré plusieurs problèmes écologiques et environnementaux. Comprendre les dynamiques passées et actuelles des territoires agricoles à des échelles régionales, compatibles avec les échelles où s'expriment les services environnementaux et écologiques, est nécessaire pour mieux gérer l'évolution future des territoires agricoles. Pourtant, la plupart des travaux qui ont étudié les dynamiques agricoles à des échelles régionales ne distinguent pas les dynamiques liées au fonctionnement régulier de l'activité agricole de celles liées à des changements dans son fonctionnement. Les autres travaux rapportés dans la littérature qui font cette distinction présentent toutefois l'inconvénient d'être difficilement reproductibles. Cette thèse vise ainsi à développer une méthode générique de modélisation des dynamiques passées et actuelles de l'organisation territoriale de l'activité agricole (OTAA). Nous avons développé une méthode de modélisation stochastique fondée sur des modèles de Markov cachés qui permet de fouiller un corpus de données spatio-temporelles d'occupations du sol (OCS) en vue de le segmenter et de révéler des dynamiques agricoles cachées. Nous avons testé cette méthode sur des corpus d'OCS issus de sources variées (relevés de terrain, télédétection) et appartenant à deux territoires agricoles de dimensions régionales : le site d'étude de Chizé (430 km², Poitou-Charentes) et le bassin versant du Yar (60 km², Bretagne). Cette méthode apporte 3 contributions à la modélisation de l'OTAA : (i) la description de l'OTAA suivant une approche temporo-spatiale qui identifie des régularités temporelles, puis les localise en segmentant le territoire agricole en zones compactes de régularités temporelles similaires; (ii) la fouille des voisinages des successions d'OCS et de leurs dynamiques; (iii) l'articulation des régularités révélées par notre approche de fouille de données à l'échelle régionale avec des règles identifiées par des experts en agronomie et en écologie à des échelles plus locales en vue d'expliquer les régularités et de valider les hypothèses des experts. Nous avons testé la généricité de la première contribution sur les deux territoires d'études. Les deux dernières contributions ont été développées et testées sur le site d'étude de Chizé. Nos résultats valident l'hypothèse que l'OTAA se prête bien à la représentation par un champs de Markov de successions. Cette thèse ouvre la voie à une nouvelle approche de modélisation de l'OTAA explorant le couplage entre régularités et règles, et exploitant davantage les outils d'intelligence artificielle. Elle constituerait les prémices de ce qui pourrait devenir une agronomie numérique des territoires.
APA, Harvard, Vancouver, ISO, and other styles
31

Lopusanschi, Olga. "Chemins rugueux issus de processus discrets." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS074/document.

Full text
Abstract:
Le présent travail se veut une contribution à l’extension du domaine des applications de la théorie des chemins rugueux à travers l’étude de la convergence des processus discrets, qui permet un nouveau regard sur plusieurs problèmes qui se posent dans le cadre du calcul stochastique classique. Nous étudions la convergence en topologie rugueuse, d’abord des chaînes de Markov sur graphes périodiques, ensuite des marches de Markov cachées, et ce changement de cadre permet d’apporter des informations supplémentaires sur la limite grâce à l’anomalie d’aire, invisible en topologie uniforme. Nous voulons montrer que l’utilité de cet objet dépasse le cadre des équations différentielles. Nous montrons également comment le cadre des chemins rugueux permet d’en- coder la manière dont on plonge un modèle discret dans l’espace des fonctions continues, et que les limites des différents plongements peuvent être différenciées précisément grâce à l’anomalie d’aire. Nous définissons ensuite les temps d’occupation itérés pour une chaîne de Markov et montrons, en utilisant les sommes itérées, qu’ils donnent une structure combinatoire aux marches de Markov cachées. Nous proposons une construction des chemins rugueux en passant par les sommes itérées et la comparons à la construction classique, faite par les intégrales itérées, pour trouver à la limite deux types de chemins rugueux différents, non-géométrique et géométrique respectivement. Pour finir, nous illustrons le calcul et la construction de l’anomalie d’aire et nous donnons quelques résultats supplémentaires sur la convergence des sommes et temps d’occupation itérés<br>Through the present work, we hope to contribute to extending the domain of applications of rough paths theory by studying the convergence of discrete processes and thus allowing for a new point of view on several issues appearing in the setting of classical stochastic calculus. We study the convergence, first of Markov chains on periodic graphs, then of hidden Markov walks, in rough path topology, and we show that this change of setting allows to bring forward extra information on the limit using the area anomaly, which is invisible in the uniform topology. We want to show that the utility of this object goes beyond the setting of dierential equations. We also show how rough paths can be used to encode the way we embed a discrete process in the space of continuous functions, and that the limits of these embeddings dier precisely by the area anomaly term. We then define the iterated occupation times for a Markov chain and show using iterated sums that they form an underlying combinatorial structure for hidden Markov walks. We then construct rough paths using iterated sums and compare them to the classical construction, which uses iterated integrals, to get two dierent types of rough paths at the limit: the non-geometric and the geometric one respectively. Finally, we illustrate the computation and construction of the area anomaly and we give some extra results on the convergence of iterated sums and occupation times
APA, Harvard, Vancouver, ISO, and other styles
32

Sim, Tepmony. "Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0020/document.

Full text
Abstract:
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM)<br>Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs)
APA, Harvard, Vancouver, ISO, and other styles
33

Houmani, Nesma. "Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie." Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00765378.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d'entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée "Entropie personnelle", calculée sur un ensemble de signatures authentiques d'une personne. L'originalité de l'approche réside dans le fait que l'entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d'un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d'une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d'un facteur 2 au minimum) entre les personnes de la catégorie "haute Entropie" (signatures très variables et peu complexes) et celles de la catégorie "basse Entropie" (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l'entropie relative (distance de Kullback-Leibler), dénommée "Entropie Relative Personnelle" permettant de quantifier la vulnérabilité d'une personne aux attaques (bonnes imitations). Il s'agit là d'un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l'analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l'Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l'information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l'évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d'apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l'intérêt de notre mesure d'Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d'Entropie peut être utilisée pour : améliorer la procédure d'enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle.
APA, Harvard, Vancouver, ISO, and other styles
34

Cuvillier, Philippe. "On temporal coherency of probabilistic models for audio-to-score alignment." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066532/document.

Full text
Abstract:
Cette thèse porte sur l'alignement automatique d'un enregistrement audio avec la partition de musique correspondante. Nous adoptons une approche probabiliste et proposons une démarche théorique pour la modélisation algorithmique de ce problème d'alignement automatique. La question est de modéliser l'évolution temporelle des événements par des processus stochastiques. Notre démarche part d'une spécificité de l'alignement musical : une partition attribue à chaque événement une durée nominale, qui est une information a priori sur la durée probable d'occurrence de l'événement. La problématique qui nous occupe est celle de la modélisation probabiliste de cette information de durée. Nous définissons la notion de cohérence temporelle à travers plusieurs critères de cohérence que devrait respecter tout algorithme d'alignement musical. Ensuite, nous menons une démarche axiomatique autour du cas des modèles de semi-Markov cachés. Nous démontrons que ces critères sont respectés lorsque des conditions mathématiques particulières sont vérifiées par les lois a priori du modèle probabiliste de la partition. Ces conditions proviennent de deux domaines mathématiques jusqu'ici étrangers à la question de l'alignement : les processus de Lévy et la totale positivité d'ordre deux. De nouveaux résultats théoriques sont démontrés sur l'interrelation entre ces deux notions. En outre, les bienfaits pratiques de ces résultats théoriques sont démontrés expérimentalement sur des algorithmes d'alignement en temps réel<br>This thesis deals with automatic alignment of audio recordings with corresponding music scores. We study algorithmic solutions for this problem in the framework of probabilistic models which represent hidden evolution on the music score as stochastic process. We begin this work by investigating theoretical foundations of the design of such models. To do so, we undertake an axiomatic approach which is based on an application peculiarity: music scores provide nominal duration for each event, which is a hint for the actual and unknown duration. Thus, modeling this specific temporal structure through stochastic processes is our main problematic. We define temporal coherency as compliance with such prior information and refine this abstract notion by stating two criteria of coherency. Focusing on hidden semi-Markov models, we demonstrate that coherency is guaranteed by specific mathematical conditions on the probabilistic design and that fulfilling these prescriptions significantly improves precision of alignment algorithms. Such conditions are derived by combining two fields of mathematics, Lévy processes and total positivity of order 2. This is why the second part of this work is a theoretical investigation which extends existing results in the related literature
APA, Harvard, Vancouver, ISO, and other styles
35

Bluche, Théodore. "Deep Neural Networks for Large Vocabulary Handwritten Text Recognition." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112062/document.

Full text
Abstract:
La transcription automatique du texte dans les documents manuscrits a de nombreuses applications, allant du traitement automatique des documents à leur indexation ou leur compréhension. L'une des approches les plus populaires de nos jours consiste à parcourir l'image d'une ligne de texte avec une fenêtre glissante, de laquelle un certain nombre de caractéristiques sont extraites, et modélisées par des Modèles de Markov Cachés (MMC). Quand ils sont associés à des réseaux de neurones, comme des Perceptrons Multi-Couches (PMC) ou Réseaux de Neurones Récurrents de type Longue Mémoire à Court Terme (RNR-LMCT), et à un modèle de langue, ces modèles produisent de bonnes transcriptions. D'autre part, dans de nombreuses applications d'apprentissage automatique, telles que la reconnaissance de la parole ou d'images, des réseaux de neurones profonds, comportant plusieurs couches cachées, ont récemment permis une réduction significative des taux d'erreur.Dans cette thèse, nous menons une étude poussée de différents aspects de modèles optiques basés sur des réseaux de neurones profonds dans le cadre de systèmes hybrides réseaux de neurones / MMC, dans le but de mieux comprendre et évaluer leur importance relative. Dans un premier temps, nous montrons que des réseaux de neurones profonds apportent des améliorations cohérentes et significatives par rapport à des réseaux ne comportant qu'une ou deux couches cachées, et ce quel que soit le type de réseau étudié, PMC ou RNR, et d'entrée du réseau, caractéristiques ou pixels. Nous montrons également que les réseaux de neurones utilisant les pixels directement ont des performances comparables à ceux utilisant des caractéristiques de plus haut niveau, et que la profondeur des réseaux est un élément important de la réduction de l'écart de performance entre ces deux types d'entrées, confirmant la théorie selon laquelle les réseaux profonds calculent des représentations pertinantes, de complexités croissantes, de leurs entrées, en apprenant les caractéristiques de façon automatique. Malgré la domination flagrante des RNR-LMCT dans les publications récentes en reconnaissance d'écriture manuscrite, nous montrons que des PMCs profonds atteignent des performances comparables. De plus, nous avons évalué plusieurs critères d'entrainement des réseaux. Avec un entrainement discriminant de séquences, nous reportons, pour des systèmes PMC/MMC, des améliorations comparables à celles observées en reconnaissance de la parole. Nous montrons également que la méthode de Classification Temporelle Connexionniste est particulièrement adaptée aux RNRs. Enfin, la technique du dropout a récemment été appliquée aux RNR. Nous avons testé son effet à différentes positions relatives aux connexions récurrentes des RNRs, et nous montrons l'importance du choix de ces positions.Nous avons mené nos expériences sur trois bases de données publiques, qui représentent deux langues (l'anglais et le français), et deux époques, en utilisant plusieurs types d'entrées pour les réseaux de neurones : des caractéristiques prédéfinies, et les simples valeurs de pixels. Nous avons validé notre approche en participant à la compétition HTRtS en 2014, où nous avons obtenu la deuxième place. Les résultats des systèmes présentés dans cette thèse, avec les deux types de réseaux de neurones et d'entrées, sont comparables à l'état de l'art sur les bases Rimes et IAM, et leur combinaison dépasse les meilleurs résultats publiés sur les trois bases considérées<br>The automatic transcription of text in handwritten documents has many applications, from automatic document processing, to indexing and document understanding. One of the most popular approaches nowadays consists in scanning the text line image with a sliding window, from which features are extracted, and modeled by Hidden Markov Models (HMMs). Associated with neural networks, such as Multi-Layer Perceptrons (MLPs) or Long Short-Term Memory Recurrent Neural Networks (LSTM-RNNs), and with a language model, these models yield good transcriptions. On the other hand, in many machine learning applications, including speech recognition and computer vision, deep neural networks consisting of several hidden layers recently produced a significant reduction of error rates. In this thesis, we have conducted a thorough study of different aspects of optical models based on deep neural networks in the hybrid neural network / HMM scheme, in order to better understand and evaluate their relative importance. First, we show that deep neural networks produce consistent and significant improvements over networks with one or two hidden layers, independently of the kind of neural network, MLP or RNN, and of input, handcrafted features or pixels. Then, we show that deep neural networks with pixel inputs compete with those using handcrafted features, and that depth plays an important role in the reduction of the performance gap between the two kinds of inputs, supporting the idea that deep neural networks effectively build hierarchical and relevant representations of their inputs, and that features are automatically learnt on the way. Despite the dominance of LSTM-RNNs in the recent literature of handwriting recognition, we show that deep MLPs achieve comparable results. Moreover, we evaluated different training criteria. With sequence-discriminative training, we report similar improvements for MLP/HMMs as those observed in speech recognition. We also show how the Connectionist Temporal Classification framework is especially suited to RNNs. Finally, the novel dropout technique to regularize neural networks was recently applied to LSTM-RNNs. We tested its effect at different positions in LSTM-RNNs, thus extending previous works, and we show that its relative position to the recurrent connections is important. We conducted the experiments on three public databases, representing two languages (English and French) and two epochs, using different kinds of neural network inputs: handcrafted features and pixels. We validated our approach by taking part to the HTRtS contest in 2014. The results of the final systems presented in this thesis, namely MLPs and RNNs, with handcrafted feature or pixel inputs, are comparable to the state-of-the-art on Rimes and IAM. Moreover, the combination of these systems outperformed all published results on the considered databases
APA, Harvard, Vancouver, ISO, and other styles
36

Petetin, Yohan. "Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens." Phd thesis, Institut National des Télécommunications, 2013. http://tel.archives-ouvertes.fr/tel-00939083.

Full text
Abstract:
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre " Probability Hypothesis Density ". Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits " localement optimaux ", c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire
APA, Harvard, Vancouver, ISO, and other styles
37

Sorel, Anthony. "Gestion de la variabilité morphologique pour la reconnaissance de gestes naturels à partir de données 3D." Phd thesis, Université Rennes 2, 2012. http://tel.archives-ouvertes.fr/tel-00763619.

Full text
Abstract:
La reconnaissance de mouvements naturels est de toute première importance dans la mise en oeuvre d'Interfaces Homme-Machine intelligentes et efficaces, utilisables de manière intuitive en environnement virtuel. En effet, elle permet à l'utilisateur d'agir de manière naturelle et au système de reconnaitre les mouvements corporel effectués tels qu'ils seraient perçu par un humain. Cette tâche est complexe, car elle demande de relever plusieurs défis : prendre en compte les spécificités du dispositif d'acquisition des données de mouvement, gérer la variabilité cinématique dans l'exécution du mouvement, et enfin gérer les différences morphologiques inter-individuelles, de sorte que les mouvements de tout nouvel utilisateur puissent être reconnus. De plus, de part la nature interactive des environnements virtuels, cette reconnaissancedoit pouvoir se faire en temps-réel, sans devoir attendre la fin du mouvement. La littérature scientifique propose de nombreuses méthodes pour répondre aux deux premiers défis mais la gestion de la variabilité morphologique est peu abordée. Dans cette thèse, nous proposons une description du mouvement permettant de répondre à cette problématique et évaluons sa capacité à reconnaitre les mouvements naturels d'un utilisateur inconnu. Enfin, nous proposons unenouvelle méthode permettant de tirer partie de cette représentation dans une reconnaissance précoce du mouvement
APA, Harvard, Vancouver, ISO, and other styles
38

Rafi, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0020/document.

Full text
Abstract:
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle<br>The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
APA, Harvard, Vancouver, ISO, and other styles
39

Allaya, Mouhamad M. "Méthodes de Monte-Carlo EM et approximations particulaires : application à la calibration d'un modèle de volatilité stochastique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010072/document.

Full text
Abstract:
Ce travail de thèse poursuit une perspective double dans l'usage conjoint des méthodes de Monte Carlo séquentielles (MMS) et de l'algorithme Espérance-Maximisation (EM) dans le cadre des modèles de Markov cachés présentant une structure de dépendance markovienne d'ordre supérieur à 1 au niveau de la composante inobservée. Tout d'abord, nous commençons par un exposé succinct de l'assise théorique des deux concepts statistiques à Travers les chapitres 1 et 2 qui leurs sont consacrés. Dans un second temps, nous nous intéressons à la mise en pratique simultanée des deux concepts au chapitre 3 et ce dans le cadre usuel ou la structure de dépendance est d'ordre 1, l'apport des méthodes MMS dans ce travail réside dans leur capacité à approximer efficacement des fonctionnelles conditionnelles bornées, notamment des quantités de filtrage et de lissage dans un cadre non linéaire et non gaussien. Quant à l'algorithme EM, il est motivé par la présence à la fois de variables observables, et inobservables (ou partiellement observées) dans les modèles de Markov Cachés et singulièrement les modèles de volatilité stochastique étudié. Après avoir présenté aussi bien l'algorithme EM que les méthodes MCS ainsi que quelques une de leurs propriétés dans les chapitres 1 et 2 respectivement, nous illustrons ces deux outils statistiques au travers de la calibration d'un modèle de volatilité stochastique. Cette application est effectuée pour des taux change ainsi que pour quelques indices boursiers au chapitre 3. Nous concluons ce chapitre sur un léger écart du modèle de volatilité stochastique canonique utilisé ainsi que des simulations de Monte Carlo portant sur le modèle résultant. Enfin, nous nous efforçons dans les chapitres 4 et 5 à fournir les assises théoriques et pratiques de l'extension des méthodes Monte Carlo séquentielles notamment le filtrage et le lissage particulaire lorsque la structure markovienne est plus prononcée. En guise d’illustration, nous donnons l'exemple d'un modèle de volatilité stochastique dégénéré dont une approximation présente une telle propriété de dépendance<br>This thesis pursues a double perspective in the joint use of sequential Monte Carlo methods (SMC) and the Expectation-Maximization algorithm (EM) under hidden Mar­kov models having a Markov dependence structure of order grater than one in the unobserved component signal. Firstly, we begin with a brief description of the theo­retical basis of both statistical concepts through Chapters 1 and 2 that are devoted. In a second hand, we focus on the simultaneous implementation of both concepts in Chapter 3 in the usual setting where the dependence structure is of order 1. The contribution of SMC methods in this work lies in their ability to effectively approximate any bounded conditional functional in particular, those of filtering and smoothing quantities in a non-linear and non-Gaussian settings. The EM algorithm is itself motivated by the presence of both observable and unobservable ( or partially observed) variables in Hidden Markov Models and particularly the stochastic volatility models in study. Having presented the EM algorithm as well as the SMC methods and some of their properties in Chapters 1 and 2 respectively, we illustrate these two statistical tools through the calibration of a stochastic volatility model. This application is clone for exchange rates and for some stock indexes in Chapter 3. We conclude this chapter on a slight departure from canonical stochastic volatility model as well Monte Carlo simulations on the resulting model. Finally, we strive in Chapters 4 and 5 to provide the theoretical and practical foundation of sequential Monte Carlo methods extension including particle filtering and smoothing when the Markov structure is more pronounced. As an illustration, we give the example of a degenerate stochastic volatility model whose approximation has such a dependence property
APA, Harvard, Vancouver, ISO, and other styles
40

Trabelsi, Dorra. "Contribution à la reconnaissance non-intrusive d'activités humaines." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1100.

Full text
Abstract:
La reconnaissance d’activités humaines est un sujet de recherche d’actualité comme en témoignent les nombreux travaux de recherche sur le sujet. Dans ce cadre, la reconnaissance des activités physiques humaines est un domaine émergent avec de nombreuses retombées attendues dans la gestion de l’état de santé des personnes et de certaines maladies, les systèmes de rééducation, etc.Cette thèse vise la proposition d’une approche pour la reconnaissance automatique et non-intrusive d’activités physiques quotidiennes, à travers des capteurs inertiels de type accéléromètres, placés au niveau de certains points clés du corps humain. Les approches de reconnaissance d’activités physiques étudiées dans cette thèse, sont catégorisées en deux parties : la première traite des approches supervisées et la seconde étudie les approches non-supervisées. L’accent est mis plus particulièrement sur les approches non-supervisées ne nécessitant aucune labellisation des données. Ainsi, nous proposons une approche probabiliste pour la modélisation des séries temporelles associées aux données accélérométriques, basée sur un modèle de régression dynamique régi par une chaine de Markov cachée. En considérant les séquences d’accélérations issues de plusieurs capteurs comme des séries temporelles multidimensionnelles, la reconnaissance d’activités humaines se ramène à un problème de segmentation jointe de séries temporelles multidimensionnelles où chaque segment est associé à une activité. L’approche proposée prend en compte l’aspect séquentiel et l’évolution temporelle des données. Les résultats obtenus montrent clairement la supériorité de l’approche proposée par rapport aux autres approches en termes de précision de classification aussi bien des activités statiques et dynamiques, que des transitions entre activités<br>Human activity recognition is currently a challengeable research topic as it can be witnessed by the extensive research works that has been conducted recently on this subject. In this context, recognition of physical human activities is an emerging domain with expected impacts in the monitoring of some pathologies and people health status, rehabilitation procedures, etc. In this thesis, we propose a new approach for the automatic recognition of human activity from raw acceleration data measured using inertial wearable sensors placed at key points of the human body. Approaches studied in this thesis are categorized into two parts : the first one deals with supervised-based approaches while the second one treats the unsupervised-based ones. The proposed unsupervised approach is based upon joint segmentation of multidimensional time series using a Hidden Markov Model (HMM) in a multiple regression context where each segment is associated with an activity. The model is learned in an unsupervised framework where no activity labels are needed. The proposed approach takes into account the sequential appearance and temporal evolution of data. The results clearly show the satisfactory results of the proposed approach with respect to other approaches in terms of classification accuracy for static, dynamic and transitional human activities
APA, Harvard, Vancouver, ISO, and other styles
41

Pertsinidou, Christina Elisavet. "Stochastic models for the estimation of the seismic hazard." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2342.

Full text
Abstract:
Dans le premier chapitre, la notion d'évaluation des risques sismiques est définie et les caractéristiques sismotectoniques de la région d'étude sont brièvement présentés. Un examen rigoureux des modèles stochastiques, appliqués au domaine de la sismologie est fourni. Dans le chapitre 2, différents modèles semi-Markoviens sont développés pour étudier la sismicité des îles Ioniennes centrales ainsi que le Nord de la mer Egée (Grèce). Les quantités telles que le noyau semi-Markovien et les probabilités de destination sont évaluées, en considérant que les temps de séjour suivent les distributions géométrique, discrète Weibull et Pareto. Des résultats utiles sont obtenus pour l'estimation de la sismicité. Dans le troisième chapitre un nouvel algorithme de Viterbi pour les modèles semi-Markoviens cachés est construit, dont la complexité est une fonction linéaire du nombre d'observations et une fonction quadratique du nombre d'états cachés, la plus basse existante dans la littérature. Une extension de ce nouvel algorithme est développée pour le cas où une observation dépend de l'état caché correspondant, mais aussi de l'observation précédente (cas SM1-M1). Dans le chapitre 4 les modèles semi-Markoviens cachés sont appliquées pour étudier la sismicité du Nord et du Sud de la mer Égée. La séquence d'observation est constituée des magnitudes et des positions d’un tremblement de terre et le nouvel algorithme de Viterbi est mis en œuvre afin de décoder les niveaux des tensions cachés qui sont responsables pour la sismogenèse. Les phases précurseurs (variations des tensions cachées) ont été détectées en avertissant qu’un tremblement de terre pourrait se produire. Ce résultat est vérifié pour 70 sur 88 cas (le score optimal). Les temps de séjour du processus caché étaient supposés suivre les distributions Poisson, logarithmique ou binomiale négative, tandis que les niveaux de tensions cachés ont été classés en 2, 3 ou 4 états. Les modèles de Markov caché ont également été adaptés sans présenter des résultats intéressants concernant les phases précurseurs. Dans le chapitre 5 un algorithme de Viterbi généralisé pour les modèles semi-Markoviens cachés, est construit dans le sens que les transitions au même état caché sont autorisées et peuvent également être décodées. De plus, une extension de cet algorithme généralisé dans le contexte SM1-M1 est présentée. Dans le chapitre 6 nous modifions de manière convenable le modèle Cramér-Lundberg y compris des sinistres négatifs et positifs, afin de décrire l'évolution avec le temps des changements de contraintes de Coulomb (valeurs ΔCFF) calculées pour sept épicentres (M ≥ 6) du Nord de la mer Egée. Formules pour les probabilités de ruine sont définies sous une forme générale. Corollaires sont également formulés pour la distribution exponentielle et Pareto. L'objectif est de mettre en lumière la question suivante qui pose la problématique dans la Sismologie: Au cours d'une année pourquoi un tremblement de terre s’est produit dans une position précise et pas dans une autre position, aux régions sismotectoniquement homogènes ayant valeurs ΔCFF positives. Les résultats montrent que les nouvelles formules de probabilité peuvent contribuer à répondre au problème susmentionné<br>In the first chapter the definition of the seismic hazard assessment is provided, the seismotectonic features of the study areas are briefly presented and the already existing mathematical models applied in the field of Seismology are thoroughly reviewed. In chapter 2, different semi-Markov models are developed for studying the seismicity of the areas of the central Ionian Islands and the North Aegean Sea (Greece). Quantities such as the kernel and the destination probabilities are evaluated, considering geometric, discrete-Weibull and Pareto distributed sojourn times. Useful results are obtained for forecasting purposes. In the third chapter a new Viterbi algorithm for hidden semi-Markov models is developed, whose complexity is a linear function of the number of observations and a quadratic function of the number of hidden states, the lowest existing in the literature. Furthermore, an extension of this new algorithm is introduced for the case that an observation depends on the corresponding hidden state but also on the previous observation (SM1-M1 case). In chapter 4, different hidden semi-Markov models (HSMMs) are applied for the study of the North and South Aegean Sea. The earthquake magnitudes and locations comprise the observation sequence and the new Viterbi algorithm is implemented in order to decode the hidden stress field associated with seismogenesis. Precursory phases (variations of the hidden stress field) were detected warning for an anticipated earthquake occurrence for 70 out of 88 cases (the optimal model’s score). The sojourn times of the hidden process were assumed to follow Poisson, logarithmic or negative binomial distributions, whereas the hidden stress levels were classified into 2, 3 or 4 states. HMMs were also adapted without presenting significant results as for the precursory phases. In chapter 5 a generalized Viterbi algorithm for HSMMs is constructed in the sense that now transitions to the same hidden state are allowed and can also be decoded. Furthermore, an extension of this generalized algorithm in the SM1-M1 context is given. In chapter 6 we modify adequately the Cramér-Lundberg model considering negative and positive claims, in order to describe the evolution in time of the Coulomb failure function changes (ΔCFF values) computed at the locations of seven strong (M ≥ 6) earthquakes of the North Aegean Sea. Ruin probability formulas are derived and proved in a general form. Corollaries are also formulated for the exponential and the Pareto distribution. The aim is to shed light to the following problem posed by the seismologists: During a specific year why did an earthquake occur at a specific location and not at another location in seismotectonically homogeneous areas with positive ΔCFF values (stress enhanced areas). The results demonstrate that the new probability formulas can contribute in answering the aforementioned question
APA, Harvard, Vancouver, ISO, and other styles
42

Dumont, Thierry. "Contributions à la localisation intra-muros. De la modélisation à la calibration théorique et pratique d'estimateurs." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00795685.

Full text
Abstract:
Préfigurant la prochaine grande étape dans le domaine de la navigation, la géolocalisation intra-muros est un domaine de recherche très actif depuis quelques années. Alors que la géolocalisation est entrée dans le quotidien de nombreux professionnels et particuliers avec, notamment, le guidage routier assisté, les besoins d'étendre les applications à l'intérieur se font de plus en plus pressants. Cependant, les systèmes existants se heurtent à des contraintes techniques bien supérieures à celles rencontrées à l'extérieur, la faute, notamment, à la propagation chaotique des ondes électromagnétiques dans les environnements confinés et inhomogènes. Nous proposons dans ce manuscrit une approche statistique du problème de géolocalisation d'un mobile à l'intérieur d'un bâtiment utilisant les ondes WiFi environnantes. Ce manuscrit s'articule autour de deux questions centrales : celle de la détermination des cartes de propagation des ondes WiFi dans un bâtiment donné et celle de la construction d'estimateurs des positions du mobile à l'aide de ces cartes de propagation. Le cadre statistique utilisé dans cette thèse afin de répondre à ces questions est celui des modèles de Markov cachés. Nous proposons notamment, dans un cadre paramétrique, une méthode d'inférence permettant l'estimation en ligne des cartes de propagation, sur la base des informations relevées par le mobile. Dans un cadre non-paramétrique, nous avons étudié la possibilité d'estimer les cartes de propagation considérées comme simple fonction régulière sur l'environnement à géolocaliser. Nos résultats sur l'estimation non paramétrique dans les modèles de Markov cachés permettent d'exhiber un estimateur des fonctions de propagation dont la consistance est établie dans un cadre général. La dernière partie du manuscrit porte sur l'estimation de l'arbre de contextes dans les modèles de Markov cachés à longueur variable.
APA, Harvard, Vancouver, ISO, and other styles
43

Ancelet, Sophie. "Exploiter l'approche hiérarchique bayésienne pour la modélisation statistique de structures spatiales: application en écologie des populations." Phd thesis, AgroParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004396.

Full text
Abstract:
Dans la plupart des questions écologiques, les phénomènes aléatoires d'intérêt sont spatialement structurés et issus de l'effet combiné de multiples variables aléatoires, observées ou non, et inter-agissant à diverses échelles. En pratique, dès lors que les données de terrain ne peuvent être directement traitées avec des structures spatiales standards, les observations sont généralement considérées indépendantes. Par ailleurs, les modèles utilisés sont souvent basés sur des hypothèses simplificatrices trop fortes par rapport à la complexité des phénomènes étudiés. Dans ce travail, la démarche de modélisation hiérarchique est combinée à certains outils de la statistique spatiale afin de construire des structures aléatoires fonctionnelles "sur-mesure" permettant de représenter des phénomènes spatiaux complexes en écologie des populations. L'inférence de ces différents modèles est menée dans le cadre bayésien avec des algorithmes MCMC. Dans un premier temps, un modèle hiérarchique spatial (Geneclust) est développé pour identifier des populations génétiquement homogènes quand la diversité génétique varie continûment dans l'espace. Un champ de Markov caché, qui modélise la structure spatiale de la diversité génétique, est couplé à un modèle bivarié d'occurrence de génotypes permettant de tenir compte de l'existence d'unions consanguines chez certaines populations naturelles. Dans un deuxième temps, un processus de Poisson composé particulier,appelé loi des fuites, est présenté sous l'angle de vue hiérarchique pour décrire le processus d'échantillonnage d'organismes vivants. Il permet de traiter le délicat problème de données continues présentant une forte proportion de zéros et issues d'échantillonnages à efforts variables. Ce modèle est également couplé à différents modèles sur grille (spatiaux, régionalisés) afin d'introduire des dépendances spatiales entre unités géographiques voisines puis, à un champ géostatistique bivarié construit par convolution sur grille discrète afin de modéliser la répartition spatiale conjointe de deux espèces. Les capacités d'ajustement et de prédiction des différents modèles hiérarchiques proposés sont comparées aux modèles traditionnellement utilisés à partir de simulations et de jeux de données réelles (ours bruns de Suède, invertébrés épibenthiques du Golfe-du-Saint-Laurent (Canada)).
APA, Harvard, Vancouver, ISO, and other styles
44

Salhi, Khaled. "Risques extrêmes en finance : analyse et modélisation." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0192/document.

Full text
Abstract:
Cette thèse étudie la gestion et la couverture du risque en s’appuyant sur la Value-at-Risk (VaR) et la Value-at-Risk Conditionnelle (CVaR), comme mesures de risque. La première partie propose un modèle d’évolution de prix que nous confrontons à des données réelles issues de la bourse de Paris (Euronext PARIS). Notre modèle prend en compte les probabilités d’occurrence des pertes extrêmes et les changements de régimes observés sur les données. Notre approche consiste à détecter les différentes périodes de chaque régime par la construction d’une chaîne de Markov cachée et à estimer la queue de distribution de chaque régime par des lois puissances. Nous montrons empiriquement que ces dernières sont plus adaptées que les lois normales et les lois stables. L’estimation de la VaR est validée par plusieurs backtests et comparée aux résultats d’autres modèles classiques sur une base de 56 actifs boursiers. Dans la deuxième partie, nous supposons que les prix boursiers sont modélisés par des exponentielles de processus de Lévy. Dans un premier temps, nous développons une méthode numérique pour le calcul de la VaR et la CVaR cumulatives. Ce problème est résolu en utilisant la formalisation de Rockafellar et Uryasev, que nous évaluons numériquement par inversion de Fourier. Dans un deuxième temps, nous nous intéressons à la minimisation du risque de couverture des options européennes, sous une contrainte budgétaire sur le capital initial. En mesurant ce risque par la CVaR, nous établissons une équivalence entre ce problème et un problème de type Neyman-Pearson, pour lequel nous proposons une approximation numérique s’appuyant sur la relaxation de la contrainte<br>This thesis studies the risk management and hedging, based on the Value-at-Risk (VaR) and the Conditional Value-at-Risk (CVaR) as risk measures. The first part offers a stocks return model that we test in real data from NSYE Euronext. Our model takes into account the probability of occurrence of extreme losses and the regime switching observed in the data. Our approach is to detect the different periods of each regime by constructing a hidden Markov chain and estimate the tail of each regime distribution by power laws. We empirically show that powers laws are more suitable than Gaussian law and stable laws. The estimated VaR is validated by several backtests and compared to other conventional models results on a basis of 56 stock market assets. In the second part, we assume that stock prices are modeled by exponentials of a Lévy process. First, we develop a numerical method to compute the cumulative VaR and CVaR. This problem is solved by using the formalization of Rockafellar and Uryasev, which we numerically evaluate by Fourier inversion techniques. Secondly, we are interested in minimizing the hedging risk of European options under a budget constraint on the initial capital. By measuring this risk by CVaR, we establish an equivalence between this problem and a problem of Neyman-Pearson type, for which we propose a numerical approximation based on the constraint relaxation
APA, Harvard, Vancouver, ISO, and other styles
45

Padoy, Nicolas. "Workflow and Activity Modeling for Monitoring Surgical Procedures." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10025/document.

Full text
Abstract:
Le bloc opératoire est au coeur des soins délivrés dans l'hôpital. Suite à de nombreux développements techniques et médicaux, il devient équipé de salles opératoires hautement technologiques. Bien que ces changements soient bénéfiques pour le traitement des patients, ils accroissent la complexité du déroulement des opérations. Ils impliquent également la présence de nombreux systèmes électroniques fournissant de l'information sur les processus chirurgicaux. Ce travail s'intéresse au développement de méthodes statistiques permettant de modéliser le déroulement des processus chirurgicaux et d'en reconnaitre les étapes, en utilisant des signaux présents dans le bloc opératoire. Nous introduisons et formalisons le problème consistant à reconnaitre les phases réalisées au sein d'un processus chirurgical, en utilisant une représentation des chirurgies par une suite temporelle et multi-dimensionnelle de signaux synchronisés. Nous proposons ensuite des méthodes pour la modélisation, la segmentation hors-ligne et la reconnaissance en-ligne des phases chirurgicales. La méthode principale, une variante de modèle de Markov caché étendue par des variables de probabilités de phases, est démontrée sur deux applications médicales. La première concerne les interventions endoscopiques, la cholécystectomie étant prise en exemple. Les phases endoscopiques sont reconnues en utilisant des signaux indiquant l'utilisation des instruments et enregistrés lors de chirurgies réelles. La deuxième application concerne la reconnaissance des activités génériques d'une salle opératoire. Dans ce cas, la reconnaissance utilise de l'information 4D provenant d'un système de reconstruction multi-vues<br>The department of surgery is the core unit of the patient care system within a hospital. Due to continuous technical and medical developments, such departments are equipped with increasingly high-tech surgery rooms. This provides higher benefits for patient treatment, but also increases the complexity of the procedures' workflow. This also induces the presence of multiple electronic systems providing rich and various information about the surgical processes. The focus of this work is the development of statistical methods that permit the modeling and monitoring of surgical processes, based on signals available in the surgery room. We introduce and formalize the problem of recognizing phases within a workflow, using a representation of interventions in terms of multidimensional time-series formed by synchronized signals acquired over time. We then propose methods for the modeling, offline segmentation and on-line recognition of surgical phases. The main method, a variant of hidden Markov models augmented by phase probability variables, is demonstrated on two medical applications. The first one is the monitoring of endoscopic interventions, using cholecystectomy as illustrative surgery. Phases are recognized using signals indicating tool usage and recorded from real procedures. The second application is the monitoring of a generic surgery room workflow. In this case, phase recognition is performed by using 4D information from surgeries performed in a mock-up operating room in presence of a multi-view reconstruction system
APA, Harvard, Vancouver, ISO, and other styles
46

Hacine-Gharbi, Abdenour. "Sélection de paramètres acoustiques pertinents pour la reconnaissance de la parole." Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00843652.

Full text
Abstract:
L'objectif de cette thèse est de proposer des solutions et améliorations de performance à certains problèmes de sélection des paramètres acoustiques pertinents dans le cadre de la reconnaissance de la parole. Ainsi, notre première contribution consiste à proposer une nouvelle méthode de sélection de paramètres pertinents fondée sur un développement exact de la redondance entre une caractéristique et les caractéristiques précédemment sélectionnées par un algorithme de recherche séquentielle ascendante. Le problème de l'estimation des densités de probabilités d'ordre supérieur est résolu par la troncature du développement théorique de cette redondance à des ordres acceptables. En outre, nous avons proposé un critère d'arrêt qui permet de fixer le nombre de caractéristiques sélectionnées en fonction de l'information mutuelle approximée à l'itération j de l'algorithme de recherche. Cependant l'estimation de l'information mutuelle est difficile puisque sa définition dépend des densités de probabilités des variables (paramètres) dans lesquelles le type de ces distributions est inconnu et leurs estimations sont effectuées sur un ensemble d'échantillons finis. Une approche pour l'estimation de ces distributions est basée sur la méthode de l'histogramme. Cette méthode exige un bon choix du nombre de bins (cellules de l'histogramme). Ainsi, on a proposé également une nouvelle formule de calcul du nombre de bins permettant de minimiser le biais de l'estimateur de l'entropie et de l'information mutuelle. Ce nouvel estimateur a été validé sur des données simulées et des données de parole. Plus particulièrement cet estimateur a été appliqué dans la sélection des paramètres MFCC statiques et dynamiques les plus pertinents pour une tâche de reconnaissance des mots connectés de la base Aurora2.
APA, Harvard, Vancouver, ISO, and other styles
47

Hammadi, Lamia. "Custom supply chain engineering : modeling and risk management : application to the customs." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR23.

Full text
Abstract:
La sécurité, la sûreté et l’efficacité de la chaîne logistique internationale revêtent une importance capitale pour le gouvernement, pour ses intérêts financiers et économiques et pour la sécurité de ses résidents. À cet égard, la société est confrontée à des multiples menaces, telles que le trafic illicite de drogues, d’armes ou autre type de contrebande, ainsi que la contrefaçon et la fraude commerciale. Pour contrer (détecter, prévenir, enquêter et atténuer) ces menaces, le rôle des douanes se pose en tant que gardiens du commerce international et acteurs principaux de la sécurisation de la chaîne logistique internationale. Les douanes interviennent à tous les stades de l'acheminement des marchandises ; toutes les transactions en provenance ou à destination des pays doivent être traitées par leurs services douaniers. Dans un tel environnement, les douanes deviennent un élément essentiel de la chaîne logistique. Nous adoptons ce point de vue, avec un accent particulier sur les opérations douanières et, pour souligner cet objectif, nous appelons cette analyse "chaîne logistique douanière". Dans cette thèse, nous avons tout d’abord mis en place le concept de chaîne logistique douanière, en identifiant les acteurs et les liens structurels entre eux, puis en établissant la cartographie des processus, l’approche d’intégration et le modèle de mesure de performance du concept proposé. Deuxièmement, nous développons une nouvelle approche de gestion de risques dans la chaîne logistique douanière basée sur une approche qualitative. Une telle approche conduit à identifier les classes de risques et à recommander les meilleures solutions afin de réduire le niveau de risque. Notre approche est appliquée dans la douane Marocaine en considérant la criticité comme un indicateur de risque en premier temps, en appliquant la méthode AMDEC (Analyse des modes de défaillance, de leurs effets et de leur criticité) et la méthode ABC croisée et le poids prioritaire en deuxième temps, en utilisant la méthode AHP (Analytic Hierarchy Process) et la méthode AHP floue (c.-à-d. Évaluation de risques sous incertitude); puis une analyse comparative des deux indicateurs est effectuée afin d’examiner l’efficacité des résultats obtenus. Enfin, nous développons des modèles stochastiques pour les séries chronologiques de risques qui abordent le défi le plus important de la modélisation de risques dans le contexte douanier : la Saisonnalité. Plus précisément, nous proposons d’une part des modèles basés sur la quantification des incertitudes pour décrire les comportements mensuels. Les différents modèles sont ajustés en utilisant la méthode de coïncidence des moments sur des séries temporelles de quantités saisies du trafic illicite dans cinq sites. D'autre part, des modèles de Markov cachés sont ajustés à l'aide de l'algorithme EM sur les mêmes séquences d’observations. Nous montrons que nos modèles permettent avec précision de gérer et de décrire les composantes saisonnières des séries chronologiques de risques dans le contexte douanier. On montre également que les modèles ajustés sont interprétables et fournissent une bonne description des propriétés importantes des données, telles que la structure du second ordre et les densités de probabilité par saison et par site<br>The security, safety and efficiency of the international supply chain are of central importance for the governments, for their financial and economic interests and for the security of its residents. In this regard, the society faces multiple threats, such as illicit traffic of drugs, arms and other contraband, as well as counterfeiting and commercial fraud. For countering (detecting, preventing, investigating and mitigating) such threats, the role of customs arises as the gatekeepers of international trade and the main actor in securing the international supply chain. Customs intervene in all stages along the routing of cargo; all transactions leaving or entering the country must be processed by the custom agencies. In such an environment, customs become an integral thread within the supply chain. We adopt this point of view, with a particular focus on customs operations and, in order to underline this focus, we refer to this analysis as “customs supply chain”. In this thesis, we firstly set up the concept of customs supply chain, identify the actors and structural links between them, then establish the process mapping, integration approach and performance model. Secondly, we develop a new approach for managing risks in customs supply chain based on qualitative analysis. Such an approach leads to identify the risk classes as well as recommend best possible solutions to reduce the risk level. Our approach is applied in Moroccan customs by considering the criticality as a risk indicator. In a first time we use Failure Modes Effects Criticality Analysis (FMECA) and Cross Activity Based Costing (ABC) Method and priority weight; in the second time we use Analytic Hierarchy Process (AHP) and Fuzzy AHP (i.e., risk assessment under uncertainty); then a benchmarking of the two indicators is conducted in order to examine the effectiveness of the obtained results. Finally, we develop stochastic models for risk time series that address the most important challenge of risk modeling in the customs context: Seasonality. To be more specific, we propose on the one hand, models based on uncertainty quantification to describe monthly components. The different models are fitted using Moment Matching method to the time series of seized quantities of the illicit traffic on five sites. On the other hand, Hidden Markov Models which are fitted using the EM-algorithm on the same observation sequences. We show that these models allow to accurately handle and describe the seasonal components of risk time series in customs context. It is also shown that the fitted models can be easily interpreted and provide a good description of important properties of the data such as the second-order structure and Probability Density Function (PDFs) per season per site
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography