To see the other types of publications on this topic, follow the link: Signaux multivariés.

Dissertations / Theses on the topic 'Signaux multivariés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 31 dissertations / theses for your research on the topic 'Signaux multivariés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Barthélemy, Quentin. "Représentations parcimonieuses pour les signaux multivariés." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00853362.

Full text
Abstract:
Dans cette thèse, nous étudions les méthodes d'approximation et d'apprentissage qui fournissent des représentations parcimonieuses. Ces méthodes permettent d'analyser des bases de données très redondantes à l'aide de dictionnaires d'atomes appris. Etant adaptés aux données étudiées, ils sont plus performants en qualité de représentation que les dictionnaires classiques dont les atomes sont définis analytiquement. Nous considérons plus particulièrement des signaux multivariés résultant de l'acquisition simultanée de plusieurs grandeurs, comme les signaux EEG ou les signaux de mouvements 2D et 3D. Nous étendons les méthodes de représentations parcimonieuses au modèle multivarié, pour prendre en compte les interactions entre les différentes composantes acquises simultanément. Ce modèle est plus flexible que l'habituel modèle multicanal qui impose une hypothèse de rang 1. Nous étudions des modèles de représentations invariantes : invariance par translation temporelle, invariance par rotation, etc. En ajoutant des degrés de liberté supplémentaires, chaque noyau est potentiellement démultiplié en une famille d'atomes, translatés à tous les échantillons, tournés dans toutes les orientations, etc. Ainsi, un dictionnaire de noyaux invariants génère un dictionnaire d'atomes très redondant, et donc idéal pour représenter les données étudiées redondantes. Toutes ces invariances nécessitent la mise en place de méthodes adaptées à ces modèles. L'invariance par translation temporelle est une propriété incontournable pour l'étude de signaux temporels ayant une variabilité temporelle naturelle. Dans le cas de l'invariance par rotation 2D et 3D, nous constatons l'efficacité de l'approche non-orientée sur celle orientée, même dans le cas où les données ne sont pas tournées. En effet, le modèle non-orienté permet de détecter les invariants des données et assure la robustesse à la rotation quand les données tournent. Nous constatons aussi la reproductibilité des décompositions parcimonieuses sur un dictionnaire appris. Cette propriété générative s'explique par le fait que l'apprentissage de dictionnaire est une généralisation des K-means. D'autre part, nos représentations possèdent de nombreuses invariances, ce qui est idéal pour faire de la classification. Nous étudions donc comment effectuer une classification adaptée au modèle d'invariance par translation, en utilisant des fonctions de groupement consistantes par translation.
APA, Harvard, Vancouver, ISO, and other styles
2

Barthelemy, Quentin. "Représentations parcimonieuses pour les signaux multivariés." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENU008/document.

Full text
Abstract:
Dans cette thèse, nous étudions les méthodes d'approximation et d'apprentissage qui fournissent des représentations parcimonieuses. Ces méthodes permettent d'analyser des bases de données très redondantes à l'aide de dictionnaires d'atomes appris. Etant adaptés aux données étudiées, ils sont plus performants en qualité de représentation que les dictionnaires classiques dont les atomes sont définis analytiquement. Nous considérons plus particulièrement des signaux multivariés résultant de l'acquisition simultanée de plusieurs grandeurs, comme les signaux EEG ou les signaux de mouvements 2D et 3D. Nous étendons les méthodes de représentations parcimonieuses au modèle multivarié, pour prendre en compte les interactions entre les différentes composantes acquises simultanément. Ce modèle est plus flexible que l'habituel modèle multicanal qui impose une hypothèse de rang 1. Nous étudions des modèles de représentations invariantes : invariance par translation temporelle, invariance par rotation, etc. En ajoutant des degrés de liberté supplémentaires, chaque noyau est potentiellement démultiplié en une famille d'atomes, translatés à tous les échantillons, tournés dans toutes les orientations, etc. Ainsi, un dictionnaire de noyaux invariants génère un dictionnaire d'atomes très redondant, et donc idéal pour représenter les données étudiées redondantes. Toutes ces invariances nécessitent la mise en place de méthodes adaptées à ces modèles. L'invariance par translation temporelle est une propriété incontournable pour l'étude de signaux temporels ayant une variabilité temporelle naturelle. Dans le cas de l'invariance par rotation 2D et 3D, nous constatons l'efficacité de l'approche non-orientée sur celle orientée, même dans le cas où les données ne sont pas tournées. En effet, le modèle non-orienté permet de détecter les invariants des données et assure la robustesse à la rotation quand les données tournent. Nous constatons aussi la reproductibilité des décompositions parcimonieuses sur un dictionnaire appris. Cette propriété générative s'explique par le fait que l'apprentissage de dictionnaire est une généralisation des K-means. D'autre part, nos représentations possèdent de nombreuses invariances, ce qui est idéal pour faire de la classification. Nous étudions donc comment effectuer une classification adaptée au modèle d'invariance par translation, en utilisant des fonctions de groupement consistantes par translation
In this thesis, we study approximation and learning methods which provide sparse representations. These methods allow to analyze very redundant data-bases thanks to learned atoms dictionaries. Being adapted to studied data, they are more efficient in representation quality than classical dictionaries with atoms defined analytically. We consider more particularly multivariate signals coming from the simultaneous acquisition of several quantities, as EEG signals or 2D and 3D motion signals. We extend sparse representation methods to the multivariate model, to take into account interactions between the different components acquired simultaneously. This model is more flexible that the common multichannel one which imposes a hypothesis of rank 1. We study models of invariant representations: invariance to temporal shift, invariance to rotation, etc. Adding supplementary degrees of freedom, each kernel is potentially replicated in an atoms family, translated at all samples, rotated at all orientations, etc. So, a dictionary of invariant kernels generates a very redundant atoms dictionary, thus ideal to represent the redundant studied data. All these invariances require methods adapted to these models. Temporal shift-invariance is an essential property for the study of temporal signals having a natural temporal variability. In the 2D and 3D rotation invariant case, we observe the efficiency of the non-oriented approach over the oriented one, even when data are not revolved. Indeed, the non-oriented model allows to detect data invariants and assures the robustness to rotation when data are revolved. We also observe the reproducibility of the sparse decompositions on a learned dictionary. This generative property is due to the fact that dictionary learning is a generalization of K-means. Moreover, our representations have many invariances that is ideal to make classification. We thus study how to perform a classification adapted to the shift-invariant model, using shift-consistent pooling functions
APA, Harvard, Vancouver, ISO, and other styles
3

Aminghafari, Mina. "Méthodes d'ondelettes en statistique des signaux temporels uni et multivariés." Paris 11, 2006. http://www.theses.fr/2006PA112045.

Full text
Abstract:
Cette thèse se situe dans le domaine de la statistique et porte, pour l'essentiel, sur les applications des ondelettes pour le traitement des signaux temporels univariés et multivariés. Dans une première partie, nous nous intéressons à une extension au cas multivarié, des procédures de débruitage par ondelettes, bien connues pour les signaux unidimensionnels. Cette nouvelle procédure combine l'analyse en composantes principales avec une généralisation directe au cas dimensionnel d'une stratégie classique de bruitage 1-D. L'idée est de changer de base en diagonalisant un estimateur robuste de la covariance du bruit, afin de décorréler les composantes du bruit affectant les signaux puis d'appliquer un débruitage univarié par ondelettes classique avant de faire une ACP sur les signaux simplifiés ainsi reconstitués ou sur les coefficients d'approximation. Dans une deuxième partie, nous nous intéressons particulièrement au problème de la prévision d'une série unidimensionnelle stationnaire ou non, à l'aide de la transformée en ondelettes non-décimée. Il s'agit de généraliser une procédure dont le principe est de sélectionner des coefficients d'ondelettes construits à partir des observations du passé puis d'estimer directement l'équation de prévision par la régression du processus sur les coefficients d'ondelettes du passé. Ce schéma est étendu à une ondelette orthogonale quelconque, à la prise en compte d'une composante non-stationnaire et de nombreuses variantes sont étudiées. Une dernière partie porte sur un thème un peu différent des autres, puisque les ondelettes n'y jouent pas un rôle prépondérant. Elle consiste à une approche bayésienne pour choisir une loi a priori et on peut la considérer comme une alternative aux proches paramétriques de la méthode de Bayes empirique pour le choix de l'a priori. Cette méthode peut s'appliquer au choix de la densitéa prior des coefficients d'ondelettes dans les méthodes de seuillage
This thesis takes place in statistics and deals with the applications of wavelets to the univariate and multivariate signals. The first part is devoted to a multivariate extension of the well known wavelet denoising procedure widely examined for scalar valued signals. It combines a straightforward multivariate generalization of a classical one and principal component analysis. This new procedure exhibits promising behavior on classical bench signals and the associated estimator is found to be near minimax in the one-dimensional sense, for Besov balls. The method is finally illustrated by an application to multichannel neural recordings. The second part is devoted to the forecasting problem of a stationary or non-stationary one dimensional time series, using non-decimated wavelet transform. A new proposal method to prediction stationary data and stationary data contaminated by additive trend is proposed. It consists of generalizing a procedure whose idea is to select the wavelet coefficients built from the past observations then to directly estimate the forecasting equation by the regression of the process on the past wavelet coefficients. This scheme is extended to an arbitrary orthogonal wavelet and to the introduction a non-stationary component. The third part relates to a topic a little bit different from the others. We introduce a method for prior selection. This method can be considered as an alternative approach to the parametric empirical Bayes method for priorselection and can then be applied to the choice of threshold in the denoising procedure using wavelets
APA, Harvard, Vancouver, ISO, and other styles
4

Fedotenkova, Mariia. "Extraction de composants multivariés des signaux cérébraux obtenus pendant l'anesthésie générale." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0189/document.

Full text
Abstract:
De nos jours, les opérations chirurgicales sont impossibles à imaginer sans anesthésie générale, qui implique la perte de conscience, l'immobilité, l'amnésie et l'analgésie. La compréhension des mécanismes sous-jacents de chacun de ces effets garantit un traitement médical bien contrôlé. Cette thèse se concentre sur l'effet analgésique de l'anesthésie générale, précisément, sur la réaction du patient aux stimuli nociceptifs. Nous étudions également les différences des réactions entre différents médicaments anesthésiques. L'étude a été effectuée sur un ensemble de données constituées de 230 signaux EEG : enregistrements pré- et post-incision obtenus sur 115 patients qui ont reçu du desflurane et du propofol. La première phase de l'étude comprend l'analyse spectrale de puissance, qui est une méthode très répandue dans le traitement du signal. L'information spectrale a été décrite en ajustant l'activité de fond, qui exhibe un comportement $1/f$, aux estimations de la densité spectrale de puissance des signaux d'EEG et en mesurant la puissance contenue dans des bandes delta et alpha par rapport à la puissance de l'activité de fond. Une autre amélioration a été réalisée par l'expansion des spectres avec des informations de temps en raison de la nature non stationnaire observée dans les signaux EEG. Pour obtenir les représentations temps-fréquence des signaux nous appliquons trois méthodes différentes: scalogramme (basé sur la transformée en ondelettes continue), spectrogramme classique, et réaffectation de spectrogramme. Celle-ci permet d'améliorer la lisibilité d'une représentation temps-fréquence en réaffectant l'énergie contenue dans le spectrogramme à des positions plus précises. Par la suite, les spectrogrammes obtenus ont été utilisés pour la reconstruction de l'espace de phase, pour l'analyse récurrence et pour sa quantification par une mesure de complexité. L'analyse de récurrence permet de décrire et visualiser les dynamiques récurrentes d'un système et de découvrir des motifs structurels contenus dans les données. Ici, les diagrammes de récurrence ont été utilisés comme réécriture de grammaire pour transformer le signal original en une séquence symbolique, où chaque symbole représente un certain état du système. Trois mesures de complexité différentes sont alors calculées à partir de ces séquences symboliques afin de les utiliser comme éléments de classification. Enfin, en combinant les caractéristiques obtenues avec l'analyse spectrale de puissance et avec l'analyse symbolique de récurrence, nous effectuons la classification des données en utilisant deux méthodes de classification~: l'analyse discriminante linéaire et les machines à vecteurs de support. La classification a été effectuée sur des problèmes à deux classes, la distinction entre les signaux EEG pré- / post-incision, ainsi qu'entre les deux différents médicaments anesthésiques, desflurane et propofol
Nowadays, surgical operations are impossible to imagine without general anesthesia, which involves loss of consciousness, immobility, amnesia and analgesia. Understanding mechanisms underlying each of these effects guarantees well-controlled medical treatment. This thesis focuses on analgesia effect of general anesthesia, more specifically, on patients reaction to nociceptive stimuli. We also study differences in the reaction between different anesthetic drugs. The study was conducted on dataset consisting of 230 EEG signals: pre- and post-incision recordings obtained form 115 patients, who received desflurane and propofol. The first stage of the study comprise power spectral analysis, which is a widespread approach in signal processing. Spectral information was described by fitting the background activity, that exposes $1/f$ behavior, to power spectral density estimates of the EEG signals and measuring power contained in delta and alpha bands relatively to the power of background activity. A further improvement was done by expanding spectra with time information due to observed non-stationary nature of EEG signals. To obtain time-frequency representations of the signals we apply three different methods: scalogram (based on continuous wavelet transform), conventional spectrogram, and spectrogram reassignment. The latter allows to ameliorate readability of a time-frequency representation by reassigning energy contained in spectrogram to more precise positions. Subsequently, obtained spectrograms were used as phase space reconstruction in recurrence analysis and its quantification by complexity measure. Recurrence analysis allows to describe and visualize recurrent dynamics of a system and discover structural patterns contained in the data. Here, recurrence plots were used as rewriting grammar to turn an original signal into a symbolic sequence, where each symbol represents a certain state of the system. After computing three different complexity measures of resulting symbolic sequences they are used as features for classification. Finally, combining features obtained with power spectral analysis and recurrence symbolic analysis, we perform classification of the data using two classification methods: linear discriminant analysis and support vector machines. Classification was carried out on two-class problem, distinguishing between pre-/post-incision EEG signals, as well as between two different anesthetic drugs, desflurane and propofol
APA, Harvard, Vancouver, ISO, and other styles
5

Lung-Yut-Fong, Alexandre. "Détection de ruptures pour les signaux multidimensionnels. Application à la détection d'anomalies dans les réseaux." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00675543.

Full text
Abstract:
L'objectif de cette thèse est de proposer des méthodes non-paramétriques de détection rétrospective de ruptures. L'application principale de cette étude est la détection d'attaques dans les réseaux informatiques à partir de données recueillies par plusieurs sondes disséminées dans le réseau. Nous proposons dans un premier temps une méthode en trois étapes de détection décentralisée d'anomalies faisant coopérer des sondes n'ayant accès qu'à une partie du trafic réseau. Un des avantages de cette approche est la possibilité de traiter un flux massif de données, ce qui est permis par une étape de filtrage par records. Un traitement local est effectué dans chaque sonde, et une synthèse est réalisée dans un centre de fusion. La détection est effectuée à l'aide d'un test de rang qui est inspiré par le test de rang de Wilcoxon et étendu aux données censurées. Dans une seconde partie, nous proposons d'exploiter les relations de dépendance entre les données recueillies par les différents capteurs afin d'améliorer les performances de détection. Nous proposons ainsi une méthode non-paramétrique de détection d'une ou plusieurs ruptures dans un signal multidimensionnel. Cette méthode s'appuie sur un test d'homogénéité utilisant un test de rang multivarié. Nous décrivons les propriétés asymptotiques de ce test ainsi que ses performances sur divers jeux de données (bio-informatiques, économétriques ou réseau). La méthode proposée obtient de très bons résultats, en particulier lorsque la distribution des données est atypique (par exemple en présence de valeurs aberrantes).
APA, Harvard, Vancouver, ISO, and other styles
6

Frusque, Gaëtan. "Inférence et décomposition modale de réseaux dynamiques en neurosciences." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN080.

Full text
Abstract:
Les graphes dynamiques permettent de comprendre l'évolution de systèmes complexes qui évoluent dans le temps. Ce type de graphe a récemment fait l'objet d'une attention considérable. Cependant, il n'existe pas de consensus sur les manières d'inférer et d'étudier ces graphes. Dans cette thèse, on propose des méthodes d'analyse de graphes dynamiques spécifiques. Ceux-ci peuvent être vues comme une succession de graphes complets partageant les mêmes nœuds, mais dont les poids associés à chaque lien évoluent dans le temps. Les méthodes proposées peuvent avoir des applications en neurosciences ou dans l'étude des réseaux sociaux comme Twitter et Facebook par exemple. L'enjeu applicatif de cette thèse est l'épilepsie, l'une des maladies neurologiques les plus rependues dans le monde affectant environ 1% de la population.La première partie concerne l'inférence de graphe dynamique à partir de signaux neurophysiologiques. Cette inférence est généralement réalisée à l'aide de mesures de connectivité fonctionnelle permettant d'évaluer la similarité entre deux signaux. La comparaison de ces mesures est donc d'un grand intérêt pour comprendre les caractéristiques des graphes obtenus. On compare alors des mesures de connectivité fonctionnelle impliquant la phase et l'amplitude instantanée des signaux. On s'intéresse en particulier à une mesure nommée Phase-Locking-Value (PLV) qui quantifie la synchronie des phases entre deux signaux. On propose ensuite, afin d'inférer des graphes dynamiques robustes et interprétables, deux nouvelles mesures de PLV conditionnées et régulariséesLa seconde partie présente des méthodes de décomposition de graphes dynamiques. L'objectif est de proposer une méthode semi-automatique afin de caractériser les informations les plus importantes du réseau pathologique de plusieurs crises d'un même patient. Dans un premier temps on considère des crises qui ont des durées et des évolutions temporelles similaires. Une décomposition tensorielle spécifique est alors appliquée. Dans un second temps, on considère des crises qui ont des durées hétérogènes. Plusieurs stratégies sont proposées et comparées. Ce sont des méthodes qui en plus d'extraire les sous-graphes caractéristiques communs à toutes les crises, permettent d'observer leurs profils d'activation temporelle spécifiques à chaque crise. Finalement, on utilise la méthode retenue pour une application clinique. Les décompositions obtenues sont comparées à l'interprétation visuelle du clinicien. Dans l'ensemble, on constate que les sous-graphes extraits correspondent aux régions du cerveau impliquées dans la crise d'épilepsie. De plus l'évolution de l'activation de ces sous-graphes est cohérente avec l'interprétation visuelle
Dynamic graphs make it possible to understand the evolution of complex systems evolving over time. This type of graph has recently received considerable attention. However, there is no consensus on how to infer and study these graphs. In this thesis, we propose specific methods for dynamical graph analysis. A dynamical graph can be seen as a succession of complete graphs sharing the same nodes, but with the weights associated with each link changing over time. The proposed methods can have applications in neuroscience or in the study of social networks such as Twitter and Facebook for example. The issue of this thesis is epilepsy, one of the most common neurological diseases in the world affecting around 1% of the population.The first part concerns the inference of dynamical graph from neurophysiological signals. To assess the similarity between each pairs of signals, in order to make the graph, we use measures of functional connectivity. The comparison of these measurements is therefore of great interest to understand the characteristics of the resulting graphs. We then compare functional connectivity measurements involving the instantaneous phase and amplitude of the signals. We are particularly interested in a measure called Phase-Locking-Value (PLV) which quantifies the phase synchrony between two signals. We then propose, in order to infer robust and interpretable dynamic graphs, two new indexes that are conditioned and regularized PLV. The second part concerns tools for dynamical graphs decompositions. The objective is to propose a semi-automatic method in order to characterize the most important patterns in the pathological network from several seizures of the same patient. First, we consider seizures that have similar durations and temporal evolutions. In this case the data can be conveniently represented as a tensor. A specific tensor decomposition is then applied. Secondly, we consider seizures that have heterogeneous durations. Several strategies are proposed and compared. These are methods which, in addition to extracting the characteristic subgraphs common to all the seizures, make it possible to observe their temporal activation profiles specific to each seizures. Finally, the selected method is used for a clinical application. The obtained decompositions are compared to the visual interpretation of the clinician. As a whole, we found that activated subgraphs corresponded to brain regions involved during the course of the seizures and their time course were highly consistent with classical visual interpretation
APA, Harvard, Vancouver, ISO, and other styles
7

Michaud, François-Thomas. "Profilage protéomique par analyse multivariée de signaux LCMS appliqué en ingénierie cellulaire." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26366/26366.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Dumont, Jerome. "Fouille de dynamiques multivariées, application à des données temporelles en cardiologie." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00364720.

Full text
Abstract:
Ce mémoire s'intéresse à l'analyse de dynamiques de séries temporelles observées en cardiologie. La solution proposée se décompose en deux étapes. La première consiste à extraire l'information utile en segmentant chaque battement cardiaque à l'aide d'une décomposition en ondelettes, adaptée de la littérature. Le problème difficile de l'optimisation des seuils et des fenêtres temporelles est résolu à l'aide d'algorithmes évolutionnaires. La deuxième étape s'appuie sur les modèles Semi-Markovien Cachés pour représenter les séries temporelles composées de l'ensemble des variables extraites. Un algorithme de classification non-supervisée est proposé pour retrouver les groupements naturels. Appliquée à la détection des épisodes ischémiques et à l'analyse d'ECG d'efforts de patients atteints du syndrome de Brugada (pour la distinction des patients symptomatiques et asymptomatiques), la solution proposée montre des performances supérieures aux approches plus traditionnelles.
APA, Harvard, Vancouver, ISO, and other styles
9

Dumont, Jérôme. "Fouille de dynamiques multivariées : application à des données temporelles en cardiologie." Rennes 1, 2008. http://www.theses.fr/2008REN1S078.

Full text
Abstract:
Ce mémoire s'intéresse à l'analyse de dynamiques de séries temporelles observées en cardiologie. La solution proposée se décompose en deux étapes. La première consiste à extraire l'information utile en segmentant chaque battement cardiaque à l'aide d'une décomposition en ondelettes, adaptée de la littérature. Le problème difficile de l'optimisation des seuils et des fenêtres temporelles est résolu à l'aide d'algorithmes évolutionnaires. La deuxième étape s'appuie sur les modèles Semi-Markovien Cachés pour représenter les séries temporelles composées de l'ensemble des variables extraites. Un algorithme de classification non-supervisée est proposé pour retrouver les groupements naturels. Appliquée à la détection des épisodes ischémiques et à l'analyse d'ECG d'efforts de patients atteints du syndrome de Brugada (pour la distinction des patients symptomatiques et asymptomatiques), la solution proposée montre des performances supérieures aux approches plus traditionnelles
This manuscript focuses on the problem of analysing dynamics of time series observed in cardiology. The proposed solution is divided into two steps. The first one consists in the extraction of useful information from the ECG by segmenting each beat with a wavelet decomposition algorithmn, adapted from the litterature. The difficult problem of optimising both thresholds and time windows is solved with evolutionary algorithms. The second step relies on Hidden Semi-Markovian models to represent the time series made up of the extracted variables. An algorithm of unsupervised classification is proposed to retrieve the natural groups. The application of this method to the detection of ischemic episodes and to the analysis of stress ECG from patients suffering from Brugada syndrome presents a higher performance than more tradionnal approaches
APA, Harvard, Vancouver, ISO, and other styles
10

Altuve, Miguel. "Détection multivariée des épisodes d'apnée-bradycardie chez le prématuré par modèles semi-markovien cachés." Rennes 1, 2011. http://www.theses.fr/2011REN1S053.

Full text
Abstract:
Cette thèse a comme domaine applicatif la détection précoce des événements d'apnée-bradycardie (AB) chez le prématuré. Après avoir situé l'importance sur le plan clinique de la détection des AB, une démarche méthodologique est proposée. Elle s'appuie sur un processus de fouille de données qui inclut le nettoyage et l'extraction de caractéristiques. Au chapitre 3, une méthode originale à base d'algorithmes évolutionnaires, pour optimiser des seuils et fenêtres d'analyse, est proposée pour adapter les algorithmes de traitement du signal ECG aux caractéristiques spécifiques du prématuré, très différentes de l'EGC de l'adulte. Au chapitre 4, une approche semi-Markovienne est adaptée pour la modélisation des dynamiques et plusieurs améliorations sont proposées : hétérogénéité des modèles, adaptation au traitement en ligne, optimisation de la gamme dynamique, extension de l'observabilité. Au chapitre 5, ces propositions sont exploitées dans des expériences de classification et de détection en ligne, tant sur signaux simulés que réels. Les résultats mettent bien en exergue l'intérêt de prendre en compte la dynamique des signaux. Ils soulignent également qu'avec un prétraitement approprié tel que la quantification des observations, l'introduction du retard entre les observables, un gain notable en performance peut être observé
This dissertation studies the early detection of apnea-bradycardia (AB) events in preterm infants. After defining the importance of AB detection from a clinical point of view, a methodological approach is proposed. It relies on a data mining process that includes data cleansing and feature extraction. In chapter 3, a novel method based on evolutionary algorithms, for optimizing the thresholds and the analysis windows, is proposed to adapt the algorithms of the ECG signal to the specific characteristics of preterm infants, very different from the EGC of adult. In chapter 4, a semi-Markovian approach is adapted for modeling of dynamics and several improvements are proposed : heterogeneous models, adaptation to online processing, optimization of experiments, are reported on simulated and read signals. They clearly highlight the importance of considering the dynamic of the signals. They also emphasize that with a suitable pre-treatment such as the quantification of observations and the introduction of delay between the observable, a significant gain in performance can be observed
APA, Harvard, Vancouver, ISO, and other styles
11

Lefevre, Francis. "Classification automatique de signaux d'émission acoustique en relation avec les phénomènes qui leur ont donné naissance." Compiègne, 1985. http://www.theses.fr/1985COMPI182.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Royer, Jean-Jacques. "Analyse multivariable et filtrage des données régionalisées." Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10312.

Full text
Abstract:
Ce travail est consacré à l'analyse multivariable et au filtrage des données régionalisées. On définit un indice de proximité entre échantillons. Une technique de filtrage basée sur l'analyse structurale, la déconvolution géostatistique, a été utilisée pour estimer la fonction de transfert ou identifier le signal de sortie. Le principe de la méthode repose sur le calcul au préalable des fonctions de covariance des signaux d'entrée et de sortie. Par ailleurs une relation théorique reliant la matrice de covariance des erreurs à la granulométrie du milieu étudié est démontrée
APA, Harvard, Vancouver, ISO, and other styles
13

Leni, Pierre-Emmanuel. "Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov." Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00581756.

Full text
Abstract:
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu'il s'agit d'utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n'est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l'objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s'écrire comme sommes et compositions de fonctions monovariées. Notre travail s'est focalisé sur la décomposition d'images suivant le schéma proposé par le théorème de superposition, afin d''etudier les applications possibles de cette d'ecomposition au traitement d'image. Pour cela, nous avons tout d'abord 'etudi'e la construction des fonctions monovari'ees. Ce probl'eme a fait l'objet de nombreuses 'etudes, et r'ecemment, deux algorithmes ont 'et'e propos'es. Sprecher a propos'e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d'ecrit explicitement la m'ethode pour construire exactement les fonctions monovari'ees, tout en introduisant des notions fondamentales 'a la compr'ehension du th'eor'eme. Par ailleurs, Igelnik et Parikh ont propos'e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d'images. Nous nous sommes ensuite focalisés sur l'étude de l'algorithme d'Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l'image : pour la compression : nous avons étudié la qualité de l'image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l'image originale. Pour améliorer cette reconstruction, nous avons proposé d'effectuer cette décomposition sur des images de détails issues d'une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l'image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l'image en augmentant progressivement sa résolution. De plus, nous montrons qu'une telle transmission est résistante à la perte d'information.
APA, Harvard, Vancouver, ISO, and other styles
14

Mielcarek, Didier. "Étude et développement de méthodes d'identification multi-variables : application à un procédé chimique." Vandoeuvre-les-Nancy, INPL, 1990. http://docnum.univ-lorraine.fr/public/INPL_T_1990_MIELCAREK_D.pdf.

Full text
Abstract:
Ce travail est divisé en deux parties. D'abord, nous nous sommes intéressés aux méthodes d'identification qui résolvent les problèmes soulevés lors d'études à caractère industriel: identification de systèmes multi-variable, interconnectés, non-linéarités, traitement des signaux comportant des valeurs manquantes, systèmes évolutifs, etc. Nous proposons deux nouvelles méthodes d'identification pour résoudre ces problèmes. La première est un algorithme itératif à plusieurs étages. La deuxième est plus générale, c'est une méthode récurrente qui identifie les systèmes multi-variable, interconnectés, et le bruit associé aux sorties. Elle comporte certains avantages qui sont discutés lors d'une étude comparative avec quelques méthodes existantes. La partie appliquée de ce travail porte sur l'automatisation d'un atelier de distillation extractive. Les méthodes d'identification proposées sont utilisées avec succès dans le cadre de cette application. Le modèle obtenu nous permet de définir la stratégie de commande de l'atelier
APA, Harvard, Vancouver, ISO, and other styles
15

Ahmadou, Mohamed Diaa. "Contribution au développement d'un dispositif robuste de détection-diffusion d'huiles essentielles à concentration contrôlée." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0187/document.

Full text
Abstract:
Ce travail contribue à la conception d’un système de détection-diffusion contrôlant en temps réel la concentration en huile essentielle dans un espace confiné. L’objectif est d’assurer la reproductibilité des conditions d’exposition aux stimuli olfactifs de sujets vivants, afin de tester les impacts neurosensoriels provoqués. La principale contrainte est de pouvoir mesurer, avec de bonnes qualités de rapidité et précision, la concentration odorante d’une atmosphère. Pour la détection gazeuse, le choix s’est porté sur un dispositif basé sur des capteurs de gaz commerciaux à base d’oxyde métalliques (nez électronique), couplé à un étalonnage préalable sous concentrations fixes d’huile essentielle de pin. Un équipement expérimental a été mis au point afin d’étudier, de caractériser et surtout d’optimiser les performances de ce dispositif. De premières études ont permis de classer les capteurs selon la rapidité, la sensibilité et le niveau de dérives, et d’optimiser la procédure de mesures : cycle d’exposition gazeuse de 75sec suivie de 350sec de régénération des capteurs sous air pur. Une caractérisation a été menée à partir de mesures systématiques réalisées sous diverses variations (croissantes, décroissantes, aléatoires) de concentration, prenant ainsi en compte toutes les formes possibles de dérive. Afin de réduire les erreurs dues à ces dérives, un prétraitement original a été initié en normalisant les signaux de réponse, grâce à la réponse de chaque capteur prise en fin de régénération. Deux descripteurs normalisés (conductance moyenne et maximale) ainsi que la valeur maximale de la courbe dérivée de chaque réponse temporelle ont été définis pour chaque capteur. L’exploitation de la base de données constituée à l’aide de ces trois paramètres par des méthodes de classification ACP et AFD montrent la difficulté de différencier les hautes concentrations, même en éliminant les deux capteurs les moins performants. Une toute nouvelle approche est alors proposée en combinant la technique de correction orthogonale des signaux (OSC), conduisant à la suppression des informations non pertinentes de la base de données, suivie d’une régression des moindres carrés partiels (PLS) adaptée aux problèmes de multi-colinéarité et au nombre élevé de variables. L’association de ces méthodes permet une meilleure discrimination des fortes concentrations, tout en garantissant le maximum de stabilité au modèle de régression et la précision d’estimation requise des concentrations gazeuses. Enfin, cette discrimination a été optimisée en remplaçant les trois paramètres représentatifs précédents par l’intégralité des signaux de réponse, le temps de calcul nécessaire restant modique. Une très bonne évaluation de la concentration gazeuse dans toute la gamme utilisée a alors été obtenue. Nous avons ainsi élaboré un modèle robuste et précis pour l’étalonnage de notre système, grâce à des méthodes d’analyse et de prétraitement judicieux, qui permet d’entreprendre la réalisation du prototype
ControlThis work contributes to the design of a gas diffusion-sensing system controlling in real time the essential oil concentration in a confined atmosphere. The objective is to create reproducible exposure conditions of olfactory stimuli on living beings to test their neurosensory impacts. The main constraint is to measure with good accuracy and rapidity the odor concentration of a global atmosphere. We decided to use a gaseous detection device (electronic nose) based on commercial resistive metal oxide sensors coupled to a prior learning at fixed concentrations of pine essential oil. Experimental equipment was first developed in order to study, characterize and especially optimize the device performances to be achieved. Initially, the study of time gas sensor responses was used to optimize working measurement conditions: cycle of 75s gas exposure phase, followed by 350s pure air regeneration phase. First results allowed the classification of our sensors in terms of rapidity, sensitivity and drift levels. A systematic characterization measurement was made under various concentration variations: increasing, decreasing or random ones taking account of all possible forms of response drifts. To reduce errors due to the drifts, an original pretreatment was initiated by normalizing each sensor response value in relation with its corresponding conductance value at the end of regeneration phase. Two normalized features and also the maximum value of the derivative curve were defined for each time sensor response. The analysis by ACP and AFD classification methods of the database created using these three features show the difficulty in differentiating high concentrations, even by eliminating the two least efficient sensors. So, a completely new approach was proposed by combining the orthogonal signal correction technique (OSC) allowing to remove irrelevant information, and the Partial Linear Square regression method PLS, adapted in case of multi-collinearity and a large number of parameters. Using these two methods yields a much better discrimination of the high concentrations, maintaining the concentration prediction accuracy with a maximum stability of the regression model. Finally, the concentration prediction has been optimized by substituting representative parameters with the full response signal, the calculation time remaining low. A very good assessment of the gas concentration in all the used range was obtained. So we have developed a robust and accurate model for the calibration of our system thanks to a combination of original processing and analysis methods, allowing to achieve a reliable detection-diffusion prototype
APA, Harvard, Vancouver, ISO, and other styles
16

Qin, Lei. "Online machine learning methods for visual tracking." Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0017/document.

Full text
Abstract:
Nous étudions le problème de suivi de cible dans une séquence vidéo sans aucune connaissance préalable autre qu'une référence annotée dans la première image. Pour résoudre ce problème, nous proposons une nouvelle méthode de suivi temps-réel se basant sur à la fois une représentation originale de l’objet à suivre (descripteur) et sur un algorithme adaptatif capable de suivre la cible même dans les conditions les plus difficiles comme le cas où la cible disparaît et réapparait dans le scène (ré-identification). Tout d'abord, pour la représentation d’une région de l’image à suivre dans le temps, nous proposons des améliorations au descripteur de covariance. Ce nouveau descripteur est capable d’extraire des caractéristiques spécifiques à la cible, tout en ayant la capacité à s’adapter aux variations de l’apparence de la cible. Ensuite, l’étape algorithmique consiste à mettre en cascade des modèles génératifs et des modèles discriminatoires afin d’exploiter conjointement leurs capacités à distinguer la cible des autres objets présents dans la scène. Les modèles génératifs sont déployés dans les premières couches afin d’éliminer les candidats les plus faciles alors que les modèles discriminatoires sont déployés dans les couches suivantes afin de distinguer la cibles des autres objets qui lui sont très similaires. L’analyse discriminante des moindres carrés partiels (AD-MCP) est employée pour la construction des modèles discriminatoires. Enfin, un nouvel algorithme d'apprentissage en ligne AD-MCP a été proposé pour la mise à jour incrémentale des modèles discriminatoires
We study the challenging problem of tracking an arbitrary object in video sequences with no prior knowledge other than a template annotated in the first frame. To tackle this problem, we build a robust tracking system consisting of the following components. First, for image region representation, we propose some improvements to the region covariance descriptor. Characteristics of a specific object are taken into consideration, before constructing the covariance descriptor. Second, for building the object appearance model, we propose to combine the merits of both generative models and discriminative models by organizing them in a detection cascade. Specifically, generative models are deployed in the early layers for eliminating most easy candidates whereas discriminative models are in the later layers for distinguishing the object from a few similar "distracters". The Partial Least Squares Discriminant Analysis (PLS-DA) is employed for building the discriminative object appearance models. Third, for updating the generative models, we propose a weakly-supervised model updating method, which is based on cluster analysis using the mean-shift gradient density estimation procedure. Fourth, a novel online PLS-DA learning algorithm is developed for incrementally updating the discriminative models. The final tracking system that integrates all these building blocks exhibits good robustness for most challenges in visual tracking. Comparing results conducted in challenging video sequences showed that the proposed tracking system performs favorably with respect to a number of state-of-the-art methods
APA, Harvard, Vancouver, ISO, and other styles
17

Moslem, Bassam. "Méthodes non paramétriques pour la classification dans les signaux non stationnaires : application à l'EMG utérin." Compiègne, 2011. http://www.theses.fr/2011COMP1981.

Full text
Abstract:
L'analyse de la contractilité utérine par les techniques actuelles reste insuffisante pour un diagnostic fiable des menaces d'accouchement prématuré (MAP) et pour qu'un clinicien puisse obtenir toutes les informations qualitatives et quantitatives de cette activité. L'analyse de l'enregistrement de l'activité électrique utérine a été proposée de longue date pour évaluer l'activité contractile. Le signal enregistré, appelé l'électromyogramme (EMG) utérin, se révèle porteur d'informations supplémentaires relatives à l'efficacité de la contraction. C'est dans ce contexte que se développe depuis quelques années étude de l'EMG utérin pour le diagnostic précoce des MAP. Notre étude porte principalement sur l'analyse de l'EMG utérin le suivi de grossesse et la classification des contractions. Il s'agit ici, dans un premier temps, d'appliquer les différents types des techniques de traitement du signal (analyse spectrale, multiresolution, non-linéaire) afin de caractériser au mieux l'EMG utérin. Ensuite, un suivi de grossesse à l'aide des différents paramètres extraits des signaux enregistrés sur les mêmes femmes à différents termes de grossesse est réalisé. Cette approche est améliorée par l'application de l'analyse multiresolution basée sur la transformée en paquets d'ondelettes et la recherche d'une meilleure base adaptée au problème du suivi de grossesse. Afin de bénéficier de l'enregistrement multivoie des signaux EMG utérin pour l'étude de la propagation de l'activité électrique, nous réalisons une étude spatiale de cette activité afin de connaitre la façon dont elle varie tout au long de la grossesse. La dernière partie de notre travail consiste à classifier les signaux EMG utérin entre accouchement et grossesse. Une nouvelle approche basée sur l'analyse multivoie et l'application d'une règle de fusion des décisions individuelles de toutes les voies est proposée. Le taux élevé de classification correcte (92%) montre que cette approche pourrait être la solution appropriée pour le problème de détection des MAP
Uterine contraction monitoring provides important prognostic information during pregnancy and labor and can be used for an early detection of any sign of preterm labor. Current techniques used for monitoring the uterine contraction impose a compromise between accuracy and invasiveness. Recently, the uterine electrical activity has been proven to be representative of the uterine contractility. The uterine electromyogram (EMG), also called the electrohysterogram (EHG), is the bioelectrical signal associated with the uterine activity. Recorded noninvasively from the abdominal wall of pregnant women, uterine EMG gives valuable information about the function aspects of the uterine contractility. Numerous studies have analyzed the uterine recordings associated with pregnancy and labor: it has been proven that it is of interest to offer a good insight into the process of pregnancy and labor and may be also used to predict the risk of preterm labor. Our study focuses on feature extraction, pregnancy monitoring and signal classification. In the first part, we apply new signal processing techniques (spectral analysis, multiresolution analysis, nonlinear analysis…) in order to extract new features capable of provide the best characterization of the uterine EMG. Next, a pregnancy monitoring using the extracted features in presented. This study concerns different women recorded at several pregnancy terms. This approach is improved by applying the multiresolution analysis based on the wavelet packet transform. We searched for the best basis adapted for the problem of pregnancy monitoring. In order to benefit from the multichannel type of the recorded signals, we study the spatial variability of the electrical activity at different recording sites of the uterus. This multichannel-based approach allows us to know the way the electrical activity changes at throughout pregnancy over all the uterine muscle. In the last part, we present our work on classifying uterine EMG signals between two classes of contraction (pregnancy vs. Labor). A novel approach based on multisensor data fusion is presented. The high correct classification ratio (92%) obtained proves that this method may be the solution for the problem described
APA, Harvard, Vancouver, ISO, and other styles
18

Wang, Tian. "Abnormal detection in video streams via one-class learning methods." Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0018/document.

Full text
Abstract:
La vidéosurveillance représente l’un des domaines de recherche privilégiés en vision par ordinateur. Le défi scientifique dans ce domaine comprend la mise en œuvre de systèmes automatiques pour obtenir des informations détaillées sur le comportement des individus et des groupes. En particulier, la détection de mouvements anormaux de groupes d’individus nécessite une analyse fine des frames du flux vidéo. Dans le cadre de cette thèse, la détection de mouvements anormaux est basée sur la conception d’un descripteur d’image efficace ainsi que des méthodes de classification non linéaires. Nous proposons trois caractéristiques pour construire le descripteur de mouvement : (i) le flux optique global, (ii) les histogrammes de l’orientation du flux optique (HOFO) et (iii) le descripteur de covariance (COV) fusionnant le flux optique et d’autres caractéristiques spatiales de l’image. Sur la base de ces descripteurs, des algorithmes de machine learning (machines à vecteurs de support (SVM)) mono-classe sont utilisés pour détecter des événements anormaux. Deux stratégies en ligne de SVM mono-classe sont proposées : la première est basée sur le SVDD (online SVDD) et la deuxième est basée sur une version « moindres carrés » des algorithmes SVM (online LS-OC-SVM)
One of the major research areas in computer vision is visual surveillance. The scientific challenge in this area includes the implementation of automatic systems for obtaining detailed information about the behavior of individuals and groups. Particularly, detection of abnormal individual movements requires sophisticated image analysis. This thesis focuses on the problem of the abnormal events detection, including feature descriptor design characterizing the movement information and one-class kernel-based classification methods. In this thesis, three different image features have been proposed: (i) global optical flow features, (ii) histograms of optical flow orientations (HOFO) descriptor and (iii) covariance matrix (COV) descriptor. Based on these proposed descriptors, one-class support vector machines (SVM) are proposed in order to detect abnormal events. Two online strategies of one-class SVM are proposed: The first strategy is based on support vector description (online SVDD) and the second strategy is based on online least squares one-class support vector machines (online LS-OC-SVM)
APA, Harvard, Vancouver, ISO, and other styles
19

Traore, Oumar Issiaka. "Méthodologie de traitement et d'analyse de signaux expérimentaux d'émission acoustique : application au comportement d'un élément combustible en situation accidentelle." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0011/document.

Full text
Abstract:
L’objectif de cette thèse est de contribuer à l’amélioration du processus de dépouillement d’essais de sûreté visant étudier le comportement d'un combustible nucléaire en contexte d’accident d’injection de réactivité (RIA), via la technique de contrôle par émission acoustique. Il s’agit notamment d’identifier clairement les mécanismes physiques pouvant intervenir au cours des essais à travers leur signature acoustique. Dans un premier temps, au travers de calculs analytiques et des simulation numériques conduites au moyen d’une méthode d’éléments finis spectraux, l’impact du dispositif d’essais sur la propagation des ondes est étudié. Une fréquence de résonance du dispositif est identifiée. On établit également que les mécanismes basses fréquences ne sont pas impactés par le dispositif d'essais. En second lieu, diverses techniques de traitement du signal (soustraction spectrale, analyse spectrale singulière, ondelettes. . . ) sont expérimentées, afin de proposer des outils permettant de traiter différent types de bruit survenant lors des essais RIA. La soustraction spectrale s’avère être la méthode la plus robuste aux changements de nature du bruit, avec un fort potentiel d’amélioration du rapport signal-à-bruit. Enfin, des méthodes d’analyse de données multivariées et d’analyse de données fonctionnelles ont été appliquées, afin de proposer un algorithme de classification statistique permettant de mieux comprendre la phénoménologie des accidents de type RIA et d’identifier les mécanismes physiques. Selon l’approche (multivariée ou fonctionnelle), les algorithmes obtenus permettent de reconnaître le mécanisme associé à une salve dans plus de 80% des cas
The objective of the thesis is to contribute to the improvement of the monitoring process of nuclear safety experiments dedicated to study the behavior of the nuclear fuel in a reactivity initiated accident (RIA) context, by using the acoustic emission technique. In particular, we want to identify the physical mechanisms occurring during the experiments through their acoustic signatures. Firstly, analytical derivations and numerical simulations using the spectral finite element method have been performed in order to evaluate the impact of the wave travelpath in the test device on the recorded signals. A resonant frequency has been identified and it has been shown that the geometry and the configuration of the test device may not influence the wave propagation in the low frequency range. Secondly, signal processing methods (spectral subtraction, singular spectrum analysis, wavelets,…) have been explored in order to propose different denoising strategies according to the type of noise observed during the experiments. If we consider only the global SNR improvement ratio, the spectral subtraction method is the most robust to changes in the stochastic behavior of noise. Finally, classical multivariate and functional data analysis tools are used in order to create a machine learning algorithm dedicated to contribute to a better understanding of the phenomenology of RIA accidents. According to the method (multivariate or functional), the obtained algorithms allow to identify the mechanisms in more than 80 % of cases
APA, Harvard, Vancouver, ISO, and other styles
20

El, Aabid Moulay Abdelaziz. "Attaques par canaux cachés : expérimentations avancées sur les attaques template." Paris 8, 2011. http://www.theses.fr/2011PA083394.

Full text
Abstract:
Au début des années 90, l’apparition de nouvelles méthodes de cryptanalyse a bouleversé la sécurité des dispositifs cryptographiques. Ces attaques se basent sur l’analyse de consommation en courant lorsque le microprocesseur d’une carte est en train de dérouler l’algorithme cryptographique. Dans cette thèse nous explorons, principalement, les attaques templates, et y apportons quelques améliorations pratiques. Ces analyses consistent en des études de cas basées sur des mesures de courant acquises expérimentalement à partir d’un accélérateur cryptographique. Pour réduire la quantité de données nous utilisons l’analyse en composantes principales et donnons une interprétation physique des valeurs propres et vecteurs propres. Nous introduisons une méthode basée sur le seuillage de la fuite de données pour accélérer le profilage et l’attaque. Nous apportons aussi des réponses concrètes au problème de la combinaison d’attaques, dans le cas où les modèles et échantillons recueillis sont porteurs d’informations complémentaires. Nous traitons également sur l’identification des problèmes qui surgissent quand il y a une divergence entre les template et les traces attaquées. Nous montrons que deux phénomènes peuvent entraver la réussite des attaques lorsque les template sont obsolètes, à savoir, la désynchronisation des traces et le redimensionnement des traces en amplitudes. Nous suggérons deux remèdes pour contourner ce type de problèmes. Finalement, nous proposons quelques méthodes du traitement du signal dans le contexte des attaques physiques : les analyses en multi-résolution permettent d’avoir un gain considérable en nombre de traces nécessaires pour récupérer la clé secrète
In the 90's, the emergence of new cryptanalysis methods revolutionized the security of cryptographic devices. These attacks are based on power consumption analysis, when the microprocessor is running the cryptographic algorithm. Especially, we analyse in this thesis some properties of the \emph{template attack}, and we provide some practical improvements. The analyse consists in a case-study based on side-channel measurements acquired experimentally from a hardwired cryptographic accelerator. The principal component analysis (PCA) is used to represent the \emph{templates} in some dimensions, and we give a physical interpretation of the \emph{templates} eigenvalues and eigenvectors. We introduce a method based on the thresholding of leakage data to accelerate the profiling or the matching stages. In this context, there is an opportunity to study how to best combine many attacks with many leakages from different sources or using different samples from a single source. That brings some concrete answers to the attack combination problem. Also we focus on identifying the problems that arise when there is a discrepancy between the \emph{templates} and the traces to match : the traces can be desynchronized and the amplitudes can be scaled differently. Then we suggest two remedies to cure the \emph{template} mismatches. We show that SCAs when performed with a multi-resolution analysis are much better than considering only the time or the frequency resolution. Actually, the gain in number of traces needed to recover the secret key is relatively considerable with repect to an ordinary attack
APA, Harvard, Vancouver, ISO, and other styles
21

Hassan, Mahmoud. "Analysis of the propagation of uterine electrical activity applied to predict preterm labor : prédiction de menaces d'accouchement prématuré." Compiègne, 2011. http://www.theses.fr/2011COMP1948.

Full text
Abstract:
Les contractions utérines sont contrôlées par deux phénomènes physiologiques: l'excitabilité cellulaire et la propagation de l'activité électrique utérine probablement liées aux hautes et basses fréquences de l'electrohysterograme (EHG) respectivement. Toutes les études précédentes ont porté sur l'extraction de paramètres de la partie haute fréquence et n'ont pas montré un potentiel satisfait pour l'application clinique. L'objectif de cette thèse est l'analyse de propagation de l'EHG pendant la grossesse et le travail dans la vue de l'extraction des outils pour une application clinique. Une des nouveautés de la thèse est l'enregistrement multicanaux à l'aide d'une matrice d'électrodes 4x4 posée sur l'abdomen de la femme. Analyse monovariés visait à étudier les caractéristiques non linéaires des signaux EHG, analyses bivariées et multivariées ont été effectuées pour analyser la propagation des signaux EHG par la détection de la connectivité entre les signaux. Une augmentation de la non-linéarité associée par une synchronisation en amplitude et de désynchronisation en phase a été détectée. Les résultats indiquent plus de propagation au cours du travail que la grossesse et une augmentation de cette propagation avec les semaines de gestations. Les résultats montrent le potentiel élevé de paramètres de propagation dans le point de vue clinique tel que la détection du travail et de prédiction du travail prématuré. Finalement, nous avons proposé une nouvelle combinaison entre Séparation Aveugles de Sources et la Décomposition en Modes Empiriques pour débruiter les signaux EHG monopolaires comme un moyen possible d'augmenter le taux de classification de signaux grossesse et l'accouchement
Uterine contractions are essentially controlled by two physiological phenomena: cell excitability and propagation of uterine electrical activity probably related to high and low frequencies of uterine electromyogram, called electrohysterogram -EHG-, respectively. All previous studies have been focused on extracting parameters from the high frequency part and did not show a satisfied potential for clinical application. The objective of this thesis is the analysis of the propagation EHG signals of during pregnancy and labor in the view of extracting tool for clinical application. A novelty of our thesis is the multichannel recordings by using 4x4 electrodes matrix posed on the woman abdomen. Monovariate analysis was aimed to investigate the nonlinear characteristics of EHG signals. Bivariate and multivariate analyses have been done to analyze the propagation of the EHG signals by detecting the connectivity between the signals. An increase of the nonlinearity associated by amplitude synchronization and phase desynchronization were detected. Results indicate a highest EHG propagation during labor than pregnancy and an increase of this propagation with the week of gestations. The results show the high potential of propagation’s parameters in clinical point of view such as labor detection and then preterm labor prediction. We proposed novel combination of Blind Source Separation and empirical mode decomposition to denoise monopolar EHG as a possible way to increase the classification rate of pregnancy and labor
APA, Harvard, Vancouver, ISO, and other styles
22

Lindig, León Cecilia. "Classification multilabels à partir de signaux EEG d'imaginations motrices combinées : application au contrôle 3D d'un bras robotique." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0016/document.

Full text
Abstract:
Les interfaces cerveau-ordinateur (ou BCI en anglais pour Brain-Computer Interfaces) mettent en place depuis le système nerveux central un circuit artificiel secondaire qui remplace l’utilisation des nerfs périphériques, permettant entre autres à des personnes ayant une déficience motrice grave d’interagir, uniquement à l’aide de leur activité cérébrale, avec différents types d’applications, tels qu’un système d’écriture, une neuro-prothèse, un fauteuil roulant motorisé ou un bras robotique. Une technique répandue au sein des BCI pour enregistrer l’activité cérébrale est l’électroencéphalographie (EEG), étant donné que contrairement à d’autres techniques d’imagerie, elle est non invasif et peu coûteuse. En outre, l’imagination motrice (MI), c’est-à-dire les oscillations des neurones du cortex moteur générées lorsque les sujets imaginent effectuer un mouvement sans réellement l’accomplir, est appropriée car détectable dans l’EEG et liée à l’activité motrice pour concevoir des interfaces comme des neuro-prothèses non assujetties à des stimuli. Cependant, même si des progrès importants ont été réalisés au cours des dernières années, un contrôle 3D complet reste un objectif à atteindre. Afin d’explorer de nouvelles solutions pour surmonter les limitations existantes, nous présentons une approche multiclasses qui considère la détection des imaginations motrices combinées. Le paradigme proposé comprend l’utilisation de la main gauche, de la main droite, et des deux pieds ensemble. Ainsi, par combinaison, huit commandes peuvent être fournies pour diriger un bras robotisé comprenant quatorze mouvements différents qui offrent un contrôle 3D complet. À cette fin, un système de commutation entre trois modes (déplacement du bras, du poignet ou des doigts) a été conçu et permet de gérer les différentes actions en utilisant une même commande. Ce système a été mis en oeuvre sur la plate-forme OpenViBE. En outre, pour l’extraction de caractéristiques une nouvelle approche de traitement d’information fournie par les capteurs a été développée sur la base de l’emplacement spécifique des sources d’activité liées aux parties du corps considérées. Cette approche permet de regrouper au sein d’une seule classe les différentes actions pour lesquelles le même membre est engagé, d’une manière que la tâche multiclasses originale se transforme en un problème équivalent impliquant une série de modèles de classification binaires. Cette approche permet d’utiliser l’algorithme de Common Spatial pattern (CSP) dont la capacité à discriminer des rythmes sensorimoteurs a été largement montrée mais qui présente l’inconvénient d’être applicable uniquement pour différencier deux classes. Nous avons donc également contribué à une nouvelle stratégie qui combine un ensemble de CSP et la géométrie riemannienne. Ainsi des caractéristiques plus discriminantes peuvent être obtenues comme les distances séparant les données des centres des classes considérées. Ces stratégies ont été appliquées sur trois nouvelles approches de classification qui ont été comparées à des méthodes de discrimination multiclasses classiques en utilisant les signaux EEG d’un groupe de sujets sains naïfs, montrant ainsi que les alternatives proposées permettent non seulement d’améliorer l’existant, mais aussi de réduire la complexité de la classification
Brain-Computer Interfaces (BCIs) replace the natural nervous system outputs by artificial ones that do not require the use of peripheral nerves, allowing people with severe motor impairments to interact, only by using their brain activity, with different types of applications, such as spellers, neuroprostheses, wheelchairs, or among others robotics devices. A very popular technique to record signals for BCI implementation purposes consists of electroencephalography (EEG), since in contrast with other alternatives, it is noninvasive and inexpensive. In addition, due to the potentiality of Motor Imagery (MI, i.e., brain oscillations that are generated when subjects imagine themselves performing a movement without actually accomplishing it) to generate suitable patterns for scheming self-paced paradigms, such combination has become a common solution for BCI neuroprostheses design. However, even though important progress has been made in the last years, full 3D control is an unaccomplished objective. In order to explore new solutions for overcoming the existing limitations, we present a multiclass approach that considers the detection of combined motor imageries, (i.e., two or more body parts used at the same time). The proposed paradigm includes the use of the left hand, right hand, and both feet together, from which eight commands are provided to direct a robotic arm comprising fourteen different movements that afford a full 3D control. To this end, an innovative switching-mode scheme that allows managing different actions by using the same command was designed and implemented on the OpenViBE platform. Furthermore, for feature extraction a novel signal processing scheme has been developed based on the specific location of the activity sources that are related to the considered body parts. This insight allows grouping together within a single class those conditions for which the same limb is engaged, in a manner that the original multiclass task is transformed into an equivalent problem involving a series of binary classification models. Such approach allows using the Common Spatial Pattern (CSP) algorithm; which has been shown to be powerful at discriminating sensorimotor rhythms, but has the drawback of being suitable only to differentiate between two classes. Based on this perspective we also have contributed with a new strategy that combines together the CSP algorithm and Riemannian geometry. In which the CSP projected trials are mapped into the Riemannian manifold, from where more discriminative features can be obtained as the distances separating the input data from the considered class means. These strategies were applied on three new classification approaches that have been compared to classical multiclass methods by using the EEG signals from a group of naive healthy subjects, showing that the proposed alternatives not only outperform the existing schema, but also reduce the complexity of the classification task
APA, Harvard, Vancouver, ISO, and other styles
23

Komaty, Ali. "Traitement et analyse des processus stochastiques par EMD et ses extensions." Thesis, Brest, 2014. http://www.theses.fr/2014BRES0107.

Full text
Abstract:
L’objectif de cette thèse est d’analyser le comportement de la décomposition modale empirique (EMD) et sa version multivariée (MEMD) dans le cas de processus stochastiques : bruit Gaussien fractionnaire (fGn) et processus symétrique alpha stable (SαS). Le fGn est un bruit large bande généralisant le cas du bruit blanc Gaussien et qui trouve des applications dans de nombreux domaines tels que le trafic internet, l’économie ou le climat. Par ailleurs, la nature «impulsive» d’un certain nombre de signaux (craquement des glaces, bruit des crevettes claqueuses, potentiel de champ local en neurosciences,…) est indéniable et le modèle Gaussien ne convient pas pour leur modélisation. La distribution SαS est une solution pour modéliser cette classe de signaux non-Gaussiens. L’EMD est un outil bien adapté au traitement et à l’analyse de ces signaux réels qui sont, en général, de nature complexe (non stationnaire,non linéaire). En effet, cette technique, pilotée par les données, permet la décomposition d’un signal en une somme réduite de composantes oscillantes, extraites de manière itérative, appelées modes empiriques ou IMFs (Intrinsic Mode Functions). Ainsi, nous avons montré que le MEMD s’organise spontanément en une structure de banc de filtres presque dyadiques. L'auto-similarité en termes de représentation spectrale des modes a aussi été établie. En outre, un estimateur de l’exposant de Hurst, caractérisant le fGn, a été construit et ses performances ont été comparées, en particulier à celles de l’approche ondelettes. Cette propriété de banc de filtres du MEMD a été vérifiée sur des données d'hydrodynamique navale (écoulement turbulent) et leur auto-similarité a été mise en évidence. De plus, l’estimation du coefficient de Hurst a mis en avant l’aspect longue dépendance (corrélation positive) des données. Enfin, l’aspect banc de filtres de l’EMD a été exploité à des fins de filtrage dans le domaine temporel en utilisant une mesure de similarité entre les densités de probabilités des modes extraits et celle du signal d’entrée. Pour éviter le problème du mode mixing de l'EMD standard, une approche de débruitage dans le domaine fréquentiel par une reconstruction complète des IMFs préalablement seuillées a été menée. L’ensemble des résultats a été validé par des simulations intensives (Monte Carlo) et sur des signaux réels
The main contribution of this thesis is aimed towards understanding the behaviour of the empirical modes decomposition (EMD) and its extended versions in stochastic situations
APA, Harvard, Vancouver, ISO, and other styles
24

Kherdali, Khalil el. "Etude, conception et réalisation d'un radar ultrasonore." Montpellier 2, 1992. http://www.theses.fr/1992MON20122.

Full text
Abstract:
Le travail presente dans ce memoire a pour but l'etude, la conception et la realisation d'un radar ultrasonore. Son principe est base sur celui des reseaux ultrasonores, que nous avons developpe en utilisant un modele simple pour simuler le fonctionnement d'un des emetteurs. Un reseau lineaire constitue de 16 emetteurs tangents, nous a permis de repondre a certaines specifications du radar grande portee (10m), resolution laterale fine de quelques degres. Le radar ainsi constitue possede cependant un faible champ de vision 8. L'utilisation d'une ponderation en amplitude a l'emission, qui a pour effet principal d'eliminer pratiquement l'influence des lobes secondaires nous a permis d'accroitre ce champ de vision a 14. Cette valeur reste cependant relativement faible en l'absence du balayage mecanique. Nous avons finalement resolu ce probleme en disposant les 16 emetteurs sur le bord d'une couronne de rayon adequat. Le champ pratique de vision obtenu a alors ete de 40 par rapport a la bissectrice de la couronne utilisee et differents obstacles de formes et matieres diverses ont pu etre parfaitement reperes par notre systeme. En conclusion nous avons realise un radar ultrasonore de grande portee de resolution laterale voisine de 2 et possedant un large champ de vision (80). Il est de faible cout, il utilise des emetteurs courants et peut servir au guidage des robots mobiles
APA, Harvard, Vancouver, ISO, and other styles
25

Nicollin, Florence. "Traitement de profils sismiques "ECORS" par projection sur le premier vecteur propre de la matrice spectrale." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0101.

Full text
Abstract:
Le filtrage matriciel, obtenu par projection sur le premier vecteur propre de la matrice spectrale, constitue un outil performant pour l'etude de profils sismiques. C'est un traitement multidimensionnel assez simple a mettre en uvre et qui, par amelioration du rapport signal sur bruit, permet de mettre en evidence les arrivees d'energie caracterisant les structures geologiques. La methode necessite peu d'hypotheses a priori; elle est basee sur les relations frequentielles entre signaux dont la fonction de transfert est definie par le premier vecteur propre de la matrice. L'application a differents profils ecors et leur interpretation structurale permettent de cerner les performances et les limites de la methode: le traitement de profils de reflexion grand angle (campagne preliminaire ecors alpes 85) est peu efficace a cause du caractere tres bruite des donnees; par contre, le traitement de sections de type grands profils donne de bons resultats (profils de reflexion verticale et de reflexion grand angle ecors alpes 86, profil de refraction ecors nord de la france)
APA, Harvard, Vancouver, ISO, and other styles
26

Björk, Anders. "Chemometric and signal processing methods for real time monitoring and modeling : applications in the pulp and paper industry." Doctoral thesis, KTH, Kemi, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-4383.

Full text
Abstract:
In the production of paper, the quality of the pulp is an important factor both for the productivity and for the final quality. Reliable real-time measurements of pulp quality are therefore needed. One way is to use acoustic or vibration sensors that give information-rich signals and place the sensors at suitable locations in a pulp production line. However, these sensors are not selective for the pulp properties of interest. Therefore, advanced signal processing and multivariate calibration are essential tools. The current work has been focused on the development of calibration routes for extraction of information from acoustic sensors and on signal processing algorithms for enhancing the information-selectivity for a specific pulp property or class of properties. Multivariate analysis methods like Principal Components Analysis (PCA), Partial Least Squares (PLS) and Orthogonal Signal Correction (OSC) have been used for visualization and calibration. Signal processing methods like Fast Fourier Transform (FFT), Fast Wavelet Transform (FWT) and Continuous Wavelet Transform (CWT) have been used in the development of novel signal processing algorithms for extraction of information from vibrationacoustic sensors. It is shown that use of OSC combined with PLS for prediction of Canadian Standard Freeness (CSF) using FFT-spectra produced from vibration data on a Thermo Mechanical Pulping (TMP) process gives lower prediction errors and a more parsimonious model than PLS alone. The combination of FFT and PLS was also used for monitoring of beating of kraft pulp and for screen monitoring. When using regular FFT-spectra on process acoustic data the obtained information tend to overlap. To circumvent this two new signal processing methods were developed: Wavelet Transform Multi Resolution Spectra (WT-MRS) and Continuous Wavelet Transform Fibre Length Extraction (CWT-FLE). Applying WT-MRS gave PLS-models that were more parsimonious with lower prediction error for CSF than using regular FFT-Spectra. For a Medium Consistency (MC) pulp stream WT-MRS gave predictions errors comparable to the reference methods for CSF and Brightness. The CWT-FLE method was validated against a commercial fibre length analyzer and good agreement was obtained. The CWT-FLE-curves could therefore be used instead of other fibre distribution curves for process control. Further, the CWT-FLE curves were used for PLS modelling of tensile strength and optical parameters with good results. In addition to the mentioned results a comprehensive overview of technologies used with acoustic sensors and related applications has been performed.
Vid framställning av pappersprodukter är kvaliteten på massan en viktig faktor för produktiviteten och kvalitén på slutresultatet. Det är därför viktigt att ha tillgång till tillförlitliga mätningar av massakvalitet i realtid. En möjlighet är att använda akustik- eller vibrationssensorer i lämpliga positioner vid enhetsoperationer i massaprocessen. Selektiviteten hos dessa mätningar är emellertid relativt låg i synnerhet om mätningarna är passiva. Därför krävs avancerad signalbehandling och multivariat kalibrering. Det nu presenterade arbetet har varit fokuserat på kalibreringsmetoder för extraktion av information ur akustiska mätningar samt på algoritmer för signalbehandling som kan ge förbättrad informationsselektivitet. Multivariata metoder som Principal Component Analysis (PCA), Partial Least Squares (PLS) and Orthogonal Signal Correction (OSC) har använts för visualisering och kalibrering. Signalbehandlingsmetoderna Fast Fourier Transform (FFT), Fast Wavelet Transform (FWT) och Continuous Wavelet Transform (CWT) har använts i utvecklingen av nydanande metoder för signalbehandling anpassade till att extrahera information ur signaler från vibrations/akustiska sensorer. En kombination av OSC och PLS applicerade på FFT-spektra från raffineringen i en Termo Mechnaical Pulping (TMP) process ger lägre prediktionsfel för Canadian Standard Freeness (CSF) än enbart PLS. Kombinationen av FFT och PLS har vidare använts för monitorering av malning av sulfatmassa och monitorering av silning. Ordinära FFT-spektra av t.ex. vibrationssignaler är delvis överlappande. För att komma runt detta har två signalbehandlingsmetoder utvecklats, Wavelet Transform Multi Resolution Spectra (WT-MRS) baserat på kombinationen av FWT och FFT samt Continuous Wavelet Transform Fibre Length Extraction (CWT-FLE) baserat på CWT. Tillämpning av WT-MRS gav enklare PLS-modeller med lägre prediktionsfel för CSF jämfört med att använda normala FFT-spektra. I en annan tillämpning på en massaström med relativt hög koncentration (Medium Consistency, MC) kunde prediktioner för CSF samt ljushet erhållas med prediktionsfel jämförbart med referensmetodernas fel. Metoden CWT-FLE validerades mot en kommersiell fiberlängdsmätare med god överensstämmelse. CWT-FLE-kurvorna skulle därför kunna användas i stället för andra fiberdistributionskurvor för processtyrning. Vidare användes CWT-FLE kurvor för PLS modellering av dragstyrka samt optiska egenskaper med goda resultat. Utöver de nämnda resultaten har en omfattande litteratursammanställning gjorts över området och relaterade applikationer.
QC 20100629
APA, Harvard, Vancouver, ISO, and other styles
27

Faure, Cynthia. "Détection de ruptures et identification des causes ou des symptômes dans le fonctionnement des turboréacteurs durant les vols et les essais." Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E059/document.

Full text
Abstract:
L'analyse de séries temporelles multivariées, créées par des capteurs présents sur le moteur d'avion durant un vol ou un essai, représente un nouveau challenge pour les experts métier en aéronautique. Chaque série temporelle peut être décomposée de manière univariée en une succession de phases transitoires, très connues par les experts, et de phases stabilisées qui sont moins explorées bien qu'elles apportent beaucoup d'informations sur le fonctionnement d'un moteur. Notre projet a pour but de convertir ces séries temporelles en une succession de labels, désignant des phases transitoires et stabilisées dans un contexte bivarié. Cette transformation des données donne lieu à plusieurs perspectives : repérer dans un contexte univarié ou bivarié les patterns similaires durant un vol, trouver des tronçons de courbes similaires à une courbe donnée, identifier les phases atypiques, détecter ses séquences de labels fréquents et rares durant un vol, trouver le vol le plus représentatif et déterminer les vols «volages». Ce manuscrit propose une méthodologie pour automatiquement identifier les phases transitoires et stabilisées, classer les phases transitoires, labelliser des séries temporelles et les analyser. Tous les algorithmes sont appliqués à des données de vols et les résultats sont validés par les experts
Analysing multivariate time series created by sensors during a flight or a bench test represents a new challenge for aircraft engineers. Each time series can be decomposed univariately into a series of stabilised phases, well known by the expert, and transient phases that are merely explored but very informative when the engine is running. Our project aims at converting these time series into a succession of labels, designing transient and stabilised phases in a bivariate context. This transformation of the data will allow several perspectives: tracking similar behaviours or bivariate patterns seen during a flight, finding similar curves from a given curve, identifying the atypical curves, detecting frequent or rare sequences of labels during a flight, discovering hidden multivariate structures, modelling a representative flight, and spotting unusual flights. This manuscript proposes : methodology to automatically identify transient and stabilized phases, cluster all engine transient phases, label multivariate time series and analyse them. All algorithms are applied on real flight measurements with a validation of the results from expert knowledge
APA, Harvard, Vancouver, ISO, and other styles
28

Sargent, Gabriel. "Estimation de la structure de morceaux de musique par analyse multi-critères et contrainte de régularité." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00853737.

Full text
Abstract:
Les récentes évolutions des technologies de l'information et de la communication font qu'il est aujourd'hui facile de consulter des catalogues de morceaux de musique conséquents. De nouvelles représentations et de nouveaux algorithmes doivent de ce fait être développés afin de disposer d'une vision représentative de ces catalogues et de naviguer avec agilité dans leurs contenus. Ceci nécessite une caractérisation efficace des morceaux de musique par l'intermédiaire de descriptions macroscopiques pertinentes. Dans cette thèse, nous nous focalisons sur l'estimation de la structure des morceaux de musique : il s'agit de produire pour chaque morceau une description de son organisation par une séquence de quelques dizaines de segments structurels, définis par leurs frontières (un instant de début et un instant de fin) et par une étiquette représentant leur contenu sonore.La notion de structure musicale peut correspondre à de multiples acceptions selon les propriétés musicales choisies et l'échelle temporelle considérée. Nous introduisons le concept de structure "sémiotique" qui permet de définir une méthodologie d'annotation couvrant un vaste ensemble de styles musicaux. La détermination des segments structurels est fondée sur l'analyse des similarités entre segments au sein du morceau, sur la cohérence de leur organisation interne (modèle "système-contraste") et sur les relations contextuelles qu'ils entretiennent les uns avec les autres. Un corpus de 383 morceaux a été annoté selon cette méthodologie et mis à disposition de la communauté scientifique.En termes de contributions algorithmiques, cette thèse se concentre en premier lieu sur l'estimation des frontières structurelles, en formulant le processus de segmentation comme l'optimisation d'un coût composé de deux termes~: le premier correspond à la caractérisation des segments structurels par des critères audio et le second reflète la régularité de la structure obtenue en référence à une "pulsation structurelle". Dans le cadre de cette formulation, nous comparons plusieurs contraintes de régularité et nous étudions la combinaison de critères audio par fusion. L'estimation des étiquettes structurelles est pour sa part abordée sous l'angle d'un processus de sélection d'automates à états finis : nous proposons un critère auto-adaptatif de sélection de modèles probabilistes que nous appliquons à une description du contenu tonal. Nous présentons également une méthode d'étiquetage des segments dérivée du modèle système-contraste.Nous évaluons différents systèmes d'estimation automatique de structure musicale basés sur ces approches dans le cadre de campagnes d'évaluation nationales et internationales (Quaero, MIREX), et nous complétons cette étude par quelques éléments de diagnostic additionnels.
APA, Harvard, Vancouver, ISO, and other styles
29

Meriaux, Bruno. "Contributions aux traitements robustes pour les systèmes multi-capteurs." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG009.

Full text
Abstract:
L'un des objectifs du traitement statistique du signal est l'extraction d'informations utiles à partir d'un ensemble de données et d'un modèle statistique. Par exemple, les méthodes pour détecter/localiser des cibles en radar requièrent généralement l'estimation de la matrice de covariance des données. Avec l'apparition de systèmes haute-résolution, l'utilisation d'un modèle gaussien n'est plus adaptée et conduit alors à des dégradations de performance. Par ailleurs, certaines informations a priori peuvent être obtenues par une étude préalable du système comme par exemple la structure de la matrice de covariance. Leur prise en compte améliore alors les performances des méthodes de traitement.Dans un premier temps, nous introduisons de nouveaux estimateurs robustes structurés de la matrice de covariance, basés sur la famille des distributions elliptiques et la classe des M-estimateurs. Nous analysons les performances asymptotiques de ces derniers et conduisons une analyse de sensibilité en considérant la possibilité d'erreurs sur le modèle statistique. Dans un second temps, nous proposons une reformulation du problème de détection de cibles à l'aide des techniques de subspace clustering et de reconstruction parcimonieuse. Nous étudions alors certaines propriétés théoriques du problème d'optimisation puis nous appliquons cette méthodologie dans un scénario de détection de cibles en présence de brouilleurs
One of the objectives of statistical signal processing is the extraction of useful information from a set of data and a statistical model. For example, most of the methods for detecting/localizing targets in radar generally require the estimation of the covariance matrix. With the emergence of high-resolution systems, the use of a Gaussian model is no longer suited and therefore leads to performance degradations. In addition, prior information can be obtained by a prior study of the system, such as the structure of the covariance matrix. Taking them into account then improves the performance of the processing methods. First, we introduce new robust structured estimators of the covariance matrix, based on the family of elliptical distributions and the class of M-estimators. We analyze the asymptotic performances of the latter and we conduct a sensitivity analysis by considering the possibility of mismatches on the statistical model.Secondly, we propose a reformulation of the target detection problem using sparse subspace clustering techniques. We then study some theoretical properties of the optimization problem and we apply this methodology in a scenario of target detection in presence of jammers
APA, Harvard, Vancouver, ISO, and other styles
30

Duchêne, Florence. "Fusion de Données Multicapteurs pour un Système de Télésurveillance Médicale de Personnes à Domicile." Phd thesis, Université Joseph Fourier (Grenoble), 2004. http://tel.archives-ouvertes.fr/tel-00007607.

Full text
Abstract:
Le développement des systèmes de télésurveillance médicale à domicile est fondamental face au vieillissement de la population et aux capacités limitées d admission dans les hôpitaux et centres spécialisés. Ce travail de thèse concerne particulièrement la conception d un assistant intelligent pour l analyse des données hétérogènes collectées par des capteurs au domicile afin de détecter, voire prévenir, l occurrence de situations inquiétantes. Il s agit de concevoir un système d apprentissage des habitudes de vie d une personne, tout écart par rapport à ce profil comportemental étant considéré comme critique. L étude proposée concerne d une part la conception d un processus de simulation pour la génération de grandes quantités de données appropriées au contexte expérimental. D autre part, une méthode générique pour l extraction non supervisée de motifs dans des séquences temporelles multidimensionnelles et hétérogènes est proposée puis expérimentée dans le contexte de l identification des comportements récurrents d une personne dans ses activités quotidiennes. On évalue en particulier les indices de sensibilité (tolérance aux modifications normales de comportement) et de spécificité (rejet des modifications inquiétantes) du système. L application du système d apprentissage aux séquences générées par la simulation permet également de vérifier l extraction possible de comportements récurrents interprétés a posteriori en terme de la réalisation d activités de la vie quotidienne.
APA, Harvard, Vancouver, ISO, and other styles
31

Lasmar, Nour-Eddine. "Modélisation stochastique pour l'analyse d'images texturées : Approches Bayésiennes pour la caractérisation dans le domaine des transformées." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00809279.

Full text
Abstract:
Le travail présenté dans cette thèse s'inscrit dans le cadre de la modélisation d'images texturées à l'aide des représentations multi-échelles et multi-orientations. Partant des résultats d'études en neurosciences assimilant le mécanisme de la perception humaine à un schéma sélectif spatio-fréquentiel, nous proposons de caractériser les images texturées par des modèles probabilistes associés aux coefficients des sous-bandes. Nos contributions dans ce contexte concernent dans un premier temps la proposition de différents modèles probabilistes permettant de prendre en compte le caractère leptokurtique ainsi que l'éventuelle asymétrie des distributions marginales associées à un contenu texturée. Premièrement, afin de modéliser analytiquement les statistiques marginales des sous-bandes, nous introduisons le modèle Gaussien généralisé asymétrique. Deuxièmement, nous proposons deux familles de modèles multivariés afin de prendre en compte les dépendances entre coefficients des sous-bandes. La première famille regroupe les processus à invariance sphérique pour laquelle nous montrons qu'il est pertinent d'associer une distribution caractéristique de type Weibull. Concernant la seconde famille, il s'agit des lois multivariées à copules. Après détermination de la copule caractérisant la structure de la dépendance adaptée à la texture, nous proposons une extension multivariée de la distribution Gaussienne généralisée asymétrique à l'aide de la copule Gaussienne. L'ensemble des modèles proposés est comparé quantitativement en terme de qualité d'ajustement à l'aide de tests statistiques d'adéquation dans un cadre univarié et multivarié. Enfin, une dernière partie de notre étude concerne la validation expérimentale des performances de nos modèles à travers une application de recherche d'images par le contenu textural. Pour ce faire, nous dérivons des expressions analytiques de métriques probabilistes mesurant la similarité entre les modèles introduits, ce qui constitue selon nous une troisième contribution de ce travail. Finalement, une étude comparative est menée visant à confronter les modèles probabilistes proposés à ceux de l'état de l'art.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography