Дисертації з теми "Détection de séquence à maximum de vraisemblance"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Détection de séquence à maximum de vraisemblance.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-18 дисертацій для дослідження на тему "Détection de séquence à maximum de vraisemblance".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Kasan, Karim. "Performance of a new single sideband (SSB) continuous phase modulation (CPM)." Thesis, CentraleSupélec, 2021. http://www.theses.fr/2021CSUP0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions la modulation par déplacement de fréquence à bande latérale unique (SSB-FSK), un schéma de modulation de phase continue (CPM) ayant, par essence, la caractéristique original du spectre à bande latérale unique (BLU). Tout d’abord, nous présentons l’origine du signal à partir de la physique quantique. Ensuite, nous proposons un détecteur de séquence à maximum de vraisemblance (MLSD) simplifié pour les schémas CPM conventionnels, basé sur le réarrangement montré dans le modèle de signal SSB-FSK. Pour exploiter pleinement les performances de la SSB-FSK, nous examinons la probabilité d’erreur du signal, l’occupation de la bande passante et la complexité du récepteur. Étant donné que différentes mesures de performance sont prises en compte, nous avons utilisé une optimisation multi-objectifs pour obtenir de nouveaux schémas SSB-FSK plus performants que les schémas CPM classiques. En outre, nous proposons une solution pour simplifier la complexité des signaux SSB-FSK en utilisant la décomposition de la modulation d’amplitude d’impulsion (PAM). Les impulsions PAM ont été obtenues à partir d’un algorithme que nous avons développé. En outre, nous proposons une séquence d’entraînement générique optimale pour l’estimation conjointe de la synchronisation des symboles, du décalage de fréquence et de la phase de la porteuse pour la synchronisation en mode burst. La séquence d’entraînement a été obtenue en utilisant les bornes de Cramér-Rao
In this PhD thesis, we investigate the single-sideband frequency shift keying (SSB-FSK), a continuous phase modulation (CPM) scheme having, by essence, the original feature of the single-sideband (SSB) spectrum. First, we present the origin of the signal from quantum physics. Then, we propose a simplified Maximum likelihood sequence detection (MLSD) detector for conventional CPM schemes based on the rearrangement shown in the SSB-FSK signal model. To fully exploit the SSB-FSK performance, we examine the signal error probability, bandwidth occupancy, and receiver complexity. Since different performance metrics are considered, we employed a multi-objective optimization to achieve new SSB-FSK schemes that outperform conventional CPM schemes. Moreover, we propose a solution to simplify the complexity of SSB-FSK signals using the pulse amplitude modulation (PAM) decomposition. The PAM pulses were achieved from an algorithm we developed. Furthermore, we offer an optimum generic training sequence for the joint estimation of symbol timing, frequency offset, and carrier phase for burst mode synchronization. The training sequence was obtained using the Cramér-Rao bounds
2

Gilbert, Helène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs : Application à l'espèce porcine." Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage. Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités. Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants. Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
3

Abdi, Moussa. "Détection multi-utilisateurs en mode CDMA." Paris, ENST, 2002. http://www.theses.fr/2002ENST0027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Gilbert, Hélène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs. Application à l'espèce porcine." Phd thesis, INAPG (AgroParisTech), 2003. http://tel.archives-ouvertes.fr/tel-00005699.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage.
Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités.
Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants.
Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
5

Salloum, Zahraa. "Maximum de vraisemblance empirique pour la détection de changements dans un modèle avec un nombre faible ou très grand de variables." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire ainsi que dans un modèle de régression linéaire en très grande dimension. Tout d'abord, nous proposons une méthode basée sur la vraisemblance empirique pour tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire. Sous l'hypothèse nulle, nous prouvons la consistance et la vitesse de convergence des estimateurs des paramètres de régression. La loi asymptotique de la statistique de test sous l'hypothèse nulle nous permet de trouver la valeur critique asymptotique. D'autre part, nous prouvons que la puissance asymptotique de la statistique de test proposée est égale à 1. Le modèle épidémique avec deux points de rupture est également étudié. Ensuite, on s'intéresse à construire les régions de confiance asymptotiques pour la différence entre les paramètres de deux phases d'un modèle non-linéaire avec des regresseurs aléatoires en utilisant la méthode de vraisemblance empirique. On montre que le rapport de la vraisemblance empirique a une distribution asymptotique χ2. La méthode de vraisemblance empirique est également utilisée pour construire les régions de confiance pour la différence entre les paramètres des deux phases d'un modèle non-linéaire avec des variables de réponse manquantes au hasard (Missing At Random (MAR)). Afin de construire les régions de confiance du paramètre en question, on propose trois statistiques de vraisemblance empirique : la vraisemblance empirique basée sur les données cas-complète, la vraisemblance empirique pondérée et la vraisemblance empirique par des valeurs imputées. On prouve que les trois rapports de vraisemblance empirique ont une distribution asymptotique χ2. Un autre but de cette thèse est de tester la présence d'un changement dans les coefficients d'un modèle linéaire en grande dimension, où le nombre des variables du modèle peut augmenter avec la taille de l'échantillon. Ce qui conduit à tester l'hypothèse nulle de non-changement contre l'hypothèse alternative d'un seul changement dans les coefficients de régression. Basée sur les comportements asymptotiques de la statistique de rapport de vraisemblance empirique, on propose une simple statistique de test qui sera utilisée facilement dans la pratique. La normalité asymptotique de la statistique de test proposée sous l'hypothèse nulle est prouvée. Sous l'hypothèse alternative, la statistique de test diverge
In this PHD thesis, we propose a nonparametric method based on the empirical likelihood for detecting the change in the parameters of nonlinear regression models and the change in the coefficient of linear regression models, when the number of model variables may increase as the sample size increases. Firstly, we test the null hypothesis of no-change against the alternative of one change in the regression parameters. Under null hypothesis, the consistency and the convergence rate of the regression parameter estimators are proved. The asymptotic distribution of the test statistic under the null hypothesis is obtained, which allows to find the asymptotic critical value. On the other hand, we prove that the proposed test statistic has the asymptotic power equal to 1. The epidemic model, a particular case of model with two change-points, under the alternative hypothesis, is also studied. Afterwards, we use the empirical likelihood method for constructing the confidence regions for the difference between the parameters of a two-phases nonlinear model with random design. We show that the empirical likelihood ratio has an asymptotic χ2 distribu- tion. Empirical likelihood method is also used to construct the confidence regions for the difference between the parameters of a two-phases nonlinear model with response variables missing at randoms (MAR). In order to construct the confidence regions of the parameter in question, we propose three empirical likelihood statistics : empirical likelihood based on complete-case data, weighted empirical likelihood and empirical likelihood with imputed va- lues. We prove that all three empirical likelihood ratios have asymptotically χ2 distributions. An another aim for this thesis is to test the change in the coefficient of linear regres- sion models for high-dimensional model. This amounts to testing the null hypothesis of no change against the alternative of one change in the regression coefficients. Based on the theoretical asymptotic behaviour of the empirical likelihood ratio statistic, we propose, for a deterministic design, a simpler test statistic, easier to use in practice. The asymptotic normality of the proposed test statistic under the null hypothesis is proved, a result which is different from the χ2 law for a model with a fixed variable number. Under alternative hypothesis, the test statistic diverges
6

Ezzahar, Abdessamad. "Estimation et détection d'un signal contaminé par un bruit autorégressif." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339831.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous considérons un modèle signal plus bruit particulier ou le signal est une combinaison linéaire de suites déterministes données et est contamine par un bruit additif autoregressif d'ordre 1 stationnaire. Nous étudions d'abord des problèmes d'estimation partielle. On analyse les propriétés asymptotiques d'estimateurs de maximum de vraisemblance ou de moindres carres pour les paramétrés du bruit lorsque le signal est complètement connu ou pour les paramètres du signal lorsque l'un des paramètres du bruit est connu. Puis nous examinons le probleme de l'estimation simultanée des paramètres du signal et du bruit. On montre l'existence et l'unicité de l'estimateur de maximum de vraisemblance dont on étudie le comportement asymptotique. De même on considère une methode d'estimation fondée sur une première étape de moindres carres pour l'estimation des paramétrés du signal, et une procédure de maximum de vraisemblance approche. On construit ensuite des tests pour la détection du signal a partir des méthodes d'estimation envisagées précédemment. Les risques associes a ces tests sont analyses de manière précise. Enfin une étude expérimentale par simulation des performances des diverses méthodes est menée
7

Kengne, William Charky. "Détection des ruptures dans les processus causaux : application aux débits du bassin versant de la Sanaga au Cameroun." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00695364.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la détection de rupture dans les processus causaux avec application aux débits du bassin versant de la Sanaga. Nous considérons une classe semi-paramétrique de modèles causaux contenant des processus classique tel que l'AR, ARCH, TARCH. Le chapitre 1 est une synthèse des travaux. Il présente le modèle avec des exemples et donne les principaux résultats obtenus aux chapitres 2, 3,4. Le chapitre 2 porte sur la détection off-line de ruptures multiples en utilisant un critère de vraisemblance pénalisée. Le nombre de rupture, les instants de rupture et les paramètres du modèle sur chaque segment sont inconnus. Ils sont estimés par maximisation d'un contraste construit à partir des quasi-vraisemblances et pénalisées par le nombre de ruptures. Nous donnons les choix possibles du paramètre de pénalité et montrons que les estimateurs des paramètres du modèle sont consistants avec des vitesses optimales. Pour des applications pratiques, un estimateur adaptatif du paramètre de pénalité basé sur l'heuristique de la pente est proposé. La programmation dynamique est utilisée pour réduire le coût numérique des opérations, celui-ci est désormais de l'ordre de $\mathcal{O}(n^2)$. Des comparaisons faites avec des résultats existants montrent que notre procédure est plus stable et plus robuste. Le chapitre 3 porte toujours sur la détection off-line de ruptures multiples, mais cette fois en utilisant une procédure de test. Nous avons construit une nouvelle procédure qui, combinée avec un algorithme de type ICSS (Itereted Cumulative Sums of Squares) permet de détecter des ruptures multiples dans des processus causaux. Le test est consistant en puissance et la comparaison avec des procédures existantes montre qu'il est plus puissant. Le chapitre 4 étudie la détection des ruptures on-line dans la classe de modèle considéré aux chapitres 2 et 3. Une procédure basée sur la quasi-vraisemblance des observations a été développée. La procédure est consistante en puissance et le délai de détection est meilleur que celui des procédures existantes. Le chapitre 5 est consacré aux applications aux débits du bassin versant de la Sanaga, les procédures décrites aux chapitres 2 et 3 ont été utilisées en appliquant un modèle ARMA sur les données désaisonnalisées et standardisées. Ces deux procédures ont détecté des ruptures qui sont "proches".
8

Pascal, Frédéric. "Détection et Estimation en Environnement non Gaussien." Phd thesis, Université de Nanterre - Paris X, 2006. http://tel.archives-ouvertes.fr/tel-00128438.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte très général de la détection radar, les détecteurs classiques, basés sur l'hypothèse d'un bruit Gaussien, sont souvent mis en défaut dès lors que l'environnement (fouillis de sol, de mer) devient inhomogène, voire impulsionnel, s'écartant très vite du modèle Gaussien. Des modèles physiques de fouillis basés sur les modèles de bruit composé (SIRP, Compound Gaussian Processes) permettent de mieux représenter la réalité (variations spatiales de puissance et nature de fouillis, transitions, ...). Ces modèles dépendent cependant de paramètres (matrice de covariance, loi de texture, paramètres de "disturbance") qu'il devient nécessaire d'estimer. Une fois ces paramètres estimés, il est possible de construire des détecteurs radar optimaux (Generalized Likelihood Ratio Test - Linear Quadratic) pour ces environnements. Cette thèse, qui s'appuie sur ces modèles, propose une analyse complète de diverses procédures d'estimation de matrices de covariance, associées à ce problème de détection. Une étude statistique des principaux estimateurs de matrice de covariance, utilisés actuellement, est réalisée. De plus, un nouvel estimateur est proposé: l'estimateur du point fixe, très attractif grâce à ses bonnes propriétés statistiques et "radaristiques".
Elle décrit également les performances et les propriétés théoriques (SIRV-CFAR) du détecteur GLRT-LQ construits avec ces nouveaux estimateurs. En particulier, on montre l'invariance du détecteur à la loi de la texture mais également à la matrice de covariance régissant les propriétés spectrales du fouillis. Ces nouveaux détecteurs sont ensuite analysés sur des données simulées mais également testés sur des données réelles de fouillis de sol.
9

Jay, Sylvain. "Estimation et détection en imagerie hyperspectrale : application aux environnements côtiers." Phd thesis, Ecole centrale de Marseille, 2012. http://tel.archives-ouvertes.fr/tel-00789945.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde des problématiques d'estimation et de détection supervisée en imagerie hyperspectrale, appliquées ici aux environnements côtiers. Des modèles bathymétriques de réflectance sont utilisés afin de représenter l'influence de la colonne d'eau sur la lumière incidente. Différents paramètres sont dits optiquement actifs et agissent sur le spectre de réflectance (phytoplancton, matière organique dissoute colorée...). Nous proposons d'adopter une nouvelle approche statistique pour estimer ces paramètres, traditionnellement retrouvés par inversion des modèles physiques. Différentes méthodes telles que l'estimation du maximum de vraisemblance et du maximum a posteriori, ainsi que le calcul des bornes de Cramér-Rao, sont implémentées avec succès sur les données synthétiques et réelles. Par ailleurs, nous adaptons les filtres supervisés couramment utilisés au contexte de la détection de cibles immergées. Dans le cas où les paramètres caractéristiques de la colonne d'eau sont inconnus, nous développons un nouveau filtre issu du test du rapport de vraisemblance généralisé permettant la détection sans aucune connaissance a priori sur ces paramètres.
10

Pujol, Nicolas. "Développement d’approches régionales et multivariées pour la détection de non stationnarités d’extrêmes climatiques. Applications aux précipitations du pourtour méditerranéen français." Montpellier 2, 2008. http://www.theses.fr/2008MON20090.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parallèlement au contexte du réchauffement climatique, la vulnérabilité face aux événements hydrologiques extrêmes est en constante augmentation, notamment en France. Si l'effet du changement climatique sur les températures maximales est avéré, son impact sur le régime des pluies fortes n'est pas établi, et l'on s'interroge, depuis quelques années, sur la perception d'une recrudescence des événements extrêmes : urbanisation mal maîtrisée, surmédiatisation ou changement climatique ? Dans ce contexte, l'objectif de cette thèse est double. Premièrement, mettre au point des outils statistiques permettant l'étude régionale de la stationnarité des extrêmes climatiques. En effet, le changement climatique est un phénomène à grande échelle qui devrait avoir un impact à l'échelle régionale. Deuxièmement, étudier la stationnarité des précipitations méditerranéennes intenses. Deux approches sont ici proposées. La première permet de mettre en évidence des changements locaux significatifs à l'échelle régionale. La deuxième consiste à rechercher une tendance régionale qui soit commune à l'ensemble des stations d'une même zone. Cette deuxième méthode est basée sur l'utilisation de copules multivariées qui permettent de prendre en compte formellement la dépendance spatiale des données. L'estimation par maximum de vraisemblance est alors réalisée via les algorithmes génétiques. Ainsi, 92 séries de précipitations du pourtour méditerranéen français sont examinées. Une tendance à la hausse des maxima annuels est observée sur une bande méridienne allant de l'Ariège à la Corrèze, mais également dans le Massif Central, les Cévennes et les montagnes du Roussillon
At the same time as the global warming context, the vulnerability in front of extreme hydrological events is in constant increase, notably in France. If the effect of the climate change on the maximal temperatures is turned out, its impact on the regime of strong rains is not established, and we wonder, for some years, about the perception of an increasing number of extreme events: badly mastered urbanization, excessive media coverage or climate change? In this context, the objective of this thesis is double. In the first place, to define statistical tools allowing the regional study of the stationnarity of climatic extremes. Indeed, the climate change is a large-scale phenomenon which should have an impact at the regional scale. Secondly, to study the stationnarity of the intense Mediterranean precipitations. Two approaches are proposed here. The first one allows to detect significant local changes at the regional scale. The second consists in looking for a regional tendency which is common to all the stations of a same zone. This second method is based on the use of multivariate copula which allow to take formally into account the spatial dependence of the data. The estimation by maximum likelihood method is then realized via the genetic algorithms. So, 92 precipitation series of the French Mediterranean region are examined. An increase of annual maxima is observed on a meridian band going from the Ariège to the Corrèze, and also in the Massif Central, Cevennes and the mountains of Roussillon
11

Trachi, Youness. "On induction machine faults detection using advanced parametric signal processing techniques." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0103/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ces travaux de thèse est de développer des architectures fiables de surveillance et de détection des défauts d’une machine asynchrone basées sur des techniques paramétriques de traitement du signal. Pour analyser et détecter les défauts, un modèle paramétrique du courant statorique en environnement stationnaire est proposé. Il est supposé être constitué de plusieurs sinusoïdes avec des paramètres inconnus dans le bruit. Les paramètres de ce modèle sont estimés à l’aide des techniques paramétriques telles que les estimateurs spectraux de type sous-espaces (MUSIC et ESPRIT) et l’estimateur du maximum de vraisemblance. Un critère de sévérité des défauts, basé sur l’estimation des amplitudes des composantes fréquentielles du courant statorique, est aussi proposé pour évaluer le niveau de défaillance de la machine. Un nouveau détecteur des défauts est aussi proposé en utilisant la théorie de détection. Il est principalement basé sur le test du rapport de vraisemblance généralisé avec un signal et un bruit à paramètres inconnus. Enfin, les techniques paramétriques proposées ont été évaluées à l’aide de signaux de courant statoriques expérimentaux de machines asynchrones en considérant les défauts de roulements et les ruptures de barres rotoriques. L’analyse des résultats expérimentaux montre clairement l’efficacité et la capacité de détection des techniques paramétriques proposées
This Ph.D. thesis aims to develop reliable and cost-effective condition monitoring and faults detection architectures for induction machines. These architectures are mainly based on advanced parametric signal processing techniques. To analyze and detect faults, a parametric stator current model under stationary conditions has been considered. It is assumed to be multiple sinusoids with unknown parameters in noise. This model has been estimated using parametric techniques such as subspace spectral estimators and maximum likelihood estimator. A fault severity criterion based on the estimation of the stator current frequency component amplitudes has also been proposed to determine the induction machine failure level. A novel faults detector based on hypothesis testing has been also proposed. This detector is mainly based on the generalized likelihood ratio test detector with unknown signal and noise parameters. The proposed parametric techniques have been evaluated using experimental stator current signals issued from induction machines under two considered faults: bearing and broken rotor bars faults.Experimental results show the effectiveness and the detection ability of the proposed parametric techniques
12

Queguiner, Emeline. "Analysis of the data of the EDELWEISS-LT experiment searching for low-mass WIMP." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1196/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses observations astrophysiques et cosmologiques tendent à prouver que la matière ordinaire (dite baryonique) ne constituerait qu'environ 5 % du contenu énergétique de l'Univers. Les principales composantes de celui-ci seraient l'énergie noire (à 70 %) ainsi que la matière noire (à 25 %). Cette dernière serait invisible et seuls ses effets gravitationnels traduiraient sa présence dans l'Univers. Plusieurs particules, regroupées sous le terme générique de WIMP (Weakly Interacting Massive Particles), pourraient correspondre à cette théorie et sont activement recherchées. Plusieurs dispositifs expérimentaux ont été développés dans ce but et s'appuyent sur les stratégies suivantes : la production de ces particules au sein de collisionneurs, l'observation de particules produites via l'annihilation de WIMP ou encore la détection directe de ces particules via leur interaction avec le noyau des atomes constitutifs d'un détecteur. C'est sur cette dernière méthode que s'appuie l'expérience EDELWEISS. Il s'agit d'une expérience de détection directe de matière noire dédiée à la recherche de WIMP de masse comprise entre 1 GeV et 1 TeV. Son but premier est de détecter les reculs nucléaires induits par la diffusion élastique de particule de matière noire dans les détecteurs. Les taux d'événements attendus < 10 /(kg.an) étant de plusieurs ordres de grandeur inférieurs à ceux induits par la radioactivité ambiante, une double mesure de l'ionisation et de la chaleur est employée pour discriminer les reculs électroniques induits par les bruits de fonds β et γ des reculs nucléaires induits par les WIMPs. De plus, l'expérience a été placée en site souterrain pour se prémunir des rayonnements cosmiques, induisant des événements dans les détecteurs. Ceux utilisés par l'expérience sont des bolomètres en germanium, appelés FID, refroidis à des températures cryogéniques (18 mK) et opérant à bas champ (1 V/cm). Depuis 2015, la nouvelle stratégie de l'expérience consiste à se focaliser sur les WIMPs de masse inférieure à 10 GeV, zone de recherche privilégiée pour les expériences utilisant des détecteurs cryogéniques. Le fonctionnement de l'expérience a donc été amélioré afin d'atteindre cet objectif.Le but de cette thèse consiste à analyser les campagnes de données de l'expérience, effectuées en 2015 et 2016. Celles-ci utilisaient les détecteurs FID soumis à un champ électrique plus important que précédemment afin d'améliorer leur sensibilité. La limite extraite à partir de ces données s'appuie sur la statistique de Poisson et a permis de mettre en évidence que le bruit de fond dominant de l'expérience à basse énergie impacte grandement les résultats. C'est pourquoi une étude de ces événements, appelés heat-only, a été réalisée. Ceux-ci se caractérisent par une élévation de chaleur vue par les senseurs thermiques sans que les électrodes du détecteur ne mesurent d'ionisation en son sein. Une étude de ce bruit de fond a été réalisée et a permis de mettre en évidence la possibilité de modéliser ces événements. Suite à ces résultats, une analyse par maximum de vraisemblance a été construite. Cette méthode d'analyse permet de soustraire de manière statistique les bruits de fond de l'expérience grâce à leurs spectres en énergie différents de ceux attendus pour un signal de matière noire. De cette façon, une limite sur la section efficace des WIMP a été calculée en utilisant pour la première fois des détecteurs FID soumis à des champs électriques supérieurs aux valeurs utilisées jusqu'à présent
Many astrophysical and cosmological observations lead to postulate the existence of an unknown matter, called dark matter. Ordinary matter can explain only 5 % of the energy content of the Universe : the main components would be the dark energy (70 %) and dark matter (25 %). This latter is invisible and manifest itself only via its gravitational effects. Several particles, grouped under the generic term of WIMP (Weakly Interacting Massive Particles), could correspond to this theory and are actively searched. Many experiments have been developed for this purpose and are based on three strategies: the production of these particles with colliders, the observation of the particles produced by their annihilation in astrophysical objects or the direct detection of these particles via their interaction with the nucleus of the atoms constituent of a detector. It is on this last method that the EDELWEISS experiment is based. It is a dark matter direct detection experiment dedicated to the search for WIMP with masses between 1 GeV and 1 TeV. Its primary purpose is to detect nuclear recoils induced by elastic scattering of dark matter particles in detectors. Since the expected event rates < 10 /(kg.year) are several orders of magnitude lower than those induced by ambient radioactivity, a double measurement of ionization and heat is used to discriminate electron-induced recoils arising from β and γ interactions from WIMP-induced nuclear recoils. In addition, the experiment was placed underground to guard against cosmic radiation, inducing events in the detectors. These are germanium bolometers, called FID, cooled to cryogenic temperatures (18 mK) and operating at low field (1 V/cm). Since 2015, the new strategy of the experiment consists of focusing on WIMPs with mass below 10 GeV, an interessant research area where experiments using cryogenic detectors can exploit their ability to operate with experimental thresholds well below 1 keV. The operation of the experiment has been improved to achieve this goal. The aim of this thesis is to analyze the data set recorded by EDELWEISS in 2015 and 2016. These used the FID detectors subjected to a greater electric field than previously to improve their sensitivity. It is expected that the limit on the spin-independent WIMP-nucleon crosssection extracted from these data will be greatly impacted by a dominant background, called heat-only events. That is why they are studied in detail in this work. They are characterized by a rise in heat seen by thermal sensors without any ionization signal on the collecting electrodes. This study resulted in to highlight a model for these events that can be used in the WIMP search analyses. Following these results, a maximum likelihood analysis was constructed. This method of analysis makes it possible to statistically subtract the background noise from the experiment by exploiting the difference between the energy spectra of signal and backgrounds. In this way, limits on the spin-independent WIMP-nucleon cross-section are obtained. They will be compared to the results of other experiments
13

Zhu, Xuan. "Structuration automatique en locuteurs par approche acoustique." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00624061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la structuration en locuteurs de différents types d'enregistrements audio, en particulier des journaux télévisés ou radiophoniques et des réunions. La structuration en locuteurs a pour objectif de répondre à la question ''qui a parlé quand'' dans un document audio donné. Cette thèse fait l'hypothèse qu'aucune connaissance a priori sur la voix de locuteurs ou sur leur nombre n'est disponible. La principale originalité du système de structuration en locuteurs pour des journaux télévisés ou radiophoniques présenté est de combiner deux étapes de regroupement en locuteurs: la première étape se fonde sur le Critère d'Information Bayesien (BIC) avec des Gaussiennes à matrice de covariance pleine et la deuxième étape de regroupement recombine les classes résultant en utilisant des techniques proposées pour l'identification du locuteur et utilisant des modèle de mélange de Gaussiennes (GMM) adaptés à partir d'un modèle générique. Ce système a été validé dans l'évaluation internationale NIST RT-04F (Rich Transcription 2004 Fall) et l'évaluation française ESTER 2005 du projet Technolangue EVALDA. Il a obtenu les meilleurs résultats dans les deux évaluations. Le système de structuration en locuteurs conçu pour les journaux télévisés a également été adapté aux réunions. Il intègre un nouveau détecteur de parole fondé sur le rapport de log-vraisemblance. Diverses techniques de normalisation des paramètres acoustiques et différentes représentations acoustiques ont été testées au cours de cette adaptation. Dans la dernière évaluation du NIST sur de réunions, le système adapté a eu un taux d'erreur de 26% environ sur les données de conférences et séminaires.
14

Kazem, Ali. "Particules déterministes généralisées en filtrage non-linéaire : applications défense et télécommunications." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/1638/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La technique de filtrage particulaire s'applique à tous les problèmes d'estimation des systèmes dynamiques markoviens, sans restriction sur la nature des non-linéarités et/ou des distributions de bruits. L'objet de ce mémoire est de montrer la généralité de la technique déterministe en filtrage particulaire, par opposition à l'ancienne version aléatoire, qui permet d'éviter l'aléa inutilement introduit tant en prédiction qu'une redistribution des particules après pondération bayésienne. Le présent travail, s'articule autour de deux apports: Le premier, concerne le filtrage optimal à maximum de vraisemblance, et porte sur l'estimation trajectorielle globale des variables d'état. Le second portant sur le filtrage particulaire déterministe, concerne le filtrage optimal à minimum de variance, et porte sur l'estimation marginale à l'instant courant, par redistribution déterministe conforme en loi. Cette approche délivre simultanément tous les modes (maxima locaux) de la densité de probabilité marginale de l'état courant. Le mémoire met l'accent sur plusieurs réalisations dans des domaines différents, communications: Nous avons développé un outil à base de filtrage particulaire qui permet d'estimer conjointement des paramètres cinématiques relatifs au récepteur et la détection du message transmis par un satellite. Nous avons également proposé une série de schémas d'estimation/décodage itératifs du message turbo-codé conforme au standard DVB-RCS. Estimation de cible en sonar: On a construit un récepteur passif particulaire se contentant d'écouter sa cible, afin d'identifier ses paramètres cinématiques. La version déterministe permet de faire diminuer considérablement la masse de calculs. Traitement du signal radar: Le premier récepteur déterministe, à maximum de vraisemblance est utilisé pour la détection/poursuite de cibles furtives et manoeuvrantes, dans le cas où il y un nombre très limité de mesures disponibles pendant un tour d'antenne du radar de veille. Le second récepteur consiste à appliquer la technique à minimum de variance au radar ARMOR, ce qui a permis de confirmer des gains inhabituels en termes de rapport signal sur bruit. La nouvelle technique déterministe à minimum de variance s'étend également au multi-cible et au traitement en présence de fouillis, avec l'incomparable économie calculatoire du déterministe
Particle filters are presently among the most powerful tools to estimate Markovian dynamical systems, regardless of the nature of nonlinearities and/or noise probability distributions. The purpose of this dissertation is to show the generality of deterministic particle filtering, as opposed to the former random version, which avoids randomization in the prediction stage as well as in the resampling stage after Bayesian correction. This work relies on two kinds of results: the first concerns the particle filter-based maximum likelihood estimator for sequential estimation of the state variables. The second patent, introducing deterministic particle filtering in the minimum variance sense, focuses on the current state marginal estimation using a resampling scheme consistant with the a posteriori distribution. This approach simultaneously delivers all modes (local maxima) of the marginal probability density function of the current state. The thesis focuses on several achievements in various fields: communications: The proposed particle algorithm makes possible the joint estimation of the kinematic channel parameters at the receiver side and the detection of the message transmitted by a satellite. We have also proposed several techniques for the iterative estimation and decoding of the turbo-coded message compliant with the DVB-RCS standard. Target estimation for sonar: We built a passive particle receiver only listening to its target, in order to identify its kinematic parameters. The deterministic version allows to significantly reduce the computational complexity. Radar signal processing: The first receiver , with deterministic maximum likelihood filtering, is used for the detection / tracking of steady and manoeuvering targets , when there is a very limited number of available measurements during a circular period of antenna of the radar. The second receiver applies the minimum variance technique to the ARMOR radar, confirming unusually high signal-to-noise gains. The novel deterministic technique based on minimum variance criteria can easily be extended to multitarget processing and tracking in the presence of clutter, with the incomparable complexity savings due to the deterministic technique
15

Zakaria, Rostom. "Transmitter and receiver design for inherent interference cancellation in MIMO filter-bank based multicarrier systems." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2012. http://tel.archives-ouvertes.fr/tel-00923184.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Multicarrier (MC) Modulation attracts a lot of attention for high speed wireless transmissions because of its capability to cope with frequency selective fading channels turning the wideband transmission link into several narrowband subchannels whose equalization, in some situations, can be performed independently and in a simple manner. Nowadays, orthogonal frequency division multiplexing (OFDM) with the cyclic prefix (CP) insertion is the most widespread modulation among all MC modulations, and this thanks to its simplicity and its robustness against multipath fading using the cyclic prefix. Systems or standards such as ADSL or IEEE802.11a have already implemented the CP-OFDM modulation. Other standards like IEEE802.11n combine CP-OFDM and multiple-input multiple-output (MIMO) in order to increase the bit rate and to provide a better use of the channel spatial diversity. Nevertheless, CP-OFDM technique causes a loss of spectral efficiency due to the CP as it contains redundant information. Moreover, the rectangular prototype filter used in CP-OFDM has a poor frequency localization. This poor frequency localization makes it difficult for CP-OFDM systems to respect stringent specifications of spectrum masks.To overcome these drawbacks, filter-bank multicarrier (FBMC) was proposed as an alternative approach to CP-OFDM. Indeed, FBMC does not need any CP, and it furthermore offers the possibility to use different time-frequency well-localized prototype filters which allow much better control of the out-of-band emission. In the literature we find several FBMC systems based on different structures. In this thesis, we focus on the Saltzberg's scheme called OFDM/OQAM (or FBMC/OQAM). The orthogonality constraint for FBMC/OQAM is relaxed being limited only to the real field while for OFDM it has to be satisfied in the complex field. Consequently, one of the characteristics of FBMC/OQAM is that the demodulated transmitted symbols are accompanied by interference terms caused by the neighboring transmitted data in time-frequency domain. The presence of this interference is an issue for some MIMO schemes and until today their combination with FBMC remains an open problem.The aim of this thesis is to study the combination between FBMC and MIMO techniques, namely spatial multiplexing with ML detection. In the first part, we propose to analyze different intersymbol interference (ISI) cancellation techniques that we adapt to the FBMC/OQAM with MIMO context. We show that, in some cases, we can cope with the presence of the inherent FBMC interference and overcome the difficulties of performing ML detection in spatial multiplexing with FBMC/OQAM. After that, we propose a modification in the conventional FBMC/OQAM modulation by transmitting complex QAM symbols instead of OQAM ones. This proposal allows to reduce considerably the inherent interference but at the expense of the orthogonality condition. Indeed, in the proposed FBMC/QAM,the data symbol and the inherent interference term are both complex. Finally, we introduce a novel FBMC scheme and a transmission strategy in order to avoid the inherent interference terms. This proposed scheme (that we call FFT-FBMC) transforms the FBMC system into an equivalent system formulated as OFDM regardless of some residual interference. Thus, any OFDM transmission technique can be performed straightforwardly to the proposed FBMC scheme with a corresponding complexity growth. We develop the FFT-FBMC in the case of single-input single-output (SISO) configuration. Then, we extend its application to SM-MIMO configuration with ML detection and Alamouti coding scheme.
16

LE, DUFF Alain. "Contribution à l'estimation paramétrique de signaux à variation sinusoïdale de la fréquence instantanée et à amplitude variable : application à l'anémométrie laser à effet Doppler pour l'acoustique." Phd thesis, Université du Maine, 2003. http://tel.archives-ouvertes.fr/tel-00004877.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'anémométrie laser à effet Doppler (ALD), dont l'utilisation est très répandue en mécanique des fluides, peut aussi être utilisée pour la mesure de vitesse particulaire acoustique. La nature vectorielle de cette grandeur permet de caractériser les champs à structure complexe ce qui autorise, par exemple, l'étude de phénomènes acoustiques au voisinage de parois vibrantes ou de discontinuités géométriques. L'ALD offre, pour ce type de problème, le double avantage de présenter une bonne résolution spatiale de la mesure et de ne perturber que faiblement le champ à explorer.
Le Laboratoire d'Acoustique de l'Université du Maine est équipé d'un banc de mesure conçu pour la mesure de vitesse acoustique. Depuis près de huit ans, les recherches se sont orientées vers la validation expérimentale de cette technique ainsi que vers l'élaboration de méthodes de traitement des signaux propres à extraire la vitesse particulaire dans un contexte de traitement différé et avec l'hypothèse d'un signal Doppler d'amplitude constante. Cependant, pour que l'ALD soit exploitable efficacement il est indispensable de concevoir un système de mesure, simple d'utilisation, permettant d'accéder rapidement à la vitesse acoustique et prenant en compte la nature variable de l'amplitude du signal Doppler.
L'objectif de cette étude est donc de proposer des méthodes de traitement du signal adaptées à l'estimation de la vitesse particulaire acoustique, dans le cas d'une excitation sinusoïdale, et de définir une architecture matérielle et logicielle indispensable à cette mesure. Celle-ci s'opère à partir des composantes en phase et en quadrature du signal Doppler ramenées en bande de base à l'aide d'un dispositif de démodulation analogique spécialement développé pour cette application. Trois estimateurs sont alors proposés : le premier est basé sur le calcul de la dérivée de la phase du signal Doppler. Sa principale vocation consiste à initialiser une deuxième méthode d'estimation basée sur la recherche du maximum de vraisemblance. Le filtrage de Kalman étendu constitue la troisième méthode explorée. Enfin, les formes analytiques, approchées mais précises, des bornes de Cramer-Rao montrent l'influence des paramètres du problème sur la qualité des estimations. Par la suite, des simulations statistiques de Monte-Carlo permettent d'évaluer la qualité des trois méthodes. Une estimation sommaire des complexités algorithmiques des estimateurs complète également cette phase d'évaluation.
Enfin, la validation expérimentale des techniques d'estimation s'articule autour de deux expériences. Dans un premier temps, la mesure de la vitesse de déplacement sinusoïdale d'une pointe d'aiguille montée dans un pot vibrant permet de confronter les résultats obtenus par ALD à ceux que donne un vibromètre laser. Dans un second temps, la mesure de vitesses particulaires acoustiques rayonnées par un haut-parleur électrodynamique, est proposée. Les valeurs issues de la mesure en champ libre par ALD sont alors comparées à celles des vitesses de référence obtenues à l'aide de la méthode du doublet microphonique.
17

Diop, Cheikh Abdoulahat. "La structure multimodale de la distribution de probabilité de la réflectivité radar des précipitations." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/3089/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un ensemble de données radar collectées sur divers sites du réseau américain de radars bande S, Nexrad (Next Generation Weather Radar), est utilisé pour analyser la fonction de distribution de probabilité (fdp) du facteur de réflectivité radar (Z) des précipitations, soit P(Z). Nous avons étudié et comparé divers types de systèmes précipitants : 1) orages grêlifères sur le site continental de Little Rock (Arkansas), 2) convection péninsulaire et côtière à Miami (Floride), 3) convection côtière et transition terre/mer à Brownsville (Texas) , 4) convection maritime tropicale à Hawaii, 5) convection maritime des latitudes moyennes à Eureka (Californie), 6) neige associée aux systèmes frontaux continentaux d'hiver à New York City (New York) et 7) neige à Middleton Island (Alaska), une zone maritime des hautes latitudes. On montre que chaque type de système précipitant a une signature spécifique au niveau de la forme de P(Z). La distribution P(Z) a une forme complexe. Nous montrons qu'il s'agit d'un mélange de plusieurs composantes gaussiennes, chacune étant attribuable à un type de précipitation. Avec l'algorithme EM (Expectation Maximisation) de Dempster et al. 1977, basé sur la méthode du maximum devraisemblance, on décompose la fdp des systèmes précipitants en quatre compo-santes : 1) le nuage et les précipitations de très faible intensité ou drizzle, 2) les précipitations stratiformes, 3) les précipitations convectives et 4) la grêle. Chaque composante est représentée par une gaussienne définie par sa moyenne, sa variance et la proportion de l'aire qu'elle occupe dans le mélange. On a mis en évidence l'absence de composante grêle dans les P(Z) des cas de systèmes convectifs maritimes et côtiers. Les chutes de neige correspondent à des distributions P(Z) plus régulières. La présence de plusieurs composantes dans P(Z) est liée à des différences dans la dynamique et la microphysique propres à chaque composante. Une combinaison linéaire des différentes composantes gaussiennes a permis d'obtenir un très bon ajustement de P(Z). Nous présentons ensuite une application des résultats de la décomposition de P(Z). Nous avons isolé chaque composante, et pour chacune d'elles, la distribution de réflectivité est convertie en une distribution d'intensité de précipitation (R), soit P(R) ayant comme paramètres µR et sR2 qui sont respectivement la moyenne et la variance. On montre, sur le le graphe (µR ,sR2), que chaque composante occupe une région spécifique, suggérant ainsi que les types de précipitation identifiés constituent des populations distinctes. Par exemple, la position des points représentatifs de la neige montre que cette dernière est statistiquement différente de la pluie. Le coefficient de variation de P(R), CVR = sR /µR est constant pour chaque type de précipitation. Ce résultat implique que la connaissance de CVR et la mesure de l'un des paramètres de P(R) permet de déterminer l'autre et de définir la distributionde l'intensité de précipitation pour chaque composante. L'influence des coefficients a et b de la relation Z = aRb sur P(R) a été également discutée
A set of radar data gathered over various sites of the US Nexrad (Next Generation Weather Radar) S band radar network is used to analyse the probability distribution function (pdf) of the radar reflectivity factor (Z) of precipitation, P(Z). Various storm types are studied and a comparison between them is made: 1) hailstorms at the continental site of Little Rock (Arkansas), 2) peninsular and coastal convection at Miami (Florida), 3) coastal convection and land/sea transition at Brownsville (Texas), 4) tropical maritime convection at Hawaii, 5) midlatitude maritime convection at Eureka (California), 6) snowstorms from winter frontal continental systems at New York City (New York), and 7) high latitude maritime snowstorms at Middleton Island (Alaska). Each storm type has a specific P(Z) signature with a complex shape. It is shown that P(Z) is a mixture of Gaussian components, each of them being attribuable to a precipitation type. Using the EM (Expectation Maximisation) algorithm of Dempster et al. 1977, based on the maximum likelihood method, four main components are categorized in hailstorms: 1) cloud and precipitation of very low intensity or drizzle, 2) stratiform precipitation, 3) convective precipitation, and 4) hail. Each component is described by the fraction of area occupied inside P(Z) and by the two Gaussian parameters, mean and variance. The absence of hail component in maritime and coastal storms is highlighted. For snowstorms, P(Z) has a more regular shape. The presence of several components in P(Z) is linked to some differences in the dynamics and microphysics of each precipitation type. The retrieval of the mixed distribution by a linear combination of the Gaussian components gives a very stisfactory P(Z) fitting. An application of the results of the split-up of P(Z) is then presented. Cloud, rain, and hail components have been isolated and each corresponding P(Z) is converted into a probability distribution of rain rate P(R) which parameters are µR and sR2 , respectively mean and variance. It is shown on the graph (µR ,sR2) that each precipitation type occupies a specific area. This suggests that the identified components are distinct. For example, the location of snowstorms representative points indicates that snow is statistically different from rain. The P(R) variation coefficient, CVR = sR/µR is constant for each precipitation type. This result implies that knowing CVR and measuring only one of the P(R) parameters enable to determine the other one and to define the rain rate probability distribution. The influence of the coefficients a and b of the relation Z = aRb on P(R) is also discussed
18

Saidi, Yacine. "Méthodes appliquées de détection et d'estimation de rupture dans des modèles de régression." Phd thesis, 1986. http://tel.archives-ouvertes.fr/tel-00319930.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions deux procédures ― somme cumulée des résidus récursifs et rapport des vraisemblances maximales ― de détection de rupture dans un modèle de régression, en vue de leur application à des problèmes concrets. Nous menons une étude expérimentale par simulation, afin de cerner le comportement de ces deux méthodes de détection de rupture. Le problème de l'estimation, par le maximum de vraisemblance, dans un modèle de régression à une rupture est traité. Une application des méthodes étudiées sur des données d'hydrologie est présentée

До бібліографії