To see the other types of publications on this topic, follow the link: L'estimateur maximum de vraisemblance.

Dissertations / Theses on the topic 'L'estimateur maximum de vraisemblance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'L'estimateur maximum de vraisemblance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Douc, Randal. "Problèmes statistiques pour des modèles à variables latentes : propriétés asymptotiques de l'estimateur du maximum de vraisemblance." Palaiseau, Ecole polytechnique, 2001. http://www.theses.fr/2001EPXXO001.

Full text
Abstract:
Un modèle autorégressif à régime markovien est un processus à temps discret à deux composantes x n, y n évoluant de la façon suivante : x n est une chaine de Markov homogène et y n suit une loi conditionnelle dépendante non seulement de x n mais aussi de y n 1, , y n 8. Le processus x n, usuellement appelé régime n'est pas observé et l'inférence doit être menée à partir du processus observable y n. Ces modèles incluent en particulier les modèles de chaines de Markov cachées utilisés en reconnaissance de la parole, économétrie, neuro-physiologie ou analyse des séries temporelles. Dans ce travail, nous prouvons consistance et normalité asymptotique de l'estimateur de maximum de vraisemblance dans le cas où les variables aléatoires cachées vivent dans un espace compact non nécessairement fini. Nous investissons deux techniques différentes, la première appliquée aux modèles de Markov cachées utilise l'ergodicité géométrique de certaines chaines de Markov étendues, et s'appuie sur une méthode proposée par Legland et Mevel (1997) dans le cas où les x k prennent un nombre fini de valeurs. Bien que cette technique semble adaptée à l'étude des estimateurs récursifs (ou l'estimateur est réévalue à chaque nouvelle observation), sa mise en oeuvre nécessite néanmoins des hypothèses relativement fortes. Une seconde approche que nous avons directement applique aux modèles autorégressifs non-linéaires a régime markovien utilise des approximations par des suites stationnaires et permet de prouver consistance et normalité asymptotique sous des hypothèses plus faibles
APA, Harvard, Vancouver, ISO, and other styles
2

Khanji, Basem. "Recherche de nouvelle physique dans le canal B0s --> J/psi phi auprès de l'expérience LHCb." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2011. http://tel.archives-ouvertes.fr/tel-00631168.

Full text
Abstract:
Recherche de nouvelle physique dans le canal B0s --> J/psi phi auprès de l'expérience LHCb: Dans le Modèle Standard, la différence de phase apparaissant dans la désintégration B0s --> J/psi phi est prèdite avec une grande précision. Cette observable est une sonde pour mettre en évidence de la Nouvelle Physique car l'oscillation B0s -B0sbar s'effectue via un diagramme en boucles sensible à la nouvelles particules. Nous avons développé une sélection simplifiée pour les données de 2010. Elle évite tous biais sur la distribution en temps propre afin de réduire l'incertitude systématique. De plus, nous contrôlons les performances d'étiquetage pour les événements B0s --> J/psi phi en utilisant les canaux similaires B0d--> J/psi K*0 et B+ --> J/psi K+. Avec les données de 2010, nous obtenons 570 événements de signal avec une luminosité intégré de 36 pb−1, une puissance de d'étiquetage de (2, 2 ± 0, 4)% et une résolution temporelle de 50 fs. Nous avons étudié une sélection alternative, qui maximise la sensibilité à la phase phis en utilisant des coupures biasant le temp propre. Nous avons proposé une méthode pour corriger la déformation de temps propre à partir des données. Nous avons développé un programme d'ajustement pour déterminer la phase phis. Avec les données 2010, la valeur touveé est phis = [−2, 7,−0, 5] rad à 68% de confiance. Ce résultat est compatible avec la prédiction du Modèle Standard.
APA, Harvard, Vancouver, ISO, and other styles
3

Khanji, Basem. "Recherche de nouvelle physique dans le canal B⁰ → J/ψφ auprès de l’expérience LHCb". Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22064.

Full text
Abstract:
Dans le Modèle Standard, la différence de phase apparaissant dans la désintégration B0s --&gt; J/psi phi est prèdite avec une grande précision. Cette observable est une sonde pour mettre en évidence de la Nouvelle Physique car l’oscillation B0s -B0sbar s’effectue via un diagramme en boucles sensible à la nouvelles particules. Nous avons développé une sélection simplifiée pour les données de 2010. Elle évite tous biais sur la distribution en temps propre afin de réduire l’incertitude systématique. De plus, nous contrôlons les performances d’étiquetage pour les événements B0s --&gt; J/psi phi en utilisant les canaux similaires B0d--&gt; J/psi K*0 et B+ --&gt; J/psi K+. Avec les données de 2010, nous obtenons 570 événements de signal avec une luminosité intégré de 36 pb&#8722;1, une puissance de d’étiquetage de (2, 2 ± 0, 4)% et une résolution temporelle de 50 fs. Nous avons étudié une sélection alternative, qui maximise la sensibilité à la phase phis en utilisant des coupures biasant le temp propre. Nous avons proposé une méthode pour corriger la déformation de temps propre à partir des données. Nous avons développé un programme d’ajustement pour déterminer la phase phis. Avec les données 2010, la valeur touvée est phis = [&#8722;2, 7,&#8722;0, 5] rad à 68% de confiance. Ce résultat est compatible avec la prédiction du Modèle Standard<br>In the PsB $to$ PJpsi $phi$ channel, the phase difference phis between decays with and without oscillation is predicted to be significantly small in the SM. Furthermore, the PsB-PasB mixing phenomena takes place via a loop diagram. These two reasons makes the phis parameter an excellent probe for New Physics processes. We developed a simplified selection for the 2010 data. It avoids any bias on the proper time distribution in order to reduce systematic uncertainty. In addition, we control the tagging performance for PsB $to$ PJpsi $phi$ events using the similar $PBdtoPJpsiPKstar^0$ and $PButoPJpsiPKplus$ channels. With the 2010 data, we obtain $570$ signal events in $36invpb$ of integrated luminosity, a tagging power of $(2.2pm 0.4)%$ and a proper time resolution of $50fs$. We investigated an alternative selection which is designed to maximize the phis sensitivity using a proper time biasing cuts. We proposed a data-driven method to correct the proper time acceptance. We designed a fitting program to determine the phis phase. Using fast Monte Carlo simulation we validated the fitter program, determine the LHCb sensitivity to the phis phase and advise the use of interval estimate at low signal yield. We reviewed the first determination of the phis phase by the LHCb collaboration. It is found to be: $phis in [-2.7,-0.5] rad ~ {rm at~68%~CL}$. This result is compatible with the Standard Model prediction
APA, Harvard, Vancouver, ISO, and other styles
4

Keribin, Christine. "Tests de modeles par maximum de vraisemblance." Evry-Val d'Essonne, 1999. http://www.theses.fr/1999EVRY0006.

Full text
Abstract:
L'ordre d'un modele parametrique est, grossierement, le nombre de parametres necessaires pour definir le modele. Lorsque cet ordre n'est pas connu, l'estimateur du maximum de vraisemblance va surestimer l'ordre, pour s'ajuster le mieux aux donnees. Mais un modele sur-parametre ne donnera pas de bons resultats de prediction. Ainsi, il est interessant d'etudier des estimateurs et des tests de l'ordre. Nous etudions des tests de rapport de vraisemblance dans le cadre de trois modeles : le modele a observations independantes et identiquement distribuees (i. I. D. ) identifiable, meme quand l'ordre surestime, le modele de melange a observations i. I. D. (qui n'est pas identifiable quand le nombre de composantes est surestime), et le modele de chaine de markov cachee (cmc) a observations continues (qui presente les memes problemes d'identifiabilite que le precedent, avec en plus la dependance markovienne). Dans le premier cas, nous utilisons des resultats connus de consistance de l'estimateur de l'ordre pour determiner la vitesse asymptotique de la probabilite de se tromper d'ordre. Dans le second cas, nous demontrons d'abord la consistance de l'estimateur du maximum de vraisemblance penalisee sous certaines hypotheses, puis nous donnons un majorant du niveau d'un test de contamination. Dans le dernier cas, nous testons un modele a observations i. I. D. Contre un modele cmc a deux etats caches. Dans ce cas, sur un sous-ensemble des parametres, nous montrons que le rapport de vraisemblance tend en loi vers la moitie du supremum du carre d'un processus gaussien tronque a ses valeurs positives. Puis agrandissant le domaine, nous montrons que le rapport de vraisemblance tend vers l'infini en probabilite. Prenant un cas particulier de cmc, le modele ma bruite, nous etudions, a ordre connu, un estimateur du filtre et des parametres de la chaine cachee, quand celle-ci est, elle aussi, a etats continus. Des simulations permettent d'illustrer les resultats. Ces etudes sont accompagnees d'un travail bibliographique les positionnant dans le contexte actuel, les eclairant par des exemples, montrant leur apport, et proposant des voies de recherche.
APA, Harvard, Vancouver, ISO, and other styles
5

Perreau, Sylvie. "Application des méthodes de maximum de vraisemblance à l'égalisation autodidacte /." Paris : École nationale supérieure des télécommunications, 1998. http://catalogue.bnf.fr/ark:/12148/cb37007407j.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Berrim, Selma. "Tomoscintigraphie par ouverture codée, reconstruction par le maximum de vraisemblance." Paris 13, 1998. http://www.theses.fr/1998PA132033.

Full text
Abstract:
Le collimateur est necessaire a la formation des images, en tomographie par emission monophotonique. L'idee de base des systemes a ouverture codee est de conserver la bonne resolution spatiale du collimateur a stenope unique. La localisation des sources en profondeur se fait par l'augmentation du nombre de stenopes. L'acquisition des donnees de projections s'effectue alors au moyen d'un masque de codage remplacant le collimateur standard a trous paralleles. L'obtention de coupes tomographiques representant l'objet, necessite un decodage de l'image brute d'acquisition. Les donnees de projections d'un volume radioactive presentent des fluctuations aleatoires obeissant a la distribution de poisson. La reconstruction par le maximum de vraisemblance utilisant l'algorithme em presente un modele fonde sur la distribution de poisson. Cet algorithme iteratif est interessant quant a sa capacite a introduire des phenomenes physiques. L'experimentation du ml-em pour un systeme de codage sous une incidence unique conduit a une resolution laterale de l'ordre de 4 mm dans l'air. L'amelioration de la discrimination en profondeur est significative comparee a la methode de reconstruction par correlation equilibree. L'augmentation du nombre d'incidences en deux projections orthogonales prevoit, pour une etude indicative sur l'image simulee d'une source ponctuelle, une amelioration de la discrimination en profondeur comparee a l'incidence unique.
APA, Harvard, Vancouver, ISO, and other styles
7

KUHN, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité des données manquantes. Nous exhibons un estimateur logspline de cette densité qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers la vraie densité lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications.
APA, Harvard, Vancouver, ISO, and other styles
8

Khelifi, Bruno. "Recherche de sources gamma par une méthode de Maximum de Vraisemblance :." Phd thesis, Université de Caen, 2002. http://tel.archives-ouvertes.fr/tel-00002393.

Full text
Abstract:
L'actuelle génération de détecteurs de rayons gamma au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernovae). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions.<br> Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars IES 1959+65 et IES 1426+42.8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des gamma par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant absorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IIR et des observations simultanées multi-longueurs d'onde.<br> Ayant observé des restes de supernovae contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons cherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaisons nous ont amenées à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
APA, Harvard, Vancouver, ISO, and other styles
9

Henkouche, Meriem. "Estimateurs du maximum de vraisemblance dans des processus autorégressifs non-linéaires." Toulouse 3, 1989. http://www.theses.fr/1989TOU30216.

Full text
Abstract:
Cette these est constituee de quatre parties: la premiere est consacree aux proprietes d'ergodicite du processus autoregressif non lineaire. Dans la deuxieme partie on etudie la consistance, la normalite asymptotique de la suite des estimateurs du maximum de vraisemblance; les resultats se deduisent en eprouvant la methode d'ibragimov. On y etablit une inegalite de grande deviation. Dans la troisieme partie on s'interesse au theoreme central limite pour des variables aleatoires harris recurrentes pour lesquelles la condition de cramer n'est pas satisfaite; on demontre que le reste de convergence est de l'ordre de 1/n. Dans la derniere partie, une vitesse de convergence en loi de l'estimateur du maximum de vraisemblance de l'ordre de 1/n est demontree en appliquant les resultats de la troisieme partie et des resultats d'analyse convexe
APA, Harvard, Vancouver, ISO, and other styles
10

Kuhn, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Paris 11, 2003. https://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité [PI] des données manquantes. Nous exhibons un estimateur logspline de PI qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers pi lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications<br>This thesis deals with maximum likelihood estimation in inverse problems. In the tree first chapters, we consider statistical models involving missing data in a parametric framework. Chapter 1 presents a version of the EM algorithm (Expectation Maximization), which combines a stochastic approximation with a Monte Carlo Markov Chain method: the missing data are drawn from a well-chosen transition probability. The almost sure convergence of the sequence generated by the algorithm to a local maximum of the likelihood of the observations is proved. Some applications to deconvolution and change-point detection are presented. Chapter 2 deals with the application of the algorithm to nonlinear mixed effects models. Besides the estimation of the parameters, we estimate the likelihood of the model and the Fisher information matrix. We assess the performance of the algorithm, comparing the results obtained with other methods, on examples coming from pharmacocinetics and pharmacodynamics. Chapter 3 presents an application to geophysics. We perform a joint inversion between teleseismic times and velocity and between gravimetric data and density. Our point of view is innovative because we estimate the parameters of the model which were generally fixed arbitrarily. Moreover we take into account a linear relation between slowness and density. Chapter 4 deals with non parametric density estimation in missing data problems. We propose a logspline estimator of the density of the non observed data, which maximizes the observed likelihood in a logspline model. We apply our algorithm in this parametric model. We study the convergence of this estimator to the density of the non observed data, when the size of the logpline model and the number of observations tend to infinity. Some applications illustrate this method
APA, Harvard, Vancouver, ISO, and other styles
11

Cao, Zhansheng. "Comportement d'un échantillon sous conditionnement extrême, maximum de vraisemblance sous échantillonnage pondéré." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00802459.

Full text
Abstract:
Dans le Chapitre 1, nous explorons le comportement joint des variables d'une marche aléatoire (X1, . . . ,Xn) lorsque leur valeur moyenne tend vers l'infini quand n tend vers l'infini. Il est prouvé que toutes ces variables doivent partager la même valeur, ce qui généralise les résultats précédents, dans le cadre de grands dépassements de sommes finies de i.i.d variables aléatoires. Dans le Chapitre 2, nous montrons un théorème de Gibbs conditionnel pour une marche aléatoire (X1, ..,Xn) conditionnée à une déviation extrême. Il est prouvé que lorsque les opérandes ont des queues légères avec une certaine régularité supplémentaire, la distribution asymptotique conditionnelle de X1 peut être approximée par la distribution tiltée en norme de la variation totale, généralisant ainsi le cas classique du LDP. Le troisième Chapitre explore le principe du maximum de vraisemblance dans les modèles paramétriques, dans le contexte du théorème de grandes déviations de Sanov. Le MLE est associé à la minimisation d'un critère spécifique de type divergence, qui se généralise au cas du bootstrap pondéré, où la divergnce est fonction de la distribution des poids. Certaines propriétés de la procédure résultante d'inférence sont présenteés ; l'efficacité de Bahadur de tests est également examinée dans ce contexte.
APA, Harvard, Vancouver, ISO, and other styles
12

Ranwez, Vincent. "Méthodes efficaces pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00843175.

Full text
Abstract:
La reconstruction de phylogénies moléculaires consiste à retrouver l'arbre évolutif (ou phylogénie) d'un ensemble de séquences homologues. La méthode de reconstruction la plus fiable actuellement, semble être la méthode du maximum de vraisemblance. Les méthodes classiques pour rechercher la phylogénie de vraisemblance maximale deviennent, rapidement, très coûteuses en temps de calcul lorsque le nombre de séquences augmente. Elles ne peuvent donc pas traiter de grandes phylogénies. Actuellement, les deux types de méthodes qui permettent de reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance sont : les méthodes de distances et les méthodes de quadruplets. Toutes deux divisent le problème initial en sous-problèmes contenant peu de séquences. Elles peuvent alors résoudre rapidement (suivant le principe du maximum de vraisemblance) chacun de ces sous-problèmes, puis combiner les solutions obtenues pour proposer une phylogénie de l'ensemble des séquences. Après avoir présenté les principales méthodes de reconstruction phylogenetique, nous décrivons une nouvelle méthode de quadruplets (Weight Optimization) qui possède de bonnes propriétés théoriques et reconstruit des arbres plus fiables que Quartet Puzzling (une méthode de quadruplets très populaire). Nous expliquons ensuite en quoi les méthodes de quadruplets sont mal adaptées pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance, et comment ces méthodes peuvent résoudre efficacement d'autres problèmes. Puis, nous proposons une approche qui combine de manière originale les méthodes de distances et du maximum de vraisemblance. Cette approche que nous appelons TripleML permet d'améliorer la fiabilité de différentes méthodes de distances en remplaçant les distances qu'elles utilisent par des distances qui sont estimées en optimisant localement la vraisemblance de triplets de séquences (ou de groupes de séquences).
APA, Harvard, Vancouver, ISO, and other styles
13

Larzabal, Pascal. "Application du maximum de vraisemblance au traitement d'antenne : radio-goniométrie et poursuite de cibles." Paris 11, 1992. http://www.theses.fr/1992PA112252.

Full text
Abstract:
Les méthodes du maximum de vraisemblance (mv) sont reconnues pour être les plus prometteuses en traitement d'antenne. L'objet de ce travail consiste en l'étude et en la mise en ouvre du mV déterministe et stochastique ainsi que des formes approchées passant par une décomposition propre de la matrice de corrélation. Ces formes approchées, plus robustes, sont quasiment efficaces, comme le montre l'expression analytique de la variance et les simulations de monte Carlo effectuées. Elles nécessitent une optimisation globale multidimensionnelle. Nous proposons pour ce faire un algorithme d'optimisation locale (gauss newton) qui est efficace s'il est correctement initialise. Deux algorithmes globaux sont aussi introduits: le premier est fonde sur des méthodes connexionnistes et le deuxième sur une recherche aléatoire. Pour la détection du nombre de sources, nous proposons une variante originale de la méthode de test du rang de l'espace signal. Pour remédier aux défauts de cette méthode en présence de sources corrélées une méthode de detection-estimation simultanées, récursive sur l'ordre, est introduite. Ces méthodes ont été étendues au cas de sources mobiles. En effet, l'utilisation de la forme analytique de la variance du mV permet une mise a jour récursive des positions estimées qui rend l'algorithme compatible avec un modèle a sources mobiles. Nous avons redeveloppe un formalisme type kalman avec comme originalité, l'estimation adaptative du bruit de modélisation (part imprévisible du mouvement) et de la vitesse moyenne, (part évolution lente du mouvement). Une expérimentation dans la gamme VHF (antenne linéaire et pentagonale a 5 capteurs) et HF (antenne en v a 5 capteurs) vient compléter cette étude et confronter les modèles utilises a la réalité. Nous y proposons notamment un remède a la déformation du front de l'onde electromagnetique
APA, Harvard, Vancouver, ISO, and other styles
14

Bapteste, Éric. "Phylogénie générale des Eucaryotes basée sur l'analyse de multiples marqueurs." Paris 6, 2003. http://www.theses.fr/2003PA066504.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Detais, Amélie. "Maximum de vraisemblance et moindre carrés pénalisés dans des modèles de durée de vie censurées." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/820/.

Full text
Abstract:
L'analyse de durées de vie censurées est utilisée dans des domaines d'application variés et différentes possibilités ont été proposées pour la modélisation de telles données. Nous nous intéressons dans cette thèse à deux types de modélisation différents, le modèle de Cox stratifié avec indicateurs de strates aléatoirement manquants et le modèle de régression linéaire censuré à droite. Nous proposons des méthodes d'estimation des paramètres et établissons les propriétés asymptotiques des estimateurs obtenus dans chacun de ces modèles. Dans un premier temps, nous considérons une généralisation du modèle de Cox qui permet à différents groupes de la population, appelés strates, de posséder des fonctions d'intensité de base différentes tandis que la valeur du paramètre de régression est commune. Dans ce modèle à intensité proportionnelle stratifié, nous nous intéressons à l'estimation des paramètres lorsque l'indicateur de strate est manquant pour certains individus de la population. Des estimateurs du maximum de vraisemblance non paramétrique pour les paramètres du modèle sont proposés et nous montrons leurs consistance et normalité asymptotique. L'efficacité du paramètre de régression est établie et des estimateurs consistants de sa variance asymptotique sont également obtenus. Pour l'évaluation des estimateurs du modèle, nous proposons l'utilisation de l'algorithme Espérance-Maximisation et le développons dans ce cas particulier. Dans un second temps, nous nous intéressons au modèle de régression linéaire lorsque la donnée réponse est censurée aléatoirement à droite. Nous introduisons un nouvel estimateur du paramètre de régression minimisant un critère des moindres carrés pénalisé et pondéré par des poids de Kaplan-Meier. Des résultats de consistance et normalité asymptotique sont obtenus et une étude de simulations est effectuée pour illustrer les propriétés de cet estimateur de type LASSO. La méthode bootstrap est utilisée pour l'estimation de la variance asymptotique<br>Life data analysis is used in various application fields. Different methods have been proposed for modelling such data. In this thesis, we are interested in two distinct modelisation types, the stratified Cox model with randomly missing strata indicators and the right-censored linear regression model. We propose methods for estimating the parameters and establish the asymptotic properties of the obtained estimators in each of these models. First, we consider a generalization of the Cox model, allowing different groups, named strata, of the population to have distinct baseline intensity functions, whereas the regression parameter is shared by all the strata. In this stratified proportional intensity model, we are interested in the parameters estimation when the strata indicator is missing for some of the population individuals. Nonparametric maximum likelihood estimators are proposed for the model parameters and their consistency and asymptotic normality are established. We show the efficiency of the regression parameter and obtain consistent estimators of its variance. The Expectation-Maximization algorithm is proposed and developed for the evaluation of the estimators of the model parameters. Second, we are interested in the regression linear model when the response data is randomly right-censored. We introduce a new estimator of the regression parameter, which minimizes a Kaplan-Meier-weighted penalized least squares criterion. Results of consistency and asymptotic normality are obtained and a simulation study is conducted in order to investigate the small sample properties of this LASSO-type estimator. The bootstrap method is used for the estimation of the asymptotic variance
APA, Harvard, Vancouver, ISO, and other styles
16

Al-Khalidi, Khaldoun. "Reconstruction tomographique en géométrie conique par la technique du maximum de vraisemblance : optimisation et parallélisation." Besançon, 1996. http://www.theses.fr/1996BESA2009.

Full text
Abstract:
Ce travail s'intègre dans le contexte de l'imagerie isotopique. Il concerne la mise en œuvre sur un réseau de transputers d'une méthode de reconstruction 3D de la distribution des coefficients d'atténuation, à partir de projections obtenues en géométrie conique. La connaissance de ces coefficients permettant l'amélioration de la correction de l'atténuation en tomographie d'émission monophotonique. Nous avons opté pour les méthodes de reconstruction statistiques basées sur le principe de Maximum de Vraisemblance. Afin de calculer l'estimateur de Maximum de Vraisemblance nous nous sommes basés sur l'algorithme d'Espérance et Maximisation (EM). En formulant ce dernier sous une forme gradient, nous avons proposé une méthode d'optimisation de type Maximisation Unidimensionnelle. Nous l'avons implantée sous le nom de l'algorithme EM-MU. Ensuite, nous nous sommes intéressés au caractère mal posé du problème de la reconstruction dans le cas de l'estimateur de Maximum de Vraisemblance. Nous avons proposé une technique de régularisation basée sur une approche bayésienne et nous l'avons implantée sous le nom de l'algorithme EM-MAP. Afin de valider nos travaux, nous avons mis en œuvre un simulateur de transport de photons en transmission, basé sur la méthode de Monte Carlo. Nous avons comparé les algorithmes EM-MU et EM-MAP avec deux algorithmes de reconstruction très connus (ART et Feldkamp). L'algorithme EM-MU a donné les meilleurs résultats sur le plan qualitatif et quantitatif, Ainsi nous avons choisi de la parallèliser. Nous avons proposé une méthode de parallèlisation basée sur la technique maitre-esclave avec une répartition de charges, et nous l'avons implanté sur un réseau constitué de trois transputers. La parallèlisation s'est avérée efficace ce qui montre l'intérêt d'une telle approche pour envisager l'utilisation de l'algorithme EM-MU en routine clinique.
APA, Harvard, Vancouver, ISO, and other styles
17

Vuattoux, Jean-Luc. "Identification de modèles de séries temporelles non-gaussiennes : une approche du type maximum de vraisemblance." Nantes, 1997. http://www.theses.fr/1997NANT2029.

Full text
Abstract:
Dans le cas de séries temporelles non-gaussiennes stochastiques stationnaires, représentées par un modèle générateur linéaire du type auto-régressif à moyenne ajustée (ARMA) excité par une séquence blanche non-gaussienne inconnue, l'analyse spectrale se ramène à l'identification des paramètres du modèle ARMA. Nous étudions dans une première partie, les méthodes d'identification de modèles ARMA fondées sur les statistiques d'ordre supérieur (SOS) à deux. Nous nous intéressons aussi à une méthode fondée sur le principe de la déconvolution par minimum d'entropie. Afin de l'étendre à l'identification de modèles ARMA non-causaux, nous généralisons l'approche du minimum de variance de l'erreur de prédiction en introduisant une représentation non-causale séparant les parties causale et anti-causale du modèle ARMA. La seconde partie consiste en l'étude et l'élaboration de méthodes visant à l'optimalité au sens de la matrice de variance-covariance de l'erreur d'estimation des paramètres. L'optimalité est atteinte, dans le cas général d'un modèle ARMA non-causal et d'une entrée de fonction de densité de probabilité (FDP) non-gaussienne, si l'estimateur du maximum de vraisemblance (MV) est utilisé. Mais la FDP de l'entrée est généralement inconnue. Nous avons donc élaboré un estimateur du MV approché, combinant les SOS et les techniques d'identification robuste. Ceci nécessite l'extension de l'approche de l'erreur de prédiction dans un cas général. Puis, la FDP de l'entrée est modélisée par un mélange de deux gaussiennes de mêmes statistiques jusqu'à l'ordre quatre que la FDP de l'entrée, et minimisant l'information de Fisher parmi toutes les solutions possibles. Les méthodes d'identification présentées et élaborées sont comparées en simulation. Nous proposons une nouvelle mesure de distance entre modèles ARMA non-causaux, la distance bicepstrale, utilisée ensuite pour la comparaison de méthodes d'identification du point de vue des performances de l'estimation.
APA, Harvard, Vancouver, ISO, and other styles
18

Alcaïs, Alexandre. "De la lèpre au maximum de vraisemblance binomiale : histoire naturelle d'une nouvelle méthode d'analyse de liaison génétique." Paris 11, 2002. http://www.theses.fr/2002PA11T072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Gilbert, Helène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs : Application à l'espèce porcine." Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0007.

Full text
Abstract:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage. Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités. Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants. Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
APA, Harvard, Vancouver, ISO, and other styles
20

Ferràs, Font Marc. "Utilisation des coefficients de régression linéaire par maximum de vraisemblance comme paramètres pour la reconnaissance automatique du locuteur." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00616673.

Full text
Abstract:
The goal of this thesis is to find new and efficient features for speaker recognition. We are mostly concerned with the use of the Maximum-Likelihood Linear Regression (MLLR) family of adaptation techniques as features in speaker recognition systems. MLLR transformcoefficients are able to capture speaker cues after adaptation of a speaker-independent model using speech data. The resulting supervectors are high-dimensional and no underlying model guiding its generation is assumed a priori, becoming suitable for SVM for classification. This thesis brings some contributions to the speaker recognition field by proposing new approaches to feature extraction and studying existing ones via experimentation on large corpora: 1. We propose a compact yet efficient system, MLLR-SVM, which tackles the issues of transcript- and language-dependency of the standard MLLR-SVM approach by using single-class Constrained MLLR (CMLLR) adaptation transforms together with Speaker Adaptive Training (SAT) of a Universal Background Model (UBM). 1- When less data samples than dimensions are available. 2- We propose several alternative representations of CMLLR transformcoefficients based on the singular value and symmetric/skew-symmetric decompositions of transform matrices. 3- We develop a novel framework for feature-level inter-session variability compensation based on compensation of CMLLR transform supervectors via Nuisance Attribute Projection (NAP). 4- We perform a comprehensive experimental study of multi-class (C)MLLR-SVM systems alongmultiple axes including front-end, type of transform, type fmodel,model training and number of transforms. 5- We compare CMLLR and MLLR transform matrices based on an analysis of properties of their singular values. 6- We propose the use of lattice-basedMLLR as away to copewith erroneous transcripts in MLLR-SVMsystems using phonemic acoustic models.
APA, Harvard, Vancouver, ISO, and other styles
21

Beau, Noëlle. "Application du maximum de vraisemblance à la comparaison de deux méthodes de dosage biologique : cas des variances inconnues." Paris 11, 1990. http://www.theses.fr/1990PA11P171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Ziadi, Anis. "Particules gaussiennes déterministes en maximum de vraisemblance non-linéaire : application au filtrage optimal des signaux radar et GPS." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/742/.

Full text
Abstract:
Le filtre particulaire "aléatoire", bien connu aujourd'hui, est basé sur une interprétation par processus de branchement du générateur de filtrage non-linéaire. Sa généralité permet d'aborder tout problème d'estimation dynamique sans restriction concernant la nature des équations d'état ou des densités de probabilité. Cette technique procède par simulation numérique aléatoire des flots du système dynamique au moyen de particules de Dirac, corrigées par les observations et adaptées à l'évolution des connaissances a posteriori de l'état. Des évolutions successives de ce procédé ont montré l'intérêt des particules gaussiennes étendues pour la réduction du coût algorithmique et l'amélioration des performances du filtre. D'autre part, la supériorité du branchement/sélection déterministe s'est manifestée dans le cas de bruit source à valeurs discrètes, notamment pour l'estimation au sens du maximum de vraisemblance. Ce mémoire étend l'utilisation des particules déterministes de Gauss, principalement pour le maximum de vraisemblance, au cas général comprenant les bruits de dynamique continus. Il dote la technique particulaire "déterministe" d'une procédure optimisant le maillage particulaire de l'espace des bruits, ainsi que d'une contrainte de "non-recouvrement" des particules étendues assurant l'économie maximale. Une synthèse des principales variantes du filtrage particulaire, permettant d'établir un état des lieux de ces techniques, de leurs différences et points communs, y est proposée sans prétention d'exhaustivité. Concernant l'efficacité applicative, un récepteur particulaire "déterministe" des signaux radar, est proposé pour la détection/poursuite de cibles fortement manœuvrantes sous faible observation. Les performances de ce récepteur sont, d'abord illustrées par des simulations réalistes, puis comparées, sur données réelles issues d'expérimentations militaires, à celles du filtre à particule aléatoires de Dirac. La seconde application concerne le positionnement GPS de récepteur à forte dynamique. .<br>Particle filter is now a well-known numeric solution for the non-linear estimation problem. Based on a reinterpretation of Stratonovich non-linear filtering equation as the generator of branching process, it provides a general finite-dimensional solution to the non-linear filtering problem. Previous improvement of the method point out, in one hand, the benefit of Gaussian particles for the state space dynamic representation, and in the other one, the economy of the deterministic sampling, especially in the maximum likelihood case. We therefore present here a maximum likelihood deterministic particle filter generalized to the continuous state space case, using extended Gauss particles. This particle filter was completed with optimization steps, such as non-overlapping selection to guarantee optimal use of computational resources. Besides deterministic particle filter description first part of this report presents a "non-exhaustive" survey of non-linear filtering methods and particularly "Random" particles ones. High performances of the proposed filtering method are illustrated through two applications of interest: Radar detection and tracking of maneuvering target: where performances are studied, until real data provided by military experimentations, and compared to "random" particles ones. GPS receiver: where tracking problem is firstly addressed under high dynamic noises. Then acquisition one is solved with similar dynamics constraints by a modified signal processing structure. .
APA, Harvard, Vancouver, ISO, and other styles
23

Etienvre, Anne-Isabelle. "Méthode d'analyse pour la recherche de la double désintégration bêta sans émission de neutrinos dans l'expérience NEMO3 : étude du bruit de fond et premiers résultats." Paris 11, 2003. http://www.theses.fr/2003PA112026.

Full text
Abstract:
Le détecteur NEMO3, installé dans le Laboratoire Souterrain de Modane, a pour but l'étude de la double désintégration bêta sans émission de neutrinos, processus dont l'observation permettrait d'affirmer que le neutrino est une particule massive de Majorana. Ce détecteur est composé de feuilles sources, très fines, centrales, d'émetteur double bêta, représentant un total de 10 kg, d'un détecteur de traces constitué de cellules de dérive fonctionnant en régime Geiger, d'un calorimètre formé de scintillateurs plastiques associés à des photomultiplicateurs, d'une bobine fournissant un champ magnétique de 30 gauss et de deux blindages permettant de réduire les flux de neutrons et de photons. Dans la première partie de cette thèse, je décris les liens unissant certains mécanismes s'inscrivant dans le cadre d'une violation trilinéaire de la R-parité à la double désintégration bêta. La seconde partie, expérimentale, est dédiée à l'étude détaillée du détecteur de traces de l'expérience: après avoir décrit les différents tests de fonctionnement, je présente la détermination des caractéristiques de la reconstruction des traces traversant le détecteur (résolutions transverse et longitudinale, par cellule Geiger et précisions sur la détermination du vertex, reconnaissance de la charge). Une dernière partie correspond à l'analyse des données acquises par l'expérience. Une limite supérieure sur l'activité des sources en 208-Tl, l'une des principales sources de bruit de fond, a ainsi pu être déterminée: elle est inférieure à 68 mBq/kg à 90% de niveau de confiance. Par ailleurs, j'ai mis au point et testé sur les données une méthode: d'analyse du signal de double désintégration bêta sans émission de neutrinos, basée sur un maximum de vraisemblance utilisant toute l'information disponible: cela m'a permis de déterminer une première limite supérieure, très préliminaire, sur la masse effective du neutrino<br>The NEMO3 detector, installed in the Fréjus Underground Laboratory, is dedicated to the study of neutrinoless double beta decay : the observation of this process would sign the massive and Majorana nature of neutrino. The experiment consists in very thin central source foils (the total mass is equal to 10 kg), a tracking detector made of drift cells operating in Geiger mode, a calorimeter made of plastic scintillators associated to photomultipliers, a coil producing a 30 gauss magnetic field and two shields, dedicated to the reduction of the γ-ray and neutron fluxes. In the first part, I describe the implications of several mechanisms, related to trilinear R-parity violation, on ββ0v. The second part is dedicated to a detailed study of the tracking detector of the experiment : after a description of the different working tests, I present the determination of the characteristics of the tracking reconstruction (transverse and longitudinal resolution, by Geiger cell and precision on vertex determination, charge recognition). A last part corresponds to the analysis of the data taken by the experiment. On the one hand, an upper limit on the 208-Tl activity of the sources has been determined : it is lower than 68 mBq/kg, at 90% of convidence level. On the other hand, I have developed and tested on these data a method in order to analyse the neutrinoless double beta decay signal; this method is based on a maximum of likelihood using all the available information. Using this method, I could determine a first and very preliminary upper limit on the effective mass of the neutrino
APA, Harvard, Vancouver, ISO, and other styles
24

Trevezas, Samis. "Etude de l'estimation du Maximum de Vraisemblance dans des modèles Markoviens, Semi-Markoviens et Semi-Markoviens Cachés avec Applications." Phd thesis, Université de Technologie de Compiègne, 2008. http://tel.archives-ouvertes.fr/tel-00472644.

Full text
Abstract:
Dans ce travail je présente une étude unifiée basée sur l'estimation du maximum de vraisemblance pour des modèles markoviens, semi-markoviens et semi-markoviens cachés. Il s'agit d'une étude théorique des propriétés asymptotiques de l'EMV des modèles mentionnés ainsi que une étude algorithmique. D'abord, nous construisons l'estimateur du maximum de vraisemblance (EMV) de la loi stationnaire et de la variance asymptotique du théorème de la limite centrale (TLC) pour des fonctionnelles additives des chaînes de Markov ergodiques et nous démontrons sa convergence forte et sa normalité asymptotique. Ensuite, nous considérons un modèle semi-markovien non paramétrique. Nous présentons l'EMV exact du noyau semi-markovien qui gouverne l'évolution de la chaîne semi-markovienne (CSM) et démontrons la convergence forte, ainsi que la normalité asymptotique de chaque sous-vecteur fini de cet estimateur en obtenant des formes explicites pour les matrices de covariance asymptotiques. Ceci a été appliqué pour une observation de longue durée d'une seule trajectoire d'une CSM, ainsi que pour une suite des trajectoires i.i.d. d'une CSM censurée à un instant fixe. Nous introduisons un modèle semi-markovien caché (MSMC) général avec dépendance des temps de récurrence en arrière. Nous donnons des propriétés asymptotiques de l'EMV qui correspond à ce modèle. Nous déduisons également des expressions explicites pour les matrices de covariance asymptotiques qui apparaissent dans le TLC pour l'EMV des principales caractéristiques des CSM. Enfin, nous proposons une version améliorée de l'algorithme EM (Estimation-Maximisation) et une version stochastique de cet algorithme (SAEM) afin de trouver l'EMV pour les MSMC non paramétriques. Des exemples numériques sont présentés pour ces deux algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
25

Fallaha, Mouna. "Contribution à l'étude asymptotique des estimateurs du maximum de la pseudo-vraisemblance conditionnelle des paramètres de champs de Markov." Pau, 2001. http://www.theses.fr/2001PAUU3018.

Full text
Abstract:
Nous nous intéressons à l'étude des estimateurs du maximum de la pseudo-vraisemblance conditionnelle de paramètres de champs de Gibbs markoviens. Le premier chapitre est consacre à une présentation de champs de Gibbs et de Markov. Puis nous donnons quelques méthodes d'estimations des paramètres de ces champs, ainsi que quelques méthodes de reconstruction d'image à partir des observations données. Dans le chapitre 2, nous présentons une revue d'une part sur les théorèmes de la limite centrale des champs aléatoires sur un réseau et d'autre part sur les propriétés asymptotiques des estimateurs de paramètres de champs de Gibbs markoviens. Dans le chapitre 3, on étudie la consistance et la normalité asymptotique des estimateurs du maximum de la pseudo-vraisemblance conditionnelle de paramètres de champs de Gibbs markoviens et stationnaires. Deux cas sont considérés, celui ou l'énergie dépend linéairement des paramètres, puis celui ou la dépendance est non-linéaire. Pour obtenir la normalité asymptotique de ces estimateurs, nous adoptons deux nouvelles techniques d'approximation par des martingales pour les champs aléatoires. Dans le dernier chapitre, nous mettons en oeuvre des simulations numériques qui ont pour but de vérifier les résultats théoriques des propriétés asymptotiques des estimateurs du maximum de la pseudo-vraisemblance conditionnelle, nous calculons aussi les variances asymptotiques approchées de ces estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
26

Filstroff, Louis. "Contributions to probabilistic non-negative matrix factorization - Maximum marginal likelihood estimation and Markovian temporal models." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0143.

Full text
Abstract:
La factorisation en matrices non-négatives (NMF, de l’anglais non-negative matrix factorization) est aujourd’hui l’une des techniques de réduction de la dimensionnalité les plus répandues, dont les domaines d’application recouvrent le traitement du signal audio, l’imagerie hyperspectrale, ou encore les systèmes de recommandation. Sous sa forme la plus simple, la NMF a pour but de trouver une approximation d’une matrice des données non-négative (c’est-à-dire à coefficients positifs ou nuls) par le produit de deux matrices non-négatives, appelées les facteurs. L’une de ces matrices peut être interprétée comme un dictionnaire de motifs caractéristiques des données, et l’autre comme les coefficients d’activation de ces motifs. La recherche de cette approximation de rang faible s’effectue généralement en optimisant une mesure de similarité entre la matrice des données et son approximation. Il s’avère que pour de nombreux choix de mesures de similarité, ce problème est équivalent à l’estimation jointe des facteurs au sens du maximum de vraisemblance sous un certain modèle probabiliste décrivant les données. Cela nous amène à considérer un paradigme alternatif pour la NMF, dans lequel les taches d’apprentissage se portent sur des modèles probabilistes dont la densité d’observation est paramétrisée par le produit des facteurs non-négatifs. Ce cadre général, que nous appelons NMF probabiliste, inclut de nombreux modèles à variables latentes bien connus de la littérature, tels que certains modèles pour des données de compte. Dans cette thèse, nous nous intéressons à des modèles de NMF probabilistes particuliers pour lesquels on suppose une distribution a priori pour les coefficients d’activation, mais pas pour le dictionnaire, qui reste un paramètre déterministe. L'objectif est alors de maximiser la vraisemblance marginale de ces modèles semi-bayésiens, c’est-à-dire la vraisemblance jointe intégrée par rapport aux coefficients d’activation. Cela revient à n’apprendre que le dictionnaire, les coefficients d’activation pouvant être inférés dans un second temps si nécessaire. Nous entreprenons d’approfondir l’étude de ce processus d’estimation. En particulier, deux scénarios sont envisagées. Dans le premier, nous supposons l’indépendance des coefficients d’activation par échantillon. Des résultats expérimentaux antérieurs ont montré que les dictionnaires appris via cette approche avaient tendance à régulariser de manière automatique le nombre de composantes ; une propriété avantageuse qui n’avait pas été expliquée alors. Dans le second, nous levons cette hypothèse habituelle, et considérons des structures de Markov, introduisant ainsi de la corrélation au sein du modèle, en vue d’analyser des séries temporelles<br>Non-negative matrix factorization (NMF) has become a popular dimensionality reductiontechnique, and has found applications in many different fields, such as audio signal processing,hyperspectral imaging, or recommender systems. In its simplest form, NMF aims at finding anapproximation of a non-negative data matrix (i.e., with non-negative entries) as the product of twonon-negative matrices, called the factors. One of these two matrices can be interpreted as adictionary of characteristic patterns of the data, and the other one as activation coefficients ofthese patterns. This low-rank approximation is traditionally retrieved by optimizing a measure of fitbetween the data matrix and its approximation. As it turns out, for many choices of measures of fit,the problem can be shown to be equivalent to the joint maximum likelihood estimation of thefactors under a certain statistical model describing the data. This leads us to an alternativeparadigm for NMF, where the learning task revolves around probabilistic models whoseobservation density is parametrized by the product of non-negative factors. This general framework, coined probabilistic NMF, encompasses many well-known latent variable models ofthe literature, such as models for count data. In this thesis, we consider specific probabilistic NMFmodels in which a prior distribution is assumed on the activation coefficients, but the dictionary remains a deterministic variable. The objective is then to maximize the marginal likelihood in thesesemi-Bayesian NMF models, i.e., the integrated joint likelihood over the activation coefficients.This amounts to learning the dictionary only; the activation coefficients may be inferred in asecond step if necessary. We proceed to study in greater depth the properties of this estimation process. In particular, two scenarios are considered. In the first one, we assume the independence of the activation coefficients sample-wise. Previous experimental work showed that dictionarieslearned with this approach exhibited a tendency to automatically regularize the number of components, a favorable property which was left unexplained. In the second one, we lift thisstandard assumption, and consider instead Markov structures to add statistical correlation to themodel, in order to better analyze temporal data
APA, Harvard, Vancouver, ISO, and other styles
27

Keller, Jean-Yves. "Contribution a la validation de données des systèmes statiques et dynamiques." Nancy 1, 1991. http://www.theses.fr/1991NAN10201.

Full text
Abstract:
Ce mémoire est consacré à la validation de données des systèmes statiques et dynamiques. La première partie sur l'équilibrage de bilans des systèmes statiques issus de lois de conservation de la matière et de l'énergie. Nous proposons d'analyser l'observabilité et la redondance de ces systèmes en utilisant les cycles du réseau. Nous développons ensuite un estimateur optimal, au sens du maximum de vraisemblance, de la variance des erreurs de mesures. Une unification des techniques de détection de défauts accidentels est présentée ainsi qu'un algorithme d'estimation de l'état des systèmes statiques linéaires en présence de défauts multiples. Le dernier chapitre de la thèse présente une extension de ces techniques à l'équilibrage de bilans dynamiques. L'estimation de la variance des bruits de mesures est étudiée. La transposition du problème de l'estimation de l'état des systèmes singuliers en problème d'équilibrage de bilans permet l'obtention d'un algorithme de filtrage généralisant le filtre de Kalman. L'analyse de la séquence d'innovation de ce filtre permet le traitement des défauts accidentels. Une application de cet algorithme est proposée dans le cadre des systèmes décrits par des lois de conservation dynamiques. Le filtrage robuste des mesures d'entrées-sorties est étudié pour terminer
APA, Harvard, Vancouver, ISO, and other styles
28

Boujemaa, Hatem. "Récepteur UMTS optimisé." Paris, ENST, 2001. http://www.theses.fr/2001ENST0023.

Full text
Abstract:
L'apparition de nouveaux services nécessitant de comminiquer à des débits de plus en plus élevés et avec une qualité meilleure est à I'origine de l'émergence de la troisième génération de radio-mobiles. En Europe. Ies caractéristiques de cette nouvelle génération sont entrain d'être spécifiées dans la norme UMTS ("Universal Mobile Télécommunication Standard"). Dans ce mémoire de thèse, nous avons traité divers thèmes clés de la norme UMTS. Nous avons commencé par développer les structures de deux implémentations du récepteur en râteau permettant de récupérer une grande partie de la diversité offerte par le canal multitrajets. Le premier récepteur est celui qu'on utilise d'habitude et consiste à combiner les sorties de corrélateurs synchronisés sur les trajets les plus significatifs. Afin de contourner le problème d'estimation des délais des trajets nous avons étudié également une implémentation à temps discret du récepteur en râteau. Cette approche est basée sur une estimation globale du produit de convolution des réponses impulsionnelles du canal de propagation et du filtre de mise en forme. Ensuite, nous avons traité les problèmes engendrés par l'interférence entre symboles qui apparaîssent pour des services à haut débit. Ce thème est d'une importance primordiale pour l'UMTS dont le pari est justement de pOUVOir assurer de tels services. Après cela, nous avons étudié puis optimisé la procédule de contrôle de puissance qui permet de lutter contre l'effet des épanouissements. Enfin. Nous avons recherché la meilleure stratégie d'allocation de l'énergie du canal RACH ("Random Access Channel") afin de réduire l'intertérence qu'il génère.
APA, Harvard, Vancouver, ISO, and other styles
29

Sim, Tepmony. "Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0020/document.

Full text
Abstract:
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM)<br>Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs)
APA, Harvard, Vancouver, ISO, and other styles
30

LEJEUNE, BERNARD. "Modèles à erreurs composées et hétérogénéité variable : modélisation, estimation par pseudo-maximum de vraisemblance au deuxième ordre et tests de spécification." Paris 12, 1998. http://www.theses.fr/1998PA122007.

Full text
Abstract:
Cette these est consacree a l'etude de quelques problemes econometriques associes a la modelisation de l'heterogeneite des comportements individuels lorsque l'on travaille avec des donnees micro-economiques en panel. Elle poursuit un double objectif : d'une part, proposer et discuter une extension du modele a erreurs composees standard permettant de prendre en compte et de rendre compte de phenomenes d'heterogeneite individuelle variables, et d'autre part, fournir pour l'estimation et la mise a l'epreuve de la specification du modele propose un ensemble coherent de procedures d'estimation et de tests prenant explicitement en compte une possible mauvaise specification de la forme d'heterogeneite modelisee. La these est composee de quatre chapitres. Dans un cadre qui depasse largement - mais inclut comme cas particulier - les modeles a erreurs composees, le premier chapitre etablit les conditions sous lesquelles les estimateurs de type pseudo-maximum de vraisemblance au deuxieme ordre d'un modele semi-parametrique a l'ordre 2 sont robustes a une mauvaise specification de la variance conditionnelle, et etudie leurs proprietes asymptotiques. Dans le meme cadre general que le chapitre 1, le second chapitre decrit comment, a partir d'un tel estimateur, tirer parti de l'approche 'm-test' pour tester de maniere extensive, avec ou sans hypothese alternative clairement definie, la specification des modeles semi- parametriques a l'ordre 2. Le troisieme chapitre expose et discute l'extension proposee du modele a erreurs composees standard et montre, en s'appuyant sur les resultats theoriques generaux des deux premiers chapitres, comment estimer et tester de facon robuste ce modele. Finalement, le quatrieme chapitre illustre l'interet pratique des resultats degages. Cette illustration, qui consiste en l'estimation et le test de la specification de fonctions de production, est basee sur un panel incomplet de 824 entreprises francaises observees sur la periode 1979-1988 (5201 observations)<br>This thesis considers some econometric issues associated with the modelisation of the heterogeneity of individual behaviors when working with microeconomic panel data. Its purpose is twofold. First, to propose and discuss an extension of the standard error components model which allows to take into account and account for phenomenons of variable heterogeneity. Second, to provide, for its estimation and specification testing, a set of integrated inferential procedures taking explicitly into account a possible misspecification of the assumed form of heterogeneity. The thesis is composed of four chapters. In a very general framework which includes error components models as a special case, chapter 1 establishes the conditions under which second order pseudo-maximum likelihood estimators of a second order semi-parametric model are robust to conditional variance misspecification, and investigates their asymptotic properties. Remaining in the same general framework than chapter 1, chapter 2 describes how, from such a robust estimator, to take advantage of the 'm-testing' approach to extensively test, with or without explicit alternative, the specification of second order semi-parametric models. Chapter 3 exposes and discusses the proposed extension of the standard error components model and, using the general results obtained in the first two chapters, shows how to estimate and test this model in a robust way. Finally, chapter 4 illustrates the practical usefulness of the provided results. This illustration consists in production functions estimation and specification testing, and is based on an incomplete panel dataset of 824 french firms observed over the period 1979-1988 (5201 observations)
APA, Harvard, Vancouver, ISO, and other styles
31

Salloum, Zahraa. "Maximum de vraisemblance empirique pour la détection de changements dans un modèle avec un nombre faible ou très grand de variables." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1008/document.

Full text
Abstract:
Cette thèse est consacrée à tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire ainsi que dans un modèle de régression linéaire en très grande dimension. Tout d'abord, nous proposons une méthode basée sur la vraisemblance empirique pour tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire. Sous l'hypothèse nulle, nous prouvons la consistance et la vitesse de convergence des estimateurs des paramètres de régression. La loi asymptotique de la statistique de test sous l'hypothèse nulle nous permet de trouver la valeur critique asymptotique. D'autre part, nous prouvons que la puissance asymptotique de la statistique de test proposée est égale à 1. Le modèle épidémique avec deux points de rupture est également étudié. Ensuite, on s'intéresse à construire les régions de confiance asymptotiques pour la différence entre les paramètres de deux phases d'un modèle non-linéaire avec des regresseurs aléatoires en utilisant la méthode de vraisemblance empirique. On montre que le rapport de la vraisemblance empirique a une distribution asymptotique χ2. La méthode de vraisemblance empirique est également utilisée pour construire les régions de confiance pour la différence entre les paramètres des deux phases d'un modèle non-linéaire avec des variables de réponse manquantes au hasard (Missing At Random (MAR)). Afin de construire les régions de confiance du paramètre en question, on propose trois statistiques de vraisemblance empirique : la vraisemblance empirique basée sur les données cas-complète, la vraisemblance empirique pondérée et la vraisemblance empirique par des valeurs imputées. On prouve que les trois rapports de vraisemblance empirique ont une distribution asymptotique χ2. Un autre but de cette thèse est de tester la présence d'un changement dans les coefficients d'un modèle linéaire en grande dimension, où le nombre des variables du modèle peut augmenter avec la taille de l'échantillon. Ce qui conduit à tester l'hypothèse nulle de non-changement contre l'hypothèse alternative d'un seul changement dans les coefficients de régression. Basée sur les comportements asymptotiques de la statistique de rapport de vraisemblance empirique, on propose une simple statistique de test qui sera utilisée facilement dans la pratique. La normalité asymptotique de la statistique de test proposée sous l'hypothèse nulle est prouvée. Sous l'hypothèse alternative, la statistique de test diverge<br>In this PHD thesis, we propose a nonparametric method based on the empirical likelihood for detecting the change in the parameters of nonlinear regression models and the change in the coefficient of linear regression models, when the number of model variables may increase as the sample size increases. Firstly, we test the null hypothesis of no-change against the alternative of one change in the regression parameters. Under null hypothesis, the consistency and the convergence rate of the regression parameter estimators are proved. The asymptotic distribution of the test statistic under the null hypothesis is obtained, which allows to find the asymptotic critical value. On the other hand, we prove that the proposed test statistic has the asymptotic power equal to 1. The epidemic model, a particular case of model with two change-points, under the alternative hypothesis, is also studied. Afterwards, we use the empirical likelihood method for constructing the confidence regions for the difference between the parameters of a two-phases nonlinear model with random design. We show that the empirical likelihood ratio has an asymptotic χ2 distribu- tion. Empirical likelihood method is also used to construct the confidence regions for the difference between the parameters of a two-phases nonlinear model with response variables missing at randoms (MAR). In order to construct the confidence regions of the parameter in question, we propose three empirical likelihood statistics : empirical likelihood based on complete-case data, weighted empirical likelihood and empirical likelihood with imputed va- lues. We prove that all three empirical likelihood ratios have asymptotically χ2 distributions. An another aim for this thesis is to test the change in the coefficient of linear regres- sion models for high-dimensional model. This amounts to testing the null hypothesis of no change against the alternative of one change in the regression coefficients. Based on the theoretical asymptotic behaviour of the empirical likelihood ratio statistic, we propose, for a deterministic design, a simpler test statistic, easier to use in practice. The asymptotic normality of the proposed test statistic under the null hypothesis is proved, a result which is different from the χ2 law for a model with a fixed variable number. Under alternative hypothesis, the test statistic diverges
APA, Harvard, Vancouver, ISO, and other styles
32

Venditti, Véronique. "Aspects du principe de maximum d'entropie en modélisation statistique." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10108.

Full text
Abstract:
Cette thèse présente certains aspects du principe de maximum d'entropie (PME) en tant que principe de modélisation statistique. Nous proposons une définition de ce principe basée sur une notion de l'entropie totalement justifiée en dehors de toute approche subjective, et dont le mécanisme soit facilement abordable et compréhensible. Cette présentation s'articule autour de l'utilisation de ce principe d'un point de vue théorique et d'une application à des données médicales. Il ne s'agit pas dans cette approche de la modélisation statistique de choisir directement la structure statistique que l'on pense la mieux correspondre au phénomène aléatoire étudié. En fait, l'information que l'on possède sur celui-ci est traduite au niveau de la loi des variables qui le représentent. Pour formaliser cette connaissance, on utilise l'association entre des fonctions de ces variables (observables) et les niveaux de leurs espérances (niveaux de contraintes). L'approche proposée du PME par le théorème de concentration, et les démonstrations des formes des lois qui en sont issues, fournissent une présentation homogène de ce principe. Nous précisons de plus les liens existant entre différentes lectures des modèles paramètres de structure exponentielle et leur relecture en tant que modèle de maximum d'entropie. Ainsi, en choisissant d'utiliser des niveaux de contraintes empiriques dans la recherche des équations permettant d'estimer les paramètres des lois obtenues par PME, nous montrons que le mode de calcul alors imposé se trouve être la méthode de maximum de vraisemblance. D'autre part, la présentation d'exemples de relecture de modèles de discrimination illustre bien l'intérêt didactique du PME (en particulier pour la procédure de régression logistique). Enfin, l'utilisation du PME pour la recherche d'un modèle paramètré, sur la base d'une loi empirique ne correspondant visiblement à aucune loi théorique usuelle, illustre le mécanisme d'application du PME.
APA, Harvard, Vancouver, ISO, and other styles
33

Beaumont, Catherine. "Application de la méthode du maximum de vraisemblance restreint, REML, à l'estimation des paramètres génétiques des trois premières lactations en race montbéliarde." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376116056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Beaumont, Catherine. "Application de la méthode du maximum de vraisemblance restreint (REMI) à l'estimation des paramètres génétiques des trois premières lactations en race Montbéliarde." Paris 11, 1988. http://www.theses.fr/1988PA112064.

Full text
Abstract:
Ce travail a pour but l’estimation des paramètres génétiques des 3 premières lactations des femelles Montbéliardes et porte sur les principales caractéristiques laitières (productions, ajustement pour la durée de lactation de lait et de matières utiles, grasses et protéiques, taux butyreux et protéique). Une étude bibliographique détaillée des méthodes de décomposition de la variance et de la covariance est présentée qui justifie le choix de l’estimateur du maximum de vraisemblance restreint (REMI). Deux fichiers sont étudiés. Ils rassemblent les performances de 30. 751 femelles issues de 128 taureaux de testage et de 52 taureaux de service. Ceux-ci sont introduits dans l’analyse pour améliorer les connexions entre troupeaux. Le modèle comporte l’effet aléatoire père de testage et les effets fixés père de service âge au premier vêlage et durée du tarissement de la lactation précédente. L’apparentement des reproducteurs mâles est considéré. L’algorithme «Short cut» de MEYER est testé mais mène à des estimations de corrélation génétique supérieures à 1. Un algorithme de type F-M est donc retenu pour l’analyse. Les corrélations génétiques des 6 caractères, toujours supérieures à 0. 89 sont légèrement plus faibles pour les lactations 1 et 3. Pour les caractères de production, l’héritabiblité varie de 0. 17 à 0. 27. Les corrélations phénotypiques voisines de 0. 7 et pratiquement indépendantes du couple de lactations considérés. Ces résultats indiquent que les différentes lactations peuvent être traitées comme des répétitions d’un même caractère. Ce modèle, dit de répétabilité permet d’alléger les calculs sans diminuer l’efficacité de la sélection<br>Genetic parameters of the first three lactations of Montbéliarde cows were estimated for the main dairy traits (milk, fat, protein and "useful" yields adjusted for lactation length, fat and protein contents). Literature about variance and covariance components estimators was rewieved emphasizing the optimal properties of the Restricted Maximum Likelihood (REML) estimator. Two data sets were analysed including records on 30. 751 cows born from 128 young sires and 52 proven sires Daughters performances from the most widely used proven sires were incorporated in order to improve the degree of connectedness between herds. The model fitted young sires as random and proven sires, herd-year, season-year of calving, age at first calving and length of the previous lactation as fixed effects. The relationships among young bulls were included. MEYER's "Short cut" algorithm was first considered. Since it gave estimates that laid outside the parameter space, a different: approach, an "E-M" type algorithm was used. All genetic correlations were larger than 0. 89. Correlations between the first and third lactations were slightly lower than the ethers. Heritabilities of milk, fat, protein and useful yields ranged from 0. 17 to 0. 27. Phenotypic correlations between successive lactations were higher than 0. 6 and those between lactations 1 and 3 lower than 0. 55. Heritabilities of fat and protein contents were higher than 0. 44 with phenotypic correlations being stable at about 0. 7. It was concluded that, in this breed, the "repeatability model" which considers all lactation records as a single trait could be considered in genetic evaluation procedures for dairy traits without significant lasses in efficiency
APA, Harvard, Vancouver, ISO, and other styles
35

Nasr, Imen. "Algorithmes et Bornes minimales pour la Synchronisation Temporelle à Haute Performance : Application à l’internet des objets corporels." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLY007/document.

Full text
Abstract:
La synchronisation temporelle est la première opération effectuée par le démodulateur. Elle permet d'assurer que les échantillons transmis aux processus de démodulation puissent réaliser un taux d'erreurs binaires le plus faible.Dans cette thèse, nous proposons l'étude d'algorithmes innovants de synchronisation temporelle à haute performance.D'abord, nous avons proposé des algorithmes exploitant l'information souple du décodeur en plus du signal reçu afin d'améliorer l'estimation aveugle d'un retard temporel supposé constant sur la durée d'observation.Ensuite, nous avons proposé un algorithme original basé sur la synchronisation par lissage à faible complexité.Cette étape a consisté à proposer une technique opérant dans un contexte hors ligne, permettant l'estimation d'un retard aléatoire variable dans le temps via les boucles d'aller-retour sur plusieurs itération. Les performances d'un tel estimateur dépassent celles des algorithmes traditionnels.Afin d'évaluer la pertinence de tous les estimateurs proposés, pour des retards déterministe et aléatoire, nous avons évalué et comparé leurs performances à des bornes de Cramèr-Rao que nous avons développées pour ce cadre. Enfin, nous avons évalué les algorithmes proposés sur des signaux WBAN<br>Time synchronization is the first function performed by the demodulator. It ensures that the samples transmitted to the demodulation processes allow to achieve the lowest bit error rate.In this thesis we propose the study of innovative algorithms for high performance time synchronization.First, we propose algorithms exploiting the soft information from the decoder in addition to the received signal to improve the blind estimation of the time delay. Next, we develop an original algorithm based on low complexity smoothing synchronization techniques. This step consisted in proposing a technique operating in an off-line context, making it possible to estimate a random delay that varies over time on several iterations via Forward- Backward loops. The performance of such estimators exceeds that of traditional algorithms. In order to evaluate the relevance of all the proposed estimators, for deterministic and random delays, we evaluated and compared their performance to Cramer-Rao bounds that we developed within these frameworks. We, finally, evaluated the proposed algorithms on WBAN signals
APA, Harvard, Vancouver, ISO, and other styles
36

Khélifi, Bruno. "Recherche de sources gamma par une méthode de maximum de vraisemblance : application aux AGN et aux sources galactiques suivis par le téléescope CAT." Caen, 2002. http://www.theses.fr/2002CAEN2051.

Full text
Abstract:
L'actuelle génération de détecteurs de rayons γ au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernova). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions. Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars 1ES 1959+65 et 1ES 1426+42. 8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshrift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des γ par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant asorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IRR et des observations simultanées multi-longueurs d'onde. Ayant observé des restes de supernova contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons recherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaison nous ont amené à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
APA, Harvard, Vancouver, ISO, and other styles
37

Grégoire, Marie-Claude. "Reconstruction d'images cardiaques dynamiques synchronisées à l'ECG par maximum de vraisemblance sur les signaux obtenus à faible taux de comptage avec une gamma-caméra." Compiègne, 1989. http://www.theses.fr/1989COMPD190.

Full text
Abstract:
Une méthode de traitement des études cardiaques dynamiques permettant la prise en compte simultanée de toutes les informations spatiales et temporelles, afin d'effectuer un lissage global, a été proposée. Elle repose sur l'utilisation de l'estimation bayésienne, introduisant une loi à priori du type loi de Gibbs. Une étude comparative sur simulations à faible taux de comptage entre cette méthode et diverses méthodes classiques a permis d'une part de révéler les avantages liés à l'utilisation de toute l'information temporelle disponible, d'autre part d'améliorer la qualité des résultats cliniques courants<br>To do a global smoothing, a processing technic of dynamic cardiac studies has been suggested, allowing the simultaneous integration of all the spatial and temporal informations. This technic uses a bayesian estimation, therefore introducing an a priori law of Gibbs. A comparative study was done on low-count simulations, using this method and other classical methods. It has shown the advantages of using all the available temporal informations, and has increased the quality of current clinical results
APA, Harvard, Vancouver, ISO, and other styles
38

Gilbert, Hélène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs. Application à l'espèce porcine." Phd thesis, INAPG (AgroParisTech), 2003. http://tel.archives-ouvertes.fr/tel-00005699.

Full text
Abstract:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage.<br />Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités.<br />Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants.<br />Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
APA, Harvard, Vancouver, ISO, and other styles
39

Bennani, Youssef. "Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données<br>This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
APA, Harvard, Vancouver, ISO, and other styles
40

Verdier, Timothée. "Self-assembly of enveloped virus : theoretical dynamics and methods for fluorescence measurements analysis." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10226/document.

Full text
Abstract:
Cette thèse porte sur la description de l'assemblage des virus dans le cadre de la physique statistique ainsi que sur les méthodes de mesure de cet assemblage utilisant les marqueurs fluorescents. Nous nous y attachons à décrire la dynamique de l'agrégation des protéines aux échelles de la population et du virus unique. Nous proposons deux méthodes pour mesurer les grandeurs physiques associées : taille et forme de la structure finale d'une part, taux d'agrégation au cours de la croissance d'autre part. Dans ce travail, nous nous sommes intéressés à la description physique de l'auto-assemblage des protéines virales. La physique de l'auto-assemblage in-vitro des virus sphériques, dont la structure est déterminée par l'agencement régulier de leurs constituants protéiques, a été théoriquement et expérimentalement caractérisée auparavant par des modèles d'agrégation. Les modèles existants décrivaient l'assemblage à quantité de composants viraux fixée dans un système ferme à partir des constituants élémentaires du virus. In-vivo, la situation est bien entendu différente. Abstraction faite de la grande complexité du milieu cellulaire, les virus s'échappent de la cellule une fois formés pour aller infecter de nouvelles cellules. De plus, la quantité de constituants est sans cesse modifiée par la fabrication ou la dégradation des protéines virales. Enfin les méthodes de mesures utilisées in-vitro ne sont généralement plus envisageables in-vivo. Nous avons donc étudié les effets d'un flux de matière dans système ouvert via le calcul de l'état stationnaire, et via la résolution numérique des équations d'évolution des populations d'agrégats qui décrivent la cinétique d'agrégation des protéines virales. Dans ce cadre, nous avons mis en valeur le lien entre la description de l'état général du système en termes de populations et le devenir individuel d'un virus en formation pour le suivi duquel des méthodes expérimentales existent. Nous nous sommes alors attachés à proposer un traitement approprié de telles données expérimentales pour déterminer les valeurs des paramètres physiques du modèle<br>In this thesis work, we study the self-assembly of viral particles and focus on the analysis of measurements based on fluorescence labeling of viral proteins. We propose a theoretical model of the dynamic of viral proteins self-assembly at the cell membrane based on previous models developed to describe the in-vitro assembly of spherical viruses. We study the evolution of the populations in the successive stages of viral budding as well as the evolution of single particle within this framework. We also provide various data analysis to measure the physical values involved in the process: rate of aggregation during the bud growth, size and shape of the eventual structure. Viruses are biological objects unable to replicate without infecting an host cell since they lack part of the molecular machinery mandatory for genetic code replication and proteins production. Originally aimed at controlling the diseases they cause, the study of viruses is now rich of applications in medical and technological field (gene therapy, phage therapy, targeted therapy, bio-templating, cargo specific encapsulation, etc.). The existent models describing the self-assembly of viral proteins have successfully captured many features observed in the in-vitro experiments. We study the expected evolution when an open system is considered with an input flux of proteins and an output flux of released virion, characteristic of the in-vivo situation. We derive the population distribution at steady state and numerically study their dynamic under constant viral protein input flux. We also study the case of a single bud evolution which can be followed by its fluorescence emission. We study the possibility to estimate shape parameters at the single viral particle level such as radius and completion for the human immunodeficiency virus (HIV) from single molecule localization superresolution microscopy. These techniques known as (f)PALM or (d)STORM, record labeled proteins position with a precision of few to tens of nanometers. We propose an approach base on the maximum likelihood statistical method which is tested on both real and simulated images of fully formed particles. Our results suggest that it can offer a precision on the determination of the global structure finner than the positioning precision of the single proteins. This efficiency is however tempered when the parameter of interest does not affect the figures of merit to which the method is sensitive such as the apparent area and the image contours
APA, Harvard, Vancouver, ISO, and other styles
41

Abdi, Moussa. "Détection multi-utilisateurs en mode CDMA." Paris, ENST, 2002. http://www.theses.fr/2002ENST0027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Zhang, Tianyu. "Problème inverse statistique multi-échelle pour l'identification des champs aléatoires de propriétés élastiques." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2068.

Full text
Abstract:
Dans le cadre de la théorie de l'élasticité linéaire, la modélisation et simulation numérique du comportement mécanique des matériaux hétérogènes à microstructure aléatoire complexe soulèvent de nombreux défis scientifiques à différentes échelles. Bien qu'à l'échelle macroscopique, ces matériaux soient souvent modélisés comme des milieux homogènes et déterministes, ils sont non seulement hétérogènes et aléatoires à l'échelle microscopique, mais ils ne peuvent généralement pas non plus être explicitement décrits par les propriétés morphologiques et mécaniques locales de leurs constituants. Par conséquent, une échelle mésoscopique est introduite entre l'échelle macroscopique et l'échelle mésoscopique, pour laquelle les propriétés mécaniques d'un tel milieu élastique linéaire aléatoire sont décrites par un modèle stochastique prior non-gaussien paramétré par un nombre faible ou modéré d'hyperparamètres inconnus. Afin d'identifier ces hyperparamètres, une méthodologie innovante a été récemment proposée en résolvant un problème statistique inverse multi-échelle en utilisant uniquement des données expérimentales partielles et limitées aux deux échelles macroscopique et mésoscopique. Celui-ci a été formulé comme un problème d'optimisation multi-objectif qui consiste à minimiser une fonction-coût multi-objectif (à valeurs vectorielles) définie par trois indicateurs numériques correspondant à des fonctions-coût mono-objectif (à valeurs scalaires) permettant de quantifier et minimiser des distances entre les données expérimentales multi-échelles mesurées simultanément aux deux échelles macroscopique et mésoscopique sur un seul échantillon soumis à un essai statique, et les solutions des modèles numériques déterministe et stochastique utilisés pour simuler la configuration expérimentale multi-échelle sous incertitudes. Ce travail de recherche vise à contribuer à l'amélioration de la méthodologie d'identification inverse statistique multi-échelle en terme de coût de calcul, de précision et de robustesse en introduisant (i) une fonction-coût mono-objectif (indicateur numérique) supplémentaire à l'échelle mésoscopique quantifiant la distance entre la(les) longueur(s) de corrélation spatiale des champs expérimentaux mesurés et celle(s) des champs numériques calculés, afin que chaque hyperparamètre du modèle stochastique prior ait sa propre fonction-coût mono-objectif dédiée, permettant ainsi d'éviter d'avoir recours à l'algorithme d'optimisation global (algorithme génétique) utilisé précédemment et de le remplacer par un algorithme plus performant en terme d'efficacité numérique, tel qu'un algorithme itératif de type point fixe, pour résoudre le problème d'optimisation multi-objectif avec un coût de calcul plus faible, et (ii) une représentation stochastique ad hoc des hyperparamètres impliqués dans le modèle stochastique prior du champ d'élasticité aléatoire à l'échelle mésoscopique en les modélisant comme des variables aléatoires, pour lesquelles les distributions de probabilité peuvent être construites en utilisant le principe du maximum d'entropie sous un ensemble de contraintes définies par les informations objectives et disponibles, et dont les hyperparamètres peuvent être déterminés à l'aide de la méthode d'estimation du maximum de vraisemblance avec les données disponibles, afin d'améliorer à la fois la robustesse et la précision de la méthode d'identification inverse du modèle stochastique prior. En parallèle, nous proposons également de résoudre le problème d'optimisation multi-objectif en utilisant l’apprentissage automatique par des réseaux de neurones artificiels. Finalement, la méthodologie améliorée est tout d'abord validée sur un matériau virtuel fictif dans le cadre de l'élasticité linéaire en 2D contraintes planes et 3D, puis illustrée sur un matériau biologique hétérogène réel (os cortical de bœuf) en élasticité linéaire 2D contraintes planes<br>Within the framework of linear elasticity theory, the numerical modeling and simulation of the mechanical behavior of heterogeneous materials with complex random microstructure give rise to many scientific challenges at different scales. Despite that at macroscale such materials are usually modeled as homogeneous and deterministic elastic media, they are not only heterogeneous and random at microscale, but they often also cannot be properly described by the local morphological and mechanical properties of their constituents. Consequently, a mesoscale is introduced between macroscale and microscale, for which the mechanical properties of such a random linear elastic medium are represented by a prior non-Gaussian stochastic model parameterized by a small or moderate number of unknown hyperparameters. In order to identify these hyperparameters, an innovative methodology has been recently proposed by solving a multiscale statistical inverse problem using only partial and limited experimental data at both macroscale and mesoscale. It has been formulated as a multi-objective optimization problem which consists in minimizing a (vector-valued) multi-objective cost function defined by three numerical indicators corresponding to (scalar-valued) single-objective cost functions for quantifying and minimizing distances between multiscale experimental data measured simultaneously at both macroscale and mesoscale on a single specimen subjected to a static test, and the numerical solutions of deterministic and stochastic computational models used for simulating the multiscale experimental test configuration under uncertainties. This research work aims at contributing to the improvement of the multiscale statistical inverse identification method in terms of computational efficiency, accuracy and robustness by introducing (i) an additional mesoscopic numerical indicator allowing the distance between the spatial correlation length(s) of the measured experimental fields and the one(s) of the computed numerical fields to be quantified at mesoscale, so that each hyperparameter of the prior stochastic model has its own dedicated single-objective cost-function, thus allowing the time-consuming global optimization algorithm (genetic algorithm) to be avoided and replaced with a more efficient algorithm, such as the fixed-point iterative algorithm, for solving the underlying multi-objective optimization problem with a lower computational cost, and (ii) an ad hoc stochastic representation of the hyperparameters involved in the prior stochastic model of the random elasticity field at mesoscale by modeling them as random variables, for which the probability distributions can be constructed by using the maximum entropy principle under a set of constraints defined by the available and objective information, and whose hyperparameters can be determined using the maximum likelihood estimation method with the available data, in order to enhance both the robustness and accuracy of the statistical inverse identification method of the prior stochastic model. Meanwhile, we propose as well to solve the multi-objective optimization problem by using machine learning based on artificial neural networks. Finally, the improved methodology is first validated on a fictitious virtual material within the framework of 2D plane stress and 3D linear elasticity theory, and then illustrated on a real heterogenous biological material (beef cortical bone) in 2D plane stress linear elasticity
APA, Harvard, Vancouver, ISO, and other styles
43

Komunjer, Ivana. "Trois essais d'économie financière." Jouy-en Josas, HEC, 2002. http://www.theses.fr/2002EHEC0081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Barembruch, Steffen. "Méthodes approchées de maximum de vraisemblances pour la classification et identification aveugles en communications numériques." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00574365.

Full text
Abstract:
La thèse considère la classification aveugle de modulations linéaires en communication numérique sur des canaux sélectifs en fréquence (et en temps). Nous utilisons l'approche de maximum de vraisemblance et nous développons plusieurs estimateurs de modèle
APA, Harvard, Vancouver, ISO, and other styles
45

Simard, L. "Etude du bruit de fond provenant du Bismuth 214 et analyse du signal de double désintégration bêta avec une méthode de maximum de vraisemblance dans l'expérience NEMO-3." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00435401.

Full text
Abstract:
Les résultats récents des expériences d'oscillations ont montré que le neutrino est une particule massive; jusqu'à présent la valeur absolue de sa masse reste inconnue, même si les expériences de cosmologie ou de mesure directe donnent des contraintes. D'autre part, comme le neutrino est le seul fermion qui n'est pas chargé électriquement, il peut être identique à son antiparticule, c'est-à-dire être une particule de Majorana. La recherche de la double désintégration bêta $\mathrm{\beta \beta 0 \nu}$ est actuellement la seule technique expérimentale susceptible de mettre en évidence le neutrino de Majorana. Le détecteur NEMO-3, qui recherche la double désintégration bêta du Molybdène 100 et du Sélénium 82, prend des données au Laboratoire Souterrain de Modane depuis février 2003. La première phase de prise de données a permis de mettre en évidence une contamination de la chambre à fils trop élevée en Bismuth 214. Afin d'éviter qu'une faible fraction du radon de l'air du laboratoire ne diffuse dans le détecteur, une tente a été installée autour de celui-ci et une installation de déradonisation de l'air permet d'appauvrir en radon l'air qui entre dans la tente. Le détecteur NEMO-3 peut mesurer pour chaque prise de données sa contamination interne en Bismuth 214; des modèles permettent de décrire comment le radon peut diffuser dans le détecteur, ou comment l'activité en radon de l' air du laboratoire peut varier lors d'une coupure de ventilation. Après installation de la tente et de l'installation de déradonisation de l'air, plusieurs hypothèses sont proposées pour expliquer la contamination résiduelle, sachant que compte-tenu de la longue demi-vie du Radon 222, l'analyse des désintégrations du Bismuth 214 ne permet pas de remonter avec certitude à l'origine du matériau où le radon émane. Enfin, les désintégrations du Bismuth 214 rendent possible un test global, sur lénsemble du détecteur et pour une prise de donnée assez longue, de l'étalonnage en énergie. La recherche de la double désintégration bêta est basée sur une méthode de maximum de vraisemblance, qui utilise l'ensemble des informations mesurées sur les événements à deux électrons par NEMO-3 : non seulement la somme des énergies des électrons, mais également leurs énergies individuelles et l'angle d'émission entre eux. Les distributions sont ajustées sur des simulations pour les signaux et les bruits de fonds; ensuite les contributions des bruits de fond autres que la $\mathrm{\beta \beta 2 \nu}$ sont fixées, grâce à des canaux dédiés de plus haute statistique. Après 2,6 ans de prises de données pour la période à teneur en radon réduite, aucun signal n'a été observé et les contraintes sur les demi-vies de $\mathrm{\beta \beta 0 \nu}$ sont : $$\mathrm{T_{1/2}^{\beta \beta 0 \nu,~} > 8,3~10^{23}~ann\acute{e}es (90\% CL)~^{100}Mo}$$ $$\mathrm{T_{1/2}^{\beta \beta 0 \nu,~} > 4,9~10^{23}~ann\acute{e}es (90\%CL)~^{82}Se}$$ L'utilisation de l'information sur les énergies individuelles et sur l'angle d'émission entre les électrons permet d'améliorer la sensibilité au processus de $\mathrm{\beta \beta 0 \nu}$ généré par les courants droits : $$\mathrm{T_{1/2}^{\beta \beta 0 \nu,~V+A} > 3,5 ~10^{23} ~years~ (90\% CL)~^{100}Mo}$$ $$\mathrm{T_{1/2}^{\beta \beta 0 \nu,~V+A} > 2,7~ 10^{23} ~years~ (90\% CL)~^{82}Se}$$
APA, Harvard, Vancouver, ISO, and other styles
46

Toussile, Wilson. "Sélection de variable : structure génétique d'une population et transmission de Plasmodium à travers le moustique." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00553674.

Full text
Abstract:
Dans cette thèse, nous considérons la question de sélection de variable dans deux deux problèmes pratiques. Le premier concerne une préoccupation très récurrente en génétique des populations qui consiste à regrouper les individus d'un échantillon d'organismes vivants dans des classes génétiquement homogènes sur la base d'informations procurées par un certain nombre de marqueurs génétiques. Nous supposons ne disposer d'aucune information à priori sur la population cible : il s'agit alors d'un problème de classification non supervisée. Par ailleurs, certaines variables peuvent ajouter du bruit à la classification. Nous proposons de résoudre simultanément le problème de sélection de variable et celui de sélection du nombre de composants du mélange dans une procédure de sélection de modèle. La sélection est ensuite faite via pénalisation du maximum de vraisemblance pénalisé. Sous des hypothèses faibles sur la fonction de pénalité, nous montrons que la procédure de sélection est consistance. Nous construisons ensuite une fonction de pénalité garantissant une inégalité oracle non-asymptotique. Bien que ce deuxième résultat ne soit pas directement utilisable, il suggère une pénalité de la forme du produit de la dimension des modèles en compétition et d'un paramètre données-dépendant que nous calibrons grâce à l'heuristique de la pente. Nous montrons sur des données simulées que cette calibration répond en partie au problème du choix du critère de sélection en fonction de la taille de l'échantillon. Le deuxième problème est motivé par le contrôle de la transmission de Plasmodium à travers son vecteur moustique. Nous disposons de données décrites par des variables diverses dont le nombre est de l'ordre de la taille de l'échantillon. Nous appliquons tout d'abord une procédure de sélection de variable qui repose sur l'importance des variables obtenues des forêts aléatoires. Les variables sélectionnées sont ensuite évaluées dans le modèle binomial négatif modifié en zéro.
APA, Harvard, Vancouver, ISO, and other styles
47

Brunel, Nicolas. "Sur quelques extensions des chaînes de Markov cachées et couples. Applications à la segmentation non-supervisée de signaux radar." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00011302.

Full text
Abstract:
Nous nous intéressons à l'extension des méthodes de segmentation bayésienne reposant sur le modèle de chaîne de Markov cachée, utilisé classiquement en traitement du signal. Nos travaux se sont développés selon trois axes : la remise en cause de la structure du modèle classique par l'utilisation des modèles de chaînes de Markov couple, et la recherche de familles de lois pertinentes pour les données multidimensionnelles afin de traiter les observations complexes obtenues par les radars modernes, notamment à l'aide des copules. Un troisième axe consiste en l'estimation de ces modèles. Nous proposons une méthode d'estimation des paramètres des modèles à données manquantes fondée sur les fonctions estimantes, ce qui permet de choisir des fonctions moins complexes que la vraisemblance. En exploitant la structure cachée, nous proposons un algorithme itératif généralisant EM. Nous donnons alors de nouveaux estimateurs pour les modèles décrits à l'aide de copules. Nous obtenons ainsi des algorithmes d'estimation remarquablement simples pour les modèles de Markov couples, et nous montrons leur bon comportement sur données simulées et sur données radar.
APA, Harvard, Vancouver, ISO, and other styles
48

Vaudor, Lise. "Estimation de la moyenne et de la variance de l'abondance de populations en écologie à partir d'échantillons de petite taille." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00842873.

Full text
Abstract:
En écologie comme dans bien d'autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d'inférence sont souvent mal adaptées à ces distributions, à moins de disposer d'échantillons de très grande taille. Il est donc nécessaire de s'interroger sur la validité des méthodes d'inférence, et de quantifier les erreurs d'estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d'abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d'une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l'estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d'estimation de la dispersion. L'erreur d'estimation est d'autant plus importante que le nombre d'individus observés est faible, et l'on peut, pour une population donnée, quantifier le gain en précision résultant de l'exclusion d'échantillons comprenant très peu d'individus. Nous avons ensuite comparé plusieurs méthodes de calcul d'intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d'estimation étaient prévisibles, à travers l'observation de statistiques simples des échantillons comme le nombre total d'individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d'échantillonnage à taille fixe, à une méthode séquentielle, où l'on échantillonne jusqu'à observer un nombre minimum d'individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l'échantillonnage séquentiel améliore l'estimation du paramètre de dispersion mais induit un biais dans l'estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d'estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d'estimations, et aboutit à des recommandations pratiques en termes de méthodes d'échantillonnage et d'estimation.
APA, Harvard, Vancouver, ISO, and other styles
49

Vaudor, Lise. "Estimation de la moyenne et de la variance de l’abondance de populations en écologie à partir d’échantillons de petite taille." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10013/document.

Full text
Abstract:
En écologie comme dans bien d’autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d’inférence sont souvent mal adaptées à ces distributions, à moins de disposer d’échantillons de très grande taille. Il est donc nécessaire de s’interroger sur la validité des méthodes d’inférence, et de quantifier les erreurs d’estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d’abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d’une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l’estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d’estimation de la dispersion. L’erreur d’estimation est d’autant plus importante que le nombre d’individus observés est faible, et l’on peut, pour une population donnée, quantifier le gain en précision résultant de l’exclusion d’échantillons comprenant très peu d’individus. Nous avons ensuite comparé plusieurs méthodes de calcul d’intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d’estimation étaient prévisibles, à travers l’observation de statistiques simples des échantillons comme le nombre total d’individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d’échantillonnage à taille fixe, à une méthode séquentielle, où l’on échantillonne jusqu’à observer un nombre minimum d’individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l’échantillonnage séquentiel améliore l’estimation du paramètre de dispersion mais induit un biais dans l’estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d’estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d’estimations, et aboutit à des recommandations pratiques en termes de méthodes d’échantillonnage et d’estimation<br>In ecology as well as in other scientific areas, count samples often comprise many zeros, and few high abundances. Their distribution is particularly overdispersed, and skewed. The most classical methods of inference are often ill-adapted to these distributions, unless sample size is really large. It is thus necessary to question the validity of inference methods, and to quantify estimation errors for such data. This work has been motivated by a fish abundance dataset, corresponding to punctual sampling by electrofishing. This dataset comprises more than 2000 samples : each sample corresponds to punctual abundances (considered to be independent and identically distributed) for one species and one fishing campaign. These samples are small-sized (generally, 20 _ n _ 50) and comprise many zeros (overall, 80% of counts are zeros). The fits of various classical distribution models were compared on these samples, and the negative binomial distribution was selected. Consequently, we dealt with the estimation of the parameters of this distribution : the parameter of mean m and parameter of dispersion q. First, we studied estimation problems for the dispersion. The estimation error is higher when few individuals are observed, and the gain in precision for a population, resulting from the exclusion of samples comprising very few individuals, can be quantified. We then compared several methods of interval estimation for the mean. Confidence intervals based on negative binomial likelihood are, by far, preferable to more classical ones such as Student’s method. Besides, both studies showed that some estimation problems are predictable through simple statistics such as total number of individuals or number of non-null counts. Accordingly, we compared the fixed sample size sampling method, to a sequential method, where sampling goes on until a minimum number of individuals or positive counts have been observed. We showed that sequential sampling improves the estimation of dispersion but causes the estimation of mean to be biased ; still, it improves the estimation of confidence intervals for the mean. Hence, this work quantifies errors in the estimation of mean and dispersion in the case of overdispersed count data, compares various estimation methods, and leads to practical recommendations as for sampling and estimation methods
APA, Harvard, Vancouver, ISO, and other styles
50

Prendki, Jennifer. "Etude de la désintégration B+ → Ksπ+π0 avec le détecteur BABAR à SLAC". Paris 6, 2009. http://www.theses.fr/2009PA066539.

Full text
Abstract:
Les désintégrations B± → KSπ+π0 ont été extraites des données enregistrées par le détecteur BABAR auprès de l’accélérateur PEP2 du SLAC et mesurées en mettant en œuvre une analyse en amplitude (analyse de Dalitz). La désintégration recherchée fait partie d’une classe de processus susceptibles de mettre en évidence une physique au-delà du modèle standard et du formalisme de Cabibbo, Kobayashi et Maskawa. L’originalité de ce travail réside dans la mise au point d’un algorithme d’ajustement des événements utilisant la méthode du maximum de vraisemblance étendue applicable sur un lot non discrétisé. Des outils statistiques et de mathématique appliquée originaux ont été développés pour gérer le faible rapport signal sur bruit d’un canal avec un π0 dans l’état final et auquel une désintégration charmée contribue sans aucun facteur d’interdiction. Faute de statistique, la méthode n’atteint pas la sensibilité requise pour tester le modèle standard en mesurant les phases fondamentales. Elle permet par contre de préciser les rapports d’embranchement et les asymétries de CP directes des canaux qui contribuent à la désintégration étudiée.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography