To see the other types of publications on this topic, follow the link: Méthodes Bayésiennes.

Dissertations / Theses on the topic 'Méthodes Bayésiennes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes Bayésiennes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bazot, Cécile. "Méthodes bayésiennes pour l'analyse génétique." Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/10573/1/bazot.pdf.

Full text
Abstract:
Ces dernières années, la génomique a connu un intérêt scientifique grandissant, notamment depuis la publication complète des cartes du génome humain au début des années 2000. A présent, les équipes médicales sont confrontées à un nouvel enjeu : l'exploitation des signaux délivrés par les puces ADN. Ces signaux, souvent de grande taille, permettent de connaître à un instant donné quel est le niveau d'expression des gênes dans un tissu considéré, sous des conditions particulières (phénotype, traitement, ...), pour un individu. Le but de cette recherche est d'identifier des séquences temporelles caractéristiques d'une pathologie, afin de détecter, voire de prévenir, une maladie chez un groupe de patients observés. Les solutions développées dans cette thèse consistent en la décomposition de ces signaux en facteurs élémentaires (ou signatures génétiques) selon un modèle bayésien de mélange linéaire, permettant une estimation conjointe de ces facteurs et de leur proportion dans chaque échantillon. L’utilisation de méthodes de Monte Carlo par chaînes de Markov sera tout particulièrement appropriée aux modèles bayésiens hiérarchiques proposés puisqu'elle permettra de surmonter les difficultés liées à leur complexité calculatoire.
APA, Harvard, Vancouver, ISO, and other styles
2

Eches, Olivier. "Méthodes Bayésiennes pour le démélange d'images hyperspectrales." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0067/document.

Full text
Abstract:
L’imagerie hyperspectrale est très largement employée en télédétection pour diverses applications, dans le domaine civil comme dans le domaine militaire. Une image hyperspectrale est le résultat de l’acquisition d’une seule scène observée dans plusieurs longueurs d’ondes. Par conséquent, chacun des pixels constituant cette image est représenté par un vecteur de mesures (généralement des réflectances) appelé spectre. Une étape majeure dans l’analyse des données hyperspectrales consiste à identifier les composants macroscopiques (signatures) présents dans la région observée et leurs proportions correspondantes (abondances). Les dernières techniques développées pour ces analyses ne modélisent pas correctement ces images. En effet, habituellement ces techniques supposent l’existence de pixels purs dans l’image, c’est-à-dire des pixels constitué d’un seul matériau pur. Or, un pixel est rarement constitué d’éléments purs distincts l’un de l’autre. Ainsi, les estimations basées sur ces modèles peuvent tout à fait s’avérer bien loin de la réalité. Le but de cette étude est de proposer de nouveaux algorithmes d’estimation à l’aide d’un modèle plus adapté aux propriétés intrinsèques des images hyperspectrales. Les paramètres inconnus du modèle sont ainsi déduits dans un cadre Bayésien. L’utilisation de méthodes de Monte Carlo par Chaînes de Markov (MCMC) permet de surmonter les difficultés liées aux calculs complexes de ces méthodes d’estimation
Hyperspectral imagery has been widely used in remote sensing for various civilian and military applications. A hyperspectral image is acquired when a same scene is observed at different wavelengths. Consequently, each pixel of such image is represented as a vector of measurements (reflectances) called spectrum. One major step in the analysis of hyperspectral data consists of identifying the macroscopic components (signatures) that are present in the sensored scene and the corresponding proportions (concentrations). The latest techniques developed for this analysis do not properly model these images. Indeed, these techniques usually assume the existence of pure pixels in the image, i.e. pixels containing a single pure material. However, a pixel is rarely composed of pure spectrally elements, distinct from each other. Thus, such models could lead to weak estimation performance. The aim of this thesis is to propose new estimation algorithms with the help of a model that is better suited to the intrinsic properties of hyperspectral images. The unknown model parameters are then infered within a Bayesian framework. The use of Markov Chain Monte Carlo (MCMC) methods allows one to overcome the difficulties related to the computational complexity of these inference methods
APA, Harvard, Vancouver, ISO, and other styles
3

Launay, Tristan. "Méthodes bayésiennes pour la prévision de consommation l'électricité." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00766237.

Full text
Abstract:
Dans ce manuscrit, nous développons des outils de statistique bayésienne pour la prévision de consommation d'électricité en France. Nous prouvons tout d'abord la normalité asymptotique de la loi a posteriori (théorème de Bernstein-von Mises) pour le modèle linéaire par morceaux de part chauffage et la consistance de l'estimateur de Bayes. Nous décrivons ensuite la construction d'une loi a priori informative afin d'améliorer la qualité des prévisions d'un modèle de grande dimension en situation d'historique court. A partir de deux exemples impliquant les clients non télérelevés de EDF, nous montrons notamment que la méthode proposée permet de rendre l'évaluation du modèle plus robuste vis-à-vis du manque de données. Nous proposons enfin un nouveau modèle dynamique, non-linéaire, pour prévoir la consommation d'électricité en ligne. Nous construisons un algorithme de filtrage particulaire afin d'estimer ce modèle et comparons les prévisions obtenues aux prévisions opérationnelles utilisées au sein d'EDF.
APA, Harvard, Vancouver, ISO, and other styles
4

Grazian, Clara. "Contributions aux méthodes bayésiennes approchées pour modèles complexes." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED001.

Full text
Abstract:
Récemment, la grande complexité des applications modernes, par exemple dans la génétique, l’informatique, la finance, les sciences du climat, etc. a conduit à la proposition des nouveaux modèles qui peuvent décrire la réalité. Dans ces cas,méthodes MCMC classiques ne parviennent pas à rapprocher la distribution a posteriori, parce qu’ils sont trop lents pour étudier le space complet du paramètre. Nouveaux algorithmes ont été proposés pour gérer ces situations, où la fonction de vraisemblance est indisponible. Nous allons étudier nombreuses caractéristiques des modèles complexes: comment éliminer les paramètres de nuisance de l’analyse et faire inférence sur les quantités d’intérêt,dans un cadre bayésienne et non bayésienne et comment construire une distribution a priori de référence
Recently, the great complexity of modern applications, for instance in genetics,computer science, finance, climatic science etc., has led to the proposal of newmodels which may realistically describe the reality. In these cases, classical MCMCmethods fail to approximate the posterior distribution, because they are too slow toinvestigate the full parameter space. New algorithms have been proposed to handlethese situations, where the likelihood function is unavailable. We will investigatemany features of complex models: how to eliminate the nuisance parameters fromthe analysis and make inference on key quantities of interest, both in a Bayesianand not Bayesian setting, and how to build a reference prior
APA, Harvard, Vancouver, ISO, and other styles
5

Launay, Tristan. "Méthodes Bayésiennes pour la prévision de consommation d’électricité." Nantes, 2012. http://www.theses.fr/2012NANT2074.

Full text
Abstract:
Dans ce manuscrit, nous développons des outils de statistique bayésienne pour la prévision de consommation d’électricité en France. Nous prouvons tout d’abord la normalité asymptotique de la loi a posteriori (théorème de Bernstein-von Mises) pour le modèle linéaire par morceaux de part chauffage et la consistance de l’estimateur de Bayes. Nous décrivons ensuite la construction d’une loi a priori informative afin d’améliorer la qualité des prévisions d’un modèle de grande dimension en situation d’historique court. A partir de deux exemples impliquant les clients non télérelevés de EDF, nous montrons notamment que la méthode proposée permet de rendre l’évaluation du modèle plus robuste vis-à-vis du manque de données. Nous proposons enfin un nouveau modèle dynamique, non-linéaire, pour prévoir la consommation d’électricité en ligne. Nous construisons un algorithme de filtrage particulaire afin d’estimer ce modèle et comparons les prévisions obtenues aux prévisions opérationnelles utilisées au sein d’EDF
In this manuscript, we develop Bayesian statistics tools to forecast the French electricity load. We first prove the asymptotic normality of the posterior distribution (Bernstein-von Mises theorem) for the piecewise linear regression model used to describe the heating effect and the consistency of the Bayes estimator. We then build a a hierarchical informative prior to help improve the quality of the predictions for a high dimension model with a short dataset. We typically show, with two examples involving the non metered EDF customers, that the method we propose allows a more robust estimation of the model with regard to the lack of data. Finally, we study a new nonlinear dynamic model to predict the electricity load online. We develop a particle filter algorithm to estimate the model et compare the predictions obtained with operationnal predictions from EDF
APA, Harvard, Vancouver, ISO, and other styles
6

Usureau, Emmanuel. "Application des méthodes bayésiennes pour l'optimisation des coûts de développement des produits nouveaux." Angers, 2001. http://www.theses.fr/2001ANGE0017.

Full text
Abstract:
A partir des besoins particuliers d'un cas industriel concret : l'étude de la fiabilité et de la sécurité des munitions en cours de développement à MANURHIN DEFENSE, filiale du groupe GIAT INDUSTRIES, cette thèse présente comment il est possible d'utiliser les méthodes statistiques bayésiennes pour réduire le nombre d'essais sur les nouveaux produits et, par la même occasion, pour réduire les coûts de développement. Après un résumé complet de ces méthodes, et plus particulièrement dans le cas des probabilités de défaillance à la sollicitation, cette étude est également l'occasion de proposer une nouvelle méthodologie pour modéliser la connaissance a priori à partir des études de sûreté de fonctionnement. En effet, dans le cas de l'analyse des nouveaux produits, c'est dans ces études que la connaissance disponible est modélisée. Cette méthodologie permet notamment de modéliser la distribution a priori Bêta, conjuguée de la loi binomiale, à partir des A. M. D. E. C. Et des arbres de défaillances. A titre de conclusion, des exemples et quelques voies de généralisation sont exposées. Dans un second temps, une dernière partie présente comment vérifier que la modélisation a priori est compatible de la vraisemblance. Ce point, qui constitue l'un des éléments les plus sensibles des statistiques bayésiennes, trouve dans cette étude, non seulement une réponse, mais il offre également une possibilité pour pondérer la distribution a priori avant de l'intégrer à la distribution de vraisemblance et en fonction de leur degré de similitude. Cet outil permet ainsi de s'affranchir des interprétations difficiles, voire erronées, dans le cas où la distribution a priori est male modélisée et incompatible des données observées. Pour conclure, il faut rappeler que ces méthodes ont été utilisées avec succès à MANURHIN DEFENSE et elles ont permis de démontrer la fiabilité et la sécurité de nouvelles munitions sans réaliser d'essais supplémentaires. En outre, les deux principales voies de recherche de cette thèse ouvrent des voies nouvelles dans l'application des méthodes bayésiennes qui pourront aisément être optimisées et généralisées à l'ensemble des cas d'application usuels.
APA, Harvard, Vancouver, ISO, and other styles
7

Salomond, Jean-Bernard. "Propriétés fréquentistes des méthodes Bayésiennes semi-paramétriques et non paramétriques." Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090034/document.

Full text
Abstract:
La recherche sur les méthodes bayésiennes non-paramétriques connaît un essor considérable depuis les vingt dernières années notamment depuis le développement d'algorithmes de simulation permettant leur mise en pratique. Il est donc nécessaire de comprendre, d'un point de vue théorique, le comportement de ces méthodes. Cette thèse présente différentes contributions à l'analyse des propriétés fréquentistes des méthodes bayésiennes non-paramétriques. Si se placer dans un cadre asymptotique peut paraître restrictif de prime abord, cela permet néanmoins d'appréhender le fonctionnement des procédures bayésiennes dans des modèles extrêmement complexes. Cela permet notamment de détecter les aspects de l'a priori particulièrement influents sur l’inférence. De nombreux résultats généraux ont été obtenus dans ce cadre, cependant au fur et à mesure que les modèles deviennent de plus en plus complexes, de plus en plus réalistes, ces derniers s'écartent des hypothèses classiques et ne sont plus couverts par la théorie existante. Outre l'intérêt intrinsèque de l'étude d'un modèle spécifique ne satisfaisant pas les hypothèses classiques, cela permet aussi de mieux comprendre les mécanismes qui gouvernent le fonctionnement des méthodes bayésiennes non-paramétriques
Research on Bayesian nonparametric methods has received a growing interest for the past twenty years, especially since the development of powerful simulation algorithms which makes the implementation of complex Bayesian methods possible. From that point it is necessary to understand from a theoretical point of view the behaviour of Bayesian nonparametric methods. This thesis presents various contributions to the study of frequentist properties of Bayesian nonparametric procedures. Although studying these methods from an asymptotic angle may seems restrictive, it allows to grasp the operation of the Bayesian machinery in extremely complex models. Furthermore, this approach is particularly useful to detect the characteristics of the prior that are strongly influential in the inference. Many general results have been proposed in the literature in this setting, however the more complex and realistic the models the further they get from the usual assumptions. Thus many models that are of great interest in practice are not covered by the general theory. If the study of a model that does not fall under the general theory has an interest on its owns, it also allows for a better understanding of the behaviour of Bayesian nonparametric methods in a general setting
APA, Harvard, Vancouver, ISO, and other styles
8

Mariani, Vincenzo. "Méthodes bayésiennes et d'apprentissage supervisé pour la construction d'orbites planétaires." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5059.

Full text
Abstract:
Dans cette thèse, nous avons exploré les méthodes bayésiennes et d'apprentissage supervisé appliquées à l'orbitographie planétaire. Tout d'abord, nous présentons le problème général de la construction d'orbites planétaires et les outils mathématiques utilisés. Nous décrivons l'algorithme de Metropolis-Hastings (MH) et la régression par processus gaussien (GPR) afin d'obtenir la distribution a posteriori d'un paramètre de la dynamique planétaire, produisant une méthode de Monte-Carlo par chaînes de Markov (MCMC). En outre, nous introduisons la technique des arbres de décision par boosting (BDT), utile pour obtenir un classement d'un ensemble de paramètres impliqués dans l'ajustement des orbites planétaire. Nous présentons les résultats de l'utilisation combinée du MCMC et du GPR. Nous avons utilisé le GPR pour obtenir une approximation du chi^2 à utiliser dans l'algorithme MH. Nous montrons une amélioration de la limite de détection de la masse du graviton m_g en utilisant la dynamique du système solaire, à partir d'une distribution de probabilité a posteriori pour m_g. À partir de la distribution a posteriori obtenue, nous pouvons fournir une limite supérieure de m_g < 1.01 × 10^{-24} eVc^{-2} à 99.7% C.L., améliorant d'un ordre de grandeur la limite précédente. En outre, nous avons montré, avec un changement de distribution a priori (d'uniforme à demi-Laplace), qu'aucune information significative ne peut être détectée pour des masses inférieures à cette limite, en utilisant l'ensemble de données d'observation actuel. Avec la même méthodologie, nous fournissons également les dernières contraintes de la théorie de la gravité de Brans-Dicke utilisant l'orbitographie planétaire. Dans ce contexte, nous trouvons que |1 - gamma| < 1.92 × 10^{-5} à la L.C. de 66.7%, alors que les meilleures contraintes précédentes provenant des données de navigation de la sonde Cassini sur gamma conduisaient à |1-gamma| < 4.4 × 10^{-5} à 66.7% C.L. De plus, nous rapportons des preuves marginales suggérant que l'effet de la violation sur le principe d'équivalence forte, si existante, pourrait être détectable avec la précision actuelle de l'orbitographie planétaire. Deux publications dans des revues à comité de lecture ont été extraites de ce travail : Mariani et al. (2023) et Mariani et al. (2024). Nous avons également utilisé le BDT pour fournir un classement par importance relative des 343 masses d'astéroïdes de la ceinture principale actuellement utilisées dans l'ajustement des éphémérides planétaires. Nous avons montré comment utiliser un arbre de décision et étudié une possibilité de construction d'un jeu d'entraînement. Ces résultats préliminaires sont prometteurs car ils montrent une cohérence entre eux ainsi qu'avec les travaux antérieurs. La validité du classement a été confirmée en vérifiant son impact sur la construction d'orbites planétaires en utilisant l'ensemble des observations disponibles, en retirant les astéroïdes les moins importants de la modélisation de la ceinture principale de manière cumulative, et en ajustant les paramètres restants. Les résultats présentés valident l'approche utilisée. Enfin, nous proposons de nouvelles approches pour poursuivre les recherches entamées dans le cadre du présent travail, en généralisant et en étendant les techniques déjà présentées
In this thesis we explored Bayesian and supervised learning methods applied to planetary orbitography. Firstly, we introduce the general problem of planetary orbit construction and the mathematical toolkit used. We describe the Metropolis-Hastings (MH) algorithm and Gaussian process regression (GPR) in order to obtain the posterior distribution of a parameter involved in planetary dynamics, producing a Markov chain Monte Carlo (MCMC). Additionally, the boosting decision trees (BDT) technique has been explained, and it is used to obtain a ranking of a given set of parameters involved in the planetary orbitography fit. We present the results on the use of MCMC and GPR combined. We used the GPR to obtain an approximation of the chi^2 to be used in the MH algorithm. We show an improvement for the detection limit of the mass of the graviton m_g using solar system dynamics, starting from a posterior probability distribution for m_g. From the posterior obtained, we can provide an upper bound of m_g < 1.01 × 10^{-24} eVc^{-2} at 99.7% C.L., improving of one order of magnitude such a limit. Additionally, we have shown, with a change of prior (from uniform to half-Laplace), that no significant information can be detected for masses smaller than this limit, by using the current observational datasets. These results have been published in Mariani et al. (2023). In using the same methodology, we also provide the latest constraint from planetary orbitography on the Brans-Dicke theory of gravity. In this context, we find that |1 - gamma| < 1.92 × 10^{-5} at the 66.7% C.L., while the previous best constraints from ranging data of the Cassini spacecraft on gamma led to |1-gamma| < 4.4 × 10^{-5} at 66.7% C.L. Moreover, we report marginal evidence suggesting that the effect of the violation on the strong equivalence principle might be detected, if any, with the current accuracy of planetary orbitography. These results have been published in Mariani et al. (2024). We also used the BDT to provide a ranking by relative importance of the 343 MBA masses currently used in the planetary ephemerides fit. We showed how to use a decision tree and investigated one possibility of construction of a training set. These preliminary results are promising since they show consistency among them as well as with previous works. The validity of the ranking has been confirmed by checking its impact on planetary orbit construction using the full set of observations available, in removing the least important asteroids from the MAB modeling cumulatively, and fitting the remaining parameters. The results presented validate the approach used. Finally, we propose new approaches to continue the investigations started within the current work, generalising and extending the techniques already presented
APA, Harvard, Vancouver, ISO, and other styles
9

Ruggiero, Michèle. "Analyse semi-paramétrique des modèles de durées : l'apport des méthodes bayésiennes." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX24008.

Full text
Abstract:
Nous proposons une analyse semi-paramétrique des modèles de durée. Dans ces modèles de régression particuliers, la variable expliquée est le temps qu'un individu passe dans un état donné - par exemple le temps passé au chômage - et les variables explicatives sont les caractéristiques personnelles de cet individu. L'analyse semi-paramétrique de ces modèles consiste à paramétrer la relation entre la durée et les variables qui la déterminent (la durée est supposée être une fonction des variables explicatives, entièrement spécifiée et dépendant de paramètres inconnus) tout en laissant indéterminée la distribution des durées. Les paramètres intervenant dans la relation entre les variables ont alors le statut de paramètres d'intérêt, et la distribution des durées est considérée comme un paramètre nuisible. La thèse commence par une revue des méthodes employées par la statistique classique; il apparait que ces méthodes ne permettent pas d'éliminer le paramètre nuisible qu'est la distribution des durées. Nous proposons alors une approche baye- sienne, dont le principe est de munir le paramètre de nuisance - la distribution des durées - d'une distribution a priori. Nous obtenons ainsi des estimateurs semi- paramétriques pour les paramètres d'intérêt du modèle, en calculant leur distribution a posteriori, conditionnelle aux observations et marginalisée par rapport au paramètre nuisible. La thèse se termine par une simulation, où sont vérifiées les qualités de robustesse des estimateurs que nous proposons
We propose a semiparametric analysis of duration models. In this special class of regression models, the dependant variable is the time spent by a person in a particular state - the duration of an unemployment spell for instance - and the explanatory variables are the personal characteristics of this person. The semiparametric analysis of these models consists in specifying the relation between the duration and the explanatory variables (duration is supposed to be a specified function of the explanatory variables, depending on a finite number of unknown parameters) without specifying the data distribution. The parameters involved in this relation are then considered as parameters of interest, and the data distribution is a nuisance parameter. The thesis begins with a survey of nonbayesian semiparametric methods of estimation; it seems that these methods fail in discarding the nuisance data distribution. We then suggest a bayesian method, the principle of which is to give a prior distribution on the nuisance parameter - the data distribution. We then get semiparametric estimators for the parameters of interest, by computing their posterior distribution, conditional on the data and integrated with respect to the nuisance parameter. The thesis ends with a simulation, to check the robustness of the estimators we propose
APA, Harvard, Vancouver, ISO, and other styles
10

Puengnim, Anchalee. "Classification de modulations linéaires et non-linéaires à l'aide de méthodes bayésiennes." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000676/.

Full text
Abstract:
La reconnaissance de modulations numériques consiste à identifier, au niveau du récepteur d'une chaîne de transmission, l'alphabet auquel appartiennent les symboles du message transmis. Cette reconnaissance est nécessaire dans de nombreux scénarios de communication, afin, par exemple, de sécuriser les transmissions pour détecter d'éventuels utilisateurs non autorisés ou bien encore de déterminer quel terminal brouille les autres. Le signal observé en réception est généralement affecté d'un certain nombre d'imperfections, dues à une synchronisation imparfaite de l'émetteur et du récepteur, une démodulation imparfaite, une égalisation imparfaite du canal de transmission. Nous proposons plusieurs méthodes de classification qui permettent d'annuler les effets liés aux imperfections de la chaîne de transmission. Les symboles reçus sont alors corrigés puis comparés à ceux du dictionnaire des symboles transmis
This thesis studies classification of digital linear and nonlinear modulations using Bayesian methods. Modulation recognition consists of identifying, at the receiver, the type of modulation signals used by the transmitter. It is important in many communication scenarios, for example, to secure transmissions by detecting unauthorized users, or to determine which transmitter interferes the others. The received signal is generally affected by a number of impairments. We propose several classification methods that can mitigate the effects related to imperfections in transmission channels. More specifically, we study three techniques to estimate the posterior probabilities of the received signals conditionally to each modulation
APA, Harvard, Vancouver, ISO, and other styles
11

Sedki, Mohammed. "Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00769095.

Full text
Abstract:
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
APA, Harvard, Vancouver, ISO, and other styles
12

Sedki, Mohammed Amechtoh. "Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20041/document.

Full text
Abstract:
Dans cette thèse, on propose des techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. La vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comportes des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. [2012] nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus parcette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et onsupposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise uneapproximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de DelMoral et al. [2012] que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveauxd'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simulations par rapport à laméthode ABC avec acceptation couramment utilisée
This thesis consists of two parts which can be read independently.The first part is about the Adaptive Multiple Importance Sampling (AMIS) algorithm presented in Cornuet et al.(2012) provides a significant improvement in stability and Effective Sample Size due to the introduction of the recycling procedure. These numerical properties are particularly adapted to the Bayesian paradigm in population genetics where the modelization involves a large number of parameters. However, the consistency of the AMIS estimator remains largely open. In this work, we provide a novel Adaptive Multiple Importance Sampling scheme corresponding to a slight modification of Cornuet et al. (2012) proposition that preserves the above-mentioned improvements. Finally, using limit theorems on triangular arrays of conditionally independant random variables, we give a consistensy result for the final particle system returned by our new scheme.The second part of this thesis lies in ABC paradigm. Approximate Bayesian Computation has been successfully used in population genetics models to bypass the calculation of the likelihood. These algorithms provide an accurate estimator by comparing the observed dataset to a sample of datasets simulated from the model. Although parallelization is easily achieved, computation times for assuring a suitable approximation quality of the posterior distribution are still long. To alleviate this issue, we propose a sequential algorithm adapted fromDel Moral et al. (2012) which runs twice as fast as traditional ABC algorithms. Itsparameters are calibrated to minimize the number of simulations from the model
APA, Harvard, Vancouver, ISO, and other styles
13

Jay, Flora. "Méthodes bayésiennes en génétique des populations : relations entre structure génétique des populations et environnement." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENS026/document.

Full text
Abstract:
Nous présentons une nouvelle méthode pour étudier les relations entre la structure génétique des populations et l'environnement. Cette méthode repose sur des modèles hiérarchiques bayésiens qui utilisent conjointement des données génétiques multi-locus et des données spatiales, environnementales et/ou culturelles. Elle permet d'estimer la structure génétique des populations, d'évaluer ses liens avec des covariables non génétiques, et de projeter la structure génétique des populations en fonction de ces covariables. Dans un premier temps, nous avons appliqué notre approche à des données de génétique humaine pour évaluer le rôle de la géographie et des langages dans la structure génétique des populations amérindiennes. Dans un deuxième temps, nous avons étudié la structure génétique des populations pour 20 espèces de plantes alpines et nous avons projeté les modifications intra spécifiques qui pourront être causées par le réchauffement climatique
We introduce a new method to study the relationships between population genetic structure and environment. This method is based on Bayesian hierarchical models which use both multi-loci genetic data, and spatial, environmental, and/or cultural data. Our method provides the inference of population genetic structure, the evaluation of the relationships between the structure and non-genetic covariates, and the prediction of population genetic structure based on these covariates. We present two applications of our Bayesian method. First, we used human genetic data to evaluate the role of geography and languages in shaping Native American population structure. Second, we studied the population genetic structure of 20 Alpine plant species and we forecasted intra-specific changes in response to global warming. STAR
APA, Harvard, Vancouver, ISO, and other styles
14

Jay, Flora. "Méthodes bayésiennes pour la génétique des populations : relations entre structure génétique des populations et environnement." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00648601.

Full text
Abstract:
Nous présentons une nouvelle méthode pour étudier les relations entre la structure génétique des populations et l'environnement. Cette méthode repose sur des modèles hiérarchiques bayésiens qui utilisent conjointement des données génétiques multi-locus et des données spatiales, environnementales et/ou culturelles. Elle permet d'estimer la structure génétique des populations, d'évaluer ses liens avec des covariables non génétiques, et de projeter la structure génétique des populations en fonction de ces covariables. Dans un premier temps, nous avons appliqué notre approche à des données de génétique humaine pour évaluer le rôle de la géographie et des langages dans la structure génétique des populations amérindiennes. Dans un deuxième temps, nous avons étudié la structure génétique des populations pour 20 espèces de plantes alpines et nous avons projeté les modifications intra spécifiques qui pourront être causées par le réchauffement climatique.
APA, Harvard, Vancouver, ISO, and other styles
15

Petit-Graffard, Claude. "Les Méthodes bayésiennes dans les essais cliniques multicritères à visée pharmaco-économique : cas d'un essai sur la schizophrénie." Paris 11, 1999. http://www.theses.fr/1999PA11T003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Guin, Ophélie. "Méthodes bayésiennes semi-paramétriques d'extraction et de sélection de variables dans le cadre de la dendroclimatologie." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00636704.

Full text
Abstract:
Selon le Groupe Intergouvernemental d'experts sur l'Évolution du Climat (GIEC), il est important de connaitre le climat passé afin de replacer le changement climatique actuel dans son contexte. Ainsi, de nombreux chercheurs ont travaillé à l'établissement de procédures permettant de reconstituer les températures ou les précipitations passées à l'aide d'indicateurs climatiques indirects. Ces procédures sont généralement basées sur des méthodes statistiques mais l'estimation des incertitudes associées à ces reconstructions reste une difficulté majeure. L'objectif principal de cette thèse est donc de proposer de nouvelles méthodes statistiques permettant une estimation précise des erreurs commises, en particulier dans le cadre de reconstructions à partir de données sur les cernes d'arbres.De manière générale, les reconstructions climatiques à partir de mesures de cernes d'arbres se déroulent en deux étapes : l'estimation d'une variable cachée, commune à un ensemble de séries de mesures de cernes, et supposée climatique puis l'estimation de la relation existante entre cette variable cachée et certaines variables climatiques. Dans les deux cas, nous avons développé une nouvelle procédure basée sur des modèles bayésiens semi- paramétriques. Tout d'abord, concernant l'extraction du signal commun, nous proposons un modèle hiérarchique semi-paramétrique qui offre la possibilité de capturer les hautes et les basses fréquences contenues dans les cernes d'arbres, ce qui était difficile dans les études dendroclimatologiques passées. Ensuite, nous avons développé un modèle additif généralisé afin de modéliser le lien entre le signal extrait et certaines variables climatiques, permettant ainsi l'existence de relations non-linéaires contrairement aux méthodes classiques de la dendrochronologie. Ces nouvelles méthodes sont à chaque fois comparées aux méthodes utilisées traditionnellement par les dendrochronologues afin de comprendre ce qu'elles peuvent apporter à ces derniers.
APA, Harvard, Vancouver, ISO, and other styles
17

Hajj, Paméla El. "Méthodes d'aide à la décision thérapeutique dans les cas des maladies rares : intérêt des méthodes bayésiennes et application à la maladie de Horton." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS037/document.

Full text
Abstract:
Les maladies rares sont celles qui touchent un nombre restreint de personnes. Par conséquent, des problèmes spécifiques sont dus par cette rareté.Pour cette raison nous avons systématiquement recherché dans la littérature les publications concernant les caractéristiques des différentes méthodes mathématiques qui ont été utilisées pour l'étude des maladies rares. L'objectif est d'identifier des approches novatrices pour la recherche qui ont été, ou peuvent être, utilisées afin de surmonter les difficultés méthodologiques inhérentes à l'étude des maladies rares.Les méthodes bayésiennes sont recommandées par plusieurs auteurs et dans le cas de ces méthodes il faut introduire une loi informative a priori sur l'effet inconnu du traitement.La détermination de la loi a priori dans le modèle bayésien est difficile. Nous avons travaillé sur les méthodes qui permettent de déterminer de la loi a priori en incluant la possibilité de considérer des informations provenant des études historiques et/ou des données provenant d'autres études "voisines".D'une part, on décrit un modèle bayésien qui a pour but de vérifier l'hypothèse de non-infériorité de l'essai qui repose sur l'hypothèse que le méthotrexate est plus efficace que le corticostéroïde seul.D'autre part, notre travail de thèse se repose sur la méthode epsilon- contamination, qui se base sur le principe de contaminer une loi a priori pas entièrement satisfaisante par une série de lois provenant des informations d'autres études ayant même pathologie de maladie, même traitement ou même population.Enfin, toutes les informations a priori peuvent être résumées par la distribution a priori déterminer à partir des opinions d'experts, leur avis sont recueillis lors d'une réunion où ils ont répondu à un questionnaire qui montre leurs a priori sur les paramètres du modèle bayésien
In recent years, scientists have difficulties to study rare diseases by conventional methods, because the sample size needed in such studies to meet a conventional frequentist power is not adapted to the number of available patients. After systemically searching in literature and characterizing different methods used in the contest of rare diseases, we remarked that most of the proposed methods are deterministic and are globally unsatisfactory because it is difficult to correct the insufficient statistical power.More attention has been placed on Bayesian models which through a prior distribution combined with a current study enable to draw decisionsfrom a posterior distribution. Determination of the prior distribution in a Bayesian model is challenging, we will describe the process of determining the prior including the possibility of considering information from some historical controlled trials and/or data coming from other studies sufficiently close to the subject of interest.First, we describe a Bayesian model that aims to test the hypothesis of the non-inferiority trial based on the hypothesis that methotrexate is more effective than corticosteroids alone.On the other hand, our work rests on the use of the epsilon-contamination method, which is based on contaminating an a priori not entirely satisfactory by a series of distributions drawn from information on other studies sharing close conditions,treatments or even populations. Contamination is a way to include the proximity of information provided bythese studies
APA, Harvard, Vancouver, ISO, and other styles
18

Nguyen, Chi Cong. "Amélioration des approches bayésiennes MCMC pour l'analyse régionale des crues." Nantes, 2012. http://archive.bu.univ-nantes.fr/pollux/show.action?id=178da900-8dd8-491b-8720-011608382b98.

Full text
Abstract:
Cette thèse présente des développements et une évaluation de l’approche d’analyse régionale des débits proposée par Gaume (2010). Celle-ci consiste à incorporer dans l’analyse régionale les informations relatives aux crues extrêmes observées sur des bassins non jaugés. Une évaluation des performances et de la robustesse de la méthode est proposée ici par comparaison avec une approche régionale plus classique proposée par Hosking et Wallis (1997). Les comparaisons sont basées à la fois sur des simulations et sur l’étude de cas. La procédure d’inférence utilisée s’appuie sur une distribution GEV, associée à une formulation spécifique de la vraisemblance et une approche Bayésienne MCMC pour l’estimation des paramètres. Dans un premier temps, les résultats d’inférence obtenus sans tenir compte des crues extrêmes sont comparés sur la base de simulations, en s’intéressant aux effets possibles d’hétérogénéités au sein des régions considérées. Ensuite, les deux approches sont appliquées à deux régions. Cette application confirme l’impact très positif de l’incorporation de l’information sur les crues extrêmes dans l’analyse régionale qui permet souvent de dépasser les performances obtenues avec une analyse régionale classique
This thesis presents additional developments of an approach initially proposed by Gaume (2010), that aims to incorporate available information on extreme floods at ungauged sites in a regional flood frequency analyses (RFFA). The performances and robustness of this approach are tested and compared to a reference approach proposed by Hosking & Wallis (1997). The comparisons are based both, on simulations and case studies. The inference procedure is based on a GEV distribution associated with a specific likelihood formulation and a Bayesian MCMC algorithm for the estimation of the parameters. First, the inference results obtained without incorporating extreme floods are compared based on simulations, with a focus on the effects of possible heterogeneities in the considered regions. Next, both approaches are applied to two regions. This application finally confirms the very positive impact of the incorporation of information on extreme floods in RFFA, that enables to outperform the results based on a conventional regional approach
APA, Harvard, Vancouver, ISO, and other styles
19

Faure, Charly. "Approches bayésiennes appliquées à l’identification d’efforts vibratoires par la méthode de Résolution Inverse." Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA1002.

Full text
Abstract:
Des modèles de plus en plus précis sont développés pour prédire le comportement vibroacoustique des structures et dimensionner des traitements adaptés. Or, les sources vibratoires, qui servent de données d'entrée à ces modèles, restent assez souvent mal connues. Une erreur sur les sources injectées se traduit donc par un biais sur la prédiction vibroacoustique. En amont des simulations, la caractérisation expérimentale de sources vibratoires en conditions opérationnelles est un moyen de réduire ce biais et fait l'objet de ces travaux de thèse.L'approche proposée utilise une méthode inverse, la Résolution Inverse (RI), permettant l'identification de sources à partir des déplacements de structure. La sensibilité aux perturbations de mesure, commune à la plupart des méthodes inverses, est traitée dans un cadre probabiliste par des méthodes bayésiennes.Ce formalisme bayésien permet : d'améliorer la robustesse de la méthode RI ; la détection automatique de sources sur la distribution spatiale ; l'identification parcimonieuse pour le cas de sources ponctuelles ; l'identification de paramètres de modèle pour les structures homogénéisées ; l'identification de sources instationnaires ; la propagation des incertitudes de mesures sur l'évaluation du spectre d'effort ; l'évaluation de la qualité de la mesure par un indicateur empirique de rapport signal à bruit.Ces deux derniers points sont obtenus avec une unique mesure, là où des approches statistiques plus classiques demandent une campagne de mesures plus conséquente. Ces résultats ont été validés à la fois numériquement et expérimentalement, avec une source maîtrisée mais aussi avec une source industrielle. De plus, la procédure est en grande partie non-supervisée. Il ne reste alors à la charge de l’utilisateur qu’un nombre restreint de paramètres à fixer. Lesapproches proposées peuvent donc être utilisées dans une certaine mesure comme des boites noires
Increasingly accurate models are developped to predict the vibroacoustic behavior of structures and to propose adequate treatments.Vibration sources used as input of these models are still broadly unknown. In simulation, an error on vibration sources produces a bias on the vibroacoustic predictions. A way to reduce this bias is to characterize experimentally the vibration sources in operational condition before some simulations. It is therefore the subject of this PhD work.The proposed approach is based on an inverse method, the Force Analysis Technique (FAT), and allows the identification of vibration sources from displacement measurements. The noise sensibility, common to most of inverse methods, is processed in a probabilistic framework using Bayesian methods.This Bayesian framework allows: some improvements of the FAT robustness; an automatic detection of sources; the sparse identification of sources for pointwise sources; the model parameters identification for the purpose of homogenized structures; the identification of unsteady sources; the propagation of uncertainties through force spectrum (with credibility intervals); measurement quality assessment from a empirical signal to noise ratio.These two last points are obtained from a unique scan of the structure, where more traditional statistical methods need multiple scans of the structure. Both numerical and experimental validations have been proposed, with a controled excitation and with an industrial source. Moreover, the procedure is rather unsupervised in this work. Therefore, the user only has a few number of parameters to set by himself. In a certain extent, the proposed approaches can then be applied as black boxes
APA, Harvard, Vancouver, ISO, and other styles
20

Costache, Mihai. "Support vector machines et méthodes bayésiennes pour l'apprentissage sémantique fondé sur des catégories : recherche dans les bases de données d'imagerie satellitaire." Paris, ENST, 2008. http://www.theses.fr/2008ENST0026.

Full text
Abstract:
De grands volumes de données multimédias sont disponibles avec la source représentée par l'activité humaine dans différents domaines comme la photographie et les applications de la télédétection, etc. Pour l'ensemble de ces données, il est absolument nécessaire d'avoir des outils et des méthodes permettant une organisation et une utilisation optimales des données, afin que l'accès au contenu puisse être fait d'une manière rapide et efficace. Le nombre de satellites opérationnels augmente chaque année et génère une explosion du volume de données acquises. Par exemple, entre 10 à 100 Gigaoctets de données d'image sont en moyenne enregistrées chaque jour par des capteurs optiques et radar embarques. Le satellite ESA de l'environnement, Envisat, lance 2002 recueille environ 18 Téraoctets de données par année. Les données générées sont traitées manuellement par des experts spécialisés dans chaque domaine d'application en télédétection. Toutefois, ce type d'analyse est coûteux et prend du temps. De plus, il permet le traitement d' une petite fraction de données disponibles, à un rythme beaucoup plus faible que celui dans lequel les images enregistrées sont envoyées au sol. Pour faire face à ces deux principaux aspects de la télédétection, il est clair qu'il faut des outils très efficaces pour la recherche par contenu dans des archives satellitaires. Ils doivent être en mesure d'identifier et de reconnaître des structures dans les images. Ces systèmes doivent être rapides et fonctionner avec une grande précision. Un tel système a pour objectif d'automatiquement effectuer la classification des images numériques disponibles, sur la base d'une formation préalable, qui est supervisisée par un expert. Ainsi, la base de données est mieux organisée et des images d'intérêt peuvent être identifiées plus facilement plutôt que par l'emploi d'une interprétation manuelle d'experts. La tâche consiste à déduire des connaissances par le biais de l'interaction homme-machine. L'interaction entre un système automatique et un expert humain permet le transfert de l'expertise humaine à la machine par le biais d'algorithmes d'inférence de connaissances capable d'interpréter la décision humaine et de le traduire en conceptuel. De cette manière, le processus d'extraction d'information dans des données satellitaires est automatisé, ce qui permet une réponse rapide aux requêtes de l'utilisateur. Dans le domaine de la recherche par contenu il y a beaucoup de travaux mais peu dans le domaine satellitaire. Dans cette thèse nous proposons un système complet d'annotations d'images satellitaires par le contenu et par mots clés. Du point de vue des techniques d'apprentissage, une combinaison entre les SVM et les formalismes de Bayes peut être établie pour la génération de classe sémantique et catégorique en fonction de la représentation de données. L'apprentissage se fait sur la base d'un dialogue homme-machine qui est essentiel dans le processus de transfert de connaissances entre l'expert et le système. La combinaison des formalismes SVM et Bayésienne est une contribution originale de la thèse
Nowadays large volumes of multimedia data are available with the source being represented by different human activity domains such as photography, television channels, remote sensing applications, etc. For all these data there is a clear need for tools and methods which can allow an optimal data organisation so that the access to the content can be done in a fast and efficient manner. The number of operational EO satellites increases every year and generates an explosion of the acquired data volume. Nowadays, for instance, on average somewhere between 10 to 100 Gigabytes of image data are recorded daily on regular basis by the available optical and Synthetic Aperture Radar (SAR) sensors on board of the EO satellites. ESA's Environmental Satellite, Envisat, deployed in 2002 collects per year around 18 Terabytes of multisensor data. This leads to a total of about 10 Terabytes of annually recorded data volume which is representing a huge volume of data to be processed and interpreted. The generated data volume in classical remote sensing applications, are treated manually by specialised experts for each domain of application. However, this type of analysis is costly and time consuming. Moreover, it allows the processing of only a small fraction of the available data as the user-based image interpretation is done at a greatly lower pace that the one in which the recorded images are sent to the ground stations. In order to cope with these two major aspects in remote sensing, there is a clear need for highly efficient search tools for EO image archives and for search mechanisms able to identify and recognise structures within EO images; moreover these systems should be fast and work with high precision. Such a system should automatically perform classification of the available digital image collection, based on a previous training, which was supervised by an expert. In this way, the image database is better organized and images of interest can be identifed more easily than just by employing a manual expert image interpretation. The task is to infer knowledge, by means of human-machine interaction, from EO image archives. The human-machine interaction enables the transfer of human expertise to the machine by means of knowledge inference algorithms which interpret the human decision and to translate it into conceptual levels. In this way, the EO image information search and extraction process is automated, allowing a fast reponse adapted to human queries
APA, Harvard, Vancouver, ISO, and other styles
21

Foulley, Jean-Louis. "Méthodes d'évaluation des reproducteurs pour des caractères discrets à déterminisme polygénique en sélection animale." Paris 11, 1987. http://www.theses.fr/1987PA112160.

Full text
Abstract:
Cette thèse présente et discute des modèles linéaires et non linéaires d'analyse des caractères discrets polygéniques appliqués en sélection animale sur la base de recherches récentes effectués en ce domaine. Seuls les modèles non linéaires basés sur la notion de variable continue sous-jacente à seuils introduite par Wright sont décrits. L'accent est mis sur les techniques statistiques valeur génétique et des paramètres de variabilité génétique et phénotypique. Le cas simple de réponses dichotomiques sert de base à la présentation de chaque type de méthodologie. Une attention particulière est réservée également aux structures de données à modèles mixtes comportant des effets de population génétique et des paramètres de milieu parasites considérés comme des effets fixés ainsi que des valeurs paternelles transmises, des valeurs génétiques additives ou d'aptitude productive comme effets aléatoires. One approche en modèle linéaire mixte due à Beitler et Landis (1985) est examinée en détail puis généralisée à des situations plus complexes. En ce qui concerne le modèle non linéaire seuils, on montre comment les méthodes bayésiennes s’avèrent particulièrement bien adaptées pour estimer les paramètres de position et de dispersion sur l'échelle sous-jacente dans le cas de sources de variation mixtes. La généralité de cette approche est illustrée par une discussion de plusieurs situations où cette proc64ure peut être appliquée (polytomie ordonnée, réponses binaires multiples, mélange de caractères binaires et continues)
Linear and non-linear models for the analysis of categorical data in animal breeding are reviewed and discussed on account of recent research made in that area. Only non-linear methods based on the threshold liability concept introduced by Wright are described. Emphasis is on describing statistical techniques for estimating genetic merit and parameters of genetic and phenotypic variation. For the non-linear threshold model, it is shown how Bayesian methodology is particularly well suited for estimating location and dispersion parameters in the underlying scale under mixed sources of variation. The generality of this approach is illustrated through a discussion of several situations in which this procedure can be applied (ordered polychotomies, multiple binary responses, mixture of binary and normal traits)
APA, Harvard, Vancouver, ISO, and other styles
22

Foll, Matthieu. "Méthodes bayesiennes pour l'estimation de l'histoire démographique et de la pression de sélection à partir de la structure génétique des populations." Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10280.

Full text
Abstract:
Les récents progrès, dans les domaines de la biologie computationnelle et des techniques de biologie moléculaire, ont conduit à l'émergence d'une nouvelle discipline appelée génomique des populations, et dont l'un des objectifs principaux est l'étude de la structure spatiale de la diversité génétique. Cette structure est déterminée à la fois par des forces neutres, comme la migration et la dérive, et des forces adaptatives comme la sélection naturelle, et trouve des applications importantes dans de nombreux domaines comme la génétique médicale ou la biologie de la conservation. Nous développons ici de nouvelles méthodes statistiques pour évaluer le rôle de la sélection naturelle et de l'environnement dans cette structure spatiale. Le modèle bayésien Dirichlet-multinomial de différenciation génétique est utilisé comme base à ces différentes méthodes. Dans un premier temps, nous proposons d'inclure des variables environnementales dans l'estimation de la structure génétique afin d'identifier les facteurs biotiques et abiotiques qui la déterminent. Ensuite, nous étudions la possibilité d'étendre le modèle Dirichlet-multinomial aux marqueurs dominants, devenus très populaires ces dernières années, mais affectés par différents biais de recrutement. Enfin, nous cherchons à séparer les effets neutres des effets de la sélection naturelle, afin, en particulier, d'identifier les régions du génome qui y sont soumis. Trois bases de données ont été analysées pour illustrer l'utilisation de ces nouvelles méthodes : des données humaines, des données de l'arganier du Maroc et des données de littorine. Finalement, nous avons développé trois logiciels implémentant ces différents modèles
Recent advances in the fields of computational biology and molecular biology techniques have led to the emerging discipline of population genomics, whose main objective is the study of the spatial structure of genetic diversity. This structure is determined by both neutral forces, like migration and drift, and adaptive forces, like natural selection, and has important applications in many fields like medical genetics or conservation biology. Here, we develop new statistical methods to evaluate the role of natural selection and environment in this spatial structure. All these methods are based on the Bayesian Dirichlet-multinomial model of genetic differentiation. First, we propose to include environmental variables in the estimation process, in order to identify the biotic and abiotic factors that determine the genetic structure. Then, we study the possibility of extending the Dirichlet-multinomial model to dominant markers, which have become very popular in the last few years, but which are affected by various ascertainment biases. Finally, we try to separate neutral effects from adaptive effects on the genetic structure, in order to identify regions of the genome influenced by natural selection. Three databases have been analyzed as illustrations of the use of these new methods: human data, data of argan tree in Morocco, and data of periwinkle. Finally, we developed three softwares implementing these various models
APA, Harvard, Vancouver, ISO, and other styles
23

Foll, Matthieu. "Méthodes bayesiennes pour l'estimation de l'histoire démographique et de la pression de sélection à partir de la structure génétique des populations." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00216192.

Full text
Abstract:
Les récents progrès, dans les domaines de la biologie computationnelle et des techniques de biologie moléculaire, ont conduit à l'émergence d'une nouvelle discipline appelée génomique des populations, et dont l'un des objectifs principaux est l'étude de la structure spatiale de la diversité génétique. Cette structure est déterminée à la fois par des forces neutres, comme la migration et la dérive, et des forces adaptatives comme la sélection naturelle, et trouve des applications importantes dans de nombreux domaines comme la génétique médicale ou la biologie de la conservation. Nous développons ici de nouvelles méthodes statistiques pour évaluer le rôle de la sélection naturelle et de l'environnement dans cette structure spatiale. Le modèle bayésien Dirichlet-multinomial de différenciation génétique est utilisé comme base à ces différentes méthodes. Dans un premier temps, nous proposons d'inclure des variables environnementales dans l'estimation de la structure génétique afin d'identifier les facteurs biotiques et abiotiques qui la déterminent. Ensuite, nous étudions la possibilité d'étendre le modèle Dirichlet-multinomial aux marqueurs dominants, devenus très populaires ces dernières années, mais affectés par différents biais de recrutement. Enfin, nous cherchons à séparer les effets neutres des effets de la sélection naturelle, afin, en particulier, d'identifier les régions du génome qui y sont soumis. Trois bases de données ont été analysées pour illustrer l'utilisation de ces nouvelles méthodes : des données humaines, des données de l'arganier du Maroc et des données de littorine. Finalement, nous avons développé trois logiciels implémentant ces différents modèles.
APA, Harvard, Vancouver, ISO, and other styles
24

Bataille, Frédéric. "Evaluation d'une méthode de restitution de contraste basée sur le guidage anatomique de la reconstruction des images cérébrales en tomographie par émission de positons." Paris 11, 2007. http://www.theses.fr/2007PA112044.

Full text
Abstract:
La tomographie par émission de positons est une modalité d'imagerie médicalepermettant d'obtenir in-vivo une image volumique des processus fonctionnels du corps humain, notamment utilisée en imagerie cérébrale pour le diagnostique et le suivi longitudinal des maladies neurodégénératives. L'efficacité de la tomographie est cependant limitée par sa faible résolution spatiale, qui engendre une diminution du contraste local de l'image et une sous-estimation de l'activité des structures cérébrales de petite taille impliquées dans le mécanisme de dégénérescence de ces maladies. Cette dégradation, connue sous le nom d'effet de volume partiel, est généralement corrigée sur les images reconstruites en utilisant une information anatomique dont la résolution spatiale permet de mieux distinguer les différents tissus fonctionnels. Ce type de méthode présente cependant l'inconvénient majeur d'être très sensible aux erreurs résiduelles sur les prétraitements de l'information anatomique. L'alternative que nous avons développée dans cette thèse consiste à compenser la dégradation durant le processus de reconstruction en incorporant dans celui-ci à la fois une modélisation de la réponse impulsionnelle du système ainsi qu'une contrainte anatomique a priori sur l'image à reconstruire. Par comparaison avec une stratégie de correction post-reconstruction, nous avons validé cette méthodologie sur des données issues d'une acquisition sur fantôme anthropomorphique, puis nous avons évalué sa robustesse vis-à-vis des erreurs résiduelles au moyen de la simulation Monte Carlo réaliste d'un examen cérébral. L'algorithme développé a finalement été appliqué à la reconstruction d'examens cliniques
Positron emission tomography is a medical imaging modality providing in-vivo volumetric images of functional processes of the human body, which is used for the diagnosis and the following of neurodegenerative diseases. PET efficiency is however limited by its poor spatial resolution, which generates a decrease of the image local contrast and leads to an under-estimation of small cerebral structures involved in the degenerative mechanism of those diseases. This so-called partial volume effect degradation is usually corrected in a post-reconstruction processing framework through the use of anatomical information, whose spatial resolution allows a better discrimination between functional tissues. However, this kind of method has the major drawback of being very sensitive to the residual mismatches on the anatomical information processing. We developed in this thesis an alternative methodology to compensate for the degradation, by incorporating in the reconstruction process both a model of thesystem impulse response and an anatomically-based image prior constraint. This methodology was validated by comparison with a post-reconstruction correction strategy, using data from an anthropomorphic phantom acquisition and then we evaluated its robustness to the residual mismatches through a realistic Monte Carlo simulation corresponding to a cerebral exam. The proposed algorithm was finally applied to reconstruct clinical data
APA, Harvard, Vancouver, ISO, and other styles
25

Petit, Sébastien. "Improved Gaussian process modeling : Application to Bayesian optimization." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG063.

Full text
Abstract:
Cette thèse s’inscrit dans la lignée de travaux portant sur la modélisation bayésienne de fonctions par processus gaussiens, pour des applications en conception industrielle s’appuyant sur des simulateurs numériques dont le temps de calcul peut atteindre jusqu’à plusieurs heures. Notre travail se concentre sur le problème de sélection et de validation de modèle et s’articule autour de deux axes. Le premier consiste à étudier empiriquement les pratiques courantes de modélisation par processus gaussien stationnaire. Plusieurs problèmes sur la sélection automatique de paramètre de processus gaussien sont considérés. Premièrement, une étude empirique des critères de sélection de paramètres constitue le coeur de cet axe de recherche et conclut que, pour améliorer la prédictivité des modèles, le choix d’un critère de sélection parmi les plus courants est un facteur de moindre importance que le choix a priori d’une famille de modèles. Plus spécifiquement, l’étude montre que le paramètre de régularité de la fonction de covariance de Matérn est plus déterminant que le choix d’un critère de vraisemblance ou de validation croisée. De plus, l’analyse des résultats numériques montre que ce paramètre peut-être sélectionné de manière satisfaisante par les critères, ce qui aboutit à une recommandation permettant d’améliorer les pratiques courantes. Ensuite, une attention particulière est réservée à l’optimisation numérique du critère de vraisemblance. Constatant, comme Erickson et al. (2018), des inconsistances importantes entre les différentes librairies disponibles pour la modélisation par processus gaussien, nous proposons une série de recettes numériques élémentaires permettant d’obtenir des gains significatifs tant en termes de vraisemblance que de précision du modèle. Enfin, les formules analytiques pour le calcul de critère de validation croisée sont revisitées sous un angle nouveau et enrichies de formules analogues pour les gradients. Cette dernière contribution permet d’aligner le coût calculatoire d’une classe de critères de validation croisée sur celui de la vraisemblance. Le second axe de recherche porte sur le développement de méthodes dépassant le cadre des modèles gaussiens stationnaires. Constatant l’absence de méthode ciblée dans la littérature, nous proposons une approche permettant d’améliorer la précision d’un modèle sur une plage d’intérêt en sortie. Cette approche consiste à relâcher les contraintes d’interpolation sur une plage de relaxation disjointe de la plage d’intérêt, tout en conservant un coût calculatoire raisonnable. Nous proposons également une approche pour la sélection automatique de la plage de relaxation en fonction de la plage d’intérêt. Cette nouvelle méthode permet de définir des régions d’intérêt potentiellement complexes dans l’espace d’entrée avec peu de paramètres et, en dehors, d’apprendre de manière non-paramétrique une transformation permettant d’améliorer la prédictivité du modèle sur la plage d’intérêt. Des simulations numériques montrent l’intérêt de la méthode pour l’optimisation bayésienne, où l’on est intéressé par les valeurs basses dans le cadre de la minimisation. De plus, la convergence théorique de la méthode est établie, sous certaines hypothèses
This manuscript focuses on Bayesian modeling of unknown functions with Gaussian processes. This task arises notably for industrial design, with numerical simulators whose computation time can reach several hours. Our work focuses on the problem of model selection and validation and goes in two directions. The first part studies empirically the current practices for stationary Gaussian process modeling. Several issues on Gaussian process parameter selection are tackled. A study of parameter selection criteria is the core of this part. It concludes that the choice of a family of models is more important than that of the selection criterion. More specifically, the study shows that the regularity parameter of the Matérn covariance function is more important than the choice of a likelihood or cross-validation criterion. Moreover, the analysis of the numerical results shows that this parameter can be selected satisfactorily by the criteria, which leads to a practical recommendation. Then, particular attention is given to the numerical optimization of the likelihood criterion. Observing important inconsistencies between the different libraries available for Gaussian process modeling like Erickson et al. (2018), we propose elementary numerical recipes making it possible to obtain significant gains both in terms of likelihood and model accuracy. Finally, the analytical formulas for computing cross-validation criteria are revisited under a new angle and enriched with similar formulas for the gradients. This last contribution aligns the computational cost of a class of cross-validation criteria with that of the likelihood. The second part presents a goal-oriented methodology. It is designed to improve the accuracy of the model in an (output) range of interest. This approach consists in relaxing the interpolation constraints on a relaxation range disjoint from the range of interest. We also propose an approach for automatically selecting the relaxation range. This new method can implicitly manage potentially complex regions of interest in the input space with few parameters. Outside, it learns non-parametrically a transformation improving the predictions on the range of interest. Numerical simulations show the benefits of the approach for Bayesian optimization, where one is interested in low values in the minimization framework. Moreover, the theoretical convergence of the method is established under some assumptions
APA, Harvard, Vancouver, ISO, and other styles
26

Dang, Hong-Phuong. "Approches bayésiennes non paramétriques et apprentissage de dictionnaire pour les problèmes inverses en traitement d'image." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0019/document.

Full text
Abstract:
L'apprentissage de dictionnaire pour la représentation parcimonieuse est bien connu dans le cadre de la résolution de problèmes inverses. Les méthodes d'optimisation et les approches paramétriques ont été particulièrement explorées. Ces méthodes rencontrent certaines limitations, notamment liées au choix de paramètres. En général, la taille de dictionnaire doit être fixée à l'avance et une connaissance des niveaux de bruit et éventuellement de parcimonie sont aussi nécessaires. Les contributions méthodologies de cette thèse concernent l'apprentissage conjoint du dictionnaire et de ces paramètres, notamment pour les problèmes inverses en traitement d'image. Nous étudions et proposons la méthode IBP-DL (Indien Buffet Process for Dictionary Learning) en utilisant une approche bayésienne non paramétrique. Une introduction sur les approches bayésiennes non paramétriques est présentée. Le processus de Dirichlet et son dérivé, le processus du restaurant chinois, ainsi que le processus Bêta et son dérivé, le processus du buffet indien, sont décrits. Le modèle proposé pour l'apprentissage de dictionnaire s'appuie sur un a priori de type Buffet Indien qui permet d'apprendre un dictionnaire de taille adaptative. Nous détaillons la méthode de Monte-Carlo proposée pour l'inférence. Le niveau de bruit et celui de la parcimonie sont aussi échantillonnés, de sorte qu'aucun réglage de paramètres n'est nécessaire en pratique. Des expériences numériques illustrent les performances de l'approche pour les problèmes du débruitage, de l'inpainting et de l'acquisition compressée. Les résultats sont comparés avec l'état de l'art.Le code source en Matlab et en C est mis à disposition
Dictionary learning for sparse representation has been widely advocated for solving inverse problems. Optimization methods and parametric approaches towards dictionary learning have been particularly explored. These methods meet some limitations, particularly related to the choice of parameters. In general, the dictionary size is fixed in advance, and sparsity or noise level may also be needed. In this thesis, we show how to perform jointly dictionary and parameter learning, with an emphasis on image processing. We propose and study the Indian Buffet Process for Dictionary Learning (IBP-DL) method, using a bayesian nonparametric approach.A primer on bayesian nonparametrics is first presented. Dirichlet and Beta processes and their respective derivatives, the Chinese restaurant and Indian Buffet processes are described. The proposed model for dictionary learning relies on an Indian Buffet prior, which permits to learn an adaptive size dictionary. The Monte-Carlo method for inference is detailed. Noise and sparsity levels are also inferred, so that in practice no parameter tuning is required. Numerical experiments illustrate the performances of the approach in different settings: image denoising, inpainting and compressed sensing. Results are compared with state-of-the art methods is made. Matlab and C sources are available for sake of reproducibility
APA, Harvard, Vancouver, ISO, and other styles
27

Sayadi, Bessem. "Détection multi-utilisateurs par réseau de filtres de Kalman parallèles pour les systèmes AMRC." Paris 11, 2003. http://www.theses.fr/2003PA112224.

Full text
Abstract:
Les travaux élaborés dans le cadre de cette thèse ont porté sur l'étude de la détection multi-utilisateurs comme un problème d'estimation Bayésienne, basée sur une formulation d'état du système AMRC au rythme symbole. Le filtre de Kalman a été envisagé dans la littérature comme un détecteur multi-utilisateurs. Cependant, le bruit d'état présent dans la modélisation présente un caractère non Gaussien du à la nature discrète des symboles des utilisateurs. Dans la première partie de cette thèse, nous nous sommes particulièrement intéressés à remédier à la non Gaussiannité du bruit d'état en appliquant la théorie d'approximation d'une densité de probabilité par une Somme Pondérée de Gaussiennes (SPG). Le nouveau détecteur que nous proposons consiste à un Réseau de Filtres de Kalman (RFK) fonctionnant en parallèle. La structure proposée permet d'obtenir une nette amélioration des performances par rapport aux structures classiques tout en étant "near-far" résistant. Vu le décodage conjoint des utilisateurs, le détecteur par RFK présente une complexité exponentielle. Une première simplification du détecteur par RFK sous forme d'un Réseau de Filtres LMS est proposée. La deuxième procède à un décodage successif des utilisateurs. La structure obtenue, dans ce cas, est une structure en multi-étages comportant deux étapes: une étape forward de type SIC et une étape backward hybride SIC/PIC. Ensuite, nous nous sommes intéressés à l'étude de l'estimation de canal dans un contexte multi-utilisateurs. Nous avons proposé une structure hybride d'estimation conjointe symbole/canal. Ceci, nous a permis d'évaluer l'impact de l'erreur d'estimation sur les performances du détecteur RFK-EQMM. Le deuxième volet de cette thèse est consacré à l'étude de la détection multi-utilisateurs en présence d'un bruit impulsif. Après avoir montré la détérioration des performances des structures optimisées pour un cadre gaussien, nous avons étendu le formalisme de Sorenson et Alspach au cas du bruit impulsif. Nous montrons que le résultat est une combinaison convexe de deux RFK fonctionnant en parallèle pondérés par la probabilité d'apparition du bruit impulsif, e. Nous avons proposé une deuxième structure nommée M-RFK-EQMM. Ses performances sont dépendantes du choix de seuil d'écrêtage. Le détecteur RFK étendu se rapproche du détecteur M-RFK-EQMM en présence d'une diversité temporelle (IIS). Par ailleurs, dans le souci de diminuer la complexité en terme du nombre de filtres de Kalman, nous avons montré qu'en exploitant la structure Kalmanienne de notre problème, la détection de la présence d'une impulsion peut être déterminée par un test d'hypothèses simple. Il en découle une structure RFK/Bayes. .
The research presented in this dissertation concerns the study of the multiuser detection as a symbol by symbol Bayesian estimation based on a symbol rate state space representation of the DS-CDMA system. The classical works on the Kalman filtering approach are based on the assumption of Gaussian signals. This is not valid in our context since the state noise presents a non Gaussian character (it is related to the transmitted symbols of users). By approximating their a posteriori pdf by a Weighted Sum of Gaussian (WSG) density function, where each Gaussian term parameters are adjusted using one Kalman filter, we show that the resulted MUD detector is structured into a Network of Kalman Filters (NKF). The proposed detector improves the performances of the classical structure such as DFE, MMSE,. . . Etc. It is also near far resistant. It presents an exponential complexity since it decodes jointly the users. So, we propose two simplified structures. The first is based on the application of a Network of LMS Filter. The second combines a hybrid SIC/PIC structure and a reduced Network of Kalman Filters-based on a reduced state space representation of the DS-CDMA system. The proposed structure involves two steps. The first, called forward step, decodes the users in a serial approach using a SIC structure. The second, called backward step, is based on a hybrid SIC/PIC structure in order to produce better estimates of the transmitted symbols. In addition to, we study the channel estimation in a multiuser context where we propose a hybrid structure for joint estimation and detection. This enable us to evaluate the impact of channel error estimation on the performances of the NKF detector. The second shutter of this dissertation is devoted to the study of the multiuser detection in an impulsive environment. After showing the deterioration of the performances of structures optimized under Gaussian hypothesis, we extend the formalism of Sorenson et al. To the case of the impulsive noise. We show that the resulted structure is a convex combination of two NKF working in parallel weighted by the probability of appearance of the impulsive noise (extended NKF structure). Further more, we propose a second structure based on the Huber's function called M-NKF-MMSE. Its performances are dependant on the value of the used threshold. Hence, in order to reduce the complexity of the proposed extended NKF structure, we propose to incorporate a Likelihood Ratio Test (LRT) for impulses localization. In fact, we show that the impulses localization in the received signal can be cast by two binary hypothesis. The resulted structure, is called NKF/Bayes. .
APA, Harvard, Vancouver, ISO, and other styles
28

Bahamyirou, Asma. "Sur les intervalles de confiance bayésiens pour des espaces de paramètres contraints et le taux de fausses découvertes." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6986.

Full text
Abstract:
Ce mémoire traite deux problèmes : en premier lieu, l'estimation paramétrique par intervalle dans un contexte où il y a des contraintes sur le paramètre et, en deuxième lieu la probabilité de fausses découvertes lorsqu'on réalise simultanément plusieurs tests d'hypothèses. Dans le premier chapitre, nous faisons un rappel sur les notions de base de l'inférence statistique à savoir l'estimation ponctuelle et par intervalle. Dans le deuxième chapitre, nous abordons la théorie de l'estimation par intervalle de confiance bayésien décrit dans [10]. Des résultats nouveaux sont présentés dans ce chapitre. Des travaux partiels (voir [7]), montrent que la probabilité de recouvrement fréquentiste est faible aux frontières de l'intervalle. Comparé à ces derniers, nous avons montré sous certaines conditions que cette probabilité n'ira jamais au delà d'une borne supérieure qui semble éloignée de la crédibilité. Finalement, au Chapitre 4, nous traitons des estimateurs de la probabilité de fausses découvertes. Des améliorations significatives ont été faites dans ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
29

Bernhardt, Stéphanie. "Performances et méthodes pour l'échantillonnage comprimé : Robustesse à la méconnaissance du dictionnaire et optimisation du noyau d'échantillonnage." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS443/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à deux méthodes permettant de reconstruire un signal parcimonieux largement sous-échantillonné : l’échantillonnage de signaux à taux d’innovation fini et l’acquisition comprimée.Il a été montré récemment qu’en utilisant un noyau de pré-filtrage adapté, les signaux impulsionnels peuvent être parfaitement reconstruits bien qu’ils soient à bande non-limitée. En présence de bruit, la reconstruction est réalisée par une procédure d’estimation de tous les paramètres du signal d’intérêt. Dans cette thèse, nous considérons premièrement l’estimation des amplitudes et retards paramétrisant une somme finie d'impulsions de Dirac filtrée par un noyau quelconque et deuxièmement l’estimation d’une somme d’impulsions de forme quelconque filtrée par un noyau en somme de sinus cardinaux (SoS). Le noyau SoS est intéressant car il est paramétrable par un jeu de paramètres à valeurs complexes et vérifie les conditions nécessaires à la reconstruction. En se basant sur l’information de Fisher Bayésienne relative aux paramètres d’amplitudes et de retards et sur des outils d’optimisation convexe, nous proposons un nouveau noyau d’échantillonnage.L’acquisition comprimée permet d’échantillonner un signal en-dessous de la fréquence d’échantillonnage de Shannon, si le vecteur à échantillonner peut être approximé comme une combinaison linéaire d’un nombre réduit de vecteurs extraits d’un dictionnaire sur-complet. Malheureusement, dans des conditions réalistes, le dictionnaire (ou base) n’est souvent pas parfaitement connu, et est donc entaché d’une erreur (DB). L’estimation par dictionnaire, se basant sur les mêmes principes, permet d’estimer des paramètres à valeurs continues en les associant selon une grille partitionnant l’espace des paramètres. Généralement, les paramètres ne se trouvent pas sur la grille, ce qui induit un erreur d’estimation même à haut rapport signal sur bruit (RSB). C’est le problème de l’erreur de grille (EG). Dans cette thèse nous étudions les conséquences des modèles d’erreur DB et EG en terme de performances bayésiennes et montrons qu’un biais est introduit même avec une estimation parfaite du support et à haut RSB. La BCRB est dérivée pour les modèles DB et EG non structurés, qui bien qu’ils soient très proches, ne sont pas équivalents en terme de performances. Nous donnons également la borne de Cramér-Rao moyennée (BCRM) dans le cas d’une petite erreur de grille et étudions l’expression analytique de l’erreur quadratique moyenne bayésienne (BEQM) sur l’estimation de l’erreur de grille à haut RSB. Cette dernière est confirmée en pratique dans le contexte de l’estimation de fréquence pour différents algorithmes de reconstruction parcimonieuse.Nous proposons deux nouveaux estimateurs : le Bias-Correction Estimator (BiCE) et l’Off-Grid Error Correction (OGEC) permettant de corriger l'erreur de modèle induite par les erreurs DB et EG, respectivement. Ces deux estimateurs principalement basés sur une projection oblique des mesures sont conçus comme des post-traitements, destinés à réduire le biais d’estimation suite à une pré-estimation effectuée par n’importe quel algorithme de reconstruction parcimonieuse. Les biais et variances théoriques du BiCE et du OGEC sont dérivés afin de caractériser leurs efficacités statistiques.Nous montrons, dans le contexte difficile de l’échantillonnage des signaux impulsionnels à bande non-limitée que ces deux estimateurs permettent de réduire considérablement l’effet de l'erreur de modèle sur les performances d’estimation. Les estimateurs BiCE et OGEC sont tout deux des schémas (i) génériques, car ils peuvent être associés à tout estimateur parcimonieux de la littérature, (ii) rapides, car leur coût de calcul reste faible comparativement au coût des estimateurs parcimonieux, et (iii) ont de bonnes propriétés statistiques
In this thesis, we are interested in two different low rate sampling schemes that challenge Shannon’s theory: the sampling of finite rate of innovation signals and compressed sensing.Recently it has been shown that using appropriate sampling kernel, finite rate of innovation signals can be perfectly sampled even though they are non-bandlimited. In the presence of noise, reconstruction is achieved by a model-based estimation procedure. In this thesis, we consider the estimation of the amplitudes and delays of a finite stream of Dirac pulses using an arbitrary kernel and the estimation of a finite stream of arbitrary pulses using the Sum of Sincs (SoS) kernel. In both scenarios, we derive the Bayesian Cramér-Rao Bound (BCRB) for the parameters of interest. The SoS kernel is an interesting kernel since it is totally configurable by a vector of weights. In the first scenario, based on convex optimization tools, we propose a new kernel minimizing the BCRB on the delays, while in the second scenario we propose a family of kernels which maximizes the Bayesian Fisher Information, i.e., the total amount of information about each of the parameter in the measures. The advantage of the proposed family is that it can be user-adjusted to favor either of the estimated parameters.Compressed sensing is a promising emerging domain which outperforms the classical limit of the Shannon sampling theory if the measurement vector can be approximated as the linear combination of few basis vectors extracted from a redundant dictionary matrix. Unfortunately, in realistic scenario, the knowledge of this basis or equivalently of the entire dictionary is often uncertain, i.e. corrupted by a Basis Mismatch (BM) error. The related estimation problem is based on the matching of continuous parameters of interest to a discretized parameter set over a regular grid. Generally, the parameters of interest do not lie in this grid and there exists an estimation error even at high Signal to Noise Ratio (SNR). This is the off-grid (OG) problem. The consequence of the BM and the OG mismatch problems is that the estimation accuracy in terms of Bayesian Mean Square Error (BMSE) of popular sparse-based estimators collapses even if the support is perfectly estimated and in the high Signal to Noise Ratio (SNR) regime. This saturation effect considerably limits the effective viability of these estimation schemes.In this thesis, the BCRB is derived for CS model with unstructured BM and OG. We show that even though both problems share a very close formalism, they lead to different performances. In the biased dictionary based estimation context, we propose and study analytical expressions of the Bayesian Mean Square Error (BMSE) on the estimation of the grid error at high SNR. We also show that this class of estimators is efficient and thus reaches the Bayesian Cramér-Rao Bound (BCRB) at high SNR. The proposed results are illustrated in the context of line spectra analysis for several popular sparse estimator. We also study the Expected Cramér-Rao Bound (ECRB) on the estimation of the amplitude for a small OG error and show that it follows well the behavior of practical estimators in a wide SNR range.In the context of BM and OG errors, we propose two new estimation schemes called Bias-Correction Estimator (BiCE) and Off-Grid Error Correction (OGEC) respectively and study their statistical properties in terms of theoretical bias and variances. Both estimators are essentially based on an oblique projection of the measurement vector and act as a post-processing estimation layer for any sparse-based estimator and mitigate considerably the BM (OG respectively) degradation. The proposed estimators are generic since they can be associated to any sparse-based estimator, fast, and have good statistical properties. To illustrate our results and propositions, they are applied in the challenging context of the compressive sampling of finite rate of innovation signals
APA, Harvard, Vancouver, ISO, and other styles
30

Yousfi, Elqasyr Khadija. "MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS." Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00377114.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
APA, Harvard, Vancouver, ISO, and other styles
31

Marrelec, Guillaume. "Méthodes bayésiennes pour l'analyse de la réponse hémodynamique et de la connectivité fonctionnelle en IRM fonctionnelle : apport à l'étude de la plasticité dans la chirurgie des gliomes de bas grade intracérébraux." Paris 11, 2003. http://www.theses.fr/2003PA112260.

Full text
Abstract:
L'IRM fonctionnelle (IRMf) par effet BOLD est une modalité d'imagerie qui permet de suivre de manière dynamique et non invasive les évolutions hémodynamiques qui se produisent dans le cerveau suite à une activité neuronale. L'utilisation de l'IRMf permettrait en particulier de mieux comprendre les phénomènes de plasticité cérébrale qui se produisent dans les pathologies de gliomes de bas grades intracérébraux. Pour cela, il est nécessaire de développer de nouveaux modèles mathématiques. Après avoir présenté le cadre de nos recherches, nous développons le travail effectué sur deux modèles complémentaires dont l'objectif commun est l'étude des phénomènes de plasticité cérébrale. Le premier modèle considère le cerveau comme une boîte noire caractérisée par sa fonction dite de réponse hémodynamique. Nous avons proposé une méthode bayésienne robuste d'inférence de cette réponse, grâce à l'introduction d'information a priori simple mais pertinente sur le processus physiologique sous-jacent. Cette méthode a été généralisée pour pouvoir analyser la plupart des acquisitions d'IRMf mono-événementielles. Un autre modèle considère le réseau des régions qui interviennent dans une tâche donnée. Dans ce cadre, nous avons développé un modèle novateur, reposant sur la théorie des graphes indépendance, qui permet de quantifier les interactions au sein de ce réseau. Nous avons également proposé une méthode bayésienne d'estimation de ces grandeurs. Nous montrons finalement que ces deux approches peuvent être considérées comme deux cas particuliers d'un modèle plus général. Les deux méthodes développées ont été appliquées à des données cliniques afin d'étudier les phénomènes de plasticité cérébrale observé chez des patients atteints de gliomes de bas grades intra-cérébraux. La plupart des résultats obtenus concordent avec ceux de la littérature. D'autres permettent de jeter une nouvelle lumière sur la réorganisation fonctionnelle qui se produit chez les patients
BOLD functional MRI (fMAI) is a recent imaging technique that can be used to dynamically and non-invasively study brain hemodynamic evolutions induced by neuronal activity. Use of fMRI could in particular allow for a better understanding of the plasticity phenomena that occur in the pathology of law-grade gliomas. To this end, development of new mathematical models is necessary. We first briefly introduce functional neuroimaging and the methodological framework of our work. We then develop our research on two complementary models, whose common goal is the study of brain plasticity. The first model considers the brain as a black box characterized by its response function, the so-called hemodynamic response. We proposed a robust Bayesian method to inter this response, through introduction of basic yet relevant a priori information about the underlying physiological process. This method was then generalized to account for most event-related fMRI acquisitions. A second model considers the interactions between regions involved in a given task. We developed a novel model, relying on the theory of independence graphs, that enables the quantification of interactions within this network. We also proposed a Bayesian procedure to estimate these quantities. We finally show that both approaches can be considered as two special cases within a more general model whose further development would allow for a better understanding of brain functional processes as measured by fMRI. Both methods developed were applied to clinical data to investigate brain plasticity observed among patients with law-grade brain gliomas. Most results obtained agree with the litterature. Some cast a new light on the functional reorganization that occurs among patients
APA, Harvard, Vancouver, ISO, and other styles
32

Saley, Issa. "Modélisation des données d'attractivité hospitalière par les modèles d'utilité." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS044/document.

Full text
Abstract:
Savoir comment les patients choisissent les hôpitaux est d'une importance majeure non seulement pour les gestionnaires des hôpitaux mais aussi pour les décideurs. Il s'agit entre autres pour les premiers, de la gestion des flux et l'offre des soins et pour les seconds, l'implémentation des reformes dans le système de santé.Nous proposons dans cette thèse différentes modélisations des données d'admission de patients en fonction de la distance par rapport à un hôpital afin de prévoir le flux des patients et de comparer son attractivité par rapport à d'autres hôpitaux. Par exemple, nous avons utilisé des modèles bayésiens hiérarchiques pour des données de comptage avec possible dépendance spatiale. Des applications on été faites sur des données d'admission de patients dans la région de Languedoc-Roussillon.Nous avons aussi utilisé des modèles de choix discrets tels que les RUMs. Mais vu certaines limites qu'ils présentent pour notre objectif, nous avons relâché l'hypothèse de maximisation d'utilité pour une plus souple et selon laquelle un agent (patient) peut choisir un produit (donc hôpital) dès lors que l'utilité que lui procure ce produit a atteint un certain seuil de satisfaction, en considérant certains aspects. Une illustration de cette approche est faite sur trois hôpitaux de l'Hérault pour les séjours dus à l'asthme en 2009 pour calculer l'envergure territorial d'un hôpital donné
Understanding how patients choose hospitals is of utmost importance for both hospitals administrators and healthcare decision makers; the formers for patients incoming tide and the laters for regulations.In this thesis, we present different methods of modelling patients admission data in order to forecast patients incoming tide and compare hospitals attractiveness.The two first method use counting data models with possible spatial dependancy. Illustration is done on patients admission data in Languedoc-Roussillon.The third method uses discrete choice models (RUMs). Due to some limitations of these models according to our goal, we introduce a new approach where we released the assumption of utility maximization for an utility-threshold ; that is to say that an agent (patient) can choose an alternative (hospital) since he thinks that he can obtain a certain level of satisfaction of doing so, according to some aspects. Illustration of the approach is done on 2009 asthma admission data in Hérault
APA, Harvard, Vancouver, ISO, and other styles
33

Jay, Emmanuelle. "Détection en Environnement non Gaussien." Phd thesis, Université de Cergy Pontoise, 2002. http://tel.archives-ouvertes.fr/tel-00174276.

Full text
Abstract:
Les échos radar provenant des diverses réflexions du signal émis sur les éléments de l'environnement (le fouillis) ont longtemps été modélisés par des vecteurs Gaussiens. La procédure optimale de détection se résumait alors en la mise en oeuvre du filtre adapté classique.
Avec l'évolution technologique des systèmes radar, la nature réelle du fouillis s'est révélée ne plus être Gaussienne. Bien que l'optimalité du filtre adapté soit mise en défaut dans pareils cas, des techniques TFAC (Taux de Fausses Alarmes Constant) ont été proposées pour ce détecteur, dans le but d'adapter la valeur du seuil de détection aux multiples variations locales du fouillis. Malgré leur diversité, ces techniques se sont avérées n'être ni robustes ni optimales dans ces situations.
A partir de la modélisation du fouillis par des processus complexes non-Gaussiens, tels les SIRP (Spherically Invariant Random Process), des structures optimales de détection cohérente ont pu être déterminées. Ces modèles englobent de nombreuses lois non-Gaussiennes, comme la K-distribution ou la loi de Weibull, et sont reconnus dans la littérature pour modéliser de manière pertinente de nombreuses situations expérimentales. Dans le but d'identifier la loi de leur composante caractéristique qu'est la texture, sans a priori statistique sur le modèle, nous proposons, dans cette thèse, d'aborder le problème par une approche bayésienne.
Deux nouvelles méthodes d'estimation de la loi de la texture en découlent : la première est une méthode paramétrique, basée sur une approximation de Padé de la fonction génératrice de moments, et la seconde résulte d'une estimation Monte Carlo. Ces estimations sont réalisées sur des données de fouillis de référence et donnent lieu à deux nouvelles stratégies de détection optimales, respectivement nommées PEOD (Padé Estimated Optimum Detector) et BORD (Bayesian Optimum Radar Detector). L'expression asymptotique du BORD (convergence en loi), appelée le "BORD Asymptotique", est établie ainsi que sa loi. Ce dernier résultat permet d'accéder aux performances théoriques optimales du BORD Asymptotique qui s'appliquent également au BORD dans le cas où la matrice de corrélation des données est non singulière.
Les performances de détection du BORD et du BORD Asymptotique sont évaluées sur des données expérimentales de fouillis de sol. Les résultats obtenus valident aussi bien la pertinence du modèle SIRP pour le fouillis que l'optimalité et la capacité d'adaptation du BORD à tout type d'environnement.
APA, Harvard, Vancouver, ISO, and other styles
34

Picard, Guillaume. "Traitement statistique des distorsions non-linéaires pour la restauration des enregistrements sonores." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002315.

Full text
Abstract:
L'objet de la thèse est l'étude, la modélisation et le traitement des distorsions non linéaires sonores, pour lesquelles les techniques actuelles s'avèrent impuissantes. L'approche retenue consiste à représenter, globalement, à la fois le signal audio à restaurer et le processus de distorsion, dans le cadre d'un modèle statistique. Cette approche présente un bon compromis entre une souhaitable généricité -possibilité de traiter à l'aide d'une méthode globale plusieurs types de distorsions- et l'utilisation de connaissances spécifiques, notamment concernant les sources de distorsions. La première étape de la thèse consiste en une analyse des mécanismes de la distorsion basée sur une série de mesures où plusieurs séquences audio sont enregistrées en entrée et en sortie d'appareils audiofréquences standards (amplificateurs de puissance, convertisseurs numérique-analogique, enregistreurs sur bandes magnétiques). Les éléments d'analyse retenus conduisent à la présentation des hypothèses principales du traitement. La méthode est basée sur un modèle de transmission non-linéaire choisi parmi ceux étudiés dans la littérature (modèles en cascades de Hammerstein simple), ainsi qu'un modèle des signaux à restaurer (modélisation autorégressive et modèle gaussien à écart-type variable). La seconde étape définit d'une part, la méthode d'identification ``autodidacte'' (à partir de la donnée seule du signal distordu) du modèle de distorsion et d'autre part, la technique de reconstruction de l'extrait sonore associée aux modèles de distorsion et de signal.
APA, Harvard, Vancouver, ISO, and other styles
35

Beeman, Jai Chowdhry. "Le rôle des gaz à effet de serre dans les variations climatiques passées : une approche basée sur des chronologies précises des forages polaires profonds." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAU023/document.

Full text
Abstract:
Les forages polaires profonds contiennent des enregistrements des conditions climatiques du passé et de l'air piégé qui témoignent des compositions atmosphériques du passé, notamment des gaz à effet de serre. Cette archive nous permet de décrypter le rôle des gaz à effet de serre dans les variations climatiques pendant huit cycles glaciaire-interglaciaires, soit l'équivalent de plus de 800 000 ans. Les carottes de glace, comme toute archive paléoclimatique, sont caractérisées par des incertitudes liées aux processus qui traduisent les variables climatiques en proxy, ainsi que par des incertitudes dues aux chronologies de la glace et des bulles d'air piégées. Nous développons un cadre méthodologique, basé sur la modélisation inverse dite Bayesienne et l'évaluation de fonctions complexes de densité de probabilité, pour traiter les incertitudes liées aux enregistrements paléoclimatiques des carottes de glace de manière précise. Nous proposons deux études dans ce cadre. Pour la première étude, nous identifions les probabilités de localisation des points de changement de pente de l'enregistrement du CO2 dans la carotte de WAIS Divide et d'un stack d'enregistrements de paléotempérature a partir de cinq carottes Antarctiques avec des fonctions linéaires par morceaux. Nous identifions aussi les probabilités pour chaque enregistrement individuel de température. Cela nous permet d'examiner les changements de pente à l'échelle millénaire dans chacune des séries, et de calculer les déphasages entre les changements cohérents. Nous trouvons que le déphasage entre la température en Antarctique et le CO2 à probablement varié (en restant inferieur, generalement, à 500 ans) lors de la déglaciation. L'âge des changements de temperature varie probablement entre les sites de carottage aussi. Ce résultat indique que les mécanismes qui reliaient la température en Antarctique et le CO2 lors de la déglaciation pouvaient être differents temporellement et spatialement. Dans la deuxième étude nous développons une méthode Bayesienne pour la synchronisation des carottes de glace dans le modèle inverse chronologique IceChrono. Nos simulations indiquent que cette méthode est capable de synchroniser des séries de CH4 avec précision, tout en prenant en compte des observations chronologiques externes et de l'information à priori sur les caractéristiques glaciologiques aux sites de forage. La méthode est continue et objective, apportant de la précision à la synchronisation des carottes de glace
Deep polar ice cores contain records of both past climate and trapped air that reflects past atmospheric compositions, notably of greenhouse gases. This record allows us to investigate the role of greenhouse gases in climate variations over eight glacial-interglacial cycles. The ice core record, like all paleoclimate records, contains uncertainties associated both with the relationships between proxies and climate variables, and with the chronologies of the records contained in the ice and trapped air bubbles. In this thesis, we develop a framework, based on Bayesian inverse modeling and the evaluation of complex probability densities, to accurately treat uncertainty in the ice core paleoclimate record. Using this framework, we develop two studies, the first about Antarctic Temperature and CO2 during the last deglaciation, and the second developing a Bayesian synchronization method for ice cores. In the first study, we use inverse modeling to identify the probabilities of piecewise linear fits to CO2 and a stack of Antarctic Temperature records from five ice cores, along with the individual temperature records from each core, over the last deglacial warming, known as Termination 1. Using the nodes, or change points in the piecewise linear fits accepted during the stochastic sampling of the posterior probability density, we discuss the timings of millenial-scale changes in trend in the series, and calculate the phasings between coherent changes. We find that the phasing between Antarctic Temperature and CO2 likely varied, though the response times remain within a range of ~500 years from synchrony, both between events during the deglaciation and accross the individual ice core records. This result indicates both regional-scale complexity and modulations or variations in the mechanisms linking Antarctic temperature and CO2 accross the deglaciation. In the second study, we develop a Bayesian method to synchronize ice cores using corresponding time series in the IceChrono inverse chronological model. Tests show that this method is able to accurately synchronize CH4 series, and is capable of including external chronological observations and prior information about the glaciological characteristics at the coring site. The method is continuous and objective, bringing a new degree of accuracy and precision to the use of synchronization in ice core chronologies
APA, Harvard, Vancouver, ISO, and other styles
36

Jouffroy, Emma. "Développement de modèles non supervisés pour l'obtention de représentations latentes interprétables d'images." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0050.

Full text
Abstract:
Le Laser Mégajoule (LMJ) est un instrument d’envergure qui simule des conditions de pression et de température similaires à celles des étoiles. Lors d’expérimentations, plusieurs diagnostics sont guidés dans la chambre d’expériences et il est essentiel qu’ils soient positionnés de manière précise. Afin de minimiser les risques liés à l’erreur humaine dans un tel contexte expérimental, la mise en place d'un système anti-collision automatisé est envisagée. Cela passe par la conception d’outils d’apprentissage automatique offrant des niveaux de décision fiables à partir de l’interprétation d’images issues de caméras positionnées dans la chambre. Nos travaux de recherche se concentrent sur des méthodes neuronales génératives probabilistes, en particulier les auto-encodeurs variationnels (VAEs). Le choix de cette classe de modèles est lié au fait qu’elle rende possible l’accès à un espace latent lié directement aux propriétés des objets constituant la scène observée. L’enjeu majeur est d’étudier la conception de modèles de réseaux profonds permettant effectivement d’accéder à une telle représentation pleinement informative et interprétable dans un objectif de fiabilité du système. Le formalisme probabiliste intrinsèque du VAE nous permet, si nous pouvons remonter à une telle représentation, d’accéder à une analyse d’incertitudes des informations encodées
The Laser Megajoule (LMJ) is a large research device that simulates pressure and temperature conditions similar to those found in stars. During experiments, diagnostics are guided into an experimental chamber for precise positioning. To minimize the risks associated with human error in such an experimental context, the automation of an anti-collision system is envisaged. This involves the design of machine learning tools offering reliable decision levels based on the interpretation of images from cameras positioned in the chamber. Our research focuses on probabilistic generative neural methods, in particular variational auto-encoders (VAEs). The choice of this class of models is linked to the fact that it potentially enables access to a latent space directly linked to the properties of the objects making up the observed scene. The major challenge is to study the design of deep network models that effectively enable access to such a fully informative and interpretable representation, with a view to system reliability. The probabilistic formalism intrinsic to VAE allows us, if we can trace back to such a representation, to access an analysis of the uncertainties of the encoded information
APA, Harvard, Vancouver, ISO, and other styles
37

Lassoued, Khaoula. "Localisation de robots mobiles en coopération mutuelle par observation d'état distribuée." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2289/document.

Full text
Abstract:
On étudie dans cette thèse des méthodes de localisation coopérative de robots mobiles sans utilisation de mesures extéroceptives relatives, comme des angles ou des distances entre robots. Les systèmes de localisation considérés sont basés sur des mesures de radionavigation sur des balises fixes ou des satellites. Pour ces systèmes, on observe en général un écart entre la position observée et la position réelle. Cet écart systématique (appelé biais) peut être dû à une mauvaise position de la balise ou à une différence entre la propagation réelles des ondes électromagnétiques par rapport aux conditions standard utilisées pour établir les modèles d’observation. L’influence de ce biais sur la localisation des robots est non négligeable. La coopération et l’échange de données entre les robots (estimations des biais, estimations des positions et données proprioceptives) est une approche qui permet de corriger ces erreurs systématiques. La localisation coopérative par échange des estimations est sujette aux problèmes de consanguinité des données qui peuvent engendrer des résultats erronés, en particulier trop confiants. Lorsque les estimations sont utilisées pour la navigation autonome à l’approche, on doit éviter tout risque de collision qui peut mettre en jeu la sécurité des robots et des personnes aux alentours. On doit donc avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à une erreur maximale tolérable pour la mission. Dans un tel contexte, il est nécessaire de caractériser des domaines de confiance fiables contenant les positions des robots mobiles avec une forte probabilité. L’utilisation des méthodes ensemblistes à erreurs bornées est considérée alors comme une solution efficace. En effet, ce type d’approche résout naturellement le problème de consanguinité des données et fournit des domaines de confiance fiables. De surcroît, l’utilisation de modèles non-linéaires ne pose aucun problème de linéarisation. Après avoir modélisé un système coopératif de nr robots avec des mesures biaisées sur des balises, une étude d’observabilité est conduite. Deux cas sont considérés selon la nature des mesures brutes des observations. En outre, des conditions d’observabilité sont démontrées. Un algorithme ensembliste de localisation coopérative est ensuite présenté. Les méthodes considérées sont basées sur la propagation de contraintes sur des intervalles et l’inversion ensembliste. La coopération est effectuée grâce au partage des positions estimées, des biais estimés et des mesures proprioceptives.L’échange des estimations de biais permet de réduire les incertitudes sur les positions des robots. Dans un cadre d’étude simple, la faisabilité de l’algorithme est évaluée grâce à des simulations de mesures de distances sur balises en utilisant plusieurs robots. La coopération est comparée aux méthodes non coopératives. L’algorithme coopératif ensembliste est ensuite testé sur des données réelles en utilisant deux véhicules. Les performances de la méthode ensembliste coopérative sont enfin comparées avec deux méthodes Bayésiennes séquentielles, notamment une avec fusion par intersection de covariance. La comparaison est conduite en termes d’exactitude et d’incertitude
In this work, we study some cooperative localization issues for mobile robotic systems that interact with each other without using relative measurements (e.g. bearing and relative distances). The considered localization technologies are based on beacons or satellites that provide radio-navigation measurements. Such systems often lead to offsets between real and observed positions. These systematic offsets (i.e, biases) are often due to inaccurate beacon positions, or differences between the real electromagnetic waves propagation and the observation models. The impact of these biases on robots localization should not be neglected. Cooperation and data exchange (estimates of biases, estimates of positions and proprioceptive measurements) reduce significantly systematic errors. However, cooperative localization based on sharing estimates is subject to data incest problems (i.e, reuse of identical information in the fusion process) that often lead to over-convergence problems. When position information is used in a safety-critical context (e.g. close navigation of autonomous robots), one should check the consistency of the localization estimates. In this context, we aim at characterizing reliable confidence domains that contain robots positions with high reliability. Hence, set-membership methods are considered as efficient solutions. This kind of approach enables merging adequately the information even when it is reused several time. It also provides reliable domains. Moreover, the use of non-linear models does not require any linearization. The modeling of a cooperative system of nr robots with biased beacons measurements is firstly presented. Then, we perform an observability study. Two cases regarding the localization technology are considered. Observability conditions are identified and demonstrated. We then propose a set-membership method for cooperativelocalization. Cooperation is performed by sharing estimated positions, estimated biases and proprioceptive measurements. Sharing biases estimates allows to reduce the estimation error and the uncertainty of the robots positions. The algorithm feasibility is validated through simulation when the observations are beacons distance measurements with several robots. The cooperation provides better performance compared to a non-cooperative method. Afterwards, the cooperative algorithm based on set-membership method is tested using real data with two experimental vehicles. Finally, we compare the interval method performance with a sequential Bayesian approach based on covariance intersection. Experimental results indicate that the interval approach provides more accurate positions of the vehicles with smaller confidence domains that remain reliable. Indeed, the comparison is performed in terms of accuracy and uncertainty
APA, Harvard, Vancouver, ISO, and other styles
38

Elvira, Clément. "Modèles bayésiens pour l’identification de représentations antiparcimonieuses et l’analyse en composantes principales bayésienne non paramétrique." Thesis, Ecole centrale de Lille, 2017. http://www.theses.fr/2017ECLI0016/document.

Full text
Abstract:
Cette thèse étudie deux modèles paramétriques et non paramétriques pour le changement de représentation. L'objectif des deux modèles diffère. Le premier cherche une représentation en plus grande dimension pour gagner en robustesse. L'objectif est de répartir uniformément l’information d’un signal sur toutes les composantes de sa représentation en plus grande dimension. La recherche d'un tel code s'exprime comme un problème inverse impliquant une régularisation de type norme infinie. Nous proposons une formulation bayésienne du problème impliquant une nouvelle loi de probabilité baptisée démocratique, qui pénalise les fortes amplitudes. Deux algorithmes MCMC proximaux sont présentés pour approcher des estimateurs bayésiens. La méthode non supervisée présentée est appelée BAC-1. Des expériences numériques illustrent les performances de l’approche pour la réduction de facteur de crête. Le second modèle identifie un sous-espace pertinent de dimension réduite à des fins de modélisation. Mais les méthodes probabilistes proposées nécessitent généralement de fixer à l'avance la dimension du sous-espace. Ce travail introduit BNP-PCA, une version bayésienne non paramétrique de l'analyse en composantes principales. La méthode couple une loi uniforme sur les bases orthonormales à un a priori non paramétrique de type buffet indien pour favoriser une utilisation parcimonieuse des composantes principales et aucun réglage n'est nécessaire. L'inférence est réalisée à l'aide des méthodes MCMC. L'estimation de la dimension du sous-espace et le comportement numérique de BNP-PCA sont étudiés. Nous montrons la flexibilité de BNP-PCA sur deux applications
This thesis proposes Bayesian parametric and nonparametric models for signal representation. The first model infers a higher dimensional representation of a signal for sake of robustness by enforcing the information to be spread uniformly. These so called anti-sparse representations are obtained by solving a linear inverse problem with an infinite-norm penalty. We propose in this thesis a Bayesian formulation of anti-sparse coding involving a new probability distribution, referred to as the democratic prior. A Gibbs and two proximal samplers are proposed to approximate Bayesian estimators. The algorithm is called BAC-1. Simulations on synthetic data illustrate the performances of the two proposed samplers and the results are compared with state-of-the art methods. The second model identifies a lower dimensional representation of a signal for modelisation and model selection. Principal component analysis is very popular to perform dimension reduction. The selection of the number of significant components is essential but often based on some practical heuristics depending on the application. Few works have proposed a probabilistic approach to infer the number of significant components. We propose a Bayesian nonparametric principal component analysis called BNP-PCA. The proposed model involves an Indian buffet process to promote a parsimonious use of principal components, which is assigned a prior distribution defined on the manifold of orthonormal basis. Inference is done using MCMC methods. The estimators of the latent dimension are theoretically and empirically studied. The relevance of the approach is assessed on two applications
APA, Harvard, Vancouver, ISO, and other styles
39

Albright, Anna Lea. "The trade-wind boundary layer and climate sensitivity." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS207.

Full text
Abstract:
La réponse des nuages des régimes d'alizés au réchauffement climatique reste incertaine. Elle soulève notamment la possibilité d'une sensibilité climatique élevée due à une diminution de la fraction nuageuse sous l'effet de l'interaction entre le mélange convectif, la turbulence, le rayonnement et l'environnement à grande échelle. La campagne EUREC4A (Elucidation du rôle du couplage nuage-circulation dans le climat) a apporté de nouvelles observations qui permettent de mieux comprendre la physique des régimes d'alizés, et d'apporter pour la première fois une contrainte sur la rétroaction des cumulus d'alizés basée sur les processus. Je montre d'abord comment les observations EUREC4A permettent d'approfondir la compréhension de la structure verticale caractéristique de la couche limite des alizés et des processus qui produisent cette structure. Elles amènent à revisiter certains aspects des modèles conceptuels et suggèrent un rôle plus actif des nuages dans le maintien de cette structure. Cette compréhension physique est ensuite appliquée à l'évaluation des rétroactions des cumulus d'alizés, montrant que les observations rendent peu plausibles les fortes rétroactions des cumulus d'alizés dans le réchauffement climatique
The response of trade-wind clouds to warming remains uncertain, raising the specter of a large climate sensitivity. Decreases in cloud fraction are thought to relate to interplay among convective mixing, turbulence, radiation, and the large-scale environment. The EUREC4A (Elucidating the role of cloud-circulation coupling in climate) field campaign made extensive measurements that allow for deeper physical understanding and the first process-based constraint on the trade cumulus feedback.I first use EUREC4A observations to improve understanding of the characteristic vertical structure of the trade-wind boundary layer and the processes that produce this structure. This improved physical understanding is then applied to the evaluation of trade cumulus feedbacks. Ideas developed support new conceptual models of the structure of the trade-wind boundary layer and a more active role of clouds in maintaining this structure, and show little evidence for a strong trade cumulus feedback to warming
APA, Harvard, Vancouver, ISO, and other styles
40

Denis, Marie. "Méthodes de modélisation bayésienne et applications en recherche clinique." Thesis, Montpellier 1, 2010. http://www.theses.fr/2010MON1T001.

Full text
Abstract:
Depuis quelques années un engouement pour les méthodes de modélisation bayésienne a été observé dans divers domaines comme l'environnement, la médecine. Les études en recherche clinique s'appuient sur la modélisation mathématique et l'inférence statistique. Le but de cette thèse est d'étudier les applications possibles d'une telle modélisation dans le cadre de la recherche clinique. En effet, les jugements, les connaissances des experts (médecins, biologistes..) sont nombreux et importants. Il semble donc naturel de vouloir prendre en compte toutes ces connaissances a priori dans le modèle statistique. Après un rappel sur les fondamentaux des statistiques bayésiennes, des travaux préliminaires dans le cadre de la théorie de la décision sont présentés ainsi qu'un état de l'art des méthodes d'approximation. Une méthode de Monte Carlo par chaînes de Markov à sauts réversibles a été mise en place dans le contexte de modèles bien connus en recherche clinique : le modèle de Cox et le modèle logistique. Une approche de sélection de modèle est proposée comme une alternative aux critères classiques dans le cadre de la régression spline. Enfin différentes applications des méthodes bayésiennes non paramétriques sont développées. Des algorithmes sont adaptés et implémentés afin de pouvoir appliquer de telles méthodes. Cette thèse permet de mettre en avant les méthodes bayésiennes de différentes façons dans le cadre de la recherche clinique au travers de plusieurs jeux de données
For some years a craze for the methods of bayesian modelling was observed in diverse domains as the environment, the medicine. The studies in clinical research lies on the modelling mathematical and the statistical inference. The purpose of this thesis is to study the possible applications of such a modelling within the framework of the clinical research. Indeed, judgments, knowledge of the experts (doctors, biologists) are many and important. It thus seems natural to want to take into account all these knowledge a priori in the statistical model. After a background on the fundamental of the bayesian statistics, preliminary works within the framework of the theory of the decision are presented as well as a state of the art of the methods of approximation. A MCMC method with reversible jumps was organized in the context of models known well in clinical research : the model of Cox and the logistic model. An approach of selection of model is proposed as an alternative in the classic criteria within the framework of the regression spline. Finally various applications of the nonparametric bayesian methods are developed. Algorithms are adapted and implemented to be able to apply such methods. This thesis allows to advance the bayesian methods in various ways within the framework of the clinical research through several sets of data
APA, Harvard, Vancouver, ISO, and other styles
41

Roncen, Rémi. "Modélisation et identification par inférence bayésienne de matériaux poreux acoustiques en aéronautique." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0023/document.

Full text
Abstract:
Les travaux de thèse gravitent autour de la thématique des matériaux poreux en aéronautique, et de la prise en compte de l'incertitude sur les caractérisations réalisées. Est envisagé l'ajout de matériaux poreux au sein des cavités de liners acoustiques, matériaux constitués d'une plaque perforée et d'une cavité fonctionnant sur le principe du résonateur de Helmholtz et majoritairement utilisés dans l'industrie aéronautique. Cet ajout est réalisé avec pour objectif d'augmenter l'étendue spectrale de l'absorption acoustique de tels matériaux et d'en améliorer le fonctionnement en présence d'un fort niveau sonore et d'un écoulement rasant.Pour répondre à cette problématique générale, deux grandes pistes sont suivies. Plusieurs études sont d'abord menées sur des matériaux poreux seuls, afin de déterminer les propriétés intrinsèques de leur micro-géométrie, nécessaires à l'utilisation des modèles semi-phénoménologiques de fluide équivalent adoptés par la suite. Pour cela, un outil statistique d'inférence Bayésienne est utilisé afin d'extraire l'information sur ces propriétés, contenue dans les signaux réfléchis ou transmis par un matériau poreux, et ce dans trois régimes fréquentiels distincts. De plus, une extension de la modélisation des matériaux poreux rigides est proposée, par l'ajout de deux paramètres intrinsèques reliés au comportement visco-inertiel du fluide intra-pores dans le régime des basses fréquences.Dans un second temps, l'impédance d'un liner, une propriété globale représentant le comportement acoustique de matériaux, est identifiée par inférence Bayésienne. Des données issues d'un benchmark de la NASA sont utilisées pour valider l'outil d'inférence développé, lorsque le matériau est en présence d'un écoulement rasant. Une extension des résultats au cas du banc B2A de l'ONERA est également réalisée, avec des mesures des champs de vitesses au dessus du liner, obtenues par LDV. Cette technique d'identification est par la suite utilisée sur un cas issu du B2A où un matériau poreux est présent au sein des cavités du liner, afin de mettre à jour l'influence du matériau poreux sur la réponse acoustique du liner en présence d'un écoulement rasant. Des mesures complémentaires en tube à impédance, sans écoulement et en incidence normale, sont également réalisées à différents niveaux sonores et pour diverses combinaisons de plaques perforées et de matériaux poreux, de façon à mettre en évidence l'influence de la présence d'un matériau poreux sur le comportement acoustique d'un liner soumis à de forts niveaux sonores
The present work focuses on porous materials in aeronautics and the uncertainty considerations on the performed identifications. Porous materials are added inside the cavities of acoustic liners, materials formed with perforated plates and cavities, behaving as Helmholtz resonators, which are widely used in the industry. The aim is to increase the frequency range of the absorption spectrum, while improving the behaviour of liners to grazing flow and high sound intensity.This general topic is addressed by following two different leads.Porous materials were first considered in order to identify the intrinsic properties of their micro-geometry, necessary to the equivalent fluid semi-phenomenological models used later on. To achieve this, a statistical Bayesian inference tool is used to extract information on these properties, contained in reflected or transmitted signals, in three distinct frequency regimes. Furthermore, a modelling extension of rigid porous media is introduced, by adding two new intrinsic parameters related to the pore micro-structure and linked to the visco-inertial behaviour of the intra-pore fluid, at low frequencies.Then, the liner impedance, a global property representing the acoustic behaviour of materials, is identified through a Bayesian inference process. Data from a NASA benchmark are used to validate the developed tool, when the liner is subject to a shear grazing flow. An extension of these results to ONERA's B2A aeroacoustic bench is also performed, with measurements of the velocity profiles above the liner, obtained with a Laser Doppler Velocimetry technique. This identification technique is then further used for liner materials filled with porous media, to highlight the eventual influence of such a porous media on the acoustic response of the liner, when subject to a shear grazing flow. Additional measurements are permed without flow, at normal incidence, in a classical impedance tube. Different combinations of perforated plates and porous materials are tested at different sound pressure level, to evaluate the influence of the presence of porous media on the non-linear behaviour of liners when high sound pressure levels are present
APA, Harvard, Vancouver, ISO, and other styles
42

Casarin, Roberto. "Méthodes de simulation pour l'estimation bayésienne des modèles à variables latentes." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090056.

Full text
Abstract:
Les modèles à variables latentes sont très utilisées en économétrie et statistique. Cette thèse se concentre sur l'utilisation des variables latentes dans la modélisation des mélanges des lois, dans l'analyse des séries temporelles et dans les modèles à temps continue. On suit une approche bayésienne de l'inférence fondée sur simulation. La partie recherche a été développée dans quatre chapitres. Le Chapitre 3 propose un modèle de mélange des lois alpha-stables qui prennent en compte, l'asymétrie, les queues épaisses et la multimodalité qui caractérisent les données financières. Le Chapitre 4 propose un modèle à volatilité stochastique à changements de régime avec des innovations du type queues épaisses pour le processus observable. Nous utiliserons une méthode bayésienne de filtrage par simulation, pour filtrer les processus latents et pour estimer les paramètres inconnus. Le Chapitre 5 traite l'estimation de paramètres et l'extraction de la volatilité en utilisant un nouvel algorithme SMC régularisé. Le Chapitre 6 traite l'inférence bayèsienne par Population de Monte Carlo, d'une équation différentielle stochastique, observée à temps discret
Latent variable models are now very common in econometrics and statistics. This thesis mainly focuses on the use of latent variables in mixture modelling, time series analysis and continuous time models. We follow a Bayesian inference framework based on simulation methods. In the third chapter we propose alfa-stable mixtures in order to account for skewness, heavy tails and multimodality in financial modelling. Chapter four proposes a Markov-Switching Stochastic-Volatility model with a heavy-tail observable process. We follow a Bayesian approach and make use of Particle Filter, in order to filter the state and estimate the parameters. Chapter five deals with the parameter estimation and the extraction of the latent structure in the volatilities of the US business cycle and stock market valuations. We propose a new regularised SMC procedure for doing Bayesian inference. In chapter six we employ a Bayesian inference procedure, based on Population Monte Carlo, to estimate the parameters in the drift and diffusion terms of a stochastic differential equation (SDE), from discretely observed data
APA, Harvard, Vancouver, ISO, and other styles
43

Chopin, Nicolas. "Applications des méthodes de Monte Carlo séquentielles à la statistique bayésienne." Paris 6, 2003. http://www.theses.fr/2003PA066057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Hallouli, Khalid. "Reconnaissance de caractères par méthodes markoviennes et réseaux bayésiens." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000740.

Full text
Abstract:
Cette thése porte sur la reconnaissance de caractères imprimés et manuscrits par méthodes markoviennes et réseaux bayésiens. La première partie consiste à effectuer une modélisation stochastique markovienne en utilisant les HMMs classiques dans deux cas: semi-continu et discret. Un premier modèle HMM est obtenu à partir d'observations de type colonnes de pixels (HMM-vertical), le second à partir d'observations de type lignes (HMM-horizontal). Ensuite nous proposons deux types de modèles de fusion : modèle de fusion de scores qui consiste à combiner les deux vraisemblances résultantes des deux HMMs, et modèle de fusion de données qui regroupe simultanément les deux observations lignes et colonnes. Les résultats montrent l'importance du cas semi-continu et la performance des modèles de fusion. Dans la deuxième partie nous développons les réseaux bayésiens statiques et dynamiques, l'algorithme de Jensen Lauritzen Olesen (JLO) servant comme moteur d'inférence exacte, ainsi que l'apprentissage des paramètres avec des données complètes et incomplètes. Nous proposons une approche pour la reconnaissance de caractères (imprimés et manuscrits) en employant le formalisme des réseaux bayésiens dynamiques. Nous construisons certains types de modèles: HMM sous forme de réseau bayésien dynamique, modèle de trajectoire et modèles de couplages. Les résultats obtenus mettent en évidence la bonne performance des modèles couplés. En général nos applications nous permettent de conclure que l'utilisation des réseaux bayésiens est efficace et très prometteuse par le fait de modéliser les dépendances entre différentes observations dans les images de caractères.
APA, Harvard, Vancouver, ISO, and other styles
45

Brosse, Nicolas. "Around the Langevin Monte Carlo algorithm : extensions and applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX014/document.

Full text
Abstract:
Cette thèse porte sur le problème de l'échantillonnage en grande dimension et est basée sur l'algorithme de Langevin non ajusté (ULA).Dans une première partie, nous proposons deux extensions d'ULA et fournissons des garanties de convergence précises pour ces algorithmes. ULA n'est pas applicable lorsque la distribution cible est à support compact; grâce à une régularisation de Moreau Yosida, il est néanmoins possible d'échantillonner à partir d'une distribution suffisamment proche de la distribution cible. ULA diverge lorsque les queues de la distribution cible sont trop fines; en renormalisant correctement le gradient, cette difficulté peut être surmontée.Dans une deuxième partie, nous donnons deux applications d'ULA. Nous fournissons un algorithme pour estimer les constantes de normalisation de densités log concaves à partir d'une suite de distributions dont la variance augmente graduellement. En comparant ULA avec la diffusion de Langevin, nous développons une nouvelle méthode de variables de contrôle basée sur la variance asymptotique de la diffusion de Langevin.Dans une troisième partie, nous analysons Stochastic Gradient Langevin Dynamics (SGLD), qui diffère de ULA seulement dans l'estimation stochastique du gradient. Nous montrons que SGLD, appliqué avec des paramètres habituels, peut être très éloigné de la distribution cible. Cependant, avec une technique appropriée de réduction de variance, son coût calcul peut être bien inférieur à celui d'ULA pour une précision similaire
This thesis focuses on the problem of sampling in high dimension and is based on the unadjusted Langevin algorithm (ULA).In a first part, we suggest two extensions of ULA and provide precise convergence guarantees for these algorithms. ULA is not feasible when the target distribution is compactly supported; thanks to a Moreau Yosida regularization, it is nevertheless possible to sample from a probability distribution close enough to the distribution of interest. ULA diverges when the tails of the target distribution are too thin; by taming appropriately the gradient, this difficulty can be overcome.In a second part, we give two applications of ULA. We provide an algorithm to estimate normalizing constants of log concave densities based on a sequence of distributions with increasing variance. By comparison of ULA with the Langevin diffusion, we develop a new control variates methodology based on the asymptotic variance of the Langevin diffusion.In a third part, we analyze Stochastic Gradient Langevin Dynamics (SGLD), which differs from ULA only in the stochastic estimation of the gradient. We show that SGLD, applied with usual parameters, may be very far from the target distribution. However, with an appropriate variance reduction technique, its computational cost can be much lower than ULA for the same accuracy
APA, Harvard, Vancouver, ISO, and other styles
46

Trinh, Quoc Anh. "Méthodes neuronales dans l'analyse de survie." Evry, Institut national des télécommunications, 2007. http://www.theses.fr/2007TELE0004.

Full text
Abstract:
Les réseaux de neurones artificiels sont un outil statistique utile à la prédiction de la survie en médecine clinique qui connaît un certain succès comme en témoigne le numéro spécial de la revue Cancer du 15 avril 2001. Ce travail propose une généralisation des modèles classiques de survie où les variables prédictives linéaires sont remplacées par des variables prédictives non linéaires modélisées par des perceptrons multicouches non récurrents. Cette modélisation dont l'objectif est de prédire un temps de survie prend en compte les effets dépendant du temps et les interactions entre variables. Le modèle des réseaux de neurones permet de s'affranchir des restrictions du modèle de Cox car il peut estimer les effets dépendant du temps ainsi que des interactions éventuelles. En outre, la présence de données censurées, la particularité de l'analyse de survie, donne envie de prendre en compte toutes les connaissances disponibles sur les données pour l'apprentissage des modèles neuronaux afin d'avoir un meilleur modèle prédictif. L'approche bayésienne est donc une approche appropriée car elle permet une meilleure généralisation des réseaux pendant la phase d' apprentissage en évitant le sur-ajustement qui peut se produire au cours de l'apprentissage avec l'algorithme de rétro-propagation. De plus, un apprentissage bayésien hiérarchise des réseaux de neurones convient parfaitement à une sélection de variables pertinentes qui permet une meilleure explication des effets dépendant du temps et des interactions entre variables. La performance des approches à base d'apprentissage de réseaux de neurones dans l'analyse de survie dépend notamment de la taille de l'ensemble des données d'apprentissage et du taux de censure de données. En particulier, pour les données de génomes pour lesquelles les variables sont beaucoup plus nombreuses que les observations, une sélection des variables importantes peut être effectuée par des réseaux de neurones après une sélection automatique des variables pertinentes pour diminuer la dimension de l'espace des données. Une estimation plus précise du temps de survie permet une meilleure connaissance physiopathologique de la maladie et une meilleure stratégie thérapeutique. Celle-ci est obtenue grâce à la méthode de ré-échantillonnage de données et à l'adaptativité du modèle neuronal. La construction d'un arbre de décision sur des estimations du réseau permet une meilleure définition des groupes pronostiques de survie
This thesis proposes a generalization of the conventional survival models where the linear prdictive variables are replaced by nonlinear multi-layer perceptions of variables. This modelling by neural networks predict the survival times with talking into account the time effects and the interactions between variables. The neural network models will be validated by cross validation technique or the bayesian slection criterion based on the model's posteriori probability. The prediction is refined by a boostrap aggregating (Bagging) and bayesian models average to increase the precision. Moreower, the censoring, the particularity of the survival analysis, needs a survival model which could take into account all available knowledges on the data for estimation to obtain a better prediction. The bayesian approach is thus a proposed approach because it allows a better generalization of the neural networks because of the avoidance of the overlifting. Moreover, the hierarchical models in bayesian learning of the neural networks is appropriate perfectly for a selection of relevant variables which gives a better explanation of the times effects and the interactions between variables
APA, Harvard, Vancouver, ISO, and other styles
47

Chen, Yuting. "Inférence bayésienne dans les modèles de croissance de plantes pour la prévision et la caractérisation des incertitudes." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0040/document.

Full text
Abstract:
La croissance des plantes en interaction avec l'environnement peut être décrite par des modèles mathématiques. Ceux-ci présentent des perspectives prometteuses pour un nombre considérable d'applications telles que la prévision des rendements ou l'expérimentation virtuelle dans le contexte de la sélection variétale. Dans cette thèse, nous nous intéressons aux différentes solutions capables d'améliorer les capacités prédictives des modèles de croissance de plantes, en particulier grâce à des méthodes statistiques avancées. Notre contribution se résume en quatre parties.Tout d'abord, nous proposons un nouveau modèle de culture (Log-Normal Allocation and Senescence ; LNAS). Entièrement construit dans un cadre probabiliste, il décrit seulement les processus écophysiologiques essentiels au bilan de la biomasse végétale afin de contourner les problèmes d'identification et d'accentuer l'évaluation des incertitudes. Ensuite, nous étudions en détail le paramétrage du modèle. Dans le cadre Bayésien, nous mettons en œuvre des méthodes Monte-Carlo Séquentielles (SMC) et des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) afin de répondre aux difficultés soulevées lors du paramétrage des modèles de croissance de plantes, caractérisés par des équations dynamiques non-linéaires, des données rares et un nombre important de paramètres. Dans les cas où la distribution a priori est peu informative, voire non-informative, nous proposons une version itérative des méthodes SMC et MCMC, approche équivalente à une variante stochastique d'un algorithme de type Espérance-Maximisation, dans le but de valoriser les données d'observation tout en préservant la robustesse des méthodes Bayésiennes. En troisième lieu, nous soumettons une méthode d'assimilation des données en trois étapes pour résoudre le problème de prévision du modèle. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de modèle par la méthode de sélection de modèles à l'aide de critères appropriés. Ces paramètres sélectionnés sont par la suite estimés en portant une attention particulière à l'évaluation des incertitudes. La distribution a posteriori ainsi obtenue est considérée comme information a priori pour l'étape de prévision, dans laquelle une méthode du type SMC telle que le filtrage par noyau de convolution (CPF) est employée afin d'effectuer l'assimilation de données. Dans cette étape, les estimations des états cachés et des paramètres sont mis à jour dans l'objectif d'améliorer la précision de la prévision et de réduire l'incertitude associée. Finalement, d'un point de vue applicatif, la méthodologie proposée est mise en œuvre et évaluée avec deux modèles de croissance de plantes, le modèle LNAS pour la betterave sucrière et le modèle STICS pour le blé d'hiver. Quelques pistes d'utilisation de la méthode pour l'amélioration du design expérimental sont également étudiées, dans le but d'améliorer la qualité de la prévision. Les applications aux données expérimentales réelles montrent des performances prédictives encourageantes, ce qui ouvre la voie à des outils d'aide à la décision en agriculture
Plant growth models aim to describe plant development and functional processes in interaction with the environment. They offer promising perspectives for many applications, such as yield prediction for decision support or virtual experimentation inthe context of breeding. This PhD focuses on the solutions to enhance plant growth model predictive capacity with an emphasis on advanced statistical methods. Our contributions can be summarized in four parts. Firstly, from a model design perspective, the Log-Normal Allocation and Senescence (LNAS) crop model is proposed. It describes only the essential ecophysiological processes for biomass budget in a probabilistic framework, so as to avoid identification problems and to accentuate uncertainty assessment in model prediction. Secondly, a thorough research is conducted regarding model parameterization. In a Bayesian framework, both Sequential Monte Carlo (SMC) methods and Markov chain Monte Carlo (MCMC) based methods are investigated to address the parameterization issues in the context of plant growth models, which are frequently characterized by nonlinear dynamics, scarce data and a large number of parameters. Particularly, whenthe prior distribution is non-informative, with the objective to put more emphasis on the observation data while preserving the robustness of Bayesian methods, an iterative version of the SMC and MCMC methods is introduced. It can be regarded as a stochastic variant of an EM type algorithm. Thirdly, a three-step data assimilation approach is proposed to address model prediction issues. The most influential parameters are first identified by global sensitivity analysis and chosen by model selection. Subsequently, the model calibration is performed with special attention paid to the uncertainty assessment. The posterior distribution obtained from this estimation step is consequently considered as prior information for the prediction step, in which a SMC-based on-line estimation method such as Convolution Particle Filtering (CPF) is employed to perform data assimilation. Both state and parameter estimates are updated with the purpose of improving theprediction accuracy and reducing the associated uncertainty. Finally, from an application point of view, the proposed methodology is implemented and evaluated with two crop models, the LNAS model for sugar beet and the STICS model for winter wheat. Some indications are also given on the experimental design to optimize the quality of predictions. The applications to real case scenarios show encouraging predictive performances and open the way to potential tools for yield prediction in agriculture
APA, Harvard, Vancouver, ISO, and other styles
48

Revillon, Guillaume. "Uncertainty in radar emitter classification and clustering." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS098/document.

Full text
Abstract:
En Guerre Electronique, l’identification des signaux radar est un atout majeur de la prise de décisions tactiques liées au théâtre d’opérations militaires. En fournissant des informations sur la présence de menaces, la classification et le partitionnement des signaux radar ont alors un rôle crucial assurant un choix adapté des contre-mesures dédiées à ces menaces et permettant la détection de signaux radar inconnus pour la mise à jour des bases de données. Les systèmes de Mesures de Soutien Electronique enregistrent la plupart du temps des mélanges de signaux radar provenant de différents émetteurs présents dans l’environnement électromagnétique. Le signal radar, décrit par un motif de modulations impulsionnelles, est alors souvent partiellement observé du fait de mesures manquantes et aberrantes. Le processus d’identification se fonde sur l’analyse statistique des paramètres mesurables du signal radar qui le caractérisent tant quantitativement que qualitativement. De nombreuses approches mêlant des techniques de fusion de données et d’apprentissage statistique ont été développées. Cependant, ces algorithmes ne peuvent pas gérer les données manquantes et des méthodes de substitution de données sont requises afin d’utiliser ces derniers. L’objectif principal de cette thèse est alors de définir un modèle de classification et partitionnement intégrant la gestion des valeurs aberrantes et manquantes présentes dans tout type de données. Une approche fondée sur les modèles de mélange de lois de probabilités est proposée dans cette thèse. Les modèles de mélange fournissent un formalisme mathématique flexible favorisant l’introduction de variables latentes permettant la gestion des données aberrantes et la modélisation des données manquantes dans les problèmes de classification et de partionnement. L’apprentissage du modèle ainsi que la classification et le partitionnement sont réalisés dans un cadre d’inférence bayésienne où une méthode d’approximation variationnelle est introduite afin d’estimer la loi jointe a posteriori des variables latentes et des paramètres. Des expériences sur diverses données montrent que la méthode proposée fournit de meilleurs résultats que les algorithmes standards
In Electronic Warfare, radar signals identification is a supreme asset for decision making in military tactical situations. By providing information about the presence of threats, classification and clustering of radar signals have a significant role ensuring that countermeasures against enemies are well-chosen and enabling detection of unknown radar signals to update databases. Most of the time, Electronic Support Measures systems receive mixtures of signals from different radar emitters in the electromagnetic environment. Hence a radar signal, described by a pulse-to-pulse modulation pattern, is often partially observed due to missing measurements and measurement errors. The identification process relies on statistical analysis of basic measurable parameters of a radar signal which constitute both quantitative and qualitative data. Many general and practical approaches based on data fusion and machine learning have been developed and traditionally proceed to feature extraction, dimensionality reduction and classification or clustering. However, these algorithms cannot handle missing data and imputation methods are required to generate data to use them. Hence, the main objective of this work is to define a classification/clustering framework that handles both outliers and missing values for any types of data. Here, an approach based on mixture models is developed since mixture models provide a mathematically based, flexible and meaningful framework for the wide variety of classification and clustering requirements. The proposed approach focuses on the introduction of latent variables that give us the possibility to handle sensitivity of the model to outliers and to allow a less restrictive modelling of missing data. A Bayesian treatment is adopted for model learning, supervised classification and clustering and inference is processed through a variational Bayesian approximation since the joint posterior distribution of latent variables and parameters is untractable. Some numerical experiments on synthetic and real data show that the proposed method provides more accurate results than standard algorithms
APA, Harvard, Vancouver, ISO, and other styles
49

Spill, Yannick. "Développement de méthodes d'échantillonnage et traitement bayésien de données continues : nouvelle méthode d'échange de répliques et modélisation de données SAXS." Paris 7, 2013. http://www.theses.fr/2013PA077237.

Full text
Abstract:
La détermination de la structure de protéines et d'autres complexes macromoléculaires est de plus en plus difficile. Les cas les plus simples ont étés déterminés, et la recherche actuelle en bioinformatique se focalise sur des cibles de plus en plus compliquées. Pour déterminer la structure de ces complexes, il est devenu nécessaire de combiner différentes expériences et d'utiliser des données de moins bonne qualité. En d'autres termes, la détermination de structures utilise de plus en plus de données éparses, bruitées et incohérentes. Par conséquent, il est devenu essentiel de pouvoir quantifier l'exactitude d'une structure, une fois déterminée. Cette quantification est parfaitement accomplie par inférence statistique. Dans cette thèse, je développe un nouvel algorithme d'échantillonnage, l'Échange de Répliques Convectif, qui perme de trouver des structures probables de façon plus robuste. Je propose également un traitement statistique de données continues, comme celles obtenues par diffusion des rayons X aux petits angles
The determination of protein structures and other macromolecular complexes is becoming more and more difficult. The simplest cases have already been determined, and today's research in structural bioinformatics focuses on ever more challenging targets. To successfully determine the structure of these complexes, it has become necessary to combine several kinds of experiments and to relax the quality standards during acquisition. In other words, structure determination makes an increasing use of sparse, noisy and inconsistent data. It is therefore becoming essential to quantify the accuracy of a determined structure. This quantification is superbly achieved by statistical inference. In this thesis, I develop a new sampling algorithm, Convective Replica-Exchange, sought to find probable structures more robustly. I also propose e proper statistical treatment for continuous data, such as Small-Angle X-Ray Scattering data
APA, Harvard, Vancouver, ISO, and other styles
50

Pons, Isabelle. "Méthodes de segmentation bayésienne appliquées aux images SAR : théorie et mise en oeuvre." Nice, 1994. http://www.theses.fr/1994NICE4714.

Full text
Abstract:
Les images obtenues par un SAR (Synthetic Aperture Radar) sont très différentes des données optiques couramment utilisées en télédétection. Elles sont bruitées par le speckle qui donne un aspect poivre et sel à l'image et complique son exploitation. La recherche d'une méthode de segmentation adaptée aux images SAR nous a conduit à envisager une approche bayésienne. La segmentation bayésienne repose sur une modélisation statistique de l'image au niveau de la distribution du signal ainsi qu'une modélisation de l'image des régions. La modélisation de l'image à segmenter permet donc de considérer les statistiques liées à l'image et prendre en compte la grande variabilité spatiale due au speckle. La théorie markovienne associée à la modélisation de l'image des régions introduit un modèle de dépendance entre pixels voisins et permet d'orienter la classification vers une recherche de régions. Nous avons tout d'abord exposé en détail les hypothèses liées à ces concepts (distribution du signal, segmentation bayésienne, champ de Markov) et nous avons présenté la théorie et les algorithmes associes de façon unifiée. La complexité de réalisation nous a conduit à proposer, dans un objectif opérationnel sur la totalité d'une image (3000*3000), l'introduction d'une phase d'apprentissage. Différentes options pour la modélisation de l'image ont été retenues. Ces algorithmes ont ensuite été appliqués sur des images sar différentes : une image SAR aéroportée sur le Jura et deux images ERS-1 sur la Guinée pour lesquelles nous disposions des données terrains. Les résultats obtenus ont été comparés par rapport à une réalité terrain et analyses. Globalement, le gain des classifications obtenues par nos algorithmes, par rapport à une classification pixel par pixel, est significatif. Ces bons résultats montrent l'intérêt de ce type d'approche pour obtenir une classification (pas de filtrage préalable, intégration des statistiques, approche par région) et nous avons établi, parmi, parmi les diverses options explorées, un algorithme efficace
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography