To see the other types of publications on this topic, follow the link: Estimation de paramètres de forme.

Dissertations / Theses on the topic 'Estimation de paramètres de forme'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Estimation de paramètres de forme.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Frabolot, Ferdinand. "Optimisation de forme avec détection automatique de paramètres." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2182/document.

Full text
Abstract:
L’objectif de ce travail de thèse est de pouvoir intégrer totalement l’optimisation de forme des raidisseurs de capot dans un processus de conception industrielle et cela afin d’optimiser la forme et la distribution des raidisseurs dans un contexte multi-objectif (voire multi-disciplinaire) d’une structure 3D surfacique. Pour ce faire, nous avons tout d’abord établi un aperçu de l’état de l’art dans l’optimisation de forme des structures en classifiant les différentes méthodes de paramétrage de forme, en trois catégories ; les méthodes basées sur la géométrie (telle la paramétrisation d’un modèle de type CAO), les méthodes basées sur une grille fixe (telles que les méthodes d’optimisation topologique) et les méthodes basées sur le maillage (telles que les méthodes de régularisation du maillage). Toutefois, aucune de ces méthodes ne satisfait pleinement aux objectifs posés. Nous introduisons ainsi dans cette thèse la méthode FEM-CsG : Finite Element Mesh - Constructive surface Geometry. Imprégnée d’un fort contexte industriel, cette méthode propose une réponse à des contraintes telles que la possibilité de représenter la solution optimale par un ensemble de paramètres CAO, la possibilité d’adapter le modèle EF à l’analyse souhaitée et la garantie d’une représentation géométrique et d’un maillage robuste. En proposant d’intégrer des formes élémentaires paramétrées et prémaillées issues d’une bibliothèque de formes dans une structure coque 3D maillée par l’utilisation des variables issues de la CAO, la méthode FEM-CsG permet une évolution constante de la topologie guidée par l’optimisation. Ainsi, même si la topologie est modifiée la forme résultante reste conforme avec une représentation CAO par construction, correspondant davantage à la réalité des optimisations réalisées en avant-projet. La méthode FEM-CsG a été validée sur deux études de cas, de complexité variable, permettant de mettre en avant la robustesse de cette dernière. Ainsi, avec un choix intelligent et cohérent des variables de formes, les problèmes d’optimisation peuvent avec un nombre restreint de variables explorer un nombre important de topologies ou de formes. Les changements de topologies s’effectuent de manière continue, validant ainsi la méthode à tout type d’analyse souhaitée<br>The objective of this thesis work is to be able to completely integrate shape optimization of car inner hood stiffeners in a complex industrial process, in order to fully optimize the shape and distribution of the stiffeners in a multi-objective approach (or even multi-disciplinary) of a 3D surfacic structure. To this end, we established, at the outset, an insight of the state-of-the-art in shape optimization of structures by classifying the different shape parametrizations in three distinct categories : geometry-based methods (a shape parametrization such as a CAD model), grid-based methods (such as topology optimization methods) and mesh-based methods (such as morphing methods or mesh regulation). However, none of these methods fully satisfies the set objectives. Thus, we will introduce in this work the FEM-CsG method : Finite Element Mesh - Constructive surface Geometry. Bolstered by its strong industrial context, this method offers a response to such constraints, i.e. the possibility to represent the optimal solution by a system of CAD parameters, the possibility to adapt the FE model to the wanted analysis and the guarantee of a robust geometrical representation and mesh stability. We offer to incorporate premeshed parameterized elementary forms into a 3D sheet meshed structures. Hence, these forms are arising from a CAD parameterized elementary form library. Furthermore, the FEM-CsG method uses a set of operators acting on the mesh allowing a constant evolution of the topology guided by optimization. Therefore, even if the topology may vary, the resulting shapes comply with CAD representations by construction, a solution better reflecting the reality of optimizations performed during the preliminary development stage. The FEM-CsG method has been validated on two simple case studies in order to bring forward its reliability. Thus, with an intelligent and coherent choice of the design variables, shape optimization issues may, with a restrictive number of variables, explore an important number of shapes and topologies. Topology changes are accomplished in a continuous manner, therefore validating the FEM-CsG method to any desired analysis
APA, Harvard, Vancouver, ISO, and other styles
2

Leblond, Timothée. "Calcul de gradient sur des paramètres CAO pour l’optimisation de forme." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC017/document.

Full text
Abstract:
Dans ce manuscrit, nous présentons une méthode d’optimisation de forme qui se base sur des paramètres géométriques comme des longueurs, des angles, etc. Nous nous appuyons sur des techniques d’optimisation basées sur un gradient. La sensibilité de la fonction objectif par rapport à la position des noeuds du maillage nous est fournie par un solveur adjoint que l’on considère comme une boîte noire. Afin d’optimiser par rapport aux paramètres CAO, nous nous concentrons sur l’évaluation de la sensibilité de la position des noeuds par rapport à ces paramètres. Ainsi, nous proposons deux approches par différences finies. La première méthode s’appuie sur une projection harmonique afin de comparer dans un même espace le maillage initial et celui obtenu suite à la variation d’un paramètre CAO. Les développements présentés dans ce manuscrit permettent d’étendre l’application aux formes ayant plusieurs frontières comme les collecteurs d’échappement. Nous avons développé une méthode d’interpolation adaptée à cette comparaison. L’ensemble du processus a été automatisé et nous en montrons l’entière efficacité sur des applications industrielles en aérodynamique interne. La deuxième méthode se base directement sur les géométries CAO pour évaluer cette sensibilité. Nous utilisons la définition intrinsèque des patches dans l’espace paramétrique (u;v) pour effectuer cette comparaison. Grâce à l’utilisation des coordonnées exactes en tout point de la surface fournies par la CAO, nous évitons d’avoir recours à une interpolation afin d’avoir la meilleure précision de calcul possible. Cependant, contrairement à la première méthode, elle requiert d’identifier les correspondances entre les patches d’une forme à l’autre. Une application sur un cas académique a été faite en aérodynamique externe. La pertinence de la première méthode a été démontrée sur des cas représentatifs et multiobjectifs, ce qui permettrait de faciliter son déploiement et son utilisation dans un cadre industriel. Quant à la deuxième méthode, nous avons montré son fort potentiel. Cependant, des développements supplémentaires seraient nécessaires pour une application plus poussée. Du fait qu’elles sont indépendantes des solveurs mécaniques et du nombre de paramètres, ces méthodes réduisent considérablement les temps de développement des produits, notamment en permettant l’optimisation multiphysique en grande dimension<br>In this manuscript, we present a shape optimization method based on CAD parameters such as lengths, angles, etc. We rely on gradient-based optimization techniques. The sensitivity of the objective function, with respect to the mesh nodes position, is provided by an adjoint solver considered here as a black box. To optimize with respect to CAD parameters, we focus on computing the sensitivity of the nodes positions with respect to these parameters. Thus, we propose two approaches based on finite differences. The first method uses a harmonic projection to compare in the same space the initial mesh and the one obtained after a change of the set of CAD parameters. The developments presented in this manuscript open up new doors like the application to shapes with multiple borders such as exhaust manifolds. We also developed an interpolation method suitable for this comparison. The entire process is automated, and we demonstrate the entire effectiveness on internal aerodynamics industrial applications. The second method is directly based on the CAD geometries to assess this sensitivity. To perform this comparison, we use the intrinsic definition of the patches in the parametric space (u;v). Through the use of the exact coordinates at any point on the surface provided by the CAD, we avoid using an interpolation to get the best calculation accuracy possible. However, unlike the first method, it requires to identify the correspondence between patches from one shape to another. An application on an external aerodynamics academic case was made. The relevance of the first method is demonstrated on a representative multi-objective case, which facilitate its deployment use in an industrial environment. Regarding the second method, we showed its great potential. However, further developments are needed to handle more advanced cases. Because they are independent of the mechanical solver and the number of parameters, these methods significantly reduce product development time, particularly by allowing large and multiphysics optimization
APA, Harvard, Vancouver, ISO, and other styles
3

Buhry, Laure. "Estimation de paramètres de modèles de neurones biologiques sur une plate-forme de SNN (Spiking Neural Network) implantés "insilico"." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14057/document.

Full text
Abstract:
Ces travaux de thèse, réalisés dans une équipe concevant des circuits analogiques neuromimétiques suivant le modèle d’Hodgkin-Huxley, concernent la modélisation de neurones biologiques, plus précisément, l’estimation des paramètres de modèles de neurones. Une première partie de ce manuscrit s’attache à faire le lien entre la modélisation neuronale et l’optimisation. L’accent est mis sur le modèle d’Hodgkin- Huxley pour lequel il existait déjà une méthode d’extraction des paramètres associée à une technique de mesures électrophysiologiques (le voltage-clamp) mais dont les approximations successives rendaient impossible la détermination précise de certains paramètres. Nous proposons dans une seconde partie une méthode alternative d’estimation des paramètres du modèle d’Hodgkin-Huxley s’appuyant sur l’algorithme d’évolution différentielle et qui pallie les limitations de la méthode classique. Cette alternative permet d’estimer conjointement tous les paramètres d’un même canal ionique. Le troisième chapitre est divisé en trois sections. Dans les deux premières, nous appliquons notre nouvelle technique à l’estimation des paramètres du même modèle à partir de données biologiques, puis développons un protocole automatisé de réglage de circuits neuromimétiques, canal ionique par canal ionique. La troisième section présente une méthode d’estimation des paramètres à partir d’enregistrements de la tension de membrane d’un neurone, données dont l’acquisition est plus aisée que celle des courants ioniques. Le quatrième et dernier chapitre, quant à lui, est une ouverture vers l’utilisation de petits réseaux d’une centaine de neurones électroniques : nous réalisons une étude logicielle de l’influence des propriétés intrinsèques de la cellule sur le comportement global du réseau dans le cadre des oscillations gamma<br>These works, which were conducted in a research group designing neuromimetic integrated circuits based on the Hodgkin-Huxley model, deal with the parameter estimation of biological neuron models. The first part of the manuscript tries to bridge the gap between neuron modeling and optimization. We focus our interest on the Hodgkin-Huxley model because it is used in the group. There already existed an estimation method associated to the voltage-clamp technique. Nevertheless, this classical estimation method does not allow to extract precisely all parameters of the model, so in the second part, we propose an alternative method to jointly estimate all parameters of one ionic channel avoiding the usual approximations. This method is based on the differential evolution algorithm. The third chaper is divided into three sections : the first two sections present the application of our new estimation method to two different problems, model fitting from biological data and development of an automated tuning of neuromimetic chips. In the third section, we propose an estimation technique using only membrane voltage recordings – easier to mesure than ionic currents. Finally, the fourth and last chapter is a theoretical study preparing the implementation of small neural networks on neuromimetic chips. More specifically, we try to study the influence of cellular intrinsic properties on the global behavior of a neural network in the context of gamma oscillations
APA, Harvard, Vancouver, ISO, and other styles
4

Buhry, Laure. "Estimation de paramètres de modèles de neurones biologiques sur une plate-forme de SNN (Spiking Neural Network) implantés "in silico"." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00561396.

Full text
Abstract:
Ces travaux de thèse, réalisés dans une équipe concevant des circuits analogiques neuromimétiques suivant le modèle d'Hodgkin-Huxley, concernent la modélisation de neurones biologiques, plus précisément, l'estimation des paramètres de modèles de neurones. Une première partie de ce manuscrit s'attache à faire le lien entre la modélisation neuronale et l'optimisation. L'accent est mis sur le modèle d'Hodgkin- Huxley pour lequel il existait déjà une méthode d'extraction des paramètres associée à une technique de mesures électrophysiologiques (le voltage-clamp) mais dont les approximations successives rendaient impossible la détermination précise de certains paramètres. Nous proposons dans une seconde partie une méthode alternative d'estimation des paramètres du modèle d'Hodgkin-Huxley s'appuyant sur l'algorithme d'évolution différentielle et qui pallie les limitations de la méthode classique. Cette alternative permet d'estimer conjointement tous les paramètres d'un même canal ionique. Le troisième chapitre est divisé en trois sections. Dans les deux premières, nous appliquons notre nouvelle technique à l'estimation des paramètres du même modèle à partir de données biologiques, puis développons un protocole automatisé de réglage de circuits neuromimétiques, canal ionique par canal ionique. La troisième section présente une méthode d'estimation des paramètres à partir d'enregistrements de la tension de membrane d'un neurone, données dont l'acquisition est plus aisée que celle des courants ioniques. Le quatrième et dernier chapitre, quant à lui, est une ouverture vers l'utilisation de petits réseaux d'une centaine de neurones électroniques : nous réalisons une étude logicielle de l'influence des propriétés intrinsèques de la cellule sur le comportement global du réseau dans le cadre des oscillations gamma.
APA, Harvard, Vancouver, ISO, and other styles
5

Noiret, Céline. "Utilisation du calcul formel pour l'identifiabilité de modèles paramètriques et nouveaux algorithmes en estimation de paramètres." Compiègne, 2000. http://www.theses.fr/2000COMP1303.

Full text
Abstract:
Avant d'estimer les paramètres intervenant dans des systèmes dynamiques, linéaires ou non-linéaires, contrôlés ou non contrôlés, nous devons effectuer une étude d'identifiabilité, notion dont les différentes définitions sont rappelées dans le premier chapitre de cette thèse. Pour mener cette étude, diverses méthodes sont disponibles dans la littérature mais peu d'entre elles fournissent une caractérisation de l' identifiabilité. De plus, les calculs engendrés sont en général difficiles à mener. Un des objectifs de cette thèse a donc été de créer un logiciel quasi automatique testant l' identifiabilité. Nous avons donc pour cela développé trois méthodes: méthode entrée-sortie, méthode des similarités et méthode des invariants. La dernière méthode, basée sur une idée de M. Petitot, est entièrement nouvelle; la première a été introduite par F. Ollivier et la seconde par Tarn et Tunali. Ces trois méthodes ont été implantées en MAPLE, à l'aide entre autres du package diffalg, et nous les avons justifiées en nous basant sur des notions d'algèbre différentielle. La seconde partie de ce travail est une partie numérique. Nous avons tout d'abord fait un lien entre l'étape du test d'identifiabilité et celle de l'identification. Pour cela, nous avons introduit plusieurs critères faisant intervenir les équations entrée-sortie ou leur équivalent. Chaque critère a été expérimenté sur des modèles de pharmacocinétique. Ces méthodes fournissent en général une première estimation des paramètres qui peut être utilisée comme point de départ d'algorithmes itératifs spécialisés dans l'étude des problèmes mal posés: la régularisation de Tikhonov et les moindres carrés pondérés dont le poids est déterminé grâce à des LM! (inégalité matricielle affine). Chacune de ces méthodes locales a été testée sur les modèles précédents. La méthode la plus efficace s'est avérée la méthode de régularisation dans le cas de trajectoires peu bruitées et celle des moindres carrés pondérés dans celui de trajectoires plus perturbées.
APA, Harvard, Vancouver, ISO, and other styles
6

Nguyen, Hoang Luan. "Identification des systèmes linéaires, multivariables, représentés sous forme d'état discrète." Nancy 1, 1995. http://www.theses.fr/1995NAN10025.

Full text
Abstract:
Ce travail concerne l'identification des systèmes linéaires, multivariables, représentés sous forme d'état discrète. Dans le premier chapitre, nous discutons de la génération des séquences d'excitation et des opérations de pré-traitement des signaux issus du système. La représentation d'état discrète des systèmes multivariables et le passage de celle-ci à la représentation par matrice polynomiale sont ensuite abordés. Dans le troisième chapitre, nous évaluons les performances de trois méthodes non paramétriques d'identification structurale à l'aide d'une simulation de Monte Carlo sur deux exemples didactiques. Dans le chapitre suivant, nous développons deux nouveaux algorithmes d'estimation paramétrique (variable instrumentale surdéterminée et méthode fondée sur le principe de compensation de biais). Ces algorithmes sont ensuite comparés, à l'aide de six critères, à un ensemble de techniques existantes dans la littérature. Pour conclure, nous établissons un tableau récapitulatif des performances de sept méthodes étudiées suivant les critères fixes. Les algorithmes étudiés au chapitre 5 appartiennent à la classe des méthodes, appelées N4SID dans la littérature anglo-saxonne. Ces algorithmes permettent d'estimer directement les paramètres du modèle d'état discret. Dans cette catégorie de méthodes, nous proposons un algorithme original alliant cette approche aux polynômes de Laguerre, qui permet de réduire le temps de calcul et d'améliorer les résultats de l'estimation des paramètres. Dans le dernier chapitre, nous utilisons les algorithmes les plus performants décrits dans les chapitres 3, 4 et 5, pour identifier deux processus pilotes multivariables: un pont roulant simplifie et un système d'entrainement de bande de matériaux
APA, Harvard, Vancouver, ISO, and other styles
7

Meftahi, Houcine. "Études théoriques et numériques de quelques problèmes inverses." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10090/document.

Full text
Abstract:
Le travail de la thèse concerne l'étude de quelques problèmes inverses par différents approches mathématiques. Dans la première partie, nous considérons le problème inverse géométrique consistant à retrouver une fissure ou cavité(s) inconnue à partir de mesures sur le bord d'un domaine plan. Nous traitons ce problème par des techniques d'approximation rationnelle et méromorphe dans le plan complexe. Nous étudions un autre problème inverse consistant à estimer l'aire d'une cavité. Nous donnons une majoration explicite de l'aire de la cavité. Cette majoration est basée sur une estimation de croissance dans l'espace de Hardy­-Sobolev de la couronne. Nous appliquons également cette estimation pour donner la vitesse de comvergence d'un schéma d'ïnterpolation d'une fonction de l'espace de Hardy-Sobolev de la couronne. Dans la deuxième partie, nous considérons d'abord le problème inverse d'identification des paramètres de Lamé en élasticité linéaire. Nous transformons ce problème en un problème de minimisation et nous exhibons quelques exemples numériques. Nous considérons également le problème inverse d'identification d'une inclusion correspondant à une discontinuité de la conductivité. Nous utilisons la méthode du gradient topologique pour une première approximation et ensuite la méthode du gradient classique pour identifier plus précisément celles-ci. Enfin, nous étudions un problème inverse d'identification d'une inclusion en élasticité linéaire. Nous utilisons le gradient de forme pour retrouver numériquement des inclusions elliptiques<br>This work concerns the study of some inverse problems by different mathematical approaches. ln the first part, we consider the geometrical inverse problem. related to the identification of an unknown crack or inclusion(s) by boundary measurements. We treat this problem by technique of rational and meromorphic approximation in the complex plane. We study another inverse problem, namely estimating the area of a cavity. We derivive an explicit upper bound on the area of the cavity. We also aplly this estimation, to find an upper bound on the rate of convergence of a recovery interpolation schema in the Hardy-Sobolev space of an annulus. ln the second part. we first consider the inverse problem of recovering the Lamé parameters in linear elasticity from boundary measurements. we perform numerical experiments. We also consider the inverse problem or identification of an inclusion corresponding to a discontinuity of the conductivity. We use the method of the topological gradient to obtain a first estimate on the location of one or several inclusions and then, we use the method of the classical gradient to identify more precisely these. Finally. in the context of shape optimization, we study the inverse problem of identification of an inclusion in linear elasticity. We calculate the shape gradient of a functional of Kohn-Vogelius type, minmax of a lagrangian with respect to the parameter of deformation. We use this gradient to numerically flnd elliptic inclusions
APA, Harvard, Vancouver, ISO, and other styles
8

Soltani, Skander. "Application de la transformée en ondelettes en reconnaissance des formes." Compiègne, 1998. http://www.theses.fr/1998COMP1154.

Full text
Abstract:
Cette thèse concerne l'application de la transformée en ondelettes pour l'estimation fonctionnelle. La première partie consiste en l'étude de l'estimation de la fonction de régression. La méthode proposée utilise des décompositions sur des frames d'ondelettes. Il nous faut choisir alors les ondelettes pour lesquelles nous obtenons un risque en généralisation le plus faible. Des tests sur des données simulées montrent une supériorité de la méthode de pénalisation absolue pour la construction de l'estimateur et des méthodes du bootstrap pour le contrôle de complexité. La méthode a été également testée avec succès sur des données issues de la géostatistique. La seconde partie concerne l'analyse et la prédiction des séries temporelles. Nous avons proposé une méthode de décomposition qui permet d'obtenir de nouvelles séries avec des spectres de Fourier mieux localisés et donc plus simples à analyser. Un filtre passe-bas et un filtre passe-haut sont utilisés. L'application successive de ces deux filtres donne une série trame et une suite de séries hiérarchiques de détails. Les filtres que nous avons utilisés sont ceux de Haar. Cette méthode a été appliquée pour la modélisation de processus ayant une longue dépendance. Les résultats obtenus sur des données simulées et sur des données réelles sont intéressants.
APA, Harvard, Vancouver, ISO, and other styles
9

Tu, Xiao-Wei. "Détection et estimation des objets mobiles dans une séquence d'images." Compiègne, 1987. http://www.theses.fr/1987COMPD063.

Full text
Abstract:
Une méthodologie d’analyse d’une séquence d’images, contenant des objets relativement simples tels que des polyédres mobiles (Blocs), est présentée. Pourquoi les objets polyédriques ? Simplement, parce qu’une scène assez complexe peut être décrite par un ensemble de blocs et qu’un site naturel peut être décomposé en objet approximativement polyédriques. En ce qui concerne les algorithmes de traitements, on sait que les primitives associées aux blocs sont très faciles à extraire (notion de segments de droites, notion d’aire d’une forme polygonale et notion de contour ou de frontière de l’objet). Cette méthodologie permet de détecter des objets mobiles et éventuellement d’estimer les paramètres du mouvement ou de l’objet en mouvement. L’approche générale comporte quatre étapes : la première consiste à appliquer des opérations linéaires et non-linéaires sur les images acquises (par une caméra de type CCD), afin d’éliminer le bruit et d’obtenir des images plus contrastées. Ensuite, le renforcement de contours ayant été effectué par une méthode de relaxation, on applique des procédures de détection, de suivi et de codage de contours qui débouchent sur l’extraction de primitives (segments de droites, angles,. . . ). Parallèlement, un système de contours d’image 3-D est réalisé pour tester le comportement des algorithmes. La deuxième étape permet de construire une structure de données de type « multilistes », déduite des éléments significatifs correspondant aux primitives détectées dans la première étape. Cette structure est bien adaptée à une mise en correspondance ultérieure des primitives. La segmentation est généralement effectuée selon une approche descendante par création d’une structure de donnée « quadtree » qui permet de compléter l’information de la scène. Dans la troisième étape, on effectue la mise en correspondance par une méthode de relaxation discrète, des éléments des structures précédemment construite. A la dernière étape, les primitives, plus précisément les pixels mis en correspondance, sont choisis et utilisés pour estimer les paramètres de mouvement des objets considérés. Des essais expérimentaux effectués sur chaque étape donnent des résultats satisfaisants. Il semble donc que cette démarche soit intéressante.
APA, Harvard, Vancouver, ISO, and other styles
10

Ollivier, Annabelle. "Nouvelle approche pour l'extraction de paramètres géophysiques des mesures en altimétrie radar." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00204475.

Full text
Abstract:
Les radars altimètres embarqués à bord de satellites à plus de 800 km d'altitude permettent d'étudier des variations du niveau de la mer de l'ordre du centimètre ! Ils permettent aussi d'estimer la hauteur des vagues et la vitesse du vent le long des traces des satellites.<br />Ces paramètres sont estimés à partir des échos radar qui possèdent une forme caractéristique de la surface sur laquelle ils se réfléchissent.<br />La précision, la résolution et la qualité d'estimation de ces paramètres (hauteur de mer, hauteur des vagues, vitesse du vent...) sont des préoccupations permanentes pour l'exploitation et l'interprétation des mesures altimétriques.<br /><br /> Nous proposons dans cette thèse de réduire le niveau de bruit des mesures avant l'étape d'estimation c'est-à-dire sur les échos altimétriques.<br />Pour cela, nous exploitons leur corrélation spatiale en travaillant sur des matrices formées d'échos consécutifs.<br />Cette approche matricielle constitue une nouveauté dans le traitement du signal altimétrique. Son principal atout est de définir des sous-espaces vectoriels permettant de séparer l'information utile du bruit qui altère le signal.<br />Elle permet de définir des échos très peu bruités sans perdre l'information géophysique et avec une résolution maximale.<br />Nous établissons un traitement optimal au sens des moindres carrés s'appuyant sur des simulations et appliqué sur les données réelles de plusieurs altimètres.<br /><br /> Grâce aux échos débruités obtenus, les paramètres géophysiques sont extraits avec une précision accrue.<br />En réduisant le bruit haute fréquence, nous mettons en évidence une variabilité spatiale à plus fine échelle, jusqu'à présent noyée dans le bruit de mesure.<br />Cette méthode simple et efficace permet d'affiner la précision et la résolution des hauteurs de mer et des vagues estimées le long des traces des satellites.<br /><br /> En affinant la précision et la résolution des mesures le long des traces, on participe à la nouvelle orientation opérationnelle de l'altimétrie, tournée vers des utilisateurs et vers des études de plus en plus locales.
APA, Harvard, Vancouver, ISO, and other styles
11

Bompard, Manuel. "MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION." Phd thesis, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00771799.

Full text
Abstract:
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
APA, Harvard, Vancouver, ISO, and other styles
12

Degottex, Gilles. "Séparation de la source glottique des influences du conduit vocal." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00554763.

Full text
Abstract:
Cette étude s'intéresse au problème de l'inversion d'un modèle de production de la voix pour obtenir, à partir d'un enregistrement audio de parole, une représentation de le source sonore qui est générée au niveau de la glotte, la source glottique, ainsi qu'un représentation des résonances et anti-résonances créées par le conduit vocal. Cette séparation permet de manipuler les éléments composant la voix de façon indépendente. On trouve de nombreuses applications de ce sujet comme celles présentées dans cette étude (transformation de la voix et synthèse de la parole) et bien d'autres comme la conversion d'identité, la synthèse d'expressivité, la restauration de la voix qui peuvent être utilisées dans les technologies de divertissement, des installations sonores, les industries de la musique et du cinéma, les jeux vidéos et autres jouets sonores, la télécommunication, etc. Dans cette étude, nous supposons que les éléments perçus de la voix peuvent être manipulés en utilisant le modèle source-filtre. Dans le domaine spectral, la production de la voix est donc décrite comme une multiplication des spectres de ses éléments, la source glottique, le filtre du conduit vocal et la radiation. La seconde hypothèse utilisée dans cette étude concerne la composante déterministe de la source glottique. En effet, nous supposons qu'un modèle glottique peut schématiser une période de la source glottique. En utilisant une telle description analytique, les spectres d'amplitude et de phase de la source déterministe sont donc liés par les paramètres de forme du modèle glottique. Vis-à-vis de l'état de l'art des méthodes de transformation de la voix et de sa synthèse, le naturel et le contrôle de ces voix devraient donc être améliorés en utilisant un tel modèle. Par conséquent, nous essayons de répondre au trois questions suivantes dans cette étude: 1) Comment estimer un paramètre de forme d'un modèle glottique. 2) Comment estimer le filtre du conduit vocal en utilisant ce modèle glottique. 3) Comment transformer et synthétiser un signal vocal en utilisant toujours ce même modèle. Une attention toute particulière à été portée à la première question. Premièrement, nous supposons que la source glottique est un signal à phase mixte et que la réponse impulsionnelle du filtre du conduit vocal est un signal à minimum de phase. Puis, considérant ces propriétés, différentes méthodes sont proposées qui minimisent la phase carrée moyenne du résiduel convolutif d'un spectre de parole observé et de son modèle. Une dernière méthode est décrite où un unique paramètre de forme est solution d'une forme quasi fermée du spectre observé. De plus, cette étude discute les conditions qu'un modèle glottique et sa paramétrisation doivent satisfaire pour assurer que les paramètres sont estimés de façon fiable en utilisant les méthodes proposées. Ces méthodes sont également évaluées et comparées avec des méthodes de l'état de l'art en utilisant des signaux synthétiques et electro-glotto-graphiques. En utilisant une des méthodes proposées, l'estimation du paramètre de forme est indépendante de la position et de l'amplitude du modèle glottique. En plus, il est montré que cette même méthode surpasse toute les méthodes comparées en terme d'efficacité. Pour répondre à la deuxième et à la troisième question, nous proposons une procédure d'analyse/synthèse qui estime le filtre du conduit vocal en utilisant un spectre observé et sa source estimée. Des tests de préférences ont été menés et leurs résultats sont présentés dans cette étude pour comparer la procédure décrite et d'autres méthodes existantes. En terme de transposition de hauteur perçue, il est montré que la qualité globale des segments voisés d'un enregistrement peut être meilleure pour des facteurs de transposition importants en utilisant la méthode proposée. Il est aussi montré que le souffle perçu d'une voix peut être contrôlé efficacement.
APA, Harvard, Vancouver, ISO, and other styles
13

Ouarit, Mostafa. "Estimation de paramètres dans les systèmes distribués." Compiègne, 1998. http://www.theses.fr/1998COMP1158.

Full text
Abstract:
Le travail mené dans cette thèse porte sur les algorithmes d'estimation de paramètres. Les méthodes étudiées reposent sur deux idées bien distinctes : la pondération et la multirésolution. Dans la première partie, il s'agit de modifier le critère des moindres carrés par l'introduction d'un opérateur de pondération, en vue d'améliorer le conditionnement du problème d'identification. La méthode usuelle utilisant le calcul variationel pour l'obtention des opérateurs de pondération est révisée, car nous avons constaté que, dans de nombreux exemples, celle-ci conduit à des critères de moindres carrés non coercifs, ce qui peut poser de sérieux problèmes de convergence. Nous proposons alors une nouvelle approche qui consiste à poser le problème de la pondération comme un problème d'optimisation faisant intervenir des contraintes de semidéfinie positivité. Cela conduit à utiliser le cadre récent des inégalités matricielles linéaires (LMI). Par ailleurs, les expériences numériques effectuées ont permis de montrer, sur une grande variété d'exemples, les améliorations apportées par la méthode. Le second volet de ce travail concerne les méthodes d'optimisation hiérarchique. Après une présentation des principaux résultats de sensibilité qui ont motivé l'introduction des algorithmes multirésolution, nous avons mené une étude comparative avec la méthode de résolution unique, utilisée classiquement. Cette étude a permis de mettre en évidence la robustesse de la méthode multi-échelle. Nous nous sommes intéressés aussi à l'analyse des mécanismes qui permettraient à ces méthodes d'éliminer certains minima locaux qui n'ont, en général, pas de pertinence physique.
APA, Harvard, Vancouver, ISO, and other styles
14

Méler, Antoine. "BetaSAC et OABSAC, deux nouveaux 'echantillonnages conditionnels pour RANSAC." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00936650.

Full text
Abstract:
L'algorithme RANSAC est l'approche la plus commune pour l'estimation robuste des paramètres d'un modèle en vision par ordinateur. C'est principalement sa capacité à traiter des données contenant potentiellement plus d'erreurs que d'information utile qui fait son succès dans ce domaine où les capteurs fournissent une information très riche mais très difficilement exploitable. Depuis sa création, il y a trente ans, de nombreuses modifications ont été proposées pour améliorer sa vitesse, sa précision ou sa robustesse. Dans ce travail, nous proposons d'accélérer la résolution d'un problème par RANSAC en utilisant plus d'information que les approches habituelles. Cette information, calculée à partir des données elles-même ou provenant de sources complémentaires de tous types, nous permet d'aider RANSAC à générer des hypothèses plus pertinentes. Pour ce faire, nous proposons de distinguer quatre degrés de qualité d'une hypothèse: la "non contamination", la "cohésion", la "cohérence" et enfin la "pertinence". Puis nous montrons à quel point une hypothèse non contaminée par des données erronées est loin d'être pertinente dans le cas général. Dès lors, nous nous attachons à concevoir un algorithme original qui, contrairement aux méthodes de l'état de l'art, se focalise sur la génération d'échantillons "pertinents" plutôt que simplement "non contaminés". Notre approche consiste à commencer par proposer un modèle probabiliste unifiant l'ensemble des méthodes de réordonnancement de l'échantillonnage de RANSAC. Ces méthodes assurent un guidage du tirage aléatoire des données tout en se prémunissant d'une mise en échec de RANSAC. Puis, nous proposons notre propre algorithme d'ordonnancement, BetaSAC, basé sur des tris conditionnels partiels. Nous montrons que la conditionnalité du tri permet de satisfaire des contraintes de cohérence des échantillons formés, menant à une génération d'échantillons pertinents dans les premières itérations de RANSAC, et donc à une résolution rapide du problème. L'utilisation de tris partiels plutôt qu'exhaustifs, quant à lui, assure la rapidité et la randomisation, indispensable à ce type de méthodes. Dans un second temps, nous proposons une version optimale de notre méthode, que l'on appelle OABSAC (pour Optimal and Adaptative BetaSAC), faisant intervenir une phase d'apprentissage hors ligne. Cet apprentissage a pour but de mesurer les propriétés caractéristiques du problème spécifique que l'on souhaite résoudre, de façon à établir automatiquement le paramétrage optimal de notre algorithme. Ce paramétrage est celui qui doit mener à une estimation suffisamment précise des paramètres du modèle recherché en un temps (en secondes) le plus court. Les deux méthodes proposées sont des solutions très générales qui permettent d'intégrer dans RANSAC tout type d'information complémentaire utile à la résolution du problème. Nous montrons l'avantage de ces méthodes pour le problème de l'estimation d'homographies et de géométries épipolaires entre deux photographies d'une même scène. Les gains en vitesse de résolution du problème peuvent atteindre un facteur cent par rapport à l'algorithme RANSAC classique.
APA, Harvard, Vancouver, ISO, and other styles
15

Bara, Gabriela Iuliana. "Estimation d'état des systèmes linéaires à paramètres variants." Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL591N.

Full text
Abstract:
La reconstruction, partielle ou entière, de l'état d'un système à l'aide d'un observateur est une étape importante qui intervient dans les domaines de la commande, du diagnostic et de la surveillance des systèmes. Notre travail de recherche porte sur l'estimation d'état de systèmes linéaires à paramètres variants dans le temps (LPV). Lorsque nous souhaitons élaborer une stratégie d'estimation d'état pour des systèmes LPV, l'utilisation d'observateurs linéaires à temps invariant n'est pas appropriée et les résultats de synthèse correspondant sont trop pessimistes. Afin de réduire ce conservatisme, notre travail est centré sur la synthèse d'observateurs de type LPV. En effet, en plus des signaux de mesure, ce type d'observateur tire profit d'une information supplémentaire sur la dynamique du processus à savoir les paramètres du système supposés mesurables. Dans cette thèse, nous avons privilégié plus particulièrement deux types d'approche: La première approche fait partie des méthodes par séquencement de gain et plus particulièrement des méthodes de séquencement de gain par une technique à base d'interpolation. La deuxième approche fait partie des techniques LPV. Les solutions que nous avons proposées dans le cadre de ces deux approches utilisent le concept de fonctions de Lyapunov dépendant des paramètres pour étudier la stabilité de l'erreur d'estimation. Cette notion nous a permis de disposer de degrés de liberté supplémentaires pour la synthèse d'observateurs LPV. Les conditions de synthèse d'observateurs sont formulées comme un problème de résolution d'inégalités matricielles linéaires (LMI) sous contrainte de rang ou comme un problème LMI. En effet, l'utilisation d'une technique de découplage permet de réduire la complexité du problème de synthèse à un problème de faisabilité LMI. Par ailleurs, l'application du concept de multi-convexité nous a permis de ramener le nombre infini d'inégalités matricielles à un nombre fini.
APA, Harvard, Vancouver, ISO, and other styles
16

Escrig, Benoît. "Estimation des paramètres d'un modèle de canal ionosphérique." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT112H.

Full text
Abstract:
Le sujet de la these est l'estimation des parametres d'un modele de canal ionospherique. L'objectif de notre travail est d'ameliorer les procedures de selection automatique de canal dans les protocoles de communications hautes frequences (hf). Compte tenu des effets dispersifs introduits par le milieu de propagation (l'ionosphere) : multi-trajets et evanouissement du signal, les parametres a estimer sont les suivants : le nombre de trajets, les retards et les puissances des trajets propages et les decalages et etalements spectraux generes par les gains multiplicatifs aleatoires associes a chaque trajet. La premiere partie est consacree a la caracterisation des transmissions hf afin de determiner les causes des dispersions temporelles et frequentielles subies par les signaux de communication et d'apprehender les differents moyens mis en oeuvre pour modeliser et simuler ces effets. Notre interet s'est porte sur le modele le plus couramment utilise jusqu'a present : le modele de watterson. La deuxieme partie aborde le probleme de l'estimation de parametres de formes d'ondes retardees. Nous presentons differentes methodes qui visent a estimer un ou plusieurs retards : les methodes basees sur l'intercorrelation generalisee, celles basees sur les statistiques d'ordre superieurs ainsi que les approches geometriques. La derniere partie est consacree a l'application de ces methodes aux communications hf. Nous testons la robustesse des differentes methodes d'estimation de retards en presence de gains multiplicatifs sur chaque trajet, nous presentons un exemple de forme d'onde utilisee en communications hf (stanag 4285) et dimensionnons les methodes d'estimation en fonction de cette forme d'onde. Les performances des techniques sont evaluees sur des signaux reels ou sur des simulations de canaux ionospheriques provenant de modeles deterministes et statistiques couples a des mesures issues d'un analyseur de liaisons.
APA, Harvard, Vancouver, ISO, and other styles
17

Blandin, Vassili. "Estimation de paramètres pour des processus autorégressifs à bifurcation." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00842856.

Full text
Abstract:
Les processus autorégressifs à bifurcation (BAR) ont été au centre de nombreux travaux de recherche ces dernières années. Ces processus, qui sont l'adaptation à un arbre binaire des processus autorégressifs, sont en effet d'intérêt en biologie puisque la structure de l'arbre binaire permet une analogie aisée avec la division cellulaire. L'objectif de cette thèse est l'estimation les paramètres de variantes de ces processus autorégressifs à bifurcation, à savoir les processus BAR à valeurs entières et les processus BAR à coefficients aléatoires. Dans un premier temps, nous nous intéressons aux processus BAR à valeurs entières. Nous établissons, via une approche martingale, la convergence presque sûre des estimateurs des moindres carrés pondérés considérés, ainsi qu'une vitesse de convergence de ces estimateurs, une loi forte quadratique et leur comportement asymptotiquement normal. Dans un second temps, on étudie les processus BAR à coefficients aléatoires. Cette étude permet d'étendre le concept de processus autorégressifs à bifurcation en généralisant le côté aléatoire de l'évolution. Nous établissons les mêmes résultats asymptotiques que pour la première étude. Enfin, nous concluons cette thèse par une autre approche des processus BAR à coefficients aléatoires où l'on ne pondère plus nos estimateurs des moindres carrés en tirant parti du théorème de Rademacher-Menchov.
APA, Harvard, Vancouver, ISO, and other styles
18

Papaioanou, Stavros. "Estimation des paramètres du halo dans les galaxies spirales." Observatoire de Paris, 1985. https://hal.archives-ouvertes.fr/tel-02071386.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Piet-Lahanier, Hélène. "Estimation de paramètres pour des modèles à erreur bornée." Paris 11, 1987. http://www.theses.fr/1987PA112203.

Full text
Abstract:
De nouvelles méthodes sont présentées pour estimer les paramètres d'un modèle et l'incertitude avec laquelle ils sont connus lorsque les données dont on dispose sont en nombre faible et que les connaissances statistiques disponibles concernant le bruit sont très limitées. Le bruit est caractérisé en précisant la plus grande et la plus petite valeur crédibles pour chacune de ses réalisations. Ceci permet d'associer à chaque donnée un intervalle dénommé barre objet et de définir dans l'espace des paramètres un ensemble (dénommé ensemble de vraisemblance) de points compatibles avec ces barres et la structure du modèle. Ce type d'approche est connue dans la littérature sous le nom générique de "Membership est estimation" et différentes techniques ont été décrites pour caractériser l'ensemble de vraisemblance. La plupart déterminent en fait un ensemble de forme simple contenant S et sont limitées à l'étude des modèles linéaires en leurs paramètres. Deux méthodes sont proposées pour caractériser S, l'une lorsque les sorties modèles dépendent linéairement des paramètres, l'autre dans le cas non linéaire. Dans le cas linéaire, l'ensemble de vraisemblance est un polyèdre convexe dont on détermine une représentation paramétrique exacte en fonction de ses sommets. Cette représentation peut être ensuite utilisée pour déterminer une commande robuste ou pour optimiser un critère quelconque sur S. La prise en compte des mesures est récursive, autorisant une mise en œuvre en ligne. Dans le cas non linéaire, un critère est défini qui est le pourcentage des barres objet avec lesquelles la sortie du modèle est compatible. L'ensemble de vraisemblance correspond au domaine correspondant à la valeur optimale de ce critère. Il est caractérisé en déterminant des points de sa frontière par recherche aléatoire dans l'espace des paramètres. L'estimateur associé à ce critère présente d'intéressantes propriétés de robustesse. Les deux méthodes sont appliquées à des exemples simulés ou réels, recouvrant des domaines aussi divers que la pharmacocinétique, le génie chimique et le traitement d'images.
APA, Harvard, Vancouver, ISO, and other styles
20

Jiang, Kun. "Real-time estimation and diagnosis of vehicle's dynamics states with low-cost sensors in different driving condition." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2292/document.

Full text
Abstract:
Le développement des systèmes intelligents pour contrôler la stabilité du véhicule et éviter les accidents routier est au cœur de la recherche automobile. L'expansion de ces systèmes intelligents à l'application réelle exige une estimation précise de la dynamique du véhicule dans des environnements diverses (dévers et pente). Cette exigence implique principalement trois problèmes : ⅰ), extraire des informations non mesurées à partir des capteurs faible coût; ⅱ), rester robuste et précis face aux les perturbations incertaines causées par les erreurs de mesure ou de la méconnaissance de l'environnement; ⅲ), estimer l'état du véhicule et prévoir le risque d'accident en temps réel. L’originalité de cette thèse par rapport à l’existant, consiste dans le développement des nouveaux algorithmes, basés sur des nouveaux modèles du véhicule et des différentes techniques d'observation d'état, pour estimer des variables ou des paramètres incertains de la dynamique du véhicule en temps réel. La première étape de notre étude est le développement de nouveaux modèles pour mieux décrire le comportement du véhicule dans des différentes situations. Pour minimiser les erreurs de modèle, un système d'estimation composé de quatre observateurs est proposé pour estimer les forces verticales, longitudinales et latérales par pneu, ainsi que l'angle de dérive. Trois techniques d'observation non linéaires (EKF, UKF et PF) sont appliquées pour tenir compte des non-linéarités du modèle. Pour valider la performance de nos observateurs, nous avons implémenté en C++ des modules temps-réel qui, embarqué sur le véhicule, estiment la dynamique du véhicule pendant le mouvement<br>Enhancing road safety by developing active safety system is the general purpose of this thesis. A challenging task in the development of active safety system is to get accurate information about immeasurable vehicle dynamics states. More specifically, we need to estimate the vertical load, the lateral frictional force and longitudinal frictional force at each wheel, and also the sideslip angle at center of gravity. These states are the key parameters that could optimize the control of vehicle's stability. The estimation of vertical load at each tire enables the evaluation of the risk of rollover. Estimation of tire lateral forces could help the control system reduce the lateral slip and prevent the situation like spinning and drift out. Tire longitudinal forces can also greatly influence the performance of vehicle. The sideslip angle is one of the most important parameter to control the lateral dynamics of vehicle. However, in the current market, very few safety systems are based on tire forces, due to the lack of cost-effective method to get these information. For all the above reasons, we would like to develop a perception system to monitor these vehicle dynamics states by using only low-cost sensor. In order to achieve this objective, we propose to develop novel observers to estimate unmeasured states. However, construction of an observer which could provide satisfactory performance at all condition is never simple. It requires : 1, accurate and efficient models; 2, a robust estimation algorithm; 3, considering the parameter variation and sensor errors. As motivated by these requirements, this dissertation is organized to present our contribution in three aspects : vehicle dynamics modelization, observer design and adaptive estimation. In the aspect of modeling, we propose several new models to describe vehicle dynamics. The existent models are obtained by simplifying the vehicle motion as a planar motion. In the proposed models, we described the vehicle motion as a 3D motion and considered the effects of road inclination. Then for the vertical dynamics, we propose to incorporate the suspension deflection to calculate the transfer of vertical load. For the lateral dynamics, we propose the model of transfer of lateral forces to describe the interaction between left wheel and right wheel. With this new model, the lateral force at each tire can be calculated without sideslip angle. Similarly, for longitudinal dynamics, we also propose the model of transfer of longitudinal forces to calculate the longitudinal force at each tire. In the aspect of observer design, we propose a novel observation system, which is consisted of four individual observers connected in a cascaded way. The four observers are developed for the estimation of vertical tire force, lateral tire force and longitudinal tire force and sideslip angle respectively. For the linear system, the Kalman filter is employed. While for the nonlinear system, the EKF, UKF and PF are applied to minimize the estimation errors. In the aspect of adaptive estimation, we propose the algorithms to improve sensor measurement and estimate vehicle parameters in order to stay robust in presence of parameter variation and sensor errors. Furthermore, we also propose to incorporate the digital map to enhance the estimation accuracy. The utilization of digital map could also enable the prediction of vehicle dynamics states and prevent the road accidents. Finally, we implement our algorithm in the experimental vehicle to realize real-time estimation. Experimental data has validated the proposed algorithm
APA, Harvard, Vancouver, ISO, and other styles
21

Dufour, John-Eric. "Mesures de forme, de déplacement, et de paramètres mécaniques parstéréo-corrélation d’images isogéométrique." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN004/document.

Full text
Abstract:
Ces travaux de thèse sont dédiés à la mesure de formes 3D, de champs cinématiques 3D surfaciques et à l'identification de paramètres mécaniques à partir de mesures par corrélation d'images. Cette méthode optique se base sur l'utilisation de caméras comme support de la mesure. Pour cette raison, une étude des différents modèles de caméra classiquement utilisés est effectuée, puis le passage d'un formalisme continu pour la description des images à une approche discrète utilisant la notion de pixel est décrit. Une attention particulière est portée aux distorsions optiques et une approche utilisant la corrélation d'images pour les évaluer est développée. Une nouvelle méthode de mesure de forme 3D et de champs de déplacements 3D surfaciques par stéréo-corrélation d'images est introduite. Elle utilise un modèle numérique de l'objet observé comme support pour la corrélation. Cette méthode mène à une formulation globale de la stéréo-corrélation. Elle peut être écrite dans le cas général et particularisée à des surfaces NURBS (non-uniform rational B-splines). Le champ de déplacement est également exprimé dans un formalisme NURBS complètement cohérent avec le modèle géométrique utilisé pour définir la forme observée. Des mesures sont validées en utilisant des mouvements imposés à un carreau de Bézier usiné. La faisabilité de la technique dans plusieurs cas industriels est également étudiée avec, par exemple, la mesure des déplacements d'une pièce composite de train d'atterrissage chargée mécaniquement. Enfin, à partir de cette formulation isogéométrique de la mesure de champs, une étude de la caractérisation de propriétés élastiques est effectuée. Deux méthodes inspirées d'approches existantes sont ainsi proposées, utilisant des mesures de champs et des calculs numériques dans un formalisme isogéométrique pour identifier des paramètres de loi de comportement élastique isotrope sur un cas test numérique et pour un essai de traction uniaxiale<br>This thesis is dedicated to measurement of 3D shapes, 3D kinematic fields on surfaces and identification of mechanical properties from digital image correlation measurements. This optical method uses cameras as measurement tools. For this reason, a study of the classical camera models used is performed and the description of the digitalization of an image from a continuous to a discrete formalism using the pixel is described. A specific work is dedicated to optical distortions and a method based on digital image correlation to evaluate these distortions is developped.A new method for 3D shapes and 3D displacement fields on surfaces using stereo-correlation is introduced. A numerical description of the observed object is used as a support to perform the correlation. This method lead to a global approach to stereo-correlation. It can be rewrite in a generic case or in particular to be applied to NURBS (Non-Uniform Rational B-Splines) surfaces. The displacement fields is therefore expressed in a NURBS formalism which is completely consistent with the geometrical model used to described the observed shape. Measurements are validated using prescribed motions on a Bezier patch. The feasibility of such a technique in several industrial cases is then studied with for example the measurement of the displacement of a composite part of a landing gear under mechanical loading.Finally, from this isogeometric formulation of full-field measurement, a study of the identification of elastic properties is performed. Two methods inspired from existing approaches are proposed, using full-field measurement and numerical simulations in a common isogeometric formalism to identify parameters of an isotropic linear elastic constitutive law on a both a numerical test case and a uniaxial tensile test
APA, Harvard, Vancouver, ISO, and other styles
22

Liu, Shuyan. "Lois stables et processus ponctuels : liens et estimation des paramètres." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00463817.

Full text
Abstract:
L'objectif de cette thèse est d'étendre une méthode d'estimation des paramètres d'une loi stable dans Rd aux lois à queue régulière dans un cône arbitraire. La méthode d'échantillonnage par paquets est modifiée afin d'optimiser la vitesse de convergence des estimateurs. Un nouvel estimateur de la masse totale de mesure spectrale est proposé. Des résultats sur les statistiques d'ordre des lois à queue régulière dans un cône et la loi des grands nombres pour le schéma triangulaire sont établis. La consistance et la normalité asymptotique des estimateurs sont démontrées. La performance des estimateurs est étudiée par simulation. On compare ces estimateurs avec quelques estimateurs connus. Les tableaux de performance sont fournis. La méthode de noyau est utilisée pour estimer la densité d'une mesure spectrale absolument continue d'une loi à queue régulière. On prouve la consistance de l'estimateur dans notre cas particulier. Pour augmenter le nombre de points utilisés dans l'échantillon, on propose une méthode d'estimation utilisant les permutations aléatoires de l'échantillon. La variation régulière a la propriété d'être préservée par plusieurs opérations et transformations. On considère trois sortes de transformations. Des conditions suffisantes pour cette préservation sont proposées et quelques contre-exemples sont présentés. Les modèles de lois stables et de lois à queue lourde sont très utilisés dans plusieurs domaines d'application. On considère deux jeux de données réelles : les cours des 30 valeurs de l'indice DJIA et les perturbations planétaires des comètes du nuage de Oort. En appliquant la méthode d'estimation présentée on obtient des descriptions statistiques de ces données.
APA, Harvard, Vancouver, ISO, and other styles
23

Bichara, Derdei. "Étude de modèles épidémiologiques : Stabilité, observation et estimation de paramètres." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00841444.

Full text
Abstract:
L'objectif de cette thèse est d'une part l'étude de la stabilité des équilibres de certains modèles épidémiologiques et d'autre part la construction d'un observateur pour l'estimation des états non mesurés et d'un paramètre clé pour un modèle intra-hôte. Nous proposons des extensions des modèles du type SIR, SIRS et SIS et nous étudions la stabilité globales de leur équilibres. En présence de plusieurs souches de pathogène d'un modèle SIS, on montre que le principe de compétition exclusive est vérifié: la souche qui maximise un seuil remporte la compétition en éliminant les autres souches. Il se trouve aussi que la souche gagnante est celle qui donne à l'équilibre le minimum de population hôte susceptible. Ceci peut-être interprété comme étant un principe de pessimisation. En considérant ce modèle avec cette fois une loi de contact de type fréquence-dépendante, on montre que la dynamique change et qu'un équilibre de coexistence existe et qui est globalement asymptotiquement stable sous certaines conditions. Le comportement asymptotique des deux équilibres frontières est aussi prouvée. L'étude de la stabilité des états d'équilibres est essentiellement faite par la construction des fonctions de Lyapunov combiné avec le principe d'invariance de LaSalle. On considère un modèle intra-hôte structuré en classe d'âge du parasite Plasmodium falciparum avec une force d'infection général. Nous développons une méthode d'estimation de la charge parasitaire totale dont on ne sait mesurée par les méthodes actuellement connues. Pour cela nous utilisons les outils de la théorie du contrôle, plus particulièrement les observateurs à entrées inconnues, pour estimer les états non mesurés à partir des états mesurés (données). De cela nous déduisons une méthode d'estimation d'un paramètre inconnu qui représente le taux d'infection des globules rouges saines par les parasites.
APA, Harvard, Vancouver, ISO, and other styles
24

Bichara, Derdeï. "Etude de modèles épidémiologiques : stabilité, observation et estimation de paramètres." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0011/document.

Full text
Abstract:
L'objectif de cette thèse est d'une part l'étude de la stabilité des équilibres de certains modèles épidémiologiques et d'autre part la construction d'un observateur pour l'estimation des états non mesurés et d'un paramètre clé pour un modèle intra-hôte. Nous proposons des extensions des modèles du type SIR, SIRS et SIS et nous étudions la stabilité globales de leur équilibres. En présence de plusieurs souches de pathogène d'un modèle SIS, on montre que le principe de compétition exclusive est vérifié: la souche qui maximise un seuil remporte la compétition en éliminant les autres souches. Il se trouve aussi que la souche gagnante est celle qui donne à l'équilibre le minimum de population hôte susceptible. Ceci peut être interprété comme étant un principe de pessimisation. En considérant ce modèle avec cette fois une loi de contact de type fréquence-dépendante, on montre que la dynamique change et qu'un équilibre de coexistence existe et qui est globalement asymptotiquement stable sous certaines conditions. Le comportement asymptotique des deux équilibres frontières est aussi prouvé. L'étude de la stabilité des états d'équilibres est essentiellement faite par la construction des fonctions de Lyapunov combiné avec le principe d'invariance de LaSalle. On considère un modèle intra-hôte structuré en classe d'âge du parasite Plasmodium falciparum avec une force d'infection général. Nous développons une méthode d'estimation de la charge parasitaire totale dont on ne sait mesurée par les méthodes actuellement connues. Pour cela nous utilisons les outils de la théorie du contrôle, plus particulièrement les observateurs à entrées inconnues, pour estimer les états non mesurés à partir des états mesurés (données). De cela nous déduisons une méthode d'estimation d'un paramètre inconnu qui représente le taux d'infection des globules rouges saines par les parasites<br>The purpose of this thesis is on the one hand to study stability of equilibria of some epidemic models and secondly to construct an observer to estimate the non-measured states and a key parameter in a within host model. We propose extensions of classical models SIR, SIRS and SIS and we study the global stability of their equilibria. In presence of multiple pathogen strains, we proved that competitive exclusion principle holds: the strain having the largest threshold wins the competition by eliminating the others. It turns out that the winning strain is the one for which the equilibrium gives the minimum of the susceptible host population. This can be interpreted as pessimization principle. By considering the same model with two strains and a frequency-dependent type of the contact law, we prove that dynamics changes and a coexistence equilibrium exists and it is globally asymptotically stable under some conditions. The asymptotic behavior of the two other boundary equilibria is also established. The stability study of equilibrium states is mainly done by construction Lyapunov functions combined with LaSalle's invariance principle. We consider an age-structured within-host model of the Plasmodium falciuparum parasite with a general infection force. We develop a method to estimate the total parasite burden that cannot be measured by the current methods. To this end, we use some tools from control theory, more precisely observers with unknown inputs, to estimate the non measured states from the measured ones (data). From this, we deduce a method to estimate an unknown parameter that represents infection rate of healthy reed blood cells by the parasites
APA, Harvard, Vancouver, ISO, and other styles
25

Six, Pierre. "Estimation d'état et de paramètres pour les systèmes quantiques ouverts." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM019/document.

Full text
Abstract:
La communauté scientifique a réussi ces dernières années à bâtir des systèmes quantiques simples sur lesquels des séries de mesures sont acquises successivement le long de trajectoires quantiques et sans réinitialisation de l’état (opérateur densité) par l’expérimentateur.L’objet de cette thèse est d’adapter les méthodes de tomographie quantique (estimation d’état et de paramètres) à ce cadre pour prendre en compte la rétroaction de la mesure sur l’état, la décohérence et les imperfections expérimentales.Durant le processus de mesure, l’évolution de l’état quantique est alors gouvernée par un processus de Markov à états cachés (filtres quantiques de Belavkin). Pour des mesuresen temps continu, nous commençons par montrer comment discrétiser l’équation maîtresse stochastique tout en préservant la positivité et la trace de l’état quantique, et ainsi sera mener aux filtres quantiques en temps discret. Ensuite, nous développons, à partir de trajectoires de mesures en temps discret, des techniques d’estimation par maximum de vraisemblance pour l’état initial et les paramètres. Cette estimation est accompagnée de son intervalle de confiance. Lorsqu’elle concerne des valeurs de paramètres (tomographie de processus quantique), nous donnons un résultat de robustesse grâce au formalisme des filtres particulaires et nous proposons une méthode de maximisation fondée sur le calcul du gradient par l’adjoint et bien adaptée au cas multiparamétrique. Lorsque l’estimation porte sur l’état initial (tomographie d’état quantique), nous donnons une formulation explicite de la fonction de vraisemblance grâce aux états adjoints, montrons que son logarithme est une fonction concave de l’état initial et élaborons une expression intrinsèque de la variance grâce à des développements asymptotiques de moyennes bayésiennes et reposant sur la géométrie de l’espace des opérateurs densité.Ces méthodes d’estimation ont été appliquées et validées expérimentalement pour deux types de mesures quantiques : des mesures en temps discret non destructives de photons dans le groupe d’électrodynamique quantique en cavité du LKB au Collège de France, des mesures diffusives de la fluorescence d’un qubit supraconducteur dans le groupe d’électronique quantique du LPA à l’ENS Paris<br>In recent years, the scientifical community has succeeded in experimentally building simple quantum systems on which series of measurements are successively acquired along quantum trajectories, without any reinitialization of their state (density operator) by the physicist. The subject of this thesis is to adapt the quantum tomography techniques (state and parameters estimation) to this frame, in order to take into account the feedback of the measurement on the state, the decoherence and experimental imperfections.During the measurement process, the evolution of the quantum state is then governed by a hidden-state Markov process (Belavkin quantum filters). Concerning continuous-time measurements, we begin by showing how to discretize the stochastic master equation, while preserving the positivity and the trace of the quantum state, and so reducing to discrete-time quantum filters. Then, we develop,starting from trajectories of discrete-time measurements, some maximum-likelihood estimation techniques for initial state and parameters. This estimation is coupled with its confidence interval. When it concerns the value of parameters (quantum process tomography), we provide a result of robustness using the formalism of particular filters, and we propose a maximization technique based on the calculus of gradient by adjoint method, which is well adapted to the multi-parametric case. When the estimation concerns the initial state (quantum state tomography), we give an explicit formulation of the likelihood function thanks to the adjoint states, show that its logarithm is a concave function of the initial state and build an intrinsic expression of the variance, obtained from asymptotic developments of Bayesian means, lying on the geometry of the space of density operators.These estimation techniques have been applied and experimentally validated for two types of quantum measurements: discrete-time non-destructive measurements of photons in the group of cavity quantum electro-dynamics of LKB at Collège de France, diffusive measurements of the fluorescence of a supra-conducting qubit in the quantum electronics group of LPA at ENS Paris
APA, Harvard, Vancouver, ISO, and other styles
26

Souchet, Sandie. "Estimation des paramètres d'une diffusion ergodique observée à temps discret." Paris 1, 1999. http://www.theses.fr/1999PA010035.

Full text
Abstract:
Dans la première partie, nous nous intéressons au problème d'estimation du paramètre de dérivé d'une diffusion ergodique observée à temps discret sur [0,t], lorsque t tend vers l'infini. Dans le chapitre 1, pour un pas d'observation @ petit et fixe, nous développons des schémas d'approximation anticipatifs, bases sur les formules du trapèze et de Simpson. Les estimateurs des moments généralisés associés à ces schémas sont convergents avec un biais asymptotique de l'ordre de @, pour le schéma du trapèze et en @4 pour le schéma de Simpson. Ils sont de plus asymptotiquement normaux et presque efficaces en variance avec une vitesse standard. Dans le chapitre 2, le schéma d'approximation propose est non anticipatif et repose sur les itères jusqu'à l'ordre p du générateur infinitésimal de la diffusion. L'estimateur des moindres carrés associé à ce schémas est également asymptotiquement normal et presque efficace et son biais asymptotique est de l'ordre de @p. Dans le chapitre 3, la dérive est continue mais à dérivées discontinues en un seuil ro que l'on désire estimer. Si t=n@n tend vers l'infini et n@n3 tend vers 0, nous montrons que l'estimateur des moindres carrés basé sur le schémas d'Euler est optimal. Dans le chapitre 4, nous considérons un car(p),x, qui est aussi une diffusion pdimensionnelle, y=(x, x('),. . . , x(p-'). Dans le cas où seule la première composante, x, est observée et cela a n instants équidistants de (d), nous proposons d'estimer les paramètres de ce processus en utilisant une estimation des équations de Yule-Walker. L'estimateur obtenu est convergent avec un biais explicite de l'ordre de @. Dans la deuxième partie de ce document, nous proposons une méthode d'estimation de l'écart quadratique moyen d'estimateurs empiriques construits à partir d'un échantillonnage systématique. Cette méthode complète les méthodes transitives utilisées notamment dans le domaine de la stéréologie.
APA, Harvard, Vancouver, ISO, and other styles
27

Thorin, Savarit Chantal. "Estimation des paramètres pharmacologiques dans les modèles d'interactions ligand-récepteur." Nantes, 2010. https://archive.bu.univ-nantes.fr/pollux/show/show?id=dcd2d038-5c6a-40bf-a641-d363db9727cb.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Parscau, Du Plessix Jérôme de. "Estimation locale des paramètres d'anisotropie en milieux transversalement isotropes (TI)." Grenoble 1, 1991. http://www.theses.fr/1991GRE10132.

Full text
Abstract:
Ce rapport présente une méthode pour estimer localement, au niveau des récepteurs, les paramètres d'anisotropie à partir de données sismiques de puits enregistrées en trois composantes. On considère des milieux transversalement isotropes d'axe de symétrie contenu dans le plan vertical. Les données sont constituées par les lenteurs apparentes verticales et les directions de polarisation des ondes p et sv mesurées en profondeur dans un puits. Les paramètres d'anisotropie sont inversés à partir de ces données par des techniques d'optimisation
APA, Harvard, Vancouver, ISO, and other styles
29

Kako, Dano. "Estimation des paramètres dans un modèle hiérarchique de processus stochastiques." Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/5008.

Full text
Abstract:
L'objectif de notre étude est d'estimer les paramètres associés à la dérive d'un modèle hiérarchique de processus stochastiques. Nous obtenons auparavant les solutions des équations différentielles stochastiques des moyennes hiérarchiques correspondant aux différents niveaux du modèle. Nous calculons les deux premiers moments de ces moyennes et nous en déduisons leur comportement asymptotique. Dans un deuxième temps, nous déterminons les estimateurs du maximum de vraisemblance des paramètres et nous étudions leurs propriétés asymptotiques. Nous établissons un théorème central limite donnant la convergence en loi des estimateurs. Mentionnons que les estimateurs du maximum de vraisemblance que nous obtenons sont calculables en temps réel. Cette caractéristique est essentielle à leur utilisation dans des domaines d'application variés dont la finance. Nous terminons notre travail par des simulations avec le logiciel Matlab afin de tester la sensibilté de nos estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
30

Riahi, Mohamed Hédi. "Identification de paramètres hydrogéologiques dans un milieu poreux." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066741/document.

Full text
Abstract:
On identifie simultanément les coefficients d'emmagasinement et de transmissivité hydraulique dans un écoulement souterrain gouvernent par une équation parabolique linéaire. Ces deux paramètres sont supposés être des fonctions constantes par morceaux en espace. Les inconnues du problème sont non seulement les valeurs de ces coefficients mais aussi la géométrie des zones dans lesquelles ces coefficients sont constants. Le problème est formule comme la minimisation d'une fonction de moindres carres calculant la différence entre les mesures et les quantités correspondantes évaluées avec la valeur courante des paramètres. L'objectif principal de ce travail est la construction d'une technique de paramétrisation adaptative guidée par des indicateurs de raffinement. L'utilisation d'indicateurs de raffinement, nous permet de construisons la paramétrisation de façon itérative, on allant d'une paramétrisation à une seule zone à une paramétrisation avec m zones où m est une valeur optimale à identifier. Nous distinguons les cas ou les deux paramètres ont la même paramétrisation et le cas où les deux paramètres ont des paramétrisations différentes. Pour améliorer la résolution du problème inverse d'estimation de paramètres, nous incorporons des estimateurs d'erreurs a posteriori<br>We identify simultaneously storage and hydraulic transmissivity coefficients in groundwater flow governed by a linear parabolic equation. Both parameters are assumed to be functions piecewise constant in space. The unknowns are the coefficient values as well as the geometry of the zones where these coefficients are constant. This problem is formulated as minimizing a least-square function calculating the difference between measurements and the corresponding quantities computed with the current parameters values. The main point of this work is to construct an adaptative parameterization technique guided by refinement indicators. Using refinement indicators, we build the parameterization iteratively, going from a one zone parametrization to a parametrization with $m$ zones where $m$ is an optimal value to identify. We distinguish the cases where the two parameters have the same parameterization and different parameterizations.\\ To improve the resolution of the inverse problem, we incorporate a posteriori error estimations
APA, Harvard, Vancouver, ISO, and other styles
31

Mirzaq, Benzidia Souâd. "Détermination automatique des paramètres pertinents d'une image binaire en vue d'une reconnaissance de forme." Nancy 1, 1990. http://www.theses.fr/1990NAN10068.

Full text
Abstract:
La sélection de paramètres est l'une des étapes fondamentales d'un processus de reconnaissance de forme. En effet, le choix des paramètres contribue fortement à la qualité du processus de reconnaissance. Dans ce mémoire, après avoir retracé les différentes étapes d'un processus de reconnaissance de forme d'images, la première partie donne un résumé des méthodes de traitements de mise en forme, ainsi que la description de mesures géométriques d'objets dans l'image. Dans la deuxième partie, différentes méthodes de classification sont décrites : méthodes de réallocation, méthodes hiérarchiques. Trois grandes familles de méthodes de sélection de paramètres sont ensuite présentées : les méthodes séquentielles, les méthodes d'analyse en composantes principales, et les méthodes à programmation dynamique. La troisième partie de ce mémoire est consacrée à la description de la partie expérimentale. Nous présentons en détail l'ensemble des différents programmes : création d'images binaires, mesures de paramètres géométriques, normalisation des valeurs, sélection, classification et reconnaissance. Pour la partie sélection de paramètres, trois méthodes à programmation dynamique répondent le mieux au problème et aux objectifs que nous nous sommes posés : la méthode du Branch and Bound, la méthode de Cheung et la méthode de Foroutan et Sklansky. Dans la dernière partie, différents résultats obtenus au niveau de la classification et de la reconnaissance sont donnés, puis discutés. Les résultats obtenus confirment la qualité des méthodes à programmation dynamique
APA, Harvard, Vancouver, ISO, and other styles
32

Ferrara, Laurent. "Processus longue mémoire généralisés : estimation, prévision et applications." Paris 13, 2000. http://www.theses.fr/2000PA132033.

Full text
Abstract:
On s'intéresse à une certaine classe de modèles paramétriques de série chronologique : les processus longue mémoire généralisés, introduits dans la littérature statistique au début des années 1990. Ces processus longue mémoire généralisés prennent en compte simultanément dans la modélisation de la série, une dépendance de long terme et une composante cyclique périodique persistante. Ce type de phénomène est fréquent dans de nombreux champs d'application des statistiques, tels que l'économie, la finance, l'environnement ou les transports publics. Nous avons proposé une méthode d'estimation simultanée par pseudo-maximum de vraisemblance de l'ensemble des paramètres du modèle, et une méthode semiparamétrique d'estimation des paramètres de longue mémoire. Nous avons montré la consistance de chacun de ces estimateurs et nous avons donné leur distribution limite, les résultats étant validés par des simulations de Monte Carlo. Nous avons également comparé les performances de chacun de ces estimateurs sur des données réelles. En ce qui concerne la prévision, nous avons fourni les expressions analytiques du prédicteur des moindres carrés et de son intervalle de confiance. Nous avons comparé sur des données réelles les performances en prévision des processus longue mémoire généralisés et celles d'autres processus à courte et longue mémoire.
APA, Harvard, Vancouver, ISO, and other styles
33

Zhang, Jiantong. "Estimation non paramétrique par réseaux de neurones pour des processus et estimation de paramètres de position." Paris 6, 2000. http://www.theses.fr/2000PA066485.

Full text
Abstract:
Cette these se compose de deux parties : les quatre premiers chapitres sont consacres au probleme de l'estimation non parametrique par reseaux de neurones pour des processus stochastiques. La deuxieme partie de cette these est le cinquieme chapitre ou nous etudions l'estimation du parametre de position. Dans les deuxieme et troisieme chapitres, nous etudions les problemes de l'estimation de la regression et de l'estimation des quantiles conditionnels pour des processus et -melangeants par reseaux de neurones. Nous utilisons une technique de couplage et etablissons d'abord deux inegalites exponentielles pour la -melangeance et l'-melangeance. A partir de ces inegalites, nous parvenons a borner le risque integre de l'estimateur par un indice de resolubilite. Nous donnons enfin les vitesses quadratiques moyennes integrees. Dans le quatrieme chapitre, nous nous interessons au probleme d'estimation par sieve dans le cas special de reseaux de neurone. Nous etablissons des vitesses de convergence des estimateurs pour des processus strictement stationnaires et fortement melangeants dans ce cas. Un resultat surprenant est que nous obtenons presque la meme vitesse que dans le cas i. I. D. Sous des conditions assez faibles de regularite. Le cinquieme chapitre se compose de trois sections. La premiere section s'interesse a l'estimation du parametre de position de la loi normale et d'une loi a symetrie spherique et matrice de covariance inconnue. La deuxieme section est consacree a l'estimation de la moyenne de loi gaussienne avec la covariance inconnue sous de classes de fonctions de cout. Dans la troisieme section, nous considerons le probleme de l'estimation du parametre de position des lois a symetrie spherique pour toute une classe de fonction de cout. Dans les trois sections, nous proposons des estimateurs qui dominent l'estimateur usuel.
APA, Harvard, Vancouver, ISO, and other styles
34

Alcalay, Guillaume. "Estimation de paramètres de vol avion et détection de pannes capteurs." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0015/document.

Full text
Abstract:
L'objectif est de cette thèse est de développer, de tester puis d'implémenter des schémas de surveillance et d'estimation des paramètres essentiels aux pilotes et aux lois embarquées, offrant ainsi une alternative et un complément aux signaux mesures par les capteurs. Les méthodes développées au cours de la thèse ont donc plusieurs finalités applicatives : estimer les états avion ainsi que des paramètres externes (comme le vent et les erreurs de modélisation), détecter la défaillance d'un ou plusieurs capteurs lorsqu'un dysfonctionnement se produit, et enfin s'adapter à cette dégradation de manière à continuer à délivrer des estimées exploitables par les systèmes sur un horizon temporel plus ou moins long.D'un point de vue pratique, dans le domaine de la détection, on cherchera à ce que le processus de détection d'une panne soit capable : 1) de distinguer une faute sur les sondes d'incidence d'une faute sur le paramètre de vitesse conventionnelle ou d’une erreur sur la masse renseignée par le pilote dès le début du vol. Une faute sur un de ces paramètres est aujourd'hui détectée sans qu'une isolation de la source ne soit possible 2) d'identifier des modes communs de panne, c'est-à-dire un embarquement simultané cohérent de plusieurs capteurs mesurant le même paramètre. La redondance matérielle utilisée aujourd'hui ne permet pas de détecter un embarquement simultané cohérent de deux ou trois capteurs 3) de sélectionner les sources toujours valides lorsque le schéma de vote majoritaire détecte une faute d'un capteur. Le schéma actuellement en usage sur avion combine les sources redondantes pour délivrer une mesure consolidée. En cas d'invalidation de celle-ci suite à la perte d'au moins deux capteurs, il est en effet possible que le troisième soit toujours valide et puisse être utilisé pour le reste du vol.Les bénéfices potentiels à plus long terme se situent donc dans l'amélioration des performances (en réduisant par exemple le nombre de commutations de lois), et dans la diminution de la charge de travail des pilotes en accroissant encore la disponibilité des fonctions de haut niveau destinées à les seconder et à alléger leur tâche (protections du domaine de vol, pilote automatique, etc.). La détection de modes communs de panne participera aussi à augmenter encore la sécurité en vol<br>The improvement of the aircraft performance and the decrease of the pilots’workload require more complex new aircraft avionic systems. This complexificationpaves the way for new constraints, such as improving the availability of the most criticalflight parameters used by the pilots (mainly the calibrated airspeed) or by themost advanced flight control systems (as the angle of attack, the altitude pressureor the aircraft weight). Today, their availability is mainly guaranteed by mean of astrong hardware redundancy (triplex type for civil aircraft). However, this solution isperfectible and penalizes the overall system performances in terms of weight, powerconsumption, space requirements and extra maintenance needs. Some faults, suchas common mode failures, which correspond to simultaneous and consistent faultsof at least two sensors measuring a same variable, cannot be detected. In this thesis,a solution based on the principle of the so-called analytical redundancy has beendeveloped to detect them and reconstruct through time the missing signals. Thissolution depends on the measurements, and kinematic and flight dynamic equationsavailable. For instance, the lift force equation combines numerous flight parametersof interest. It is of great value in the data fusion process on condition of having anaccurate surrogate model (as lookup tables adjusted with flight data, neural network,etc.) to estimate the lift force coefficient. In the end, an extended Kalmanfilter has been developed to estimate the critical longitudinal flight parameters. Besides,the existing complementarity between this model-based approach and severalsignal-based methods has permitted to have sensor faults and weight error diagnosisalong with unitary sensor validation capabilities. The architecture and its relatedembedded algorithms finally developed have been done with respect to the strongindustrial constraints (particularly in term of computation burden and formalism).They have been validated using simulation and flight data sets, especially for theisolation of slow drift common mode failures as they represent today the most challengingsensor faults to detect
APA, Harvard, Vancouver, ISO, and other styles
35

Hoayek, Anis. "Estimation des paramètres pour des modèles adaptés aux séries de records." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT336/document.

Full text
Abstract:
Dans une série chronologique, une observation est appelée record au temps «t» si sa valeur est supérieure à toutes les valeurs précédentes. Suivant l’augmentation de «t», considérons la suite des valeurs des records et la suite des indices d’occurrence des records. Les propriétés stochastiques des suites de valeurs des records ont été largement étudiées dans le cas où les observations sont des variables aléatoires indépendantes et identiquement distribuées (iid). Il se trouve que beaucoup de ces propriétés sont universelles, c’est-à-dire tiennent pour n’importe quelle loi de probabilité commune des observations. En particulier, les records ont tendance à devenir plus espacés dans le temps à mesure que «t» augmente. Cependant, ce n’est pas ce que l’on observe dans de nombreux jeux de données réelles. Ceci a conduit à l’élaboration de modèles plus complexes pour fournir une meilleure prédiction.Le modèle, peut-être le plus simple mais en tout cas le plus populaire, pour une série de records issus d’observations indépendantes mais non identiquement distribuées est le modèle à dérive linéaire (LDM). Ce modèle a été étudié par de nombreux auteurs et trouvé en accord avec certains types de données où l’hypothèse iid ne tient pas. Cependant, dans des situations pratiques, l’utilisation du LDM nécessite la détermination du paramètre de dérive du modèle et cela pousse le problème dans le domaine de la statistique.Il existe une similitude entre les records et le traitement de données censurées en analyse de survie. En particulier, toutes les observations qui tombent entre deux records consécutifs et au-delà du dernier record peuvent être considérées comme des observations censurées par le dernier record observé. Pour mettre en évidence cette similitude, on introduit la suite des indicatrices de records qui prennent la valeur 1 si l’observation est un record et 0 sinon.Un autre modèle populaire est le modèle Yang-Nevzorov. Ce modèle est intéressant car il a la structure d’un modèle à risque proportionnel en analyse de survie, lequel a montré son utilité dans ce domaine pour modéliser de nombreux jeux de données. Cependant, à notre connaissance, l’inférence statistique pour le modèle Yang-Nevzorov a été peu développé.Le but de ce travail est d’introduire certains estimateurs des différents paramètres des modèles LDM et Yang respectivement et d’en obtenir leurs propriétés statistiques. Il est montré que le mécanisme de censure est informatif pour certains paramètres. Cela justifie l’analyse des qualités d’estimateurs qui peuvent être obtenus à partir de ces indicatrices de records. Nous donnons quelques propriétés exactes et asymptotiques de ces estimateurs. Il se trouve que dans le modèle de Yang, le comportement des différents estimateurs est indépendant de la distribution sous-jacente. Notons que nos estimateurs peuvent être utilisés même lorsque les valeurs exactes des records sont elles-mêmes indisponibles ou de mauvaise qualité et les seules indicatrices sont disponibles ou fiables. En outre, il est montré que des tests d’ajustement du modèle de Yang peuvent aussi être dérivés de ces indicatrices. Ces tests ont même des capacités diagnostiques qui peuvent aider à suggérer des corrections au modèle.Toujours dans le contexte d’un modèle de Yang, nous étudions le comportement stochastique du temps inter-records et nous donnons sa loi asymptotique, indépendamment de la loi des va sous-jacentes. De plus, nous appliquons nos résultats théoriques à des données analysées précédemment par Yang.Enfin, nous passons à l’utilisation de la totalité des données disponibles (valeurs et indices/indicatrices de records) afin de calculer, par plusieurs méthodes, des estimateurs des paramètres des modèles LDM et Yang-Nevzorov. De plus, nous introduisons des tests statistiques qui nous aident à vérifier la conformité du choix de la distribution sous-jacente des observations et à choisir entre un modèle LDM et de Yang<br>In a time series, an observation is called a record at time «t» if its value is greater than all previous values. As «t» increases, consider the sequence of records and the sequence of indices of occurrence of the records.The stochastic properties of sequences of record values have been much studied in the case where the observations are independent and identically distributed (iid) random variables. It turns out that many of these properties are universal, i.e. they hold for any cumulative distribution function for the underlying observations. In particular, records have a tendency to become further separated in time as «t» increases. However, this is not what is observed in many real data sets. This has lead to the development of more comprehensive models to provide better prediction.One of the simplest and popular model for a series of records extracted from independent but not identically distributed observations is the linear drift model (LDM). This model has been studied by many authors and found to be in agreement with some data sets where the iid assumption does not hold. However, for its uses in practical situations, the LDM requires the specification of the drift parameter of the model and this brings the problem into the realm of statistics.There are similarities between records and censored data in e.g. survival analysis. In particular, all observations that fall between two consecutive records and beyond the last record, can be seen as censored, by the last observed record. To highlight these similarities, consider the sequence of record indicators which are 1 if the observation is a record and 0 otherwise.Another popular model is the Yang-Nevzorov model. This model is interesting because it has the structure of a proportional hazard model, which have been shown to provide good fit to many data sets in survival analysis. However, to the best of our knowledge, statistical inference for the Yang- Nevzorov model has been little developed.The goal of this work is to introduce some estimators of the parameters in LDM and Yang’s model respectively and derive their statistical properties. It is shown that the censoring mechanism is informative for certain parameters. This justifies investigating the usefulness of estimators that can be extracted from record indicators. We give some exact and asymptotic properties of these estimators. It turns out that in a Yang’s model, the behavior of these estimators is distribution-free, i.e. does not involve the underlying CDF. Note that our estimators can be used even when the exact value of the records are themselves unavailable or of poor quality and only the indicators of their occurrence are available or trustworthy. Also, it is shown that distribution-free goodness-of-fit tests for Yang’s model can be derived from these indicators. These tests even have some diagnostic capabilities that can help in suggesting corrections to the model.Still in the context of a Yang’s model, we study the stochastic behavior of the inter-record time and give its asymptotic distribution regardless of the choice of the underlying distribution. In addition, we apply our theoretical results to a previously analyzed data set.Finally, we turn to the use of all available data (record values and indices/indicators) in order to calculate, by several methods, estimators of parameters in LDM and Yang-Nevzorov’s model. In addition, we introduce statistical tests that help us to check the conformity of the choice of the underlying distribution and to choose between LDM and Yang
APA, Harvard, Vancouver, ISO, and other styles
36

Binot, Ferréol. "Modélisation et estimation de paramètres des réseaux de distribution basse tension." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST024.

Full text
Abstract:
Le développement des nouveaux usages, poussé par des exigences de transition énergétique, principalement sur les réseaux basse tension (BT) nécessite de développer des outils toujours plus innovants de conduite et de planification des réseaux. Le développement de ces nouveaux outils nécessite une très bonne connaissance de l’état et des paramètres réels des réseaux BT. Les travaux de cette thèse se focalisent donc sur le développement d’algorithmes d’estimation d’état (EE) et de paramètres (EP) dédiés aux réseaux BT.Pour mener à bien le développement de ces algorithmes, nous avons amélioré la caractérisation et la modélisation des câbles BT en prenant en compte l’impact des paramètres extérieurs sur la matrice d’impédance et sur le plan de tension. Ce modèle utilise la matrice d’impédance 4×4 et prend en compte les résistances de mise à la terre. Cette étude servira de brique de base pour les deux algorithmes.L’algorithme d’EE s’appuie sur l’algorithme des WLS et de la méthode de la matrice augmentée. Pour son développement, nous avons adapté ses grandeurs pour qu’elles prennent en compte les particularités des réseaux BT. Cet algorithme permet d’obtenir une précision accrue du plan de tension (incluant la tension neutre-terre) du réseau et donne de résultats précis même en cas d’erreurs ou de suppressions de mesure. L’algorithme va permettre d’améliorer la conduite des réseaux BT. L’algorithme d’EP, qui s’appuie sur l’algorithme du vecteur augmenté, permet d’estimer à la fois les longueurs des liaisons mais aussi directement les conditions extérieures (température du conducteur). Cet algorithme permet ainsi de corriger les données présentes dans les systèmes d’information géographique et de parfaitement connaître la topologie du réseau. Ainsi, la planification et la conduite des réseaux BT seront plus aisées même avec le développement des nouveaux usages<br>The development of new uses, driven by energy transition requirements, mainly on low-voltage (LV) networks, requires the development of more innovative tools for network management and planning. The development of these new tools requires a very good knowledge of the actual state and parameters of LV networks. The work of this thesis focuses on the development of state (SE) and parameter (PE) estimation algorithms dedicated to LV networks.To carry out the development of these algorithms, we have improved the characterization and modelling of LV cables by taking into account the impact of external parameters on the impedance matrix and the voltage profile. This model uses the 4×4 impedance matrix and takes into account the earthing resistances. This study will serve as a building block for both algorithms.The SE algorithm is based on the WLS algorithm and the augmented matrix method. For its development, we have adapted its quantities by taking into account the particularities of LV networks. This algorithm allows to obtain an increased accuracy of the network voltage profile (including the neutral to earth voltage) and gives accurate results even in case of errors or suppressed measurements. The algorithm will improve the operation of LV networks. The PE algorithm, which is based on the augmented vector algorithm, estimates both the lengths of the links and also directly the external conditions (conductor temperature). Thus, this algorithm corrects the data present in geographical information systems and gives a perfect knowledge of the network topology. The planning and operation of LV networks will be easier even with the development of new uses
APA, Harvard, Vancouver, ISO, and other styles
37

Alouf, Sara. "Estimation de paramètres et analyse des performances de diverses applications réseaux." Nice, 2002. http://www.theses.fr/2002NICE5791.

Full text
Abstract:
Dans notre thèse nous abordons divers problèmes de modélisation dans les réseaux. Le premier sujet concerne l'estimation de la capacité de la mémoire et l'intensité du trafic transverse au goulot d'étranglement. Nous proposons 2 modèles basés sur les files d'attente M/M/1/K et M/D/1/K et considérons 11 schémas différents permettant l'estimation desdits paramètres. Le deuxième sujet concerne l'estimation en ligne de la taille des groupes multipoints. Au début, nous modélisons le groupe multipoint par une file d'attente M/M/infini et résolvons le problème d'estimation à l'aide d'un filtre de Kalman (cas d'un trafic fort) et un filtre de Wiener (cas général). Ensuite, nous construisons un estimateur dans le cas d'un modèle M/H2/infini. Le troisième sujet concerne les mécanismes de communications entre agents mobiles. Nous modélisons 2 de ces mécanismes à l'aide de chaînes de Markov et évaluons leurs temps de réponse. Tous nos modèles sont validés par simulations et/ou expérimentations<br>In this thesis we look at several modeling problems to estimate some parameters or to evaluate the performance of some mechanisms. The first subject is about the estimation of the cross traffic intensity and the buffer size at the bottleneck of a connection. We develop two inference models based on the M/M/1/K and M/D/1/K queues and derive 11 schemes for estimating the above-mentioned parameters. The second subject is about the on-line estimation of the membership of multicast groups. We first model the multicast group by an M/M/infinity queue and show that the estimation problem can be solved using a Kalman filter (heavy traffic case) and a Wiener filter (general case). We then design an efficient estimator using the M/H2/infinity queue model. The third subject is about agent location mechanisms in a mobile code environment. We propose Markovian models to evaluate the cost of two such mechanisms in terms of response times. All our models are validated via simulations and experiments
APA, Harvard, Vancouver, ISO, and other styles
38

Mangin, Christian. "Simulation, estimation des paramètres et prédiction pour un processus de Kendall." Thesis, University of Ottawa (Canada), 1994. http://hdl.handle.net/10393/6749.

Full text
Abstract:
Le processus de Kendall a ete propose par Nucho (1979) comme une description adequate de la fluctuation de la demande entre deux points. Nous utilisons une simulation pour tester une methode d'estimation des parametres du processus. Nous developpons un algorithme pour calculer un intervalle de prediction de la demande a 95% de certitude, a t unites de temps dans le futur, a partir d'une realisation du processus $t\sp*$ unites de temps dans le passe. Nous verifions l'applicabilite de ce modele sur une base de donnees decrivant les fluctuations de la demande sur un reseau commercial.
APA, Harvard, Vancouver, ISO, and other styles
39

Fnadi, Mohamed. "Commande prédictive et estimation des paramètres d’environnement pour un rover rapide." Thesis, Sorbonne université, 2019. https://tel.archives-ouvertes.fr/tel-03196900.

Full text
Abstract:
Les recherches menées dans ce mémoire concernent le contrôle-commande d'un rover rapide tout terrain à deux trains directeurs (4WS). Un robot mobile se déplaçant à une vitesse élevée sur des terrains extérieurs généralement accidentés est soumis à des phénomènes de glissement et de dérapage qui peuvent dégrader les performances, voire déstabiliser la commande du système en suivi de trajectoire ou chemin. Il est donc nécessaire de doter ce type de robot de contrôleurs robustes et efficaces permettant à la fois de générer des chemins admissibles et stables ainsi que de garantir leur suivi précis. Ces contrôleurs doivent également réagir à la présence d’obstacles non-prévus initialement et modifier le chemin de consigne du robot. En premier lieu, ce mémoire de thèse commence par la modélisation dynamique du véhicule décrivant à la fois sa dynamique fonctionnelle et la dynamique de ses appuis au sol. Il s'agit d'un modèle bicyclette dynamique couplé à un modèle cinématique prenant en compte les conditions d'adhérence roue/sol et la géométrie du terrain. Un premier contrôleur de suivi de chemin est synthétisé sur la base de ce modèle et qui est basé sur l'approche LQR. Ce contrôleur de suivi de chemin sera mis en place pour valider nos observateurs de paramètres géométriques et physiques du sol. Ce premier contrôleur utilise l'approche LQR basée sur une minimisation d'un critère quadratique. Afin de pouvoir exploiter le modèle dynamique avec glissement, il est nécessaire de procéder à l'estimation en ligne des variables liées au contact roue/sol et de la géométrie locale du terrain. Pour les conditions d'adhérence roue/sol, un nouvel observateur non linéaire est développé dans ce mémoire permettant l'estimation en ligne de la rigidité de dérive avant et arrière des pneumatiques. Pour la géométrie locale du terrain, un second estimateur basé sur la théorie de Luenberger est développé dans cette thèse afin d'estimer en temps réel l'angle de pente et l'ange de dévers du véhicule à partir de sa vitesse latérale et des mesures inertielles. Afin de pouvoir anticiper les futures consignes et éliminer les retards de réponse de la chaîne d'actionnement du véhicule, nous optons pour une commande prédictive MPC sous contraintes. Cette commande MPC est privilégiée par rapport à la première commande LQR pour sa faculté à prédire la sortie sur un horizon de temps fini et à intégrer facilement toutes les contraintes intrinsèques du système et les contraintes liées aux limites de la zone d'adhérence du pneu. En s'appuyant sur la dynamique latérale du véhicule et le modèle linéaire des pneumatiques, cette commande est synthétisée via la minimisation d’un critère quadratique composé par l’erreur entre la sortie et la référence sur un horizon de temps fini. Elle est exprimée sous la forme d'un problème quadratique (QP) dont la fonction coût définit la tâche de suivi de chemin soumise aux contraintes du véhicule (e.g., dynamique, contact, glissement, braquage, etc). Enfin, un contrôleur haut-niveau destiné à la planification locale de chemin admissible pour l'évitement réactif d'obstacles est développé dans cette thèse. Ce planificateur local génère des chemins opérationnels de contournement dès qu'un obstacle est détecté proche du chemin de référence global. Dans ce mémoire, ce chemin de contournement est constitué de deux courbes de Bézier cubiques qui sont à la fois admissibles et réalisables du point de vue de la cinématique et de la dynamique du véhicule. L'ensemble des contributions proposées dans ce mémoire sont évaluées à la fois en simulation et en expérimentation sur le démonstrateur ``\textit{SPIDO}'', rover capable d’atteindre la vitesse de $12m.s^{-1}$<br>The research works carried out in this thesis deal with the control of a fast double-steering off-road mobile robot. Outdoor mobile robot has to explore and intervene efficiently and securely in large areas, where it is subjected to different phenomena such as slippage and friction conditions as well as the ground roughness, both can affect the feasibility and robustness of path or trajectory tracking tasks. Such autonomous vehicle requires highly accurate and stable control laws which should respect vehicle constraints, even if the terrain geometry and wheel-ground contact conditions are expected to change, mainly at high speed. First and foremost, the vehicle dynamics should be incorporated in control blocks of off-road vehicles because their mobility is highly influenced by wheel-ground interactions. In this work, the dynamic model is developed relying on the slippage-friction conditions at wheel-ground contacts and the ground geometry. Then, a first controller is synthesized based on the LQR approach and a dynamic model to ensure the path tracking task. This controller is used to validate the ground parameters observers. In order to use the vehicle dynamic model including sliding parameters, some factors related to wheelground contact condition have to be observed on-line. Thus, two observers have been designed in this thesis. The first one is a non linear observer that allows to estimate independently and in real time the front and rear tire cornering stiffness, these variables are related both on tire and soil properties. The second observer is based on the Luenberger theory and aims to estimate the local ground parameters geometry. This observer gives in real time the road bank and road grade angles using the lateral velocity and IMU measurements. Those estimated parameters are injected on-line in our path tracking controllers so as to enhance their efficiency. The LQR controller does not take into account any physical or intrinsic constraints of the system. Therefore, a new constrained model predictive control (MPC) is synthesized in this thesis for a dynamic path tracking of an off-road mobile robot with a double steering axle. The main advantage of the MPC is indeed the ability to anticipate future changes in setpoints and handle constraints that are critical and necessary for the safety and stability of the vehicle. This controller is based on a dynamic model that includes wheel-ground lateral slippage and terrain geometry parameters. It is formulated as an optimization problem that computes at each time-step the optimal front and rear steering angles required to perform a desired path, with respect to multiple constraints, essentially the steering joint limits and the tire adhesion area bounds (i.e., pseudo-sliding zone limits). The control problem is expressed as a Linearly Constrained Quadratic Programming (QP) to compute the optimal and dynamically-consistent front and rear steering angles required to achieve the desired path. Finally, a new local path planning strategy is designed for obstacle-skirting in real time. This method computes rapidly and in real-time a smooth local path for obstacle avoidance that guarantees vehicle kinematic and dynamic constraints. It is automatically generated according to several waypoints based on the obstacle’s coordinates and the current state of the robot (e.g., vehicle direction, current positions, steering angles, etc.). Two cubic Bézier curves are designed to connect these waypoints such that harsh curvatures and wide variation in steering angles are prevented. All contributions proposed in this manuscript have been validated through several tests on both advanced simulations under ROS/GAZEBO and experiments on a real off-road mobile robot “SPIDO”, that can achieve the velocity of 12m.s−1. Finally, all the results obtained are quite satisfactory
APA, Harvard, Vancouver, ISO, and other styles
40

Raïssi, Tarek. "Méthodes ensemblistes pour l'estimation d'état et de paramètres." Phd thesis, Université Paris XII Val de Marne, 2004. http://tel.archives-ouvertes.fr/tel-00292380.

Full text
Abstract:
Cette thèse est dédiée au développement et à l'application de méthodes ensemblistes pour l'estimation d'état et de paramètres pour des systèmes non-linéaires. Deux types de modèles sont considérés : modèles donnés par des fonctions explicites à variables complexes et modèles décrits par des équations différentielles ordinaires (EDOs). L'identification de paramètres de modèles décrits par des fonctions explicites est réalisée à l'aide des techniques d'inversion ensembliste par analyse par intervalles. Par ailleurs, les modèles utilisés sont à variables complexes ; dans ce cas l'évaluation de la sortie se fait à l'aide d'intervalles complexes. Dans ce travail, nous avons développé une arithmétique des intervalles complexes basée sur la représentation polaire. La multiplication et la division sont des opérations exactes, mais la somme et la différence ne le sont pas. Pour réduire le pessimisme introduit par ces dernières opérations, nous avons développé des algorithmes assurant les propriétés de minimalité. Cette bibliothèque a été associée aux méthodes d'inversion ensembliste dans le cadre de l'estimation de paramètres de modèles diélectriques, d'une part, et pour l'identification de paramètres thermophysiques d'autre part. Dans la deuxième partie de cette thèse, des algorithmes d'estimation d'état pour des systèmes décrits par des équations différentielles sont présentés. Ils permettent de fournir, à chaque instant, un ensemble contenant d'une manière garantie, toutes les valeurs du vecteur d'état compatibles avec les mesures et avec les bornes d'erreurs. Ces estimateurs sont basés sur des méthodes d'intégration garantie d'EDOs et sur l'inversion ensembliste. Enfin, une technique d'estimation de paramètres de modèles décrits par des EDOs est proposée.
APA, Harvard, Vancouver, ISO, and other styles
41

Raissi, Tarek. "Méthodes ensemblistes pour l'estimation d'état et de paramètres." Paris 12, 2004. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002154520204611&vid=upec.

Full text
Abstract:
Cette thèse est dédiée au développement et è l'application de méthodes ensemblistes pour estimation d'état et de paramètres pour des systèmes non-linéaires. Dans ce travail, nous avons développé une arithmétique des intervalles complexes basée sur la représentation polaire. Cette bibliothèque a été associée aux méthodes d'inversion ensembliste dans le cadre de l'estimation de paramètres de modèles diélectriques, d'une part. Et pour l'identification de paramètres thermophysiques d'autre part. Dans la deuxième partie de cette thèse, des algorithmes d'estimation d'état pour des systèmes décrits par des équations différentielles sont présentés. Ils permettent de fournir, à chaque instant, un ensemble contenant d'une manière garantie, toutes les valeurs du vecteur d'état compatibles avec les mesures et avec les bornes d'erreurs. Ces estimateurs sont basés sur des méthodes d'intégration garantie d'EDOs et sur l'inversion ensembliste<br>This work is dedicated to the development and the application of set-membership methods for state and parameter estimation for non-linear systems. A complex interval arithmetics using polar forms is developed where multiplication and division operations are exact but no longer addition and subtraction. This new polar interval arithmetic toolbox is associated with set inversion and used for parameter estimation in the bounded error context. For the dielectric and thermal analyses of materials. The second part of this work deals with set membership state and parameter estimation for non-linear systems described by ODEs. A new state estimator based on a predictor/corrector approach similar to the Kalman ditering. Is given. This estimator relies on guaranteed numerical integration techniques and set inversion. Hurthermore. A moving horizon state estimator is proposed. Finally. A parameter estimation technique is suggested for systems described by ODEs
APA, Harvard, Vancouver, ISO, and other styles
42

Kadem, Lyes. "Etude des paramètres hémodynamiques influençant la détermination d'une sténose aortique." Aix-Marseille 2, 2004. http://www.theses.fr/2004AIX22101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Chaumette, Éric. "Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation." Cachan, Ecole normale supérieure, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Full text
Abstract:
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms. . . ) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation<br>A wide variety of actual processing (Radar, Sonar, Telecoms. . . ) requires a detection step, who main effect is to restrict the set of observations available for unknown parameter estimation. Therefore, we address the derivation of Mean Square Error (MSE) lower bounds for determinii parameters conditioned by a binary hypothesis testing problem using a didactic approach of wi scope. To prove mat it is meaningful, we also show, with the help of a fundamental applicatior the problem of lower bound tightness at low SNR may arise from an incorrect lower bound formulation that does not take into account the true nature of the problem under investigation: joint detection-estimation problem
APA, Harvard, Vancouver, ISO, and other styles
44

Migliore, Thomas. "Estimation des paramètres de transport en milieu hydro-géologique et analyse d'incertitudes." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00442635.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'estimation des paramètres de transport de solutés dans un milieu poreux peu perméable, d'un point de vue théorique et appliqué, en lien avec le stockage des déchets nucléaires à vie longue en couche géologique profonde. La problématique de la gestion des déchets nucléaires est devenue durant ces dernières années une préoccupation importante de la société. Les modèles mathématiques utilisés pour le stockage des déchets en site profond sont basés sur les équations d'écoulement et de transport en milieu poreux. Ces modèles nécessitent de connaître les paramètres physiques des différentes couches géologiques. Ces paramètres (porosité et diffusion) n'étant pas accessibles directement, nous avons dans un premier temps étudié l'aspect identification de paramètres à zones fixées. Pour résoudre notre problème inverse, nous avons utilisé des méthodes déterministes (ou variationnelles) basées sur la minimisation d'un critère (ou fonction coût) quadratique, l'objectif étant de trouver l'ensemble des paramètres qui minimisent le critère. Nous avons décomposé le milieu en zones homogènes dans lesquelles les coefficients ont été identifiés (technique de zonation). Pour cela, nous avons différentié le code de convection-diffusion Traces avec le logiciel de différentiation automatique Tapenade afin d'obtenir le code adjoint de Traces. Dans un second temps, nous avons utilisé ce travail pour résoudre le problème d'identification de zones. On a cherché, partant d'une configuration géologique modifiée, à retrouver la configuration géologique réelle en identifiant les paramètres qui ont pour support ces zones. En regroupant ensuite par isovaleurs les coefficients identifiés, nous avons obtenu la configuration recherchée.
APA, Harvard, Vancouver, ISO, and other styles
45

Madi, Mohand Salah. "Estimation des paramètres du modèle de frottement de lugre par l'analyse d'intervalle." Mémoire, École de technologie supérieure, 2004. http://espace.etsmtl.ca/706/1/MADI_Mohand_Salah.pdf.

Full text
Abstract:
Une mauvaise connaissance a priori des paramètres des modèles de frottement rend difficile la conception des contrôleurs de position, spécialement dans les servomécanismes de haute précision. Les approches habituellement utilisées pour l'identification de systèmes, telle que la méthode des moindres carrés, peuvent être inefficaces pour identifier le modèle de frottement de LuGre puisqu'il ne peut être représenté sous une forme linéaire par rapport à ses paramètres incertains. L'approche à erreur bornée est efficace pour estimer des paramètres incertains de modèles fortement non linéaire. Cette approche est basée sur l'analyse d'intervalle et l'inversion ensembliste. Elle a été récemment utilisée avec succès dans plusieurs domaines notamment en électrochimie, en contrôle et en traitement des signaux. L'objectif de ce mémoire est d'appliquer cette approche au problème d'estimation des paramètres du modèle de frottement de LuGre. Pour valider la méthodologie présentée, des données expérimentales récoltées à partir d'un système électropneumatique sont utilisées pour identifier les paramètres du modèle.
APA, Harvard, Vancouver, ISO, and other styles
46

Tremblay, Marie. "Estimation des paramètres des modèles de culture : application au modèle STICS Tournesol." Toulouse 3, 2004. http://www.theses.fr/2004TOU30020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Van, Meurs Willem. "Automatisation de la circulation extracorporelle chirurgicale : estimation des paramètres d'un modèle hémodynamique." Toulouse 3, 1991. http://www.theses.fr/1991TOU30192.

Full text
Abstract:
La circulation extra-corporelle (cec) chirurgicale remplace la fonction cardio-pulmonaire lors d'une operation a cur ouvert. Un certain degre d'automatisation est souhaitable pour soulager la tache du technicien de cec et pour limiter les erreurs humaines. La revue des recherches anterieures montre que, pour la partie hemodynamique de la cec, plusieurs commandes en boucle fermee ont ete proposees. Dans ces approches, la definition des lois de commande n'est pas basee sur une modelisation explicite du systeme a controler. La separation suivante en sous-systemes est argumentee: l'hemodynamique, les echanges gazeux, l'hemodilution et les echanges thermiques. Des modeles originaux en vue de la commande en boucle fermee de l'hemodynamique et des echanges gazeux sont presentes, ainsi qu'un modele conceptuel et un modele de simulation a finalite pedagogique pour l'hemodynamique. La validation du modele hemodynamique passe par l'estimation en temps reel des parametres: resistance arterielle, resistance du retour veineux et compliance veineuse. L'estimation en temps reel est egalement un outil important pour les etudes pharmacodynamiques. Une etude de simulation permet de choisir une methode d'estimation appropriee et d'optimiser certains parametres de l'algorithme d'estimation. La methode retenue est celle des moindres carres recursifs, avec une trace constante du gain d'adaptation pour le suivi des parametres variables dans le temps et une variable instrumentale a modele auxiliaire, afin d'eviter un biais sur les parametres estimes cause par le bruit de mesure. Testee en chirurgie experimentale sur trois moutons, cette methode donne de bons resultats en termes de prediction et de convergence des parametres. Une experience est effectuee, montrant le suivi du parametre le plus delicat a estimer: la resistance du retour veineux
APA, Harvard, Vancouver, ISO, and other styles
48

Amara, Mounir. "Segmentation de tracés manuscrits. Application à l'extraction de primitives." Rouen, 1998. http://www.theses.fr/1998ROUES001.

Full text
Abstract:
Ce travail expose la modélisation de courbes par des éléments de droites, cercles et côniques dans une même formulation grâce à un filtrage étendu de Kalman. L'application est la segmentation des tracés manuscrits par une succession de primitives géométriques. Pour l'ajustement, nous décrivons les différentes courbes par des équations cartésiennes. Ces équations sont soumises à une contrainte de normalisation de manière à obtenir une estimation précise et robuste des paramètres des primitives géométriques. Ces deux équations, écrites sous forme implicite, constituent le système d'observation. Leur linéarisation est effectuée par un développement de Taylor au premier ordre. L'équation d'état du système est fixée constante pour spécifier la description d'une seule forme. La formulation de l'estimation récursive des paramètres utilise un filtre étendu de Kalman qui minimise une erreur quadratique, la distance d'un point à une forme, pondérée par la covariance du bruit d'observation. Pour reconstruire un tracé manuscrit, nous définissons une stratégie de changement de modèles. Dans notre cas, leur détection est fondée soit sur des critères spatio-temporels, en utilisant la dynamique du tracé manuscrit, soit sur des critères purement géométriques. Nous appliquons notre méthodologie à la segmentation de tracés réels constitués de chiffres ou de lettres manuscrites. Nous montrons que les différentes méthodes que nous avons développées permettent de reconstruire en temps réel, de façon précise, robuste, complète et totalement autonome, un tracé manuscrit quelconque. Ces méthodes autorisent un codage des tracés manuscrits: une stratégie est mise en œuvre pour la sélection de la primitive la plus significative au sens d'un critère approprié Nous proposons une démarche qui tient compte du taux de réduction de données et de la précision de la description. Ces méthodes ont l'avantage de réduire considérablement la quantité d'information initiale tout en gardant la partie informative. Elles ont été appliquées sur des tracés manuscrits réels en vue de l'analyse de dessins ou d'écritures d'enfants de scolarité primaire.
APA, Harvard, Vancouver, ISO, and other styles
49

Zheng, Huicheng. "Modèles de maximum d'entropie pour la détection de la peau : application au filtrage de l'internet." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Zheng.pdf.

Full text
Abstract:
La détection de la peau dans les images en couleur joue un rôle très important pour de nombreux problèmes de reconnaissance de formes. Citons la détection de visages ou encore la détection de corps humain dans une image. La résolution partielle de ces problèmes permet de faire des progrès dans les applications suivantes : le filtrage de l'internet, afin, par exemple, de signaler les images pornographiques, l'indexation par le contenu de catalogues d'images, ou encore la visioconférence, en permettant le suivi des visages dans des séquences d'images. Nous disposons d'une large collection d'images qui ont été étiquetées manuellement. Ainsi, chaque pixel de chaque image de cette collection admet un label binaire : "peau" ou "non-peau". Nous considérons successivement trois modèles probabilistes de complexité croissante pour la détection de la peau. Chaque modèle est un modèle de maximum d'entropie sur la moyenne. Tout d'abord, les contraintes ne portent que sur les lois marginales des couleurs pour chaque pixels. Puis, nous ajoutons des contraintes sur les lois jointes des labels binaires - "peau" ou "non-peau" - des pixels voisins. Le modèle obtenu est alors un champs de Markov<br>Dans un troisième temps, nous ajoutons des contraintes sur les couleurs des pixels voisins. Le modèle obtenu est à nouveau un champs de Markov mais contenant un très grand nombre de paramètres. Afin, aussi bien d'estimer les paramètres de ces modèles que d'effectuer de l'inférence, c'est à dire, étant donné une image couleur, calculer la probabilité pour chaque pixel qu'il corresponde à de la peau, nous proposons d'approximer, localement, le graphe associé aux pixels par un arbre. On dispose alors de l'algorithme "iterative scaling" pour l'estimation des paramètres et de l'algorithme "belief propagation" pour l'inférence. Nous avons effectué de nombreuses études expérimentales afin d'évaluer les performances respectives des différents modèles, en particulier en modifiant la taille et la géométrie des arbres. Dans le cas du projet européen Poesia, nous avons utilisé notre détecteur de peau en entrée d'un système de classification utlisant la méthode des réseaux neuronaux pour bloquer les pages webs indésirable pour les enfants. Nous avons obtenu des résultats extrèmement encourageants
APA, Harvard, Vancouver, ISO, and other styles
50

Boum, Alexandre Teplaira. "Commande prédictive d'un craqueur catalytique à lit fluidisé avec estimation des paramètres clés." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0033/document.

Full text
Abstract:
Le craquage catalytique à lit fluidisé (FCC) est l'un des procédés les plus importants au sein d'une raffinerie moderne et joue un rôle économique primordial. Le fonctionnement du FCC pose des problèmes d'opération liés à sa complexité. L'étude a porté sur la simulation du FCC, sa commande prédictive multivariable et l'estimation de paramètres-clés. Après une revue de la littérature sur les FCC et les différentes approches de modélisation ainsi que des cinétiques de craquage, un modèle du FCC qui intègre les dynamiques importantes a été choisi pour les besoins de la commande prédictive. La simulation du riser a été effectuée pour différents modèles de craquage et a montré de grandes disparités entre modèles, créant une difficulté à définir un modèle général de riser pour les FCC. Outre le nombre de groupes considérés, les différences concernent la chaleur de réaction globale, les lois de formation de coke sur le catalyseur et la désactivation de ce dernier. Des algorithmes de commande prédictive linéaire et non linéaire basée sur le modèle ont été utilisés pour commander le FCC en tenant compte de sa nature multivariable et des contraintes imposées aux variables manipulées. Les sorties commandées, température en haut du riser et température du régénérateur ont été maintenues proches des consignes, tant en régulation qu'en poursuite, tout en respectant les contraintes portant sur les deux variables manipulées, le débit de catalyseur régénéré et le débit d'air entrant dans le régénérateur. Une commande à trois entrées manipulées, incluant le débit d'alimentation, a également été testée avec succès. La commande prédictive linéaire avec observateur a fourni des résultats encore meilleurs que la commande linéaire quadratique. La commande prédictive non linéaire a été testée mais présente des problèmes pour une implantation en temps réel. L'estimation du coke sur le catalyseur a été réalisée par le filtre de Kalman étendu, mais les erreurs d'estimation sont importantes, probablement à cause du choix insuffisant des mesures effectuées. L'ensemble de l'étude a montré que la commande avancée prédictive du FCC est performante et doit être recommandée, mais peut encore être améliorée en particulier par son réglage et l'estimation des états<br>Fluid catalytic cracking (FCC) is one of the most important processes in a modern refinery and is of essential economic importance. The FCC operation presents difficulties related to its complexity. The study was related to its simulation, multivariable control and estimation of key parameters. After a litterature review of the FCC, the different approaches of modelling and cracking kinetics, a FCC model that takes into account the important dynamics was chosen for model predictive control purposes. The riser simulation was carried out for different cracking models and shows great differences between these models, which makes it difficult to define a general riser model for the FCC. Besides the number of lumps, differences deal with the global heat of reaction, the coke formation laws and its deactivation functions. Linear and nonlinear model predictive algorithms were used for FCC control taking into account its multivariable nature and the constraints imposed on the manipulated variables. The controlled outputs, temperature at the riser top and temperature in the regenerator were maintained close to their respective set points in regulation and tracking modes while respecting the constraints on the two manipulated variable, the flow rate of regenerated catalyst and the flow rate of air entering the regenerator. A control with three manipulated variables including the feed flow rate was also successfully tested. Linear predictive control with an observer gave better results than linear quadratic control. Nonlinear predictive control was tested but presents problems for real time implementation. The estimation of coke on the catalyst was carried out using extended Kalman filter, but the estimation errors are important, probably due to an insufficient choice of measurements. The overall study showed that advanced predictive control of the FCC is efficient and must be recommended, but it can still be improved upon particularly by its tuning and state estimation
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography