To see the other types of publications on this topic, follow the link: Méthode des moindres carrés.

Dissertations / Theses on the topic 'Méthode des moindres carrés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode des moindres carrés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mir, Youness. "Approximation par la méthode des moindres carrés." Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/4753.

Full text
Abstract:
La méthode des moindres carrés sert de base à plusieurs méthodes pour adapter certains types de courbes et de surfaces aux données. Dans ce travail, nous nous pencherons tout particulièrement sur les conditions d'existence de l'approximation au sens des moindres carrés de certains modèles. Sans perte de généralité, nous considérons deux modèles exponentiels dans tous leurs détails. Pour ces deux modèles, nous essayerons de fournir les hypothèses sur les données qui nous garantissent l'existence d'une telle approximation. Pour y arriver, dans le premier chapitre nous avons regroupé quelques notions utiles à la compréhension des chapitres ultérieurs. La première section concerne une introduction générale sur l'approximation polynomiale au sens des moindres carrés qui sera par la suite la clé de nos hypothèses pour les deux autres chapitres. Dans la seconde section, nous donnerons quelques définitions et remarques qui seront utilisées dans le reste du travail. Dans les deuxième et troisième chapitres, après avoir mis en évidence quelques propriétés sur la monotonie et la convexité des données, nous aborderons respectivement les modèles exponentiels à deux et trois paramètres dont nous essayerons de donner des hypothèses suffisantes qui vont nous permettre de démontrer un théorème qui garantit l'existence de l'approximation au sens des moindres carrés pour chacun des deux modèles. Nous discuterons enfin quelques choix de l'approximation initiale que nous testerons à l'aide de deux exemples concrets. Finalement, dans le dernier chapitre nous ferons une étude comparative de quelques modèles non linéaires d'ajustement de courbes sur des données spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
2

Riabi, Mohamed Lahdi. "Contribution à l'étude des structures planaires microondes par la méthode des moindres carrés." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT103H.

Full text
Abstract:
Notre etude concerne la modelisation des structures planaires microondes. Il s'agit d'analyser et de caracteriser la structure consideree par l'utilisation de la methode de la cavite resonnante. Les conditions de resonance permettent de determiner l'une des dimensions de la cavite par application du critere de minimisation au sens des moindres carres. L'exploration de fonctions de poids systematiques est effectuee en tenant compte des singularites des champs electromagnetiques dues essentiellement aux effets de bord. Ceci nous permet d'accelerer la convergence et d'obtenir des solutions rigoureuses. Cette nouvelle variante a ete appliquee a la modelisation de certaines discontinuites planaires, tels que l'obstacle selfique, le saut de largeur. . .
APA, Harvard, Vancouver, ISO, and other styles
3

Benzina, Hafed. "Application de la méthode des moindres carrés à l'analyse de structures planaires non rayonnantes." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT055H.

Full text
Abstract:
La methode des moindres carres avec changement de base a ete appliquee a l'etude d'un dephaseur microruban sur substrat composite ferrite-dielectrique en mode quasi-tem. A cause de l'anisotropie du milieu ferritique, l'analyse a ete separee en deux parties suivant qu'il s'agisse du cas electrostatique ou bien du cas magnetostatique. La comparaison avec l'experience, a montre la necessite d'utiliser une permeabilite tensorielle plutot que scalaire car avec cette derniere les erreurs de prediction concernant le dephasage differentiel pourraient etre importants. D'autre part, la methode des moindres carres a ete appliquee a l'analyse dynamique generale de structures planaires non rayonnantes. La tenue en compte du phenomene de gibbs par modification des domaines d'integration dans les produits scalaires, a permis d'accelerer la convergence de la methode et d'ameliorer les resultats obtenus
APA, Harvard, Vancouver, ISO, and other styles
4

Smolders, André. "Etude d'algorithmes de détection de ruptures de modelés et de prédiction adaptative : application à un problème de poursuite de mobiles manoeuvrants." Nice, 1986. http://www.theses.fr/1986NICE4010.

Full text
Abstract:
Dans ce mémoire, on donne en premier lieu une présentation générale du problème de la poursuite dans laquelle on propose une modélisation polynomiale temporelle des trajectoires. On déduit de celle-ci une représentation entrée-sortie équivalente. En second lieu, on réalise une synthèse des diverses méthodes de détection de ruptures de modèles, puis une synthèse des diverses classes de solution du problème de poursuite. En troisième lieu, on présente quelques solutions apportées au problème de la prédiction de trajectoires, puis on développe à partir de la modélisation polynomiale des trajectoires un ensemble de nouvelles méthodes adaptatives: de lissage base sur un algorithme des moindres carres récursifs factorises sous forme U-D incluant un facteur d'oubli, de détection de manoeuvres à l'aide du test de Page-Hinkley et de prédiction. A travers ces essais sur trajectoires réelles et simulées, on rend compte des performances et des limites de ces nouveaux algorithmes
APA, Harvard, Vancouver, ISO, and other styles
5

Varin, Élisabeth. "Résolution de l'équation de transport neutronique par une méthode de moindres carrés en trois dimensions." Châtenay-Malabry, Ecole centrale de Paris, 2001. http://www.theses.fr/2001ECAP0717.

Full text
Abstract:
L’équation de transport décrit la densité des neutrons dans l’espace et le temps, selon les directions de vitesse de propagation. En trois dimensions, les méthodes déterministes classiques de résolution ont chacune des limitations pour certains milieux physiques tels qu’une zone très diffusive ou encore une zone vide d’interactions. On combine les approches pour obtenir une solution pour tout milieu. Les travaux présentés dans cette thèse proposent la mise en œuvre en trois dimensions d’une méthode de moindres carrés sur l’équation de transport mise à l’échelle. Cette méthode originellement développé par K. J. Ressel est applicable directement pour tout type de milieux. L’étude de la méthode en milieu diffusif confirme ses résultats par une analyse asymptotique. De plus un développement PN en harmoniques sphériques de la variable angulaire et une discrétisation par éléments finis de la variable spatiale conduisent à l’écriture d’un système d’équations linéaires, dont la matrice est symétrique. L’erreur de discrétisation est établie et bornée de manière finie. Cette propriété de la matrice du système permet d’envisager des méthodes numériques robustes tel que le gradient conjugué. Une prise en compte au sens faible des conditions aux limites est décrite et ces conditions sont développées en trois dimensions et en variable complexe. Les équations discrètes en trois dimensions sont obtenues pour des éléments hexaédriques et tétraédriques. La méthode est étendue à des milieux multigroupes en énergie et de diffusion anisotrope. L’implantation complète de la méthode est décrite pour former le logiciel ARTEMIS. Au niveau informatique, une variation par sous-région matérielle de l’ordre de développement PN est considérée pour limiter le nombre d’inconnues. Des tests simples montrent la correcte mise en œuvre de la méthode. Les extensions multigroupes et anisotropes sont également validées en trois dimensions. Les résultats sur le cas test de Takeda de l’OCDE, utilisé comme cas de référence réaliste sont présentés
The transport equation describes the neutron density in space and time, along velocity directions. In three dimensions, classical deterministic methods of resolution have each their limitations for certain physical media like in diffusive region or for void material. The different approaches are combined to obtain the solution in every media. The work presented in this thesis show the implementation in three dimensions of a least square method applied to the scaled transport equation. This method originally developed by K. J. Ressel can be applied directly to all materials types. The study in diffusive regimes harmonics expansion PN and a finite element discretisation in space lead to the writing of a system of linear equations, forming a symmetric matrix. The discretisation error is obtained and bounded. The system matrix property allows the use of robust numerical methods like the conjugate gradient method. Boundary conditions are taken care of by a low order approach. They are developed for PN expansion in 3D and for complex arithmetic. Three dimensional discrete equations are obtained for hexaedral and tetraedral elements. The complete implementation of the method is explained to develop the code ARTEMIS. In this code, the expansion order PN can be changed depending on the region allowing to decrease the total number of unknowns. Simple tests show the correct implementation of the approach. Multigroup anisotropic extensions are also validated in three dimensions. Results for one of the Takeda benchmarks of OECD, used as a realistic reference case, are presented
APA, Harvard, Vancouver, ISO, and other styles
6

Trigeassou, Jean-Claude. "Contribution à l'extension de la méthode des moments en automatique : application à l'identification des systèmes linéaires." Poitiers, 1987. http://www.theses.fr/1987POIT2005.

Full text
Abstract:
Introduction d'une nouvelle théorie des moments partiels pouvant s'appliquer a l'identification des systèmes linéaires. Définition d'un modèle de sortie a moments partiels réinitialises, équivalent a un filtre a réponse impulsionnelle finie. Identification des systèmes linéaires continus et discrets par moments a horizon infini et moments partiels
APA, Harvard, Vancouver, ISO, and other styles
7

Meziane-El, May Hédia. "Extension de la régression classique à des problèmes typologiques et présentation de la "méthode des tranches de densité" : une approche basée sur la percolation." Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX32000.

Full text
Abstract:
Le probleme que nous abordons tel est celui de la generalisation du concept de la regression ayant pour but la prise en compte des aspects structurels de l'ensemble des donnees. Cet aspect des choses est pratiquement toujours passe sous silence au niveau des resolutions, alors que sa prise en compte devrait permettre un comprehension beaucoup plus precise d'un tres grand nombre de phenomenes et la mise en place de modeles plus adequats sur nombres de realites. Independamment de la prise en compte des points aberrants, d'autres raisons, fondamentales aussi, peuvent etre la cause d'une mauvaise qualite des modeles. Ces raisons sont d'ordre structurel et c'est ce a qoui nous nous interessons ici, en montrant qu'il est possible sur un meme ensemble de donnees de rechercher automatiquement l'existence d'un modele ou de plusieurs modeles sous-jacents. Nous proposons dans cette these, une methode de resolution simple et efficace: "la methode des tranches de densite" dont le but est la mise en evidence de "multimodeles" internes a une realite ou l'hypothese d'homogeneite des donnees ne peut etre acceptee. Cette methode tente de faire une synthese des techniques de regression et de typologie. La classification non-hierarchique des donnees est effecutee selon le principe de la percolation et est realisee simultanement avec le calcul des hyperplans de regression. La recherche des points de forte densite selon le principe de la percolation est appliquee non plus sur les points mais sur les tranches de points. Les fondements de la methode sont discutes, et, un algorithme et quelques resultats presentes
We are about to tackle hereafter the problem of generalizing the regression concept for the purpose of taking into account the data's structural aspects. The resolutions of this matter of fact are mostly overlooked although taking them into consideration would allow a better understanding of a great number of phenomenons and would lead to the establishment of more adequate models. In addition ot the outliers, some other fundamental factors may undermine as well the quality of the models. These factors are structural in nature. Therefore our objctive is to show that from the same set of data, it is possible to search automatically one or even several resulting models. We propose, within this thesis, a method of resoulution that should be both simple and efficient: "the method of density slices", which aim is to find underlying "multimodels" when one is handling heterogeneous data. This method treis to synthesize regression and classification techniques. The non-hierarchical classification of data must be guided by the "percolation principle" and has to be realized simultaneously with the computation of the regression hyperplans. The percolation principle which aims to find the strong density points, has to be applied to slices of points and no longer to individual points. The basis of this method are discussed herewith, an algorithm and some results are presented as well
APA, Harvard, Vancouver, ISO, and other styles
8

Basmaji, Riad. "Etude des réseaux géodésiques réguliers : matrice de covariance des réseaux réguliers finis de type nivellement : application de la méthode de la transformée de Fourier à l'analyse : application de la méthode de la transformée de Fourier à l'analyse des réseaux réguliers infinis à une et deux variables." Observatoire de Paris, 1989. https://tel.archives-ouvertes.fr/tel-01958574.

Full text
Abstract:
Les réseaux réguliers géodésiques bidimensionnels résultent d'un modèle d'observations répété identiquement aux nuds d'un maillage irrégulier d'un plan : observations de dénivelées (nivellement), d'angles (triangulation) ou de distances (trilatération), dont le traitement par la méthode classique des moindres carrés conduit à larésolution d'équations normales qui s'identifient à des équations aux différences que l'on retrouve dans les théories du potentiel discret en physique mathématique (notamment l'équation discrète de poisson). Après un rappel des formules du potentiel logarithmique continu, résolu par la fonction de green (Dirichlet, Neumann), la théorie du potentiel discret est appliquée aux réseaux infinis de nivellement, puis aux réseaux limités par un cercle. Le problème est entièrement résolu pour els équations aux paramètres, et fait apparaitre l'importance de base discret qui sert pour la construction des matrices de covariance, et se comporte asymptotiquement comme une fonction linéaire du logarithme de la distance entre deux points. Une large place est accordée au traitement des problèmes par leur transformation de Fourier dans l'espace de fréquence : méthode appliquée notamment au réseau d'angles adjacents, qui se ramène à l'étude de deux réseaux indépendants de nivellement. Les équations normales de la trilatération d'un réseau infini sont traitées par la même méthode mais la formulation, qui est plus complexe, permet d'estimer la covariance d'un réseau infini, en accord satisfaisant avec un réseau borne caculé directement. Les formules sont contrôlées par des résultats numériques fournis par de l'inversion de matrices de grandes dimensions. La méthode des équations de condition (avec correlatifs de Lagrande) est aussi explorée systématiquement et fournit des contrôles partiels.
APA, Harvard, Vancouver, ISO, and other styles
9

Thouzé, Arsène. "Méthode numérique d'estimation du mouvement des masses molles." Thèse, Poitiers, 2013. http://hdl.handle.net/1866/10763.

Full text
Abstract:
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.
Biomechanical analysis of human movement using optoelectronic system and skin markers considers body segments as rigid bodies. However the soft tissue motion relative to the bone, including muscles, fat mass, results in relative displacement of markers. This displacement is the results of two components, an own component which corresponds to a random motion of each marker and an in-unison component corresponding to the common movement of skin markers resulting from the movement of the underlying wobbling mass. While most studies aim to minimize these displacements, computer simulation models have shown that the movement of the soft tissue motion relative to the bones reduces the joint kinetics. This observation is only available using computer simulations because there are no methods able to distinguish the kinematics of wobbling mass of the bones kinematics. The main objective of this thesis is to develop a numerical method able to distinguish this different kinematics. The first aim of this thesis was to assess a local optimisation method for estimating the soft tissue motion using intra-cortical pins screwed into the humerus in three subjects. The results show that local optimisation underestimates of 50% the marker displacements. Also it leads to a different marker ranking in terms of displacement. The limit of local optimisation comes from the fact that it does not consider all the components of the soft tissue motion, especially the in-unison component. The second aim of this thesis was to develop a numerical method that accounts for all the component of the soft tissue motion. More specifically, this method should provide similar kinematics and estimate large marker displacement and distinguish the two components to conventional approaches. The lower limb is modeled using a 10 degree of freedom chain model reconstructed using global optimisation and the markers placed only on the pelvis and the medial face of the shank. The original estimate of joint kinematics without considering the markers placed on the thigh and on the calf avoids the influences of these markers displacement on the kinematic model reconstruction. This method was tested on 13 subjects who performed hopping trials and obtained up to 2.1 times of marker displacement depending the method considered ensuring similar joint-kinematics. A vector approach shown that marker displacements is more induce by the in-unison component. A matrix approach combining the local optimisation and the kinematic model shown that the wobbling mass moves around the longitudinal axis and along the antero-posterior axis of the bone. The originality of this thesis is to numerically distinguish the bone kinematics from the wobbling mass kinematics and the two components of the soft tissue motion. The methods developed in this thesis increases the knowledge on soft tissue motion and allow future studies to consider their movement in joint kinetics calculation.
APA, Harvard, Vancouver, ISO, and other styles
10

Pujol, Serge. "Contribution à l'étude de circuits planaires micro-ondes par une méthode intégrale en utilisant différents types de fonctions d'essai." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT070H.

Full text
Abstract:
Ce travail est une exploration de plusieurs methodes de modelisation des circuits planaires micro-ondes. Leur point commun reside dans la determination de la densite de courant a l'aide d'une base de fonctions d'essai definies sur des domaines etendus. Celles-ci, parfois appelees ondelettes s'opposent aux fonctions triangles definies sur des cellules elementaires. Dans une premiere partie, le circuit est caracterise par sa frequence de resonance. Les fonctions d'essai sont tout d'abord determinees numeriquement par le developpement d'un changement de base particulier pour la methode des moindres carres, puis choisies analytiquement afin de resoudre le meme probleme par la methode de galerkin. Dans la deuxieme partie, une methode de source est developpee. L'introduction d'un terme d'excitation arbitraire presente l'interet majeur de ramener, grace a la methode de galerkin, le traitement numerique a la resolution d'un systeme d'equations lineaires. L'impedance d'entree, ou la matrice impedance, est alors calculee en utilisant un quadripole de couplage, dont le role est fondamental dans la resolution du probleme. Cette methode est mise au point a partir de plusieurs formulations basees sur la forme du courant de source. Elle est ensuite appliquee a la modelisation de discontinuites planaires elementaires
APA, Harvard, Vancouver, ISO, and other styles
11

Boussouis, Mohamed. "Contribution à la résolution des problèmes aux limites dans les dispositifs micro-ondes par la méthode des moindres carrés." Toulouse, INPT, 1987. http://www.theses.fr/1987INPT073H.

Full text
Abstract:
La methode des moindres carres a ete appliquee a la resolution de problemes aux limites dans des dispositifs passifs hyperfrequence. La convergence de cette methode, ainsi que ses divers aspects numeriques sont etudies. Deux techniques numeriques associees a cette methode, telles que le changement de base et la methode de segmentation sont presentees. Divers procedes d'acceleration de la convergence des series de fourier resultant des conditions aux limites sont utilisees. En mode quasi-tem, des structures telles que ligne microbande, lignes couplees, ligne coplanaire, en milieu inhomogene, sont etudiees et leurs parametres de propagation tels que impedances caracteristiques, constante dielectrique effective, sont determines. Une generalisation, faisant appel a des operateurs matriciels, est appliquee au cas de n lignes couplees. Un procede de modelisation de ces n lignes est propose. En mode hybride, les proprietes dispersives de structures guidantes utilisees en technologie planaire, sont determinees par les moindres carres avec changement de base. L'utilisation des approximants de pade, ainsi que le critere de convergence, ont permis de reduire considerablement le temps de calcul. La caracterisation des multipoles planaires a ete etudiee grace a l'introduction d'un operateur de poids permettant d'ameliorer la convergence. La methode de segmentation en sous matrices a permis un gain en temps de calcul, ainsi qu'un encombrement memoire reduit
APA, Harvard, Vancouver, ISO, and other styles
12

Dehay, Guy. "Application des moindres carrés récursifs à l'estimation en temps réel des paramètres de la machine asynchrone." Compiègne, 1996. http://www.theses.fr/1996COMP9425.

Full text
Abstract:
Le controle vectoriel permet d'utiliser la machine asynchrone comme un actionneur performant. Neanmoins, pour etre optimal, ce type de controle necessite une estimation precise des parametres electriques de la machine asynchrone. En outre, ces parametres peuvent varier sous l'influence de la temperature et la saturation. Il est donc important de pouvoir les estimer en temps reel. Ce memoire considere l'identification de la machine asynchrone par les moindres carres recursifs. Il fait tout d'abord ressortir que l'ecriture du modele lineaire adapte a la formulation des moindres carres implique des contraintes sur le domaine de fonctionnement sur lequel on peut estimer les parametres. D'autre part, nous avons quantifie la precision des estimations en fonction des bruits experimentaux. Cette analyse montre qu'une instrumentation performante et des pretraitements appropries sont necessaires pour garantir une identification precise. Ces resultats theoriques ont ete valides a la fois par des simulations et des experimentations
APA, Harvard, Vancouver, ISO, and other styles
13

Hiernard, Erwan. "Méthodes d'éléments finis et moindres carrés pour la résolution des équations de Navier-Stokes." Paris 11, 2003. http://www.theses.fr/2003PA112071.

Full text
Abstract:
L'objectif de cette thèse est de mettre en œuvre des méthodes de résolution pour les équations de Navier-Stokes tridimensionnelles, linéarisées en formulation vitesse-vorticité-pression, par éléments finis et moindres carrés. Ces méthodes se caractérisent par le fait qu'elles ne nécessitent pas de condition Inf-Sup ou bien que celles-ci sont trivialement satisfaites. Deux méthodes sont présentées. La première est une variante de la méthode Least-Squares Finite Element Method (LSFEM). Elle consiste à écrire une formulation variationnelle du problème dé type Petrov-Galerkin. Les systèmes linéaires obtenus n'ont aucune raison d'être carrés, ils sont donc résolus au sens des moindres carrés. Comme les autres méthodes de moindres carrés, cette méthode n'a pas à vérifier la condition Inf-Sup. Elle conserve aussi certains défauts de la méthode originale. On démontre cependant la bonne convergence de cette méthode et une estimation de l'erreur. L'idée nouvelle de développement dans la seconde méthode est d'utiliser les espaces d'éléments finis de Whitney, adaptés à chaque opérateur et à chaque équation. La formulation faible est également de type Petrov-Galerkin mais cette fois les matrices sont carrées. On démontre la convergence et une estimation a priori de l'erreur en prouvant que la condition Inf-Sup est automatiquement vérifiée. De plus, les comparaisons des résultats numériques de ces méthodes nous permettent de montrer que cette méthode est meilleure mais au prix de calculs plus lourds
In this work, we solve the tridimensional Navier-Stokes equations in the velocity-vorticity-pressure formulation by finite element methods and least-squares formulation. This kind of method is characterized by the fact that the L. B. B. Condition is not needed or is trivialy verified. We present two methods. The first one derives directly from the least-squares finite element method (LSFEM). But the weak formulation is obtained using a Petrov-Galerkin method. We obtain non squared linear systems, so they are solved using least-squares techniques. As others LSFEM methods, we don't have to verify the L. B. B. Condition. The implementation of this method is very easy but we have the same restrictions of the LSFEM. We prove that the method is convergent and error estimates are obtained. In the second method, we use the Whitney's finite element spaces in which each operator and equation can be properly expressed. Moreover, in this method, the linear systems are squared and can be solved directly. We also prove convergence of this method and error estimates. The L. B. B. Condition is directly verified. Numerical comparaisons between these two methods show that the second one gives better results in terms of accuracy but with more computer cost
APA, Harvard, Vancouver, ISO, and other styles
14

Bergou, El Houcine. "Méthodes numériques pour les problèmes des moindres carrés, avec application à l'assimilation de données." Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0114/document.

Full text
Abstract:
L'algorithme de Levenberg-Marquardt (LM) est parmi les algorithmes les plus populaires pour la résolution des problèmes des moindres carrés non linéaire. Motivés par la structure des problèmes de l'assimilation de données, nous considérons dans cette thèse l'extension de l'algorithme LM aux situations dans lesquelles le sous problème linéarisé, qui a la forme min||Ax - b ||^2, est résolu de façon approximative, et/ou les données sont bruitées et ne sont précises qu'avec une certaine probabilité. Sous des hypothèses appropriées, on montre que le nouvel algorithme converge presque sûrement vers un point stationnaire du premier ordre. Notre approche est appliquée à une instance dans l'assimilation de données variationnelles où les modèles stochastiques du gradient sont calculés par le lisseur de Kalman d'ensemble (EnKS). On montre la convergence dans L^p de l'EnKS vers le lisseur de Kalman, quand la taille de l'ensemble tend vers l'infini. On montre aussi la convergence de l'approche LM-EnKS, qui est une variante de l'algorithme de LM avec l'EnKS utilisé comme solveur linéaire, vers l'algorithme classique de LM ou le sous problème est résolu de façon exacte. La sensibilité de la méthode de décomposition en valeurs singulières tronquée est étudiée. Nous formulons une expression explicite pour le conditionnement de la solution des moindres carrés tronqués. Cette expression est donnée en termes de valeurs singulières de A et les coefficients de Fourier de b
The Levenberg-Marquardt algorithm (LM) is one of the most popular algorithms for the solution of nonlinear least squares problems. Motivated by the problem structure in data assimilation, we consider in this thesis the extension of the LM algorithm to the scenarios where the linearized least squares subproblems, of the form min||Ax - b ||^2, are solved inexactly and/or the gradient model is noisy and accurate only within a certain probability. Under appropriate assumptions, we show that the modified algorithm converges globally and almost surely to a first order stationary point. Our approach is applied to an instance in variational data assimilation where stochastic models of the gradient are computed by the so-called ensemble Kalman smoother (EnKS). A convergence proof in L^p of EnKS in the limit for large ensembles to the Kalman smoother is given. We also show the convergence of LM-EnKS approach, which is a variant of the LM algorithm with EnKS as a linear solver, to the classical LM algorithm where the linearized subproblem is solved exactly. The sensitivity of the trucated sigular value decomposition method to solve the linearized subprobems is studied. We formulate an explicit expression for the condition number of the truncated least squares solution. This expression is given in terms of the singular values of A and the Fourier coefficients of b
APA, Harvard, Vancouver, ISO, and other styles
15

Georges, George. "Algorithmes de calcul de positions GNSS basés sur les méthodes des moindres carrés avancées." Thesis, Belfort-Montbéliard, 2016. http://www.theses.fr/2016BELF0298/document.

Full text
Abstract:
Dans ce mémoire, une nouvelle approche neuronale TLS EXIN est proposée pour estimer la position d'un récepteurGPS. L'idée générale de cette approche est d'avoir une méthode plus robuste pour le calcul de la position.Le pseudorange alone est l'une des techniques les plus simples et les plus utilisées pour le positionnement GPS.Cette technique nécessite la résolution d'un système surdéterminé d'équations linéaires Ax+/-b. En général, lesmoindres carrés ordinaires (OLS) et les moindres carrés pondérés (WLS) sont les méthodes couramment utiliséespour estimer la position d'un récepteur grâce à leur rapidité et leur robustesse, mais la structure particulière de lamatrice de données A et les bruits affectant ses entrées ne sont pas considérés. Au contraire, cette thèse a pourobjectif d'analyser ces problèmes et d'étudier le comportement des méthodes des moindres carrés (LS) enprésence d'une matrice de données A bruitée.L'approche des moindres carrés totaux (TLS) prend en compte le bruit dans la matrice de données A ainsi que dansle vecteur d'observation b. Cette dernière est une technique moins robuste que OLS et plus sensible auchangement des données, elle est en général résolue par une méthode directe. La méthode TLS EXIN basée surles réseaux de neurones est un algorithme itératif (flux gradient) pour résoudre le problème TLS. Elle donne unmeilleur résultat parce qu'elle peut exploiter les informations d'état initial provenant des époques précédentes et, encas de conditions initiales nulles, donne une estimation précise même en cas de problème singulier.Pour réaliser des comparaisons entre les différentes méthodes des moindres carrés (LS), deux jeux de données ontété collectés. Le premier jeu de données est issu du réseau TERIA et comporte des données collectées depuisdifférentes stations de référence situées dans toute la France. Le deuxième jeu de données est le résultat d'unecampagne de mesures utilisant un appareil GPS (Ublox NL-6002U).Grâce à ces données réelles, un nombre de conditionnement bas a été estimé. Dans ce cas, toutes les méthodesLS donnent des estimations équivalentes, et le choix du meilleur algorithme (OLS, et surtout, WLS) est privilégiépour leur rapidité de calcul. Cependant, le pire scénario qui puisse se produire a été étudié (dans le cas d'unsatellite éloigné), et ont été observés des mauvais conditionnements du problème de GPS (nombre deconditionnement élevé). Cette situation extrême justifie l'utilisation du réseau neuronal TLS EXIN. Les résultatsobtenus confirment cette approche, même pour un nombre de conditionnement élevé.____________________________________________________________________________________________
In this thesis, the neural approach TLS EXIN was proposed in a new way in order to estimate the position of a GPSreceiver. The general idea of this approach is to develop a more robust method for calculating the position.The ¿pseudorange alone¿ method is one of the simplest techniques and most widely used for estimating the GPSpositioning and it results in solving an overdetermined system of linear equations Ax¿b. In general, the ordinaryleast squares (OLS) and weighted least squares (WLS) are the commonly used methods to estimate the position ofa receiver for their quickness and robustness, but the particular structure of the data matrix A and the noise affectingits entries are not considered. This thesis, instead, aims to address these problems and study the behavior of leastsquares (LS) methods in the presence of a noisy data matrix A.The approach of total least squares (TLS) takes into account the noise in A and b. It is a less robust technique thanOLS and more sensitive to data changes. It is general solved as a direct method. Instead, the neural network TLSEXIN, which is an iterative algorithm (gradient flow) for solving TLS, works better both because it may exploit theinitial condition information derived from the previous epochs, and, in case of null initial conditions, yields anaccurate estimate even in case of close-to-degenerate data matrix.To perform tests between different methods of least squares, two sets of data were collected. The first one comesfrom the TERIA network and includes data collected from different reference stations located throughout France.While the second one is the result of a measurement campaign using GPS (Ublox NL-6002U).Using the real data, a low condition number has been estimated: in this case all LS methods yield equivalentestimates: as a consequence, OLS and WLS are to be preferred for their low computational cost. However, theworst scenario has been investigated which may occur in case of a distant satellite, resulting in the ill-conditioning ofthe GPS problem. This extreme situation justifies the use of the TLS EXIN neural network. The results obtainedconfirm of this approach even for very large condition numbers
APA, Harvard, Vancouver, ISO, and other styles
16

Settineri, Roch. "Etude et developpement d'algorithmes de filtrage adaptatif en treillis. Application a l'identification de modeles arma." Nice, 1991. http://www.theses.fr/1991NICE4493.

Full text
Abstract:
L'objet de cette these est le filtrage adaptatif de signaux rapidement non stationnaires a l'aide de filtres en treillis. Dans un premier temps, nous presentons les deux types d'approches (filtre en treillis/moindres carres et filtre en treillis/gradient) couramment employees pour reactualiser, aussi bien sur l'ordre que sur le temps, les coefficients parcor du filtre en treillis. Nous proposons alors deux nouvelles solutions permettant de traiter le cas de signaux rapidement non stationnaires, modelises par des modeles ar ou arma dont les parametres presentent des ruptures. L'objectif vise est d'effectuer le meilleur compromis entre la capacite de poursuite de l'algorithme lors des ruptures et la sensibilite au bruit lors des periodes stationnaires. La premiere solution consiste a augmenter brusquement la capacite de poursuite du filtre en treillis/moindres carres en diminuant recursivement la memoire de l'algorithme. Cette solution est utilisee par la suite pour construire une methode adaptative d'identification de modeles arma. La seconde solution consiste a optimiser le taux d'oubli du filtre en treillis/gradient soit en fonction du degre de non-stationnarite du signal, soit encore a l'aide d'une procedure de gradient secondaire. Finalement, une etude experimentale realisee a l'aide de simulations de monte carlo, met en evidence l'efficacite du filtre en treillis/moindres carres, comparativement aux autres solutions
APA, Harvard, Vancouver, ISO, and other styles
17

Ba, Amadou-Abdoulaye. "Contribution à la surveillance d'un processus de forage pétrolier." Paris, ENSAM, 2010. http://www.theses.fr/2010ENAM0007.

Full text
Abstract:
La contribution de cette thèse résulte de la nécessité d'optimiser les processus de forage pétrolier à partir du diagnostic de l'encrassement d'un trépan. Pour diagnostiquer ce type de défaut, trois méthodes d'identification ont été proposées. La première méthode nommée MCR-FOVG (Moindres Carrés Récursifs à Facteur d'Oubli Variable suivant la direction du Gradient) réduit la durée des régimes transitoires en fournissant une convergence rapide des MCR-FO et donc une détection précoce des défauts. La seconde méthode désignée par MCR-FOVG-PAA où PAA représente (Pas d'Apprentissage Adaptatif) est une extension des MCR-FOVG. Ici, l'accélération de la convergence provient du pas d'apprentissage adaptatif. Pour assurer la stabilité des MCR-FOVG-PAA nous avons proposé de déterminer la valeur maximum du pas. Cette démarche a entrainé l'obtention d'un algorithme fournissant de meilleures performances. Cet algorithme est nommé MCR-FOVG-PAA-TSL où TSL désigne (Théorie de Stabilité de Lyapunov). Afin de mieux tenir compte du caractère stochastique du procédé de forage, nous avons utilisé les algorithmes de Monte Carlo et nous avons retenu une de leurs variantes représentée par le RBPF. Puis, nous avons montré sa possibilité d'exploitation dans le cadre du diagnostic. Ces approches ont été testées sur des bases de données issues des campagnes de mesures et ont montré des performances satisfaisantes en termes de détection rapide et fiable de l'encrassement
During the PhD thesis our works have been directed towards identification approaches serving as tools for on-line monitoring procedures dedicated particularly to oilfield drilling processes. Several approaches have been proposed. The role of the first proposed method denoted by GVFF-RLS (Gradient Variable Forgetting Factor Recursive Least Square) is to reduce the transient stage duration by providing a rapid convergence of the FF-RLS. Consequently, this approach allows fast fault detections. Then, an extension of the GVFF-RLS named SALR-GVFF-RLS has been developed. Note that, the SALR stands for (Stochastic Adaptive Learning Rate) and its specificity is to accelerate the GVFF-RLS convergence by rendering the learning rate adaptive. The SALR-GVFF-RLS provides better performances than GVFF-RLS do. In order to ensure the stability of SALR-GVFF-RLS, we have developed an approach giving the maximum value of the learning rate and leaded to a new algorithm called LST-GVFF-RLS where the LST accounts for (Lyapunov Stability Theory). The LST-GVFF-RLS, besides providing a fast convergence it guarantees the stability of the algorithm. In order to take into account the particularity of a drilling process we have explored approaches using Sequential Monte Carlo methods and we have used one of their variants (RBPF). Then, we have emphasized its possibility of exploitation for fault detection strategies. These approaches have been tested on data bases obtained from field tests and highlighted interesting performances in terms of fast and reliable fault detection of bit balling
APA, Harvard, Vancouver, ISO, and other styles
18

Dupret, Yoan. "Modélisation des dispersions des performances des cellules analogiques intégrées en fonction des dispersions du processus de fabrication." Paris 11, 2005. http://www.theses.fr/2005PA112106.

Full text
Abstract:
A la sortie d'une chaîne de fabrication de circuits intégrés, les performances des circuits présentent des dispersions. Ces dispersions sont dues aux dispersions du processus de fabrication. La miniaturisation que connait la microélectronique a tendance à amplifier ce phénomène. Lorsque les performances des circuits intégrés sont trop dispersées, une certaine proportion des circuits fabriqués ne satisfait pas les spécifications définies dans le cahier des charges. Par conséquent, le rendement de fabrication ne vaut pas 100%. Il est donc nécessaire, lors de la conception des circuits, d'anticiper les effets des dispersions du processus de fabrication. Classiquement, les dispersions des performances des circuits intégrés sont évaluées par des méthodes de Monte Carlo par simulation. Une alternative est l'utilisation de méthodes de Monte Carlo par approximations des performances. Ce travail de thèse fait l'état de l'art des méthodes d'approximation des performances et en présente les faiblesses. Celles-ci sont principalement dues à l'utilisation de l'analyse en composantes principales (ACP). Pour palier ces problèmes, l'étude propose l'utilisation des techniques d'analyse en composantes indépendantes (ACI) et de régression des moindres carrés partiels (PLS). Ces méthodes sont exposées puis appliquées dans un premier temps à la modélisation du rendement à partir des données récoltées en ligne de fabrication. L'étude, menée sur un cas concret, a permis une amélioration significative du rendement de fabrication. Enfin, une méthodologie de modélisation hiérarchique des performances des circuits analogiques est proposée. Elle est appliquée sur un filtre actif du premier ordre, constitué d'amplificateurs à transconductance (OTA). Dans un premier temps, un modèle statistique de MOS EKV est établi à partir d'un grand nombre de mesures sur tranche. L'ACP et l'ACI sont comparées pour établir le modèle. Le modèle à base d'ACI est retenu. Il permet de conserver les corrélations non-linéaires entre les paramètres et offre une meilleure interprétabilité. Ce modèle est utilisé pour décrire les performances de l'amplificateur à transconductance. Ceci permet d'établir les distributions des performances de l'OTA avec un temps de calcul très largement inférieur à celui nécessaire à une simulation de Monte Carlo classique. Enfin, les performances du filtre sont modélisées au moyen d'une régression PLS. Le gain en terme de temps de calcul est encore une fois appréciable
Résumé anglais
APA, Harvard, Vancouver, ISO, and other styles
19

Zézé, Djédjé Sylvain. "Calcul de fonctions de forme de haut degré par une technique de perturbation." Thesis, Metz, 2009. http://www.theses.fr/2009METZ056S.

Full text
Abstract:
La plupart des problèmes de la physique et de la mécanique conduisent à des équations aux dérivées partielles. Les nombreuses méthodes qui existent déjà sont de degré relativement bas. Dans cette thèse, nous proposons une méthode de très haut degré. Notre idée est d'augmenter l'ordre des fonctions d'interpolation via une technique de perturbation afin d'éviter ou de réduire les difficultés engendrées par les opérations très coûteuses comme les intégrations. En dimension 1, la technique proposée est proche de la P-version des éléments finis. Au niveau élémentaire, on approxime la solution par une série entière d'ordre p. Dans le cas d'une équation linéaire d'ordre 2, cette résolution locale permet de construire un élément de degré élevé, avec deux degrés de liberté par élément. Pour les problèmes nonlinéaires, une linéarisation du problème par la méthode de Newton s'impose. Des tests portant sur des équations linéaires et nonlinéaires ont permis de valider la méthode et de montrer que la technique a une convergence similaire à la p-version des éléments finis. En dimension 2, le problème se discrétise grâce à une réorganisation des polynômes en polynômes homogènes de degré k. Après une définition de variables dites principales et secondaires associé à un balayage vertical du domaine, le problème devient une suite de problème 1D. Une technique de collocation permet de prendre en compte les conditions aux limites et les conditions de raccord et de déterminer la solution du problème. La collocation couplée avec la technique des moindres carrés a permis de d'améliorer les premiers résultats et a ainsi rendu plus robuste la technique de perturbation
Most problems of physics and mechanics lead to partial differential equations. The many methods that exist are relatively low degree. In this thesis, we propose a method of very high degree. Our idea is to increase the order of interpolation function via a perturbation technique to avoid or reduce the difficulties caused by the high cost operations such as integrations. In dimension 1, the proposed technique is close to the P-version finite elements. At a basic level, approximates the solution by a power series of order p. In the case of a linear equation of order 2, the local resolution can build an element of degree, with two degrees of freedom per element. For nonlinear problems, a linearization of the problem by Newton's method is needed. Tests involving linear and nonlinear equations were used to validate the method and show that the technique has a similar convergence in the p-version finite elements. In dimension 2, the problem is discretized through reorganizing polynomials in homogeneous polynomials of degree k. After a definition of variables called principal and secondary combined with a vertical scanning field, the problem becomes a series of 1D problem. A collocation technique allows to take into account the boundary conditions and coupling conditions and determine the solution of the problem. The collocation technique coupled with the least-squares enabled to improve the initial results and has made more robust the perturbation technique
APA, Harvard, Vancouver, ISO, and other styles
20

Da, Cunha Joao Paulo. "Diagnostic thermique de la machine à courant continu par identification paramétrique." Poitiers, 1999. http://www.theses.fr/1999POIT2353.

Full text
Abstract:
Cette etude a pour objectif d'apporter des elements de diagnostic thermique d'une machine a courant continu. L'approche retenue consiste a utiliser des algorithmes d'identification parametrique du modele thermique de la machine. L'analyse de la signature temporelle de l'estimation des parametres thermiques par un test sequentiel d'hypotheses permet alors de detecter et de localiser un defaut thermique. Le modele thermique est compose de deux blocs isothermes : le rotor et le stator. Il est constitue de resistances thermiques (trois) et de capacite calorifique (deux). Ces elements caracterisent les echanges thermiques entre les differents blocs. Nous avons valide cette surveillance thermique en appliquant differents algorithmes d'identification parametrique (bases sur les moments partiels reinitialises ou sur la methode du modele) a des essais de la machine en defaut. Les resultats obtenus ont permis de d'observer la modification de certains parametres thermiques lors de ces fonctionnements en defaut. Le modele thermique retenu permet de detecter et de localiser deux defauts thermiques : isolation thermique de la carcasse et obturation des ouies d'entree de l'air ambiant. Nous avons egalement etendu nos travaux a un fonctionnement de la machine a courant a vitesse variable. La variation de la vitesse de rotation entraine des variations de certains parametres thermiques. Ce modele thermique a vitesse variable nous a permis de detecter le defaut d'isolation thermique de la carcasse.
APA, Harvard, Vancouver, ISO, and other styles
21

Sudarno, Wiharjo. "Amélioration des méthodes d'identification de type moindres carrés appliquées à la commande adaptative et à la reconnaissance de formes." Toulouse 3, 1996. http://www.theses.fr/1996TOU30048.

Full text
Abstract:
Des méthodes d'identification de type moindres carrés (MC) sont trés utilisées dans la pratique car elles sont faciles à mettre en oeuvre. Cependant, ces algorithmes nécessitent une condition d'excitation persistante du signal d'entrée. L'objectivité de ce travail est de proposer un algorithme qui ne demande plus cette condition d'excitation persistante. En effet, le calcul recursif de la pseudo inverse de la matrice de mesures tient compte du fait qu'elle est de rang plein ou non. Cette modification est étendue aux méthodes d'identification sans biais et des paramètres non constants. La première application de cette méthode améliorée concerne la commande adaptative. En boucle fermée, L'analyse de convergence d'algorythme d'identification montre que la condition d'excitation persistante reste nécessaire. L'algorythme MC amélioré permet de contourner ce problème. Une deuxième application est dans le domaine de la reconnaissance de formes, pour une détection des paramètres de contours. Comparée à la méthode de Hough, elle a l'avantage d'être beaucoup plus rapide et efficace
APA, Harvard, Vancouver, ISO, and other styles
22

Demeestere, Pierre. "Méthode des sentinelles : étude comparative et application à l'identification d'une frontière : contrôle du temps d'explosion d'une équation de combustion." Compiègne, 1997. http://www.theses.fr/1997COMP1030.

Full text
Abstract:
Les problèmes d'identification consistent à retrouver les causes d'un phénomène à partir d'une observation de celui-ci. La résolution de ce type de problème se fait à l'aide d'une mesure expérimentale et d'un modèle sensé reproduire le phénomène physique et permettant d'associer des observations à des causes. Ensuite, la stratégie la plus répandue consiste à rechercher des causes telles que les observations, calculées grâce au modèle, soient les plus proches (au sens d'une distance quadratique) de celles que l'on a mesurées. Cette méthode est appelée méthode des moindres carrés et fait l'objet de nombreuses variantes. A la fin des années 80, J. L. Lions propose une nouvelle méthode, appelée" méthode des sentinelles", qui permet d'obtenir des informations sur les causes à partir d'une moyenne pondérée de l'observation. La première partie de notre travail est une étude comparative des deux méthodes énoncées ci-dessus, sur les plans théorique, algorithmique et numérique. Nous présentons, en fait, une unification des deux méthodes où subsistent toutefois quelques différences concernant la maîtrise des erreurs d'estimation et l'optimisation des caractéristiques de l'observatoire. Puis la méthode des sentinelles est appliquée à l'identification d'une frontière d'un domaine dans lequel évolue une équation aux dérivées partielles parabolique. Il faut noter que la relation de causalité, entre la forme de la frontière et l'observation, n'est pas linéaire. Des simulations numériques sont présentées et montrent la viabilité des sentinelles dans un cas non-linéaire. Abandonnant les problèmes d'identification, la deuxième partie du mémoire est consacrée à l'étude de la combustion d'un gaz dans un réceptacle clos. On utilise un modèle simplifié qui décrit l'évolution de la température indépendamment de la quantité de gaz à disposition. Dans un tel dispositif, la température peut se stabiliser ou, au contraire, croître très rapidement et exploser. Notre but est de provoquer l'explosion pour qu'elle intervienne avant un temps donné. Nous proposons donc différents moyens de contrôler le temps d'explosion de ce type de système et des simulations numériques viennent confirmer ces résultats.
APA, Harvard, Vancouver, ISO, and other styles
23

Bruneau, Charles-Henri. "Résolution des équations d'Euler compressibles par une méthode variationnelle en éléments finis : schémas aux différences décentrées pour la résolution des équations de Navier-Stokes incompressibles." Paris 11, 1989. http://www.theses.fr/1989PA112381.

Full text
Abstract:
Ce travail est en deux parties qui concernent toutes deux la résolution numérique de problèmes issus de la mécanique des fluides : calcul d'écoulements compressibles en dimension deux et trois à partir du modèle d'Euler stationnaire et étude des solutions des équations de Navier-Stokes incompressibles en dimension deux. Les méthodes utilisées sont très différentes d'une application à l'autre. Dans le premier cas les solutions de différents problèmes sont obtenues par méthode de point fixe, linéarisation par la méthode de Newton, minimisation par moindres carrés et approximation par éléments finis conformes des groupes de variables conservatifs ; de plus un terme de décentrement artificiel ou un correcteur d'entropie avec adaptation de maillage est nécessaire pour capturer des solutions transsoniques ou hypersoniques. Dans le deuxième cas les équations sont approchées par un schéma aux différences finies décentrées contenant un terme d'anti diffusion, puis résolues par méthode multi grille avec procédure de relaxation maille à maille. Outre des méthodes numériques efficaces, une mise en œuvre importante incluant programmation structurée et vectorisation a été nécessaire pour atteindre de bonnes performances. L 'ensemble donne un assez large aperçu des méthodes utilisées et du savoir-faire acquis ces dernières années en analyse numérique
This work is divided into two parts, which both concern the solution of problems in fluid dynamics : compressible Euler flows in two and three dimensions and incompressible Navier-Stokes fiows in two dimensions. The methods of solution are very different from one application to another. In the first case the solution of various problems is obtained by a fixed point algorithm, Newton linearization, a !east-squares minimization and a finite element approximation of the conservative variables ; more­over an artificial viscosity term or an entropy corrector with a mesh adaptation are required to get transonic or hypersonic solutions. In the second case a finite differences scheme with an antidiffusion term is used to approximate the Navier-Stokes operator and the solution is achieved by means of the multigrid method coupled to a cell by cell relaxation smoother. In addition to efficient methods, a structured programming including optimization and vectorization yields good performances in terms of CPU time. The work of this thesis gives an out look on a broad range of knowledge and techniques developed over the last few years in numerical analysis
APA, Harvard, Vancouver, ISO, and other styles
24

Nion, Dimitri. "Méthodes PARAFAC généralisées pour l'extraction aveugle de sources : Application aux systèmes DS-CDMA." Cergy-Pontoise, 2007. http://www.theses.fr/2007CERG0322.

Full text
Abstract:
L'objet de cette thèse est le développement de méthodes PARAFAC généralisées pour l'extraction aveugle de sources dans un système DS-CDMA multi-utilisateurs. Il s'avère que les diversités spatiales et temporelles ainsi que la diversité de codes permettent de stocker les échantillons du signal reçu dans un tenseur d'ordre trois. La séparation aveugle des signaux présents consiste alors à décomposer ce tenseur en une somme de contributions. Jusqu'à présent, cette approche a été utilisée en télécommunications pour des canaux de propagation non-sélectifs en fréquence et la solution est donnée par la décomposition PARAFAC. Cependant, pour un scénario de propagation plus réaliste, caractérisé par des trajets multiples engendrant de l'Interférence entre symboles, cette décomposition ne permet pas de résoudre le problème. Dans ce contexte, l'objectif central de cette thèse est le développement de récepteurs algébriques multilinéaires basés sur une généralisation de la décomposition PARAFAC
The goal of this PhD Thesis is to develop generalized PARAFAC decompositions for blind source extraction in a multi-user DS-CDMA system. The spatial, temporal and code diversities allow to store the samples of the received signal in a third order tensor. In order to blindly estimate the symbols of each user, we decompose this tensor in a sum of users' contributions. Until now, this multilinear approach has been used in wireless communications for instantaneous channels, in which case the problem is solved by the PARAFAC decomposition. However, in multipath channels with Inter-Symbol-Interference, this decomposition has to be generalized. The main contribution of this Thesis is to build tensor decompositions more general than PARAFAC to take this propagation scenario into account
APA, Harvard, Vancouver, ISO, and other styles
25

Rachedi, Fatiha. "Estimateurs cribles des processus autorégressifs Banachiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00012194.

Full text
Abstract:
Le modèle autorégressif dans un espace de Banach (ARB) permet
de représenter des processus à temps continu. Nous considérons
l'estimation de l'opérateur d'autocorrelation d'un ARB(1). Les
méthodes classiques d'estimation (maximum de vraisemblance et
moindres carrées) s'avèrent inadéquates quand l'espace
paramétrique est de dimension infinie, Grenander (1983} a proposé
d'estimer le paramètre sur un sous espace de dimension en général
finie m, puis d'étudier la consistance de cet estimateur lorsque
la dimension m tend vers l'infini avec le nombres d'observations
à vitesse convenable. Cette méthode est dite méthode des cribles.
Notons que plus généralement il serait possible d'utiliser la
méthode des f-divergences. Nous définissons la méthode des
moindres carrées comme problème d'optimisation dans un espace de
Banach dans le cas ou l'opérateur est p-sommable,
p>1. Nous montrons la convergence de l'estimateur
crible et sa normalité asymptotique dans le cas d'un opérateur est
strictement -intégral. Nous utilisons la représentation duale
de la f-divergence pour définir l'estimateur du minimum des
f-divergences. Nous nous limitons ici à l'étude de
l'estimateur dit du minimum de KL-divergence (divergence de
Kullback-Leibler). Cet estimateur est celui
du maximum de vraisemblance. Nous montrons par la suite qu'il
converge presque surement vers la vraie valeur du paramètre
pour la norme des opérateurs p-sommables. La démonstration est
basée sur les techniques de Geman et Hwang (1982), utilisées pour
des observations indépendantes et identiquement distribuées, qu'on
a adapté au cas autorégressif.
APA, Harvard, Vancouver, ISO, and other styles
26

Terzakis, Demètre. "Estimateurs à rétrécisseurs (cas de distributions normales à variance connue à un facteur près) : contrôle de l'emploi de la différence entre l'observation et l'estimation des moindres carrés." Rouen, 1987. http://www.theses.fr/1987ROUES015.

Full text
Abstract:
Dans le cadre général de l'estimation de la moyenne (supposée appartenir à v, sous-espace vectoriel strict de l'espace des observations) d'une loi normale multidimensionnelle y de variance connue à un facteur multiplicatif près, on cherche des conditions de domination de l'estimateur des moindres carrés t par des estimateurs à rétrécisseurs (autrement dit de James-Stein) de la forme t(y)-h(t(y), y-t(y))c(t(y)), où c est un endomorphisme de v. De nombreuses conditions "classiques" de domination apparaissent comme des corollaires des notres dans le cas ou t(y) et y-t(y) n'interviennent dans l'expression de h que par les valeurs prises par des formes quadratiques définies respectivement sur v et sur w (orthogonal de v pour la forme bilinéaire symétrique associée à l'inverse de la variance). On constate que des hypothèses de nature algébrique contraignante sur c permettent d'éviter l'usage d'hypothèses de différentiabilité sur h; quand celles-ci sont introduites, on distinguera selon qu'on utilise, relativement à la deuxième variable dans l'expression de h, la différentielle partielle (application de v x w dans le dual de w) ou la dérivée partielle suivant un vecteur privilégié de w
APA, Harvard, Vancouver, ISO, and other styles
27

Beau, Noëlle. "Application du maximum de vraisemblance à la comparaison de deux méthodes de dosage biologique : cas des variances inconnues." Paris 11, 1990. http://www.theses.fr/1990PA11P171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Khereddine, R. "Méthode adaptative de contrôle logique et de test de circuits AMS/RF." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00656920.

Full text
Abstract:
Les technologies microélectroniques ainsi que les outils de CAO actuels permettent la conception de plus en plus rapide de circuits et systèmes intégrés très complexes. L'un des plus importants problèmes rencontrés est de gérer la complexité en terme de nombre de transistors présents dans le système à manipuler ainsi qu'en terme de diversité des composants, dans la mesure où les systèmes actuels intègrent, sur un même support de type SiP ou bien SoC, de plus en plus de blocs fonctionnels hétérogènes. Le but de cette thèse est la recherche de nouvelles techniques de test qui mettent à contribution les ressources embarquées pour le test et le contrôle des modules AMS et RF. L'idée principale est de mettre en oeuvre pour ces composantes des méthodes de test et de contrôle suffisamment simples pour que les ressources numériques embarquées puissent permettre leur implémentation à faible coût. Les techniques proposées utilisent des modèles de représentation auto-régressifs qui prennent en comptes les non linéarités spécifiques à ce type de modules. Les paramètres du modèle comportemental du système sont utilisés pour la prédiction des performances du système qui sont nécessaire pour l'élaboration de la signature de test et le contrôle de la consommation du circuit. Deux démonstrateurs ont été mis en place pour valider la technique proposée : une chaine RF conçue au sein du groupe RMS et un accéléromètre de type MMA7361L.
APA, Harvard, Vancouver, ISO, and other styles
29

Barotto, Béatrice. "Introduction de paramètres stochastiques pour améliorer l'estimation des trajectoires d'un système dynamique par une méthode de moindres carrés : application à la détermination de l'orbite d'un satellite avec une précision centimétrique." Toulouse 3, 1995. http://www.theses.fr/1995TOU30196.

Full text
Abstract:
En presence d'imperfections du modele dynamique, les methodes d'estimation des trajectoires du systeme dynamique, par resolution d'un probleme de moindres carres non lineaire de grande taille, ne permettent pas de profiter de l'extreme precision des mesures faites sur l'etat du systeme. Afin d'estimer plus finement la trajectoire du systeme dynamique, le traitement des erreurs de modeles dans l'algorithme de filtrage-lissage doit etre envisage. Ces erreurs sont prises en compte sous la forme de processus colores dans les equations d'evolution de la dynamique et dans les equations de mesure. Certains parametres des modeles dynamique et de mesure sont alors supposes stochastiques. Afin de resoudre cette classe de probleme de moindres carres non lineaire, une methode de filtrage-lissage a du etre developpee. Elle correspond a une approche de gauss-newton appliquee a un probleme de moindres carres non lineaire qui est linearise au voisinage d'une bonne estimation de la trajectoire du systeme dynamique. Cette methode est developpee dans une formulation racine carree de givens afin d'eviter des problemes d'ordre numerique et inclut le traitement des parametres stochastiques. Cette methode peut s'appliquer a des problemes d'origines diverses. Elle a ete appliquee a la determination de l'orbite du satellite franco-americain d'oceanographie topex/poseidon lance en 1992. En 1995, les methodes classiques permettent d'obtenir une precision de l'ordre de trois centimetres dans la direction radiale a partir des mesures doris et laser. La nouvelle methode permet d'obtenir des orbites de meilleure precision en introduisant une acceleration empirique stochastique agissant sur le satellite. Cette methode a aussi l'avantage d'etre independante de l'altitude du satellite et de traiter n'importe quel type de mesures
APA, Harvard, Vancouver, ISO, and other styles
30

Lebreux, Marc. "Contrôle de l'épaisseur de gelée dans les réacteurs métallurgiques à haute température à l'aide d'un capteur virtuel." Thèse, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1966.

Full text
Abstract:
Au Québec, les producteurs d'aluminium consomment 12% de la puissance totale installée d'Hydro-Québec. Dans un contexte où le prix de l'énergie est en constante progression, les alumineries font donc face à des défis énergétiques de taille ; de plus, la production d'émissions de gaz à effet de serre étant directement reliée à la consommation d'énergie, des défis environnementaux importants s'annoncent pour le futur. Pour répondre à ces défis, une des avenues envisagées concerne la couche de gelée qui est présente dans chacune des cuves d'électrolyse d'aluminium. La couche de gelée a une importance capitale dans le procédé de fabrication d'aluminium, car elle sert de barrière protectrice aux parois réfractaires contre le bain électrolytique très corrosif à haute température. Elle permet également de minimiser les courants horizontaux à l'intérieur de la cuve, ce qui assure sa stabilité magnéto-hydrodynamique et permet d'optimiser l'efficacité de courant du procédé. La méthode traditionnelle pour mesurer le profil de gelée dans une cuve se fait manuellement à l'aide d'une sonde mécanique, mais cette opération nécessite beaucoup de temps ainsi que du personnel qualifié. De plus, ces mesures sont réalisées à une faible fréquence, et nécessitent l'ouverture du capot, ce qui libère beaucoup de chaleur et d'émissions chimiques dans l'atmosphère. Pour pallier aux désavantages de la méthode traditionnelle, ce travail présente le développement d'une méthode inverse (capteur virtuel) qui permet d'estimer en continu, et de manière non-instrusive [i.e. non-intrusive], l'épaisseur de gelée à partir de mesures thermiques (température et/ou flux de chaleur) provenant de capteurs situés dans les parois latérales de la cuve d'électrolyse. Le capteur virtuel est composé d'un filtre de Kalman et d'un estimateur récursif aux moindres-carrés, et il est combiné à une procédure d'identification du procédé en modèles d'état. Cette approche est appliquée pour la première fois dans la résolution d'un problème inverse avec changement de phase et en utilisant des capteurs de flux de chaleur. Parce que pour les alumineries, l'intérêt et le réel défi consistent plutôt à contrôler l'épaisseur de gelée, le capteur virtuel est ensuite combiné à un algorithme de contrôle qui régule le système de refroidissement des parois latérales de la cuve d'électrolyse. Ceci permet alors de contrôler à sa guise l'épaisseur de gelée malgré les perturbations thermiques inhérentes au procédé. La stratégie de contrôle retenue consiste en un contrôleur classique proportionnel-intégral-dérivatif, largement utilisé en industrie. Le capteur virtuel et l'algorithme de contrôle sont ensuite validés pour des conditions d'opérations typiques présentes dans les réacteurs métallurgiques à haute température. Les résultats montrent que la différence entre l'épaisseur réelle de gelée et celle prédite avec le capteur virtuel demeure dans tous les cas inférieure à 5%, tandis que la stratégie de contrôle demeure stable pour chacune des conditions d'opération, assure une erreur nulle en régime permanent ainsi qu'aucun dépassement de consigne, et procure une erreur maximale de 1 x 10[indice supérieur -3] m sur le suivi de la consigne de l'épaisseur de gelée. Pour répondre simultanément à la problématique d'estimation et de contrôle de l'épaisseur de gelée, le présent travail nécessite donc la combinaison de plusieurs domaines traditionnellement séparés (modélisation, transfert de chaleur, identification, méthodes inverses, contrôle) et cette procédure est appliquée pour la première fois dans le procédé d'électrolyse d'aluminium.
APA, Harvard, Vancouver, ISO, and other styles
31

Martin, Marie-Laure. "Données de survie." Paris 11, 2001. http://www.theses.fr/2001PA112335.

Full text
Abstract:
Nous considérons deux problèmes statistiques liés à l'estimation du risque de cancer des survivants d'Hiroshima. Le premier problème est l'estimation de la fonction de risque instantané quand une covariable est sujette à une erreur de mesure. Dans le chapitre 2, les données disponibles sont des données groupées. Nous supposons que l'erreur de mesure est une erreur de mauvais classement dans des intervalles et nous estimons simultanément les paramètres du risque instantané d'un modèle à risque proportionnel et les probabilités de mauvais classement. La méthode proposée est une généralisation de la méthode des moindres carrés. Nous l'appliquons aux données d'Hiroshima pour prendre en compte l'erreur de mesure de la dose de rayonnement ionisant dans l'estimation du risque de cancer. Dans le chapitre 3 les données disponibles sont les données individuelles. Nous considérons un modèle d'excès de risque relatif où la covariable est mesurée à une erreur additive gaussienne près. Nous construisons un critère d'estimation, basé sur la pseudo-vraisemblance et nous proposons un estimateur du paramètre de régression consistant et asymptotiquement gaussien. Le résultat est étendu à d'autres modélisations du risque ainsi qu'au modèle d'erreur log-normale. Le second problème est l'estimation non-paramétrique de la fonction de risque instantané par une procédure de sélection de modèle. Nous considérons une collection suffisamment riche de fonctions pour approcher le risque instantané et nous sélectionnons la meilleure fonction selon un critère pénalisé qui réalise le meilleur compromis entre la qualité de l'approximation du modèle statistique aux données, et le nombre de paramètres du modèle. Cette méthode permet d'estimer le risque instantané sans avoir à poser d'à priori sur sa forme. Nous l'appliquons pour estimer le risque de cancer induit par une faible dose de rayonnement ionisant
We consider two statistical problems arising during the estimation of the hazard function of cancer death in Hiroshima. The first problem is the estimation of the hazard function when the covariate is mismeasured. In Chapter 2, only grouped data are available, and the mismeasurement of the covariate is modeled as a misclassification. An easily implemented estimation procedure based on a generalization of the least squares method is devised for estimating simultaneously the parameters of the hazard function and the misclassification probabilities. The procedure is applied for taking into account the mismeasurement of the dose of radiation in the estimation of the hazard function of solid cancer death in Hiroshima. In Chapter 3 available data are individual data. We consider a model of excess relative risk, and we assume that the covariate is measured with a Gaussian additive error. We propose an estimation criterion based on the partial log-likelihood, and we show that the estimator obtained by maximization of this criterion is consistent and asymptotically Gaussian. Our result extends to other polynomial regression functions, to the Cox model and to the log-normal error model. The second problem is the non-parametric estimation of the hazard function. We consider the model of excess relative and absolute risk and propose a non-parametric estimation of the effect of the covariate using a model selection procedure, when available data are stratified data. We approximate the function of the covariate by a collection of spline functions, and select the best one according to Akaike Information Criterion. By the same way we choose which model between the model of excess relative risk or excess absolute risk fits the best the data. We apply our method for estimating the solid cancer and leukemia death hazard functions in Hiroshima
APA, Harvard, Vancouver, ISO, and other styles
32

Huang, Wenjia. "Direct Mass Measurements and Global Evaluation of Atomic Masses." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS151/document.

Full text
Abstract:
L’évaluation des masses atomiques (Ame), commencée dans les années 1960, est la source la plus fiable d’informations complètes sur les masses atomiques. Elle fournit les meilleures valeurs pour les masses atomiques et les incertitudes associées en évaluant les données expérimentales de désintégration, de réactions et de la spectrométrie de masse. Dans cette thèse, la philosophie et les caractéristiques les plus importantes de l’Ame seront discutées en détail. Les développements les plus récents de l’évaluation, AME2016, tels que l’énergie de liaison moléculaire, la correction d’énergie des mesures par implantation, et la formule relativiste pour le processus de décroissance alpha, seront présentés. Une autre partie de cette thèse concerne l’analyse des données du spectromètre à piège de Penning ISOLTRAP au ISOLDE/CERN. Les nouveaux résultats sont inclus dans l’ajustement global et leurs influences sur les masses existantes sont discutées. La dernière partie de cette thèse porte sur les études des erreurs systématiques du spectromètre de masse à multi-réflexion à temps de vol d’ISOLTRAP, utilisant une source d’ions hors ligne et le faisceau de protons en ligne. A partir de l’analyse des mesures sélectionnées, j’ai trouvé que l’erreur systématique est beaucoup plus faible que les incertitudes statistiques obtenues jusqu’à présent
The Atomic Mass Evaluation (AME), started in the 1960s, is the most reliable source for comprehensive information related to atomic masses. It provides the best values for the atomic masses and their associated uncertainties by evaluating experimental data from decay, reactions, and mass spectrometry. In this thesis, the philosophy and the most important features of the Ame will be discussed in detail. The most recent developments of the latest mass table (AME2016), such as molecular binding energy, energy correction of the implantation measurements, and the relativistic formula for the alpha-decay process, will be presented. Another part of this thesis concerns the data analysis from the Penning-trap spectrometer ISOLTRAP at ISOLDE/CERN. The new results are included in the global adjustment and their influences on the existing masses are discussed. The last part of this thesis is related to the systematic error studies of the ISOLTRAP multi-reflection time-of-flight mass spectrometer, using an off-line ion source and the on-line proton beam. From the analysis of the selected measurements, I found that the systematic error is much smaller than the statistical uncertainties obtained up to now
APA, Harvard, Vancouver, ISO, and other styles
33

Couillaud, Julien. "Formation d'image : estimation du champ lumineux et matrice de filtres couleurs." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5987.

Full text
Abstract:
Dans ce mémoire de maîtrise de type recherche, nous discutons essentiellement de la formation d’image. Dans un premier chapitre, nous décrivons les modèles classiques de formation d'image. Nous commençons par une description de la lumière voyageant dans la scène pour arriver à l'image formée sur le capteur. Ensuite, nous critiquons ces modèles sur le fait que le capteur entraine une perte d’informations sur la structure de la scène. De plus, pour un point donné du plan image, tous les rayons provenant de la scène ne sont pas pris en compte pour la formation d'une image. Nous essayons alors de combler ces défauts en introduisant la notion de champ lumineux dans le deuxième chapitre. Nous décrivons le modèle des champs lumineux d'une scène. Ce dernier permet alors d'estimer le champ lumineux à partir d'une image à l'aide de deux méthodes : la méthode des moindres carrés et une méthode variationnelle. Celles-ci sont présentées dans le troisième chapitre. Enfin, dans un quatrième chapitre, nous abordons un autre aspect de la formation d'image. En effet, nous travaillons sur une nouvelle matrice de filtres couleurs (color filter arrays, CFA) que nous nommons CFA de Burtoni. Dans ce chapitre, nous comparons, selon une mesure d'aliasing et de résolution, ce CFA avec d'autres CFAs existant dans la littérature, sans faire appel au démosaïquage. Afin d'effectuer ces comparaisons, nous introduisons également des classes d'images correspondantes à différents contenus comme les textures, les zoneshomogènes et les lignes.
APA, Harvard, Vancouver, ISO, and other styles
34

Nudo, Frederico. "Approximations polynomiales et méthode des éléments finis enrichis, avec applications." Electronic Thesis or Diss., Pau, 2024. http://www.theses.fr/2024PAUU3067.

Full text
Abstract:
Un problème très courant en science computationnelle est la détermination d'une approximation, dans un intervalle fixe, d'une fonction dont les évaluations ne sont connues que sur un ensemble fini de points. Une approche courante pour résoudre ce problème repose sur l'interpolation polynomiale. Un cas d'un grand intérêt pratique est celui où ces points suivent une distribution équidistante dans l'intervalle considéré. Dans ces hypothèses, un problème lié à l'interpolation polynomiale est le phénomène de Runge, caractérisé par une augmentation de l'erreur d'interpolation près des extrémités de l'intervalle. En 2009, J. Boyd et F. Xu ont démontré que le phénomène de Runge pouvait être éliminé en interpolant la fonction que sur un sous-ensemble approprié formé par les noeuds les plus proches des noeuds de Chebyshev-Lobatto, communément appelés noeuds de mock-Chebyshev.Cependant, cette stratégie implique de ne pas utiliser presque toutes les données disponibles. Afin d'améliorer la précision de la méthode proposée par Boyd et Xu, tout en tirant pleinement parti des données disponibles, S. De Marchi, F. Dell'Accio et M. Mazza ont introduit une nouvelle technique appelée constrained mock-Chebyshev least squares approximation. Dans cette méthode, le rôle du polynôme nodal, est crucial. Son extension au cas bivarié nécessite cependant des approches alternatives. La procédure développée par F. Dell'Accio, F. Di Tommaso et F. Nudo, utilisant la méthode des multiplicateurs de Lagrange, permet également de définir l'approximation des moindres carrés de mock-Chebyshev sur une grille uniforme de points. Cette technique innovante, équivalente à la méthode univariée précédemment introduite en termes analytiques, se révèle également plus précise en termes numériques. La première partie de la thèse est consacrée à l'étude de cette nouvelle technique et à son application à des problèmes de quadrature et de différenciation numérique.Dans la deuxième partie de cette thèse, nous nous concentrons sur le développement d'un cadre unifié et général pour l'enrichissement de l'élément fini linéaire triangulaire standard en deux dimensions et de l'élément fini linéaire simplicial standard en dimensions supérieures. La méthode des éléments finis est une approche largement adoptée pour résoudre numériquement les équations aux dérivées partielles qui se posent en ingénierie et en modélisation mathématique [55]. Sa popularité est attribuable en partie à sa polyvalence pour traiter diverses formes géométriques. Cependant, les approximations produites par cette méthode s'avèrent souvent inefficaces pour résoudre des problèmes présentant des singularités. Pour surmonter ce problème, diverses approches ont été proposées, l'une des plus célèbres reposant sur l'enrichissement de l'espace d'approximation des éléments finis en ajoutant des fonctions d'enrichissement appropriées. Un des éléments finis le plus simple est l'élément fini triangulaire linéaire standard, largement utilisé dans les applications. Dans cette thèse, nous introduisons un enrichissement polynomial de l'élément fini triangulaire linéaire standard et utilisons ce nouvel élément fini pour introduire une amélioration de l'opérateur triangulaire de Shepard. Ensuite, nous introduisons une nouvelle classe d'éléments finis en enrichissant l'élément triangulaire linéaire standard avec des fonctions d'enrichissement qui ne sont pas nécessairement polynomiales, mais qui satisfont la condition d'annulation aux sommets du triangle.Nous généralisons les résultats présentés dans le cas bidimensionnel au cas de l'élément fini simplicial linéaire standard, en utilisant également des fonctions d'enrichissement qui ne satisfont pas la condition d'annulation aux sommets du simplexe.Enfin, nous appliquons ces nouvelles stratégies d'enrichissement pour définir une version plus généralede l'enrichissement de l'élément fini linéaire vectoriel simplicial développé par Bernardi et Raugel
A very common problem in computational science is the determination of an approximation, in a fixed interval, of a function whose evaluations are known only on a finite set of points. A common approach to solving this problem relies on polynomial interpolation, which consists of determining a polynomial that coincides with the function at the given points. A case of great practical interest is the case where these points follow an equispaced distribution within the considered interval. In these hypotheses, a problem related to polynomial interpolation is the Runge phenomenon, which consists in increasing the magnitude of the interpolation error close to the ends of the interval. In 2009, J. Boyd and F. Xu demonstrated that the Runge phenomenon could be eliminated by interpolating the function only on a proper subset formed by nodes closest to the Chebyshev-Lobatto nodes, the so called mock-Chebyshev nodes.However, this strategy involves not using almost all available data. In order to improve the accuracy of the method proposed by Boyd and Xu, while making full use of the available data, S. De Marchi, F. Dell'Accio, and M. Mazza introduced a new technique known as the constrained mock-Chebyshev least squares approximation. In this method, the role of the nodal polynomial, essential for ensuring interpolation at mock-Chebyshev nodes, is crucial. Its extension to the bivariate case, however, requires alternative approaches. The recently developed procedure by F. Dell'Accio, F. Di Tommaso, and F. Nudo, employing the Lagrange multipliers method, also enables the definition of the constrained mock-Chebyshev least squares approximation on a uniform grid of points. This innovative technique, equivalent to the previously introduced univariate method in analytical terms, also proves to be more accurate in numerical terms. The first part of the thesis is dedicated to the study of this new technique and its application to numerical quadrature and differentiation problems.In the second part of this thesis, we focus on the development of a unified and general framework for the enrichment of the standard triangular linear finite element in two dimensions and the standard simplicial linear finite element in higher dimensions. The finite element method is a widely adopted approach for numerically solving partial differential equations arising in engineering and mathematical modeling [55]. Its popularity is partly attributed to its versatility in handling various geometric shapes. However, the approximations produced by this method often prove ineffective in solving problems with singularities. To overcome this issue, various approaches have been proposed, with one of the most famous relying on the enrichment of the finite element approximation space by adding suitable enrichment functions. One of the simplest finite elements is the standard linear triangular element, widely used in applications. In this thesis, we introduce a polynomial enrichment of the standard triangular linear finite element and use this new finite element to introduce an improvement of the triangular Shepard operator. Subsequently, we introduce a new class of finite elements by enriching the standard triangular linear finite element with enrichment functions that are not necessarily polynomials, which satisfy the vanishing condition at the vertices of the triangle.Later on, we generalize the results presented in the two-dimensional case to the case of the standard simplicial linear finite element, also using enrichment functions that do not satisfy the vanishing condition at the vertices of the simplex.Finally, we apply these new enrichment strategies to extend the enrichment of the simplicial vector linear finite element developed by Bernardi and Raugel
APA, Harvard, Vancouver, ISO, and other styles
35

Lu, Zhiping. "Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions." Phd thesis, Cachan, Ecole normale supérieure, 2009. https://theses.hal.science/tel-00422376/fr/.

Full text
Abstract:
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l’étude de leurs propriétés statistiques, les méthodes d’estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d’autosimilarité, qui sont importants pour l’estimation des paramètres. Nous passons en revue les propriétés d’auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l’auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d’auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d’estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l’estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l’ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d’échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu’on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d’estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d’ondelettes (DWPT). La robustesse de l’algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d’erreurs de l’analyse cointégration fractionnaire de l’index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut
In this thesis, we consider two classes of long memory processes: the stationary long memory processes and the non-stationary long memory processes. We are devoted to the study of their probabilistic properties, estimation methods, forecast methods and the statistical tests. Stationary long memory processes have been extensively studied over the past decades. It has been shown that some long memory processes have the properties of self-similarity, which are important for parameter estimation. We review the self-similar properties of continuous-time and discrete-time long memory processes. We establish the propositions that stationary long memory process is asymptotically second-order self-similar, while stationary short memory process is not asymptotically second-order self-similar. Then we extend the results to specific long memory processes such as k-factor GARMA processes and k-factor GIGARCH processes. We also investigate the self-similar properties of some heteroscedastic models and the processes with switches and jumps. We make a review for the stationary long memory processes’ parameter estimation methods, including the parametric methods (for example, maximum likelihood estimation, approximate maximum likelihood estimation) and the semiparametric methods (for example, GPH method, Whittle method, Robinson method). The consistency and asymptotic normality behaviors are also investigated for the estimators. Testing the fractionally integrated order of seasonal and non-seasonal unit roots of the stochastic stationary long memory process is quite important for the economic and financial time series modeling. The widely used Robinson test (1994) is applied to various well-known long memory models. Via Monte Carlo experiments, we study and compare the performances of this test using several sample sizes, which provide a good reference for the practitioners who want to apply Robinson’s test. In practice, seasonality and time-varying long-range dependence can often be observed and thus some kind of non-stationarity exists inside the economic and financial data sets. To take into account this kind of phenomena, we review the existing non-stationary processes and we propose a new class of non-stationary stochastic process: the locally stationary k-factor Gegenbauer process. We describe a procedure of estimating consistently the time-varying parameters with the help of the discrete wavelet packet transform (DWPT). The consistency and asymptotic normality of the estimates are proved. The robustness of the algorithm is investigated through simulation study. We also propose the forecast method for this new non-stationary long memory processes. Applications and forecasts based on the error correction term in the error correction model of the Nikkei Stock Average 225 (NSA 225) index and theWest Texas Intermediate (WTI) crude oil price are followed
APA, Harvard, Vancouver, ISO, and other styles
36

Le, Minh Hoang. "Various Positioning Algorithms based on Received Signal Strength and/or Time/Direction (Difference) of Arrival for 2D and 3D Scenarios." Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS072.pdf.

Full text
Abstract:
Localisation a fasciné les chercheurs pendant des siècles et a motivé un grand nombre d'études et de développements dans le domaine des communications. Le but du positionnement est de localiser le dispositif mobile. Les algorithmes de positionnement peuvent être divisés en 3 méthodes : Trilatération, Multilatération et Triangulation. La trilatération utilise les distances entre le dispositif mobile et toutes les stations de base pour estimer la position du mobile. Ces distances peuvent être estimées par le Temps d'Arrivée (ToA) ou l'Intensité du Signal Reçu (RSS). Dans la multilatération, la localisation est basée sur la Différence de Temps d'Arrivée (TDoA) des deux ToAs. La Triangulation, quand à elle, utilise les directions des signaux incidents. La Direction d'Arrivée (DoA) de chaque onde incidente est comptée pour résoudre le problème de positionnement. Chaque DoA est exprimée par un angle dans les scénarios 2D, et par une paire d'angles dans les scénarios 3D. Il existe des différences notables entre le positionnement au niveau du réseau et l'autopositionnement. Dans le positionnement au niveau du réseau, le dispositif mobile est directement localisé sur la base des DoA des signaux incidents ; tandis que dans l'autopositionnement, sa position est estimée par la Différence de Direction d'Arrivée (DdoA) entre chaque paire de signaux incidents, car la DoA de chaque signal arrivant au dispositif mobile est ambiguë. Dans cette thèse, nous étudions toutes les approches de localisation ci-dessus. Nous nous focaliserons ici plus particulièrement sur la Triangulation, qui comporte de nombreux sous-scénarios à analyser. Les résultats sont obtenus par des simulations MATLAB
Localization has fascinated the researchers for centuries and has motivated a large amount of studies and developments in communications. The aim of positioning problems is to determine the position of the mobile device. Positioning algorithms can be divided into 3 methods: Trilateration, Multilateration and Triangulation. Trilateration utilizes the distances between the mobile device and all the base stations around to estimate the mobile position. These distances can be estimated via the Time of Arrival (ToA) or the Received Signal Strength (RSS). In Multilateration, the position location is based on measured quantities whose values are a function of the Time Difference of Arrival (TDoA) of the two ToAs. As for Triangulation, the directions of the incident signals play the most crucial role in the localization. Thus, it is also referred to as Direction-based Localization. The Direction of Arrival (DoA) of each incident wave is taken into account to solve the positioning problem. Each DoA is expressed by a single angle in 2D scenarios, and a pair of angles in 3D scenarios. There are noticeable differences between Network-Positioning and Self-Positioning. In Network-Positioning, the mobile device is directly localized based on the DoAs of the incident signals; meanwhile, in Self-Positioning, its position is estimated by the Direction Difference of Arrival (DDoA) between each pair of incident signals, because the DoA of each signal arriving to the Mobile Device is ambiguous. In this dissertation, we study all the localization approaches described above. Our spotlight is for Triangulation, which has many sub-scenarios to analyze. The results are obtained by MATLAB simulations
APA, Harvard, Vancouver, ISO, and other styles
37

Gonzalez, Camacho Juan-Manuel. "Modélisation stochastique d'une irrigation à la raie." Montpellier 2, 1991. http://www.theses.fr/1991MON20302.

Full text
Abstract:
Le present travail est une contribution a la modelisation mathematique d'une irrigation a la raie en vue de son evaluation a l'echelle parcellaire. Nous avons etudie l'incidence de la variabilite spatiale de l'infiltration entre raies infiltration identifiee a partir de mesures de surface et les consequences de cette variabilite sur la qualite d'un arrosage. Une approche basee sur la theorie de la similitude nous a permis de decrire la variabilite l'infiltration entre les raies a l'aide des facteurs d'echelle. Le chapitre ii rappelle les principes de l'ecoulement d'une irrigation a la raie, et les criteres de qualite d'un arrosage. Le chapitre iii rappelle les differentes approches utilisees pour decrire une irrigation a la raie. On y etudie une methode d'identification des parametres de la loi d'infiltration de parlange et al. , 1982. Le chapitre iv enonce les principes de la mise en facteur d'echelle et developpe une methode d'identification de ces facteurs. Nous presentons, dans le chapitre v, la methodologie experimentale mis en uvre durant 1989 et 1990, dans le sud-est de la france. Dans le chapitre vi nous presentons le traitement des donnees permettant de quantifier la variabilite et de valider la methodologie proposee. Une comparaison entre une approche non stochastique et une approche stochastique est enfin effectuee
APA, Harvard, Vancouver, ISO, and other styles
38

Arafeh, Mohamed Hamzeh. "Identification de la loi de comportement élastique de matériaux orthotropes." Compiègne, 1995. http://www.theses.fr/1995COMPD843.

Full text
Abstract:
Cette étude présente une approche novatrice de conception optimale d'essais en vue de l'identification du comportement élastique en flexion de plaques minces orthotropes. La méthode d'identification employée consiste à recaler les paramètres d'un modèle numérique, ici à base d'éléments finis, sur les résultats expérimentaux, par un processus de moindres carrés. La méthode de conception d'essais que nous proposons optimise : les rapports entre les intensités des efforts, l'emplacement des efforts appliqués et les positions des conditions aux limites sur les bords de l'échantillon dont la géométrie est fixe. Nous avons défini de très opportuns indicateurs de sensibilité de l'essai par rapport aux paramètres à identifier. L'optimisation consiste ensuite à maximiser le plus petit d'entre eux. Cette optimisation est réalisée par un algorithme génétique. Différentes simulations tenant compte des erreurs de mesure et de modélisation ont été effectuées sur les configurations conçues par cette approche. Elles montrent une très bonne stabilité de la procédure d'identification, et les constantes élastiques d'une plaque orthotrope sont identifiées en un seul essai avec une très bonne précision, qui semble bien meilleure que celle des essais classiquement utilisés. On peut donc espérer des résultats positifs avec une expérimentation réelle.
APA, Harvard, Vancouver, ISO, and other styles
39

Petit, Jean-Louis. "Inversion élastique 3D de profils sismiques verticaux en milieux stratifiés horizontalement." Montpellier 2, 1997. http://www.theses.fr/1997MON20107.

Full text
Abstract:
Cette these est consacree a l'etude de l'inversion des parametres physiques de milieux stratifies horizontalement a partir des donnees sismiques p. S. V. . Au cours de la premiere partie, nous modelisons les enregistrements p. S. V. En resolvant les equations de l'elastodynamique pour des milieux isotropes et transverses isotropes. L'utilisation de transformees de hankel et d'un changement de variables permettent d'ecrire les equations de propagation en une famille de systemes hyperboliques du premier ordre a un parametre. La resolution numerique se fait en couplant un schema aux differences finies et une transformee de hankel inverse. Nous montrons l'apport d'une propagation 3d par rapport au 1d. Un interet particulier est porte notamment sur le phenomene de conversion d'ondes a incidence normale. Nous proposons aussi une etude sur des conditions parfaitement transparentes, adaptees a nos equations. La seconde partie presente le probleme inverse theorique du p. S. V. Le probleme inverse est defini comme un probleme de moindres carres. Il consiste a determiner la distribution de parametres physiques qui minimise l'ecart entre le sismogramme modelise et l'enregistrement p. S. V. Le probleme ainsi pose, necessite de connaitre la source. Dans un premier temps, nous proposons de resoudre le probleme de l'estimation de la source et des parametres en deux procedures disjointes. A parametres connus, on estime la source en resolvant iterativement un probleme de minimisation. On procede de la meme maniere avec les parametres, c'est a dire que l'on suppose connu la source. Enfin, la derniere partie presente une methodologie, utilisant les deux procedures developpees precedemment, pour inverser les donnees p. S. V. De nombreux exemples synthetiques et reels permettent d'entrevoir l'efficacite de notre methode et d'en definir les limites pratiques.
APA, Harvard, Vancouver, ISO, and other styles
40

Gusto, Gaëlle. "Estimation de l'intensité d'un processus de Hawkes généralisé double : application à la recherche de motifs corépartis le long d'une séquence d'ADN." Paris 11, 2004. http://www.theses.fr/2004PA112188.

Full text
Abstract:
Estimation de l'intensité d'un processus de Hawkes double généralisé. Application à la recherche de motifs corépartis le long d'une séquence d'ADN. L'objectif de la thèse est la détection d'éventuelles contraintes de distances entre deux motifs nucléiques le long des génomes. Nous avons ainsi choisi de modéliser les positions d'occurrences de ces motifs par un processus de Hawkes. En effet, dans un tel modèle l'intensité linéaire fait intervenir explicitement deux fonctions décrivant les dépendances entre les motifs. Nous estimons ces fonctions de façon non paramétrique à l'aide de splines, soit par la méthode du maximum de vraisemblance sous contraintes, soit par minimisation d'un contraste de type moindres carrés. Dans chacun des cas, nous étudions une méthode de choix de modèles pour choisir le nombre de noeuds optimal. Ces noeuds peuvent être, selon les cas, équirépartis ou non. La validation de ces méthodes d'estimation est analysée par simulations. Nous les avons aussi appliquées à deux jeux de données génomiques
Estimation of the intensity of a generalised Hawkes' process. Application to the detection of correlated words along a DNA sequence. The objective of the thesis is the detection of possible constraints on distances between two genomic motifs along the genome. For this, we model the positions of the occurrences of the motifs with a Hawkes' process. In fact, in this model the intensity is linear and explicitly depends on two functions describing the dependence between the motifs. We non parametrically estimate these functions with splines, using the maximum likelihood method under constraints or the minimization of the least square contrast. In each case, we use some model selection method to determine the optimal number of knots. These knots can be regularly spaced or not. The validation of this estimation procedure is analysed by simulations. Two biological applications are studied
APA, Harvard, Vancouver, ISO, and other styles
41

Lu, Zhiping. "Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00422376.

Full text
Abstract:
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
APA, Harvard, Vancouver, ISO, and other styles
42

Fréret, Lucie Viviane Françoise. "Méthodes particulaires en vue de la simulation numérique pour la plasturgie." Châtenay-Malabry, Ecole centrale de Paris, 2007. http://www.theses.fr/2007ECAP1058.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de simulation de procédés d'injection de thermoplastiques. L'objectif est de pouvoir simuler numériquement des écoulements de fluides à frontière libre avec possiblité de changement de phase. Plus précisement, nous nous sommes intéressés à des écoulements bidimensionnels incompressibles visqueux à l'aide de méthodes particulaires. L'inconsistance des formules discrètes des opérateurs aux dérivées partielles de la méthode MPS (Moving Particle Semi-implicit) est démontrée. En utilisant des techniques d'approximation sans maillages consistantes, proches des formulations MLS (Moving Least Square), on propose alors une méthode particulaire originale qui discrétise les équations de Navier-Stokes incompressible en formulation purement Lagrangienne. Pour la semi-discrétisation en temps, on utilise une méthode de projection standard. La méthode à pas fractionnaire résultante est constituée de trois étapes: une étape de prédiction du champ de vitesses et des positions des particules, une étape de corrections des positions des particules et une étape de correction du champ de vitesses. Une telle discrétisation conserve la répartition quasi-uniforme des particules et ne nécessite pas de génération ou destruction artificielle de particules. Un traitement numérique originale de la surface libre et du calcul de la tension de surface est proposé. Des résutats numériques comparés à ceux d'expériences sont présentés, montrant ainsi la capacité de la méthode à calculer des écoulements à frontière libre dans un cas mono-fluide. Dans une seconde partie, on présente une extension de notre méthode au cas bifluide en utilisant un modèle de mélange. Plusieurs résultats d'instabilités de Rayleigh-Taylor sont comparés à ceux obtenus par d'autres méthodes. En raison des limitations que présente un tel modèle, on s'intéresse alors à un modèle bifluide où chaque fluide est calculé. Ce dernier nécessite préalablement la discrétisation de l'opérateur à coefficients non constants div( a grad). Pour cela, on utilise une représentation intégrale et une formule de quadrature par points de Gauss. Le modèle numérique est une adaptation de la méthode à pas fractionnaire à trois étapes discutée dans la partie mono-fluide. Des résultats numériques très précis montrent la pertinence de l'approche
The framework of this thesis is the simulation of injection processes of thermoplastic materials. The aim is to simulate numerically fluid flows with free boundaries where transition of phase can occur. More precisely, in this work, we have considered bidimensionnal incompressible viscous flows with Lagrangian meshless methods. The lack of consistency of discetrized partial derivatives operator for the MPS method (Moving Particle Semi-implicit) is shown. By using approximated consistent meshless techniques close to MLS approximation (Moving Least Square), we then propose an original Lagrangian meshless method which discretize incompressible Navier-Stokes equations in a purely Lagrangian formulation. Concerning the semi-discretization in time, we use the classical projection method. The resultant fractionnal step method consists in three stages: a prediction step of position and velocity field, a correction step of position particles and a correction step of velocities field. Such a discretization keeps the particle repartition regular and do not need to create or destroy particles. An original numerical treatment to track or capture free surfaces and computation of surface tension force are proposed. We compare numerical results to experiments showing the capability of our method to calculate mono-fluid free surface flows. In a second part, we present a bi-fluid extension using a melt model. The Rayleigh-Taylor results are compared to these obtained by other methods. Because of the limitations of such model, we focus on a bifluid model where each fluid is calculated. This model needs first the non-constant coefficient operator div( a grad) to be discretized. We the use an integral representation ans a quadrature formulae with Gauss's points. The numerical model obtained is a previously three step method adaptation. Precise numerical results show the significance of the approach
APA, Harvard, Vancouver, ISO, and other styles
43

Abdelmoula, Amine. "Résolution de problèmes inverses en géodésie physique." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00990849.

Full text
Abstract:
Ce travail traite de deux problèmes de grande importances en géodésie physique. Le premier porte sur la détermination du géoïde sur une zone terrestre donnée. Si la terre était une sphère homogène, la gravitation en un point, serait entièrement déterminée à partir de sa distance au centre de la terre, ou de manière équivalente, en fonction de son altitude. Comme la terre n'est ni sphérique ni homogène, il faut calculer en tout point la gravitation. A partir d'un ellipsoïde de référence, on cherche la correction à apporter à une première approximation du champ de gravitation afin d'obtenir un géoïde, c'est-à-dire une surface sur laquelle la gravitation est constante. En fait, la méthode utilisée est la méthode de collocation par moindres carrés qui sert à résoudre des grands problèmes aux moindres carrés généralisés. Le seconde partie de cette thèse concerne un problème inverse géodésique qui consiste à trouver une répartition de masses ponctuelles (caractérisées par leurs intensités et positions), de sorte que le potentiel généré par eux, se rapproche au maximum d'un potentiel donné. Sur la terre entière une fonction potentielle est généralement exprimée en termes d'harmoniques sphériques qui sont des fonctions de base à support global la sphère. L'identification du potentiel cherché se fait en résolvant un problème aux moindres carrés. Lorsque seulement une zone limitée de la Terre est étudiée, l'estimation des paramètres des points masses à l'aide des harmoniques sphériques est sujette à l'erreur, car ces fonctions de base ne sont plus orthogonales sur un domaine partiel de la sphère. Le problème de la détermination des points masses sur une zone limitée est traitée par la construction d'une base de Slepian qui est orthogonale sur le domaine limité spécifié de la sphère. Nous proposons un algorithme itératif pour la résolution numérique du problème local de détermination des masses ponctuelles et nous donnons quelques résultats sur la robustesse de ce processus de reconstruction. Nous étudions également la stabilité de ce problème relativement au bruit ajouté. Nous présentons quelques résultats numériques ainsi que leurs interprétations.
APA, Harvard, Vancouver, ISO, and other styles
44

Benmansour, Khadidja. "Modélisation mathématique en imagerie cardiaque." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0091/document.

Full text
Abstract:
Les pathologies cardiovasculaires sont la première cause des décès dans le monde. Il est donc vital de les étudier afin d’en comprendre les mécanismes et pouvoir prévenir et traiter plus efficacement ces maladies. Cela passe donc par la compréhension de l’anatomie, de la structure et du mouvement du coeur. Dans le cadre de cette thèse, nous nous sommes intéressés dans un premier temps au modèle de Gabarit Déformable Élastique qui permet d’extraire l’anatomie et le mouvement cardiaques. Le Gabarit Déformable Élastique consiste à représenter le myocarde par un modèle de forme a priori donné que l’on déforme élastiquement pour l’adapter à la forme spécifique du coeur du patient Dans le premier chapitre de cette thèse, nous utilisons une méthode de perturbation singulière permettant la segmentation avec précision de l’image. Nous avons démontré que si l’on faisait tendre vers 0 les coefficients de l’élasticité, le modèle mathématique convergeait vers une solution permettant la segmentation. Dans le cadre d’une formulation au sens des moindres carrés il est nécessaire de disposer d’une méthode numérique performante pour résoudre l’équation du transport au sens des moindres carrés. La méthode des éléments finis pour traiter les phénomènes de transport ne permet pas d’avoir un principe du maximum faible, sauf si l’opérateur aux dérivées partielles en temps est séparé de l’opérateur aux dérivées partielles en espace. Dans le chapitre 2 de la thèse nous considérons une formulation au sens des moindres carrés espace-temps et nous proposons de résoudre un problème sous contraintes afin de récupérer un principe du maximum discret. Le dernier objectif de la thèse est le suivi dynamique d’images cardiaques ou la reconstruction anatomique du coeur à partir de coupes 2D dans le plan orthogonal au grand axe du cœur. La méthode mathématique que nous utilisons pour cela est le transport optimal. Dans le chapitre 3 nous analysons les performances de l’algorithme proposé par Peyré pour calculer le transport optimal de nos images. La résolution numérique du transport optimal est un problème difficile et couteux en temps de calcul. C’est pourquoi nous proposons une méthode adaptative pour le calcul de l’opérateur proximal de la fonction à minimiser permettant de diviser par quatre le nombre nécessaire des itérations pour que l’algorithme converge
Cardiovascular disease are the leading cause of death worldwide. It is therefore vital to study them in order to understand the mechanisms and to prevent and treat these diseases more effectively. Therefore it requires an understanding of anatomy, structure and motion of the heart. In this thesis, we are interested in a first time at the Deformable Elastic Template model which can extract the cardiac anatomy and movement. The Elastic Deformable template is to represent the myocardium by a shape model a priori given that it elastically deforms to fit the specific shape of the patient’s heart. In the first chapter of this thesis, we use a singular perturbation method for accurately segmenting the image. We have demonstrated that if we did tend to 0 the coefficients of elasticity, the mathematical model converge to a solution to the problem of segmentation. As part of a formulation to the least squares sense it is necessary to have an efficient numerical method for solving the transport equation in the least squares sense. The finite element method to treat transport phenomena can not have a weak maximum principle, unless the operator of partial time is separated from the operator of partial space.In Chapter 2 of the thesis, we consider a least squares formulation of space-time and we propose to solve the problem constraints to recover a discrete maximum principle. The final objective of this thesis is the dynamic monitoring of cardiac images or anatomical reconstruction of the heart from 2D slices orthogonal to the long axis of the heart level. The mathematical method we use for this is the optimal transport. In Chapter 3 we analyze the performance of the algorithm proposed by Peyré to calculate the optimal transport of our images. The numerical resolution of optimal transport is a difficult and costly in computation time problem. That is why we propose an adaptive method for determining the proximity operator of the function to be minimized to divide by four the number of iterations required for the algorithm converges
APA, Harvard, Vancouver, ISO, and other styles
45

Baloui, Hassan. "Une étude numérique du comportement asymptotique des solutions des équations de Navier-Stokes avec des conditions aux limites sur la pression et divergence non nulle." Cachan, Ecole normale supérieure, 1996. http://www.theses.fr/1996DENS0021.

Full text
Abstract:
Ce travail traite de la simulation numérique des équations de Navier Stokes et Euler pour un fluide non homogène avec des conditions aux limites sur la pression et divergence non nulle. Dans un premier temps, on linéarise en partie le problème en découplant la densité du reste du système. La difficulté principale pour le traitement numérique des équations provient de l'équation sur la divergence non nulle (fluide échangeant de la chaleur avec le milieu extérieur). La discrétisation en espace, est opérée par la méthode des moindres carrés en formalisme éléments finis. La non linéarité du problème, est ensuite conservée en utilisant un schéma d'Euler implicite en temps et une méthode de newton Krylov en espace. On montre que, a partir d'un certain temps t* inversement proportionnel a la divergence, des oscillations de la densité apparaissent donnant ainsi un comportement instable a tout le système
APA, Harvard, Vancouver, ISO, and other styles
46

Gdhami, Asma. "Méthodes isogéométriques pour les équations aux dérivées partielles hyperboliques." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4210/document.

Full text
Abstract:
L’Analyse isogéométrique (AIG) est une méthode innovante de résolution numérique des équations différentielles, proposée à l’origine par Thomas Hughes, Austin Cottrell et Yuri Bazilevs en 2005. Cette technique de discrétisation est une généralisation de l’analyse par éléments finis classiques (AEF), conçue pour intégrer la conception assistée par ordinateur (CAO), afin de combler l’écart entre la description géométrique et l’analyse des problèmes d’ingénierie. Ceci est réalisé en utilisant des B-splines ou des B-splines rationnelles non uniformes (NURBS), pour la description des géométries ainsi que pour la représentation de champs de solutions inconnus.L’objet de cette thèse est d’étudier la méthode isogéométrique dans le contexte des problèmes hyperboliques en utilisant les fonctions B-splines comme fonctions de base. Nous proposons également une méthode combinant l’AIG avec la méthode de Galerkin discontinue (GD) pour résoudre les problèmes hyperboliques. Plus précisément, la méthodologie de GD est adoptée à travers les interfaces de patches, tandis que l’AIG traditionnelle est utilisée dans chaque patch. Notre méthode tire parti de la méthode de l’AIG et la méthode de GD.Les résultats numériques sont présentés jusqu’à l’ordre polynomial p= 4 à la fois pour une méthode deGalerkin continue et discontinue. Ces résultats numériques sont comparés pour un ensemble de problèmes de complexité croissante en 1D et 2D
Isogeometric Analysis (IGA) is a modern strategy for numerical solution of partial differential equations, originally proposed by Thomas Hughes, Austin Cottrell and Yuri Bazilevs in 2005. This discretization technique is a generalization of classical finite element analysis (FEA), designed to integrate Computer Aided Design (CAD) and FEA, to close the gap between the geometrical description and the analysis of engineering problems. This is achieved by using B-splines or non-uniform rational B-splines (NURBS), for the description of geometries as well as for the representation of unknown solution fields.The purpose of this thesis is to study isogeometric methods in the context of hyperbolic problems usingB-splines as basis functions. We also propose a method that combines IGA with the discontinuous Galerkin(DG)method for solving hyperbolic problems. More precisely, DG methodology is adopted across the patchinterfaces, while the traditional IGA is employed within each patch. The proposed method takes advantageof both IGA and the DG method.Numerical results are presented up to polynomial order p= 4 both for a continuous and discontinuousGalerkin method. These numerical results are compared for a range of problems of increasing complexity,in 1D and 2D
APA, Harvard, Vancouver, ISO, and other styles
47

Loth, Manuel. "Algorithmes d'Ensemble Actif pour le LASSO." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00845441.

Full text
Abstract:
Cette thèse aborde le calcul de l'opérateur LASSO (Least Absolute Shrinkage and Selection Operator), ainsi que des problématiques qui lui sont associées, dans le domaine de la régression. Cet opérateur a suscité une attention croissante depuis son introduction par Robert Tibshirani en 1996, par sa capacité à produire ou identi fier des modèles linéaires parcimonieux à partir d'observations bruitées, la parcimonie signi fiant que seules quelques unes parmi de nombreuses variables explicatives apparaissent dans le modèle proposé. Cette sélection est produite par l'ajout à la méthode des moindres-carrés d'une contrainte ou pénalisation sur la somme des valeurs absolues des coe fficients linéaires, également appelée norme l1 du vecteur de coeffi cients. Après un rappel des motivations, principes et problématiques de la régression, des estimateurs linéaires, de la méthode des moindres-carrés, de la sélection de modèle et de la régularisation, les deux formulations équivalentes du LASSO contrainte ou régularisée sont présentées; elles dé finissent toutes deux un problème de calcul non trivial pour associer un estimateur à un ensemble d'observations et un paramètre de sélection. Un bref historique des algorithmes résolvant ce problème est dressé, et les deux approches permettant de gérer la non-di fferentiabilité de la norme l1 sont présentées, ainsi que l'équivalence de ces problèmes avec un programme quadratique. La seconde partie se concentre sur l'aspect pratique des algorithmes de résolution du LASSO. L'un d'eux, proposé par Michael Osborne en 2000, est reformulé. Cette reformulation consiste à donner une défi nition et explication générales de la méthode d'ensemble actif, qui généralise l'algorithme du simplex à la programmation convexe, puis à la spéci fier progressivement pour la programmation LASSO, et à adresser les questions d'optimisation des calculs algébriques. Bien que décrivant essentiellement le même algorithme que celui de Michael Osborne, la présentation qui en est faite ici a l'ambition d'en exposer clairement les mécanismes, et utilise des variables di fférentes. Outre le fait d'aider à mieux comprendre cet algorithme visiblement sous-estimé, l'angle par lequel il est présenté éclaire le fait nouveau que la même méthode s'applique naturellement à la formulation régularisée du LASSO, et non uniquement à la formulation contrainte. La populaire méthode par homotopie (ou LAR-LASSO, ou LARS) est ensuite présentée comme une dérivation de la méthode d'ensemble actif, amenant une formulation alternative et quelque peu simpli fiée de cet algorithme qui fournit les solutions du LASSO pour chaque valeur de son paramètre. Il est montré que, contrairement aux résultats d'une étude récente de Jerome H. Friedman, des implémentations de ces algorithmes suivant ces reformulations sont plus effi caces en terme de temps de calcul qu'une méthode de descente par coordonnées. La troisième partie étudie dans quelles mesures ces trois algorithmes (ensemble actif, homotopie, et descente par coordonnées) peuvent gérer certains cas particuliers, et peuvent être appliqués à des extensions du LASSO ou d'autres problèmes similaires. Les cas particuliers incluent les dégénérescences, comme la présence de variables lineairement dépendantes, ou la sélection/désélection simultanée de variables. Cette dernière problématique, qui était délaissée dans les travaux précédents, est ici expliquée plus largement et une solution simple et efficace y est apportée. Une autre cas particulier est la sélection LASSO à partir d'un nombre très large, voire infi ni de variables, cas pour lequel la méthode d'ensemble actif présente un avantage majeur. Une des extensions du LASSO est sa transposition dans un cadre d'apprentissage en ligne, où il est désirable ou nécessaire de résoudre le problème sur un ensemble d'observations qui évolue dans le temps. A nouveau, la flexibilité limitée de la méthode par homotopie la disquali fie au pro fit des deux autres. Une autre extension est l'utilisation de la pénalisation l1 sur d'autres fonction coûts que la norme l2 du résidu, ou en association avec d'autres pénalisations, et il est rappelé ou établi dans quelles mesures et de quelle façon chaque algorithme peut être transposé à ces problèmes.
APA, Harvard, Vancouver, ISO, and other styles
48

Zhang, Ye. "Méthodes itératives hybrides asynchrones sur plateformes de calcul hétérogènes pour la résolution accélérée de grands systèmes linéaires." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10129/document.

Full text
Abstract:
Nous étudions dans cette thèse une méthode hybride de résolution des systèmes linéaires GMRES/LS-Arnoldi qui accélère la convergence grâce à la connaissance des valeurs propres calculées parallèlement par la méthode d’Arnoldi dans les cas réels. Le caractère asynchrone de cette méthode présente l’avantage de fonctionner avec une architecture hétérogène. Une étude de cas complexe est également faite en effectuant la transformation de la matrice complexe en une matrice réelle de dimension double. Nous avons mis en oeuvre la méthode GMRES hybride ainsi que la méthode GMRES générale sur trois différents types de plates-formes matérielles. Il s’agit respectivement de supercalculateurs IBM série SP, plates-formes matérielles typiquement centralisées; de Grid5000, une plate-forme matérielle typiquement distribuée, et de Tsubame (Tokyo-tech Supercomputer and Ubiquitously Accessible Massstorage Environment) supercalculateur, dont certains noeuds sont munis d’une carte accélératrice. Nous avons testé les performances de GMRES général et de GMRES hybride sur ces trois plates-formes, en observant l’influence des nombreux paramètres sur les performances. Des résultats significatifs ont ainsi été obtenus, nous permettant non seulement d'améliorer les performances du calcul parallèle, mais aussi de préciser le sens de nos efforts futurs
In this thesis, we have studied an effective parallel hybrid method of solving linear systems, GMRES / LS-Arnoldi, which accelerates the convergence through knowledge of some eigenvalues calculated in paralled by the Arnoldi method in real cases. The asynchronous nature of this method has the advantage of working with a heterogeneous architecture. A study in complex cases is also done by transforming the complex matrix into a real matrix of double dimension. We have implemented our hybrid GMRES method and the general GMRES method on three different types of hardware platforms. They are respectively the IBM SP series supercomputer, a typically centralized hardware platform; Grid5000, a fully distributed hardware platform, and the Tsubame (Tokyo-tech Supercomputer and Ubiquitously Accessible Massstorage Environment) supercomputer, where some nodes are equipped with an accelerator card. We have tested the performance of general GMRES and hybrid GMRES on these three platforms, observing the influence of various parameters for the performance. A number of meaningful results have been obtained; we can not only improve the performance of parallel computing but also specify the direction of our future efforts
APA, Harvard, Vancouver, ISO, and other styles
49

Shi, Yu-E. "Résolution numérique des équations de Saint-Venant par la technique de projection en utilisant une méthode des volumes finis dans un maillage non structuré." Phd thesis, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00130539.

Full text
Abstract:
Il n'existe à présent que peu de modèles aux volumes finis non structurés (UFVM: Unstructured Finite-Volumes Methods) développés pour simuler les écoulements à surface libre. La difficulté principale rencontrée durant ce développement est liée à la géométrie complexe du domaine de calcul et aux variations de fonds très irréguliers avec la présence des zones sèches ou/et mouillées. Ce mémoire de thèse présente le développement d'un modèle numérique 2D, baptisé ECOMOD-UFVM, qui est basé sur la résolution des équations de Saint-Venant par une technique de projection couplée à une UFVM. La UFVM permettra une modélisation plus proche de la géométrie souvent complexe des zones côtières et estuariennes. Dans un premier temps, un seul schéma ULSS (Upwind Least Squares Scheme) du 2ème ordre a été introduit dans le code pour traiter les termes de convection, responsables des oscillations et diffusions numériques indésirables. Une dizaine de cas-tests proposés dans les études d'écoulements à surface libre existantes ont été réalisés : écoulements à surface libre; problèmes de rupture de barrages. Les résultats des cas-tests sont satisfaisants et nous permettent d'envisager avec confiance le passage à deux applications grandeur nature: la rupture du barrage de Malpasset (France) et l'inondation par les crues éclairs dans la ville de Dongchuan (Chine). Les résultats du présent travail confirment la fiabilité, la précision, la stabilité, et la robustesse du code développé dans la résolution des équations de Saint-Venant décrivant les écoulements de tout genre : lent, rapide et torrentiel sur tout type du fond : sec/mouillé, plat ou en grande pente, régulier ou très irrégulier.
APA, Harvard, Vancouver, ISO, and other styles
50

Baysse, Arnaud. "Contributions à l'identification paramétrique de modèles à temps continu : extensions de la méthode à erreur de sortie, développement d'une approche spécifique aux systèmes à boucles imbriquées." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0047/document.

Full text
Abstract:
Les travaux de recherche présentés dans ce mémoire concernent des contributions à l'identification paramétrique de modèles à temps continu. La première contribution est le développement d'une méthode à erreur de sortie appliquée à des modèles linéaires, en boucle ouverte et en boucle fermée. Les algorithmes sont présentés pour des modèles à temps continu, en utilisant une approche hors ligne ou récursive. La méthode est étendue à l'identification de systèmes linéaires comprenant un retard pur. La méthode développée est appliquée à différents systèmes et comparée aux méthodes d'identification existantes. La deuxième contribution est le développement d'une nouvelle approche d'identification de systèmes à boucles imbriquées. Cette approche est développée pour l'identification de systèmes électromécaniques. Elle se base sur l'utilisation d'un modèle d'identification paramétrique générique d'entraînements électromécaniques en boucle fermée, sur la connaissance du profil des lois de mouvement appliquées appelées excitations, et sur l'analyse temporelle de signaux internes et leurs corrélations avec les paramètres à identifier. L'approche est développée dans le cadre de l'identification d'entraînements à courant continu et synchrone. L'application de cette approche est effectuée au travers de simulations et de tests expérimentaux. Les résultats sont comparés à des méthodes d'identification classiques
The research works presented in this thesis are about contributions in continuous time model parametric identication. The rst work is the development of an output error method applied on linear models, in open and closed loop. The algorithms are presented for continuous time models, using in-line or oine approaches. The method is extended to the case of the linear systems containing pure time delay. The developed method is applied to several systems and compared to the best existing methods. The second contribution is the development of a new identication approach for cascaded loop systems. This approach is developed for identifying electromechanical systems. It is based on the use of a generic parametric model of electromechanical drives in closed loop, on the knowledge of the movement laws applied and called excitations, and on the analyse of the time internal signals and their correlations with the parameters to identify. This approach is developed for identifying direct current and synchronous drives. The approach is applied with simulations and experimental tests. The obtained results are compared to best identifying known methods
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography