To see the other types of publications on this topic, follow the link: Principe du maximum d'entropie.

Dissertations / Theses on the topic 'Principe du maximum d'entropie'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Principe du maximum d'entropie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Venditti, Véronique. "Aspects du principe de maximum d'entropie en modélisation statistique." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10108.

Full text
Abstract:
Cette thèse présente certains aspects du principe de maximum d'entropie (PME) en tant que principe de modélisation statistique. Nous proposons une définition de ce principe basée sur une notion de l'entropie totalement justifiée en dehors de toute approche subjective, et dont le mécanisme soit facilement abordable et compréhensible. Cette présentation s'articule autour de l'utilisation de ce principe d'un point de vue théorique et d'une application à des données médicales. Il ne s'agit pas dans cette approche de la modélisation statistique de choisir directement la structure statistique que l'on pense la mieux correspondre au phénomène aléatoire étudié. En fait, l'information que l'on possède sur celui-ci est traduite au niveau de la loi des variables qui le représentent. Pour formaliser cette connaissance, on utilise l'association entre des fonctions de ces variables (observables) et les niveaux de leurs espérances (niveaux de contraintes). L'approche proposée du PME par le théorème de concentration, et les démonstrations des formes des lois qui en sont issues, fournissent une présentation homogène de ce principe. Nous précisons de plus les liens existant entre différentes lectures des modèles paramètres de structure exponentielle et leur relecture en tant que modèle de maximum d'entropie. Ainsi, en choisissant d'utiliser des niveaux de contraintes empiriques dans la recherche des équations permettant d'estimer les paramètres des lois obtenues par PME, nous montrons que le mode de calcul alors imposé se trouve être la méthode de maximum de vraisemblance. D'autre part, la présentation d'exemples de relecture de modèles de discrimination illustre bien l'intérêt didactique du PME (en particulier pour la procédure de régression logistique). Enfin, l'utilisation du PME pour la recherche d'un modèle paramètré, sur la base d'une loi empirique ne correspondant visiblement à aucune loi théorique usuelle, illustre le mécanisme d'application du PME.
APA, Harvard, Vancouver, ISO, and other styles
2

Michel, Julien. "Un principe de maximum d'entropie pour les mesures de Young : applications." Lyon 1, 1993. http://www.theses.fr/1993LYO10225.

Full text
Abstract:
A partir d'un theoreme de grandes deviations de p. Baldi on etablit un principe de maximum d'entropie dans l'espace des mesures de young. On utilise ce principe pour definir des etats d'equilibre statistique pour une classe de systemes dynamiques de dimension infinie. On montre que la theorie s'applique notamment au modele quasi geostrophique utilise pour decrire les mouvements atmospheriques sur les planetes en rotation rapide. On examine egalement l'application de ces idees au processus d'homogeneisation des materiaux composites
APA, Harvard, Vancouver, ISO, and other styles
3

Zhang, Tianyu. "Problème inverse statistique multi-échelle pour l'identification des champs aléatoires de propriétés élastiques." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2068.

Full text
Abstract:
Dans le cadre de la théorie de l'élasticité linéaire, la modélisation et simulation numérique du comportement mécanique des matériaux hétérogènes à microstructure aléatoire complexe soulèvent de nombreux défis scientifiques à différentes échelles. Bien qu'à l'échelle macroscopique, ces matériaux soient souvent modélisés comme des milieux homogènes et déterministes, ils sont non seulement hétérogènes et aléatoires à l'échelle microscopique, mais ils ne peuvent généralement pas non plus être explicitement décrits par les propriétés morphologiques et mécaniques locales de leurs constituants. Par conséquent, une échelle mésoscopique est introduite entre l'échelle macroscopique et l'échelle mésoscopique, pour laquelle les propriétés mécaniques d'un tel milieu élastique linéaire aléatoire sont décrites par un modèle stochastique prior non-gaussien paramétré par un nombre faible ou modéré d'hyperparamètres inconnus. Afin d'identifier ces hyperparamètres, une méthodologie innovante a été récemment proposée en résolvant un problème statistique inverse multi-échelle en utilisant uniquement des données expérimentales partielles et limitées aux deux échelles macroscopique et mésoscopique. Celui-ci a été formulé comme un problème d'optimisation multi-objectif qui consiste à minimiser une fonction-coût multi-objectif (à valeurs vectorielles) définie par trois indicateurs numériques correspondant à des fonctions-coût mono-objectif (à valeurs scalaires) permettant de quantifier et minimiser des distances entre les données expérimentales multi-échelles mesurées simultanément aux deux échelles macroscopique et mésoscopique sur un seul échantillon soumis à un essai statique, et les solutions des modèles numériques déterministe et stochastique utilisés pour simuler la configuration expérimentale multi-échelle sous incertitudes. Ce travail de recherche vise à contribuer à l'amélioration de la méthodologie d'identification inverse statistique multi-échelle en terme de coût de calcul, de précision et de robustesse en introduisant (i) une fonction-coût mono-objectif (indicateur numérique) supplémentaire à l'échelle mésoscopique quantifiant la distance entre la(les) longueur(s) de corrélation spatiale des champs expérimentaux mesurés et celle(s) des champs numériques calculés, afin que chaque hyperparamètre du modèle stochastique prior ait sa propre fonction-coût mono-objectif dédiée, permettant ainsi d'éviter d'avoir recours à l'algorithme d'optimisation global (algorithme génétique) utilisé précédemment et de le remplacer par un algorithme plus performant en terme d'efficacité numérique, tel qu'un algorithme itératif de type point fixe, pour résoudre le problème d'optimisation multi-objectif avec un coût de calcul plus faible, et (ii) une représentation stochastique ad hoc des hyperparamètres impliqués dans le modèle stochastique prior du champ d'élasticité aléatoire à l'échelle mésoscopique en les modélisant comme des variables aléatoires, pour lesquelles les distributions de probabilité peuvent être construites en utilisant le principe du maximum d'entropie sous un ensemble de contraintes définies par les informations objectives et disponibles, et dont les hyperparamètres peuvent être déterminés à l'aide de la méthode d'estimation du maximum de vraisemblance avec les données disponibles, afin d'améliorer à la fois la robustesse et la précision de la méthode d'identification inverse du modèle stochastique prior. En parallèle, nous proposons également de résoudre le problème d'optimisation multi-objectif en utilisant l’apprentissage automatique par des réseaux de neurones artificiels. Finalement, la méthodologie améliorée est tout d'abord validée sur un matériau virtuel fictif dans le cadre de l'élasticité linéaire en 2D contraintes planes et 3D, puis illustrée sur un matériau biologique hétérogène réel (os cortical de bœuf) en élasticité linéaire 2D contraintes planes
Within the framework of linear elasticity theory, the numerical modeling and simulation of the mechanical behavior of heterogeneous materials with complex random microstructure give rise to many scientific challenges at different scales. Despite that at macroscale such materials are usually modeled as homogeneous and deterministic elastic media, they are not only heterogeneous and random at microscale, but they often also cannot be properly described by the local morphological and mechanical properties of their constituents. Consequently, a mesoscale is introduced between macroscale and microscale, for which the mechanical properties of such a random linear elastic medium are represented by a prior non-Gaussian stochastic model parameterized by a small or moderate number of unknown hyperparameters. In order to identify these hyperparameters, an innovative methodology has been recently proposed by solving a multiscale statistical inverse problem using only partial and limited experimental data at both macroscale and mesoscale. It has been formulated as a multi-objective optimization problem which consists in minimizing a (vector-valued) multi-objective cost function defined by three numerical indicators corresponding to (scalar-valued) single-objective cost functions for quantifying and minimizing distances between multiscale experimental data measured simultaneously at both macroscale and mesoscale on a single specimen subjected to a static test, and the numerical solutions of deterministic and stochastic computational models used for simulating the multiscale experimental test configuration under uncertainties. This research work aims at contributing to the improvement of the multiscale statistical inverse identification method in terms of computational efficiency, accuracy and robustness by introducing (i) an additional mesoscopic numerical indicator allowing the distance between the spatial correlation length(s) of the measured experimental fields and the one(s) of the computed numerical fields to be quantified at mesoscale, so that each hyperparameter of the prior stochastic model has its own dedicated single-objective cost-function, thus allowing the time-consuming global optimization algorithm (genetic algorithm) to be avoided and replaced with a more efficient algorithm, such as the fixed-point iterative algorithm, for solving the underlying multi-objective optimization problem with a lower computational cost, and (ii) an ad hoc stochastic representation of the hyperparameters involved in the prior stochastic model of the random elasticity field at mesoscale by modeling them as random variables, for which the probability distributions can be constructed by using the maximum entropy principle under a set of constraints defined by the available and objective information, and whose hyperparameters can be determined using the maximum likelihood estimation method with the available data, in order to enhance both the robustness and accuracy of the statistical inverse identification method of the prior stochastic model. Meanwhile, we propose as well to solve the multi-objective optimization problem by using machine learning based on artificial neural networks. Finally, the improved methodology is first validated on a fictitious virtual material within the framework of 2D plane stress and 3D linear elasticity theory, and then illustrated on a real heterogenous biological material (beef cortical bone) in 2D plane stress linear elasticity
APA, Harvard, Vancouver, ISO, and other styles
4

Krysta, Monika. "Modélisation numérique et assimilation de données de la dispersion de radionucléides en champ proche et à l'échelle continentale." Phd thesis, Université Paris XII Val de Marne, 2006. http://tel.archives-ouvertes.fr/tel-00652840.

Full text
Abstract:
La prévision des conséquences de rejets radioactifs dans l'atmosphère repose sur des modèles de dispersion qui fournissent des solutions analytiques (pX 0.1 développé par IRSN/ECL) ou numériques (Polair3D développé au CEREA) de l'équation d'advection-diffusion. Les modèles s'appuient d'une part sur des champs météorologiques possédant une résolution limitée et intègrent d'autre part des processus d'appauvrissement d'un nuage radioactif dont la description est imparfaite. Afin de contourner ces difficultés nous exploitons dans cette thèse les opportunités offertes par le couplage des modèles aux mesures, connu sous le nom d'assimilation de données. Dans un premier temps nous confrontons les modèles utilisés à des observations. Ces dernières sont fournies par des expériences effectuées avec des traceurs passifs ou collectées suite a des rejets de radionucléides. La dispersion sur une maquette de la centrale de Bugey dans une soufflerie en champ proche, l'expérience ETEX-I à l'échelle continentale et les rejets accidentels de Tchernobyl et Algésiras font l'objet d'études dans ce travail. Dans un deuxième temps, les modèles de dispersion sont associés aux mesures dans le but d'améliorer l'évaluation de conséquences de rejets radioactifs et d'inverser leur sources si la qualité du modèle le permet. En champ proche, l'approche variationnelle standard est utilisée. L'adjoint de pX 0.1 est construit à l'aide d'un différenciateur automatique. Les mesures collectées dans la soufflerie sont assimilées afin d'inverser le débit de la source. Dans le but d'obtenir un meilleur accord entre le modèle et les mesures, l'optimisation des paramètres gouvernant la distribution spatiale du panache est ensuite abordée. L'avantage de l'emploi de mesures est conditionné par leur contenu informatif. Ainsi, l'analyse a posteriori du réseau de mesures est effectuée et des possibilités de réduire sa taille en vue des applications opérationnelles sont exploitées. A l'échelle continentale, malgré la restriction aux mailles contenant des sites nucléaires, l'espace engendré par des sources est de dimension considérablement plus grande que l'espace d'observations. Par conséquent le problème inverse de reconstruction de la position et du profil temporel des sources est mal posé. Ce problème est régularisé en utilisant le principe du maximum d'entropie sur la moyenne. Des nouvelles fonctions coût prenant en compte le confinement spatio-temporel des sources accidentelles sont construites dans l'espace d'observations. Le lien entre la source recherchée et les mesures est décrit par l'adjoint de Polair3D. Les observations assimilées par la méthode sont constituées de mesures synthétiques, parfaites ou bruitées. Une série d'expériences se focalisant sur des sensibilités de la méthode est menée et leur qualité évaluée à l'aide d'un indicateur objectif. Un algorithme de réduction des sites suspectés pour des applications opérationnelles est testé. Finalement, les résultats de l'inversion du profil temporel de la source de l'accident d'Algésiras sont présentés.
APA, Harvard, Vancouver, ISO, and other styles
5

Michel, Philippe. "Principe d'entropie relative généralisée et dynamique de populations structurées." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090032.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'étude et au contrôle de la dynamique de populations structurées, en âge (Mc Kendrick), en taille (modèle de division cellulaire-DVC) ou autres. Pour cela, nous exhibons une famille d'entropies relatives (Entropie Relative Généralisée-GRE) pour des modèles n'ayant pas de loi de conservation simple (masse, taille. . . ). L'existence d'une telle famille et l'étude fine du comportement asymptotique sont conditionnées par l'existence et l'unicité de la solution à un problème aux valeurs propres. L'étude de ce problème dans le cas d'un modèle DVC nous a permis, entre autres, de montrer que le taux de croissance Malthusien de populations cellulaires dépendait de la symétrie de la division. Dans un exemple de modèle en âge non linéaire, on a pu montrer la convergence globale en temps et comparer la méthode GRE à la méthode classique par linéarisation
This thesis deals with the dynamic of population balance equations (PBE) as the Cell Division Equation (CDE) or as the classical McKendrick age model. More precisely, we show a family of relative entropies (General Relative Entropy-GRE) in a large class of PBE. The existence of such a family and a sharp study of the asymptotic behavior is related to the existence and uniqueness of the solution to an eigenproblem. For instance, the study of this eigenproblem in a CDE model, allows us to show the link between the Malthusian growth rate of a cell population an the symmetry of its division. We prove, in a simple nonlinear age model, the global convergence to a steady state and we compare the results given by the GRE method and the linearization method
APA, Harvard, Vancouver, ISO, and other styles
6

Mihelich, Martin. "Vers une compréhension du principe de maximisation de production d'entropie." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS038/document.

Full text
Abstract:
Dans cette thèse nous essayons de comprendre pourquoi le Principe de Maximisation de Production d'Entropie (MEP) donne de très bons résultats dans de nombreux domaines de la physique hors équilibre et notamment en climatologie. Pour ce faire nous étudions ce principe sur des systèmes jouets de la physique statistique qui reproduisent les comportements des modèles climatiques. Nous avons notamment travaillé sur l'Asymmetric Simple Exclusion Process (ASEP) et le Zero Range Process (ZRP). Ceci nous a permis tout d'abord de relier MEP à un autre principe qui est le principe de maximisation d'entropie de Kolmogorov-Sinai (MKS). De plus, l'application de MEP à ces systèmes jouets donne des résultats physiquement cohérents. Nous avons ensuite voulu étendre le lien entre MEP et MKS dans des systèmes plus compliqués avant de montrer que, pour les chaines de Markov, maximiser l'entropie de KS revenait à minimiser le temps que le système prend pour atteindre son état stationnaire (mixing time). En fin nous avons appliqué MEP à la convection atmosphérique
In this thesis we try to understand why the maximum entropy production principlegives really good results in a wide range of Physics fields and notably in climatology. Thus we study this principle on classical toy models which mimic the behaviour of climat models. In particular we worked on the Asymmetric Simple Exclusion Process(ASEP) and on the Zero Range Process (ZRP). This enabled us first to connect MEP to an other principle which is the maximum Kolmogorov-Sinaï entropy principle (MKS). Moreover the application of MEP on these systems gives results that are physically coherent. We then wanted to extend this link between MEP and MKS in more complicated systems, before showing that, for Markov Chains, maximise the KS entropy is the same as minimise the time the system takes to reach its stationnary state (mixing time). Thus, we applied MEP to the atmospheric convection
APA, Harvard, Vancouver, ISO, and other styles
7

Chakik, Fadi El. "Maximum d'entropie et réseaux de neurones pour la classification." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0091.

Full text
Abstract:
Cette these s'inscrit dans le cadre de la classification. Elle porte particulierement sur l'etude des methodes basees sur le principe du maximum d'entropie (maxent). Ces approches ont ete utilisees dans le laboratoire leibniz, par exemple, pour apprendre des comportements a un robot autonome. Le but du travail a ete de comparer cette approche a celles basees sur des reseaux de neurones. Une analyse theorique de la classification a permis de montrer qu'il existe une equivalence entre le maxent et l'apprentissage hebbien des reseaux neuronaux. Apprendre les valeurs des poids de ces derniers est equivalent a apprendre les valeurs moyennes de certains observables du maxent. L'inclusion de nouveaux observables permet d'apprendre a apprendre avec des regles d'apprentissage plus performantes dans le cadre des reseaux de neurones. Le maxent a ete applique a deux problemes particuliers : la classification des ondes de breiman (probleme standard en apprentissage), et la reconnaissance de textures d'images spot. Ces applications ont montre que le maxent permet d'atteindre des performances comparables, voire meilleures, que les methodes neuronales. La robustesse du code du maxent mis au point au cours de cette these est en train d'etre etudiee dans le laboratoire tima. Il est prevu qu'il soit telecharge sur un satellite americain (projet mptb), pour l'evaluer en presence de rayonnements ionisants, dans la perspective de faire des traitements d'images en systemes embarques.
APA, Harvard, Vancouver, ISO, and other styles
8

Gamboa, Fabrice. "Méthode du maximum d'entropie sur la moyenne et applications." Paris 11, 1989. http://www.theses.fr/1989PA112346.

Full text
Abstract:
La méthode du maximum d'entropie permet de donner une solution explicite au problème de reconstruction d'une mesure de probabilité lorsque l'on ne dispose que des valeurs moyennes de certaines variables aléatoires. Nous utilisons cette méthode pour reconstruire une fonction contrainte à appartenir à un convexe C (contrainte non linéaire), en utilisant un nombre fini de ses moments généralisés (contrainte linéaire). Pour cela on considère une suite de problèmes de maximisation de l'entropie, le n-ème problème consiste à reconstruire une probabilité sur Cn, projection de C sur Rⁿ, dont la moyenne vérifie une contrainte approchant la contrainte initiale (moments généralisés). Faisant ensuite tendre n vers l’infini, on obtient une solution au problème initial en considérant la limite de la suite des moyennes des lois du maximum d'entropie sur les espaces Cn. Ce procédé de reconstruction est baptisé méthode du maximum d'entropie sur la moyenne (M. E. M), car la contrainte linéaire ne porte que sur la moyenne des lois à reconstruire. On étudie principalement le cas où C est une bande de fonctions continues. On obtient alors une famille de reconstructions, chacun des éléments de cette famille ne dépend que de la suite des mesures de référence utilisée dans la suite des problèmes d'entropie. Nous montrons que la méthode (M. E. M) est équivalente à la maximisation d'un critère concave. Nous utilisons ensuite la méthode (M. E. M) pour construire un critère numériquement calculable permettant de résoudre le problème des moments généralisés sur une bande bornée de fonctions continues. Enfin nous nous intéressons à des applications statistiques de la méthode
An explicit solution for the problem of probability reconstruction when only the averages of random variables are known is given by the maximum entropy method. We use this method to reconstruct a function constrained to a convex set C, (no linear constraint) using a finite number of its generalized moments linear constraint). A sequence of entropy maximization problems is considered. The nth problem consists in the reconstruction of a probability distribution on Cn, the projection of C on Rⁿ whose mean satisfies a constraint approximating the initial linear constraint (generalized moments). When n approaches infinity this gives a solution for the initial problem as the limit of the sequence of means of maximum entropy distributions on Cn. We call this technique the maximum entropy method on the mean (M. E. M) because linear constraints are only on the mean of the distribution to be reconstructed. We mainly study the case where C is a band of continuous functions. We find a reconstruction familly, each element of this family only depends of referenced measures used for the sequence of entropy problems. We show that the M. E. M method is equivalent to a concav criteria maximization. We then use the M. E. M method to construct a numerically computable criteria to solve generalized moments problem on a bounded band of continuous functions. In the last chapter we discuss statistical applications of the method
APA, Harvard, Vancouver, ISO, and other styles
9

Bouhelal, Mediouny. "Principe du maximum avec sauts." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37603251j.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Zheng, Huicheng Daoudi Mohamed Jedynak Bruno. "Modèles de maximum d'entropie pour la détection de la peau." Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/297.

Full text
Abstract:
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2004.
N° d'ordre (Lille 1) : 3508. Texte en anglais. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 101-107. Liste des publications.
APA, Harvard, Vancouver, ISO, and other styles
11

XU, FANG. "Reconstitution en resonance magnetique nucleaire par la methode d'entropie maximum." Paris 11, 1990. http://www.theses.fr/1990PA112378.

Full text
Abstract:
La technique de la resonance magnetique nucleaire est de plus en plus utilisee dans beaucoup de domaines scientifiques. Mais il existe des contraintes physiques limitant fortement la qualite et la precision de sa mesure, en particulier, un rapport signal sur bruit tres faible et les mecanismes de relaxations de spin. Par consequent, la methode d'observation du phenomene rmn contient des procedures irreversibles qui ramenent alors a un probleme d'inversion generalisee. Compte tenu de la propriete statistique des echantillons vis-a-vis du systeme echantillonne, la reconstitution par la methode d'entropie maximum a ete choisie pour traiter ce probleme d'inversion dans le cadre des signaux rmn. Pour que cette methode donne un resultat fiable, il faut modeliser le mecanisme de mesure d'une facon precise. Pour que cette methode soit praticable en calcul numerique, il faut que le modele precedent soit le plus simple possible. Donc un compromis devrait etre trouve. Lorsque la modelisation est relativement simplifiee, il faut ensuite analyser l'erreur de reconstitution liee a la simplification. En pratique, la modelisation simplifiee est utilisee apres avoir ete modifiee pour s'adapter aux circonstances differents. Ainsi se trouvent crees des algorithmes de traitement pour differents types de signaux rmn observes, dont en particulier, l'un est capable de reconstituer un spectre en mode d'absorption a partir du spectre du module
APA, Harvard, Vancouver, ISO, and other styles
12

Urban, Bernard. "Applications du maximum d'entropie et du gradient stochastique à la météorologie." Toulouse 3, 1996. http://www.theses.fr/1996TOU30083.

Full text
Abstract:
On applique le principe du maximum d'entropie pour: a) justifier certaines relations geophysiques approchees b) resoudre des problemes inverses en presence d'erreurs du modele direct et d'erreurs de mesure. Les composantes de l'erreur du modele peuvent etre correlees par l'utilisation de copules. La methode est appliquee plus specifiquement a un modele meteorologique. On presente aussi une version tronquee d'un algorithme de gradient stochastique du type kiefer-wolfowitz, dont on etudie la vitesse de convergence presque sure et la vitesse de convergence en loi
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Martret Christophe. "Contribution a l'estimation spectrale 2d par la methode du maximum d'entropie." Rennes 1, 1990. http://www.theses.fr/1990REN10119.

Full text
Abstract:
Ce memoire traite de l'estimation spectrale en deux dimensions par la methode du maximum d'entropie. On se place dans l'hypothese ou le champ dont on cherche a estimer la densite spectrale de puissance est stationnaire 2d, et ou sa fonction de correlation (estimee ou exacte) est connue sur un nombre fini de points. Deux axes ont ete privilegies dans cette etude. Tout d'abord l'etude et l'amelioration des techniques classiques d'optimisation pour le calcul du spectre du maximum d'entropie: a) dans le cas 2d, proposition d'un nouvel algorithme primal et description detaillee de la mise en uvre de l'algorithme dual avec apport de solutions originales permettant une reduction de la charge de calcul. B) dans le cas 1d, pour un jeu de correlations non contigues, description d'un algorithme de newton avec un calcul de hessien apparemment nouveau. Puis le developpement de methodes d'estimation spectrale 2d au moyen de techniques de prediction lineaire donnant des spectres proches du spectre maximum d'entropie 2d: a) l'etude de l'estimation spectrale ed par prediction lineaire permet de redefinir la notion de spectre hybride dans un cadre plus general. Le spectre hybride utilise conjointement avec une methode de rectification originale permet de definir un nouvel estimateur spectral; b) une nouvelle methode reposant sur la notion de spectre hybride est developpee. Elle permet d'obtenir des spectres proches du sme 2d tout en ne mettant en jeu que des techniques de calcul lineaire
APA, Harvard, Vancouver, ISO, and other styles
14

Mohammad-Djafari, Ali Asghar. "Synthèse de Fourier multivariables à maximum d'entropie application à la reconstruction tomographique d'images /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376080845.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Nguyen, Maï Khuong. "Reconstitution d'images après exploration micro-onde méthode analytique et méthode à maximum d'entropie /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376169413.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Dau, Thi Thuy Lan. "Etudes des problèmes inverses en diffraction microonde par la méthode à maximum d'entropie." Grenoble INPG, 1993. http://www.theses.fr/1993INPG0193.

Full text
Abstract:
L'analyse non destructive d'un milieu complexe offre des applications multiples dans des domaines aussi varies que l'imagerie medicale, la teledetection, la geophysique, etc. . . La methode utilisee consiste en une exploration du milieu par une onde electromagnetique. A partir du champ diffracte mesure sur une surface situee en arriere de l'objet on peut determiner en grandeur et en position les caracteristiques du milieu traverse par l'onde. Or cette reconstruction se revele un probleme inverse mal-pose. Un algorithme de reconstruction quantitative, base sur une technique statistique dite methode a maximum d'entropie a ete concu, realise et teste. Du point de vue du traitement du signal le formalisme de maximum d'entropie a ete utilise comme une fonction de regularisation non quadratique. C'est justement cette forte non-linearite qui apporte une amelioration de la resolution par rapport aux autres methodes d'interpolation lineaire. Pour des applications specifiques en microondes la methode a du etre etendue a la definition et au traitement de l'entropie complexe. Cette demarche a ete rendue necessaire pour traiter les problemes de diffraction electromagnetique qui presentent un caractere complexe du a l'existence simultanee d'une amplitude et d'une phase. Le programme developpe a ete teste pour des objets de forme et de nature differentes, notamment certains ont presente un caractere complexe. Les resultats montrent que cet algorithme se revele performant meme dans le cas de champs electromagnetiques de faible amplitude en presence du bruit. La comparaison avec ceux d'autres auteurs a montre une parfaite similitude dans les resultats et un gain de temps de calcul appreciable. Enfin, l'etude a ete faite de facon complete a deux dimensions, l'etude a trois dimensions a ete abordee mais n'a pu aboutir faute de moyens informatiques suffisamment puissants
APA, Harvard, Vancouver, ISO, and other styles
17

Mohammad, Djafari Ali Asghar. "Synthèse de Fourier multivariables à maximum d'entropie : application à la reconstruction tomographique d'images." Paris 11, 1987. http://www.theses.fr/1987PA112427.

Full text
Abstract:
Le problème traité est celui de la synthèse de Fourier multivariables, c'est à dire la détermination d'une fonction f(x:) à partir d'une connaissance partielle de sa transformée de Fourier (TF). Les particularités du problème sont les suivantes: i) la fonction est positive et à support limité, ii) les échantillons de sa TF, que l'on dispose se trouvent sur des contours algébriques définis à partir des hypothèses physiques et de la géométrie des mesures des applications concernées. L'intérêt de ce problème se justifie dans ses nombreuses applications telles que: tomographie à rayon X ou à ondes diffractées, en imagerie RMN, etc. , où la mesure d'une grandeur sur des lignes droites (projections) nous renseigne, soit directement, soit indirectement, sur la TF spatiale d'une fonction à deux variables d'espace caractérisant l'objet. Il s'agit là d'un problème inverse mal-posé; celui de la résolution d'une équation intégrale de première espèce dans laquelle le noyau de l'intégrale est une fonction exponentielle complexe. Pour le résoudre, il faut étudier non seulement les conditions d'existence et d'unicité de la solution, Bis aussi sa stabilité vis-à-vis des erreurs sur les données. Une analyse des méthodes de reconstruction existantes nous montre que celles-ci négligent en général soit l'unicité, soit la stabilité de la solution. Notre approche consiste à utiliser le fait que la solution est positive, ce qui a été négligé dails les méthodes existantes. L'usage de l'entropie nous a semblé donc être une façon appropriée pour arriver à cette fin. Une étude des différentes approches du principe du Maximum d'Entropie (ME) est faite, et, finalement, une nouvelle méthode est proposée. L'utilisation de l'entropie a soulevé un certain nombre de difficultés, comme le choix entre les différences définitions de l'entropie d'une image ainsi que la définition de l'entropie d'une image représentant une grandeur complexe; pour lesquelles nous avons apporté quelques éléments de réponse. L'algorithme consiste alors à minimiser un critère composé de deux termes : un terme de résidu qui mesure la fidélité aux données, et un terme d'entropie qui joue le rôle d'une fonctionnelle de régularisation. La minimisation est faite par une technique du gradient conjugué. Un certain nombre de simulations sont présentées afin de comparer les performances de la méthode à celles des méthodes classiques pour des applications en tomographie.
APA, Harvard, Vancouver, ISO, and other styles
18

Nguyen-Verger, Maï Khong. "Reconstitution d'images après exploration micro-onde : méthode analytique et méthode à maximum d'entropie." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0132.

Full text
Abstract:
Le probleme traite est la reconstruction de l'image d'un objet dielectrique a partir de la repartition du champ diffracte par cet objet. Il s'agit la d'un probleme inverse mal-pose. Pour le resoudre, nous avons propose deux methodes de reconstitution : la methode analytique basee sur l'analyse spectrale du champ diffracte et la methode a maximum d'entropie dont le principe repose sur la regularisation des problemes malposes ou sur le traitement de l'information incomplete. Un certain nombre de simulations sont presentees afin de comparer les performances et les domaines d'applications de deux methodes
APA, Harvard, Vancouver, ISO, and other styles
19

Cousin, Jean. "Prédiction des distributions granulométriques par le formalisme d'entropie maximum. Applications à plusieurs injecteurs mécaniques." Rouen, 1996. http://www.theses.fr/1996ROUES037.

Full text
Abstract:
Les systèmes liquides produits par les injecteurs mécaniques sont par nature instables. Ceci a pour effet de rompre le système liquide en un spray, c'est à dire en un ensemble de gouttes. Ces gouttes se caractérisent alors par leur dispersion en taille, en vitesse voire en température. Le travail présenté ici ne traite que de la dispersion en taille des particules sphériques. Les phénomènes qui régissent la rupture des systèmes liquides en gouttes restent jusqu'à maintenant mal connus et ne sont pas complètement traités. Les quelques modèles existant ne permettent la prédiction que d'un nombre restreint d'échelles de longueur caractéristiques des instabilités. Le modèle utilisé dans ce travail est la théorie linéaire couplée à un schéma de rupture simplifié et adapté au cas traité. Ceci permet alors le calcul d'une échelle de longueur caractéristique des instabilités présentes et homogène à un diamètre de goutte. L'originalité de notre méthode consiste à proposer une procédure qui couple le résultat de la théorie linéaire au formalisme d'entropie maximum. Ce formalisme permet de calculer la dispersion en taille de goutte la plus vraisemblable tout en respectant l'information réduite issue de la théorie linéaire. La dispersion en taille obtenue est alors représentée sous la forme d'une fonction de densité de probabilité basée sur le volume des gouttes. Cette nouvelle procédure est validée sur trois études expérimentales : les injecteurs d'essence, les injecteurs mécaniques à rotation et les injecteurs ultrasoniques sont traités.
APA, Harvard, Vancouver, ISO, and other styles
20

Zheng, Huicheng. "Modèles de maximum d'entropie pour la détection de la peau : application au filtrage de l'internet." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Zheng.pdf.

Full text
Abstract:
La détection de la peau dans les images en couleur joue un rôle très important pour de nombreux problèmes de reconnaissance de formes. Citons la détection de visages ou encore la détection de corps humain dans une image. La résolution partielle de ces problèmes permet de faire des progrès dans les applications suivantes : le filtrage de l'internet, afin, par exemple, de signaler les images pornographiques, l'indexation par le contenu de catalogues d'images, ou encore la visioconférence, en permettant le suivi des visages dans des séquences d'images. Nous disposons d'une large collection d'images qui ont été étiquetées manuellement. Ainsi, chaque pixel de chaque image de cette collection admet un label binaire : "peau" ou "non-peau". Nous considérons successivement trois modèles probabilistes de complexité croissante pour la détection de la peau. Chaque modèle est un modèle de maximum d'entropie sur la moyenne. Tout d'abord, les contraintes ne portent que sur les lois marginales des couleurs pour chaque pixels. Puis, nous ajoutons des contraintes sur les lois jointes des labels binaires - "peau" ou "non-peau" - des pixels voisins. Le modèle obtenu est alors un champs de Markov
Dans un troisième temps, nous ajoutons des contraintes sur les couleurs des pixels voisins. Le modèle obtenu est à nouveau un champs de Markov mais contenant un très grand nombre de paramètres. Afin, aussi bien d'estimer les paramètres de ces modèles que d'effectuer de l'inférence, c'est à dire, étant donné une image couleur, calculer la probabilité pour chaque pixel qu'il corresponde à de la peau, nous proposons d'approximer, localement, le graphe associé aux pixels par un arbre. On dispose alors de l'algorithme "iterative scaling" pour l'estimation des paramètres et de l'algorithme "belief propagation" pour l'inférence. Nous avons effectué de nombreuses études expérimentales afin d'évaluer les performances respectives des différents modèles, en particulier en modifiant la taille et la géométrie des arbres. Dans le cas du projet européen Poesia, nous avons utilisé notre détecteur de peau en entrée d'un système de classification utlisant la méthode des réseaux neuronaux pour bloquer les pages webs indésirable pour les enfants. Nous avons obtenu des résultats extrèmement encourageants
APA, Harvard, Vancouver, ISO, and other styles
21

Malot, Hélène. "Etude des processus d'atomisation des jets liquides. Développement expérimental et analyse par le formalisme d'entropie maximum." Rouen, 2001. http://www.theses.fr/2001ROUES006.

Full text
Abstract:
Ce mémoire présente une étude des processus d'atomisation des jets liquides à basse vitesse dans une atmosphère au repos, pour une large gamme de pressions ambiantes. Dans un travail ultérieur, trois différents régimes d'atomisation ont été définis en fonction de l'influence de la densité de gaz sur la vitesse critique de jet, plus petite vitesse pour laquelle la longueur de rupture est maximum. Le travail s'intéresse aux caractéristiques des distributions de taille de gouttes des jets en fonction du régime d'atomisation dans un domaine centré autour des conditions critiques de fonctionnement. Une technique basée sur l'analyse d'image est mise au point pour mesurer la taille des gouttes produites. Ce diagnostic permet d'accéder à des informations complémentaires sur les gouttes, telles que leur forme ou leur position, mais aussi à une mesure très précise des sprays. Les résultats révèlent que les conditions critiques des jets appartenant au premier régime d'atomisation correspondent au développement d'instabilités sub-critiques. Pour de tels jets, la décroissance de la longueur de rupture après le point critique résulte d'une augmentation de l'amplitude de perturbation. Toutefois, la formation des gouttes produites par ces jets est uniquement contrôlée par l'action des forces de tension de surface, avant et après la vitesse critique. En revanche, pour les jets appartenant au troisième régime d'atomisation, l'expérience confirme que la théorie linéaire est adaptée pour décrire le comportement de ces jets après le point critique : des instabilités super-critiques, causée par l'action des forces aérodynamiques, sont à l'origine du point critique. L'autre aspect important du travail consiste à utiliser le formalisme d'entropie
APA, Harvard, Vancouver, ISO, and other styles
22

Lécureux, Marie-Hélène. "Au delà du principe du maximum pour des systèmes d'opérateurs elliptiques." Phd thesis, Université des Sciences Sociales - Toulouse I, 2008. http://tel.archives-ouvertes.fr/tel-00594884.

Full text
Abstract:
L'objet de cette thèse est l'étude de solutions de certains systèmes d'opérateurs elliptiques, soit sur des domaines bornés, soit sur R^N tout entier. \Dans la première partie, les solutions respectent la condition de Dirichlet raffinée. Cette condition au bord, définie par Strook et Varadhan, est adaptée aux domaines bornés sans condition de régularité. L'utilisation de plusieurs versions adaptées du théorème de Krein-Rutman permet ici de déterminer le signe des solutions des systèmes. Dans la seconde partie, les opérateurs sont des opérateurs de Schrödinger. On établit les comparaisons à l'état fondamental pour des solutions de systèmes 2 x 2 dans le cas de systèmes à coefficients constants, et dans le cas de certains systèmes à coefficients variables.
APA, Harvard, Vancouver, ISO, and other styles
23

Le, Besnerais Guy. "Méthode du maximum d'entropie sur la moyenne, critères de reconstruction d'image et synthèse d'ouverture en radio-astronomie." Paris 11, 1993. http://www.theses.fr/1993PA112412.

Full text
Abstract:
Nous étudions le problème de la reconstruction d'une image à partir d'une mesure incomplète et dégradée de sa transformée de Fourier bidimensionnelle. On suppose en outre que l'image cherchée appartient à un ensemble convexe de fonctions définie par un gabarit. Enfin, le problème se présente parfois comme la remise à jour d'une image grossière déjà disponible, à laquelle la reconstruction finale doit «ressembler» dans la limite de ce qu'autorisent les données. L'approche adoptée est d'optimiser, sous les contraintes définies par les données de Fourier, un critère choisi pour imposer toutes les propriétés précédentes à la solution. Pour définir ce critère, nous utilisons le procédé du maximum d'entropie sur la moyenne (PMEM), introduit à l'origine par J. Navaza. Nous effectuons le lien entre le PMEM et les méthodes «à maximum d'entropie» très utilisées, car adaptées à la contrainte de positivité. Nous présentons ensuite une méthodologie de construction de critères fondée sur le PMEM et qui constitue une généralisation des méthodes précédentes, car il est alors possible de tenir compte de contraintes autres que la positivité. Un exemple synthétique monodimensionnel est présenté pour illustrer les propriétés générales des reconstructions obtenues. La méthode est appliquée au problème d'imagerie propre à la synthèse d'ouverture en radio-astronomie. Dans ce type d'application, il est important de tenir compte des erreurs systématiques qui n'ont pu être calibrées, en particulier celles affectant la phase des mesures. Nous introduisons à cet effet un jeu de paramètres de correction de ces aberrations, puis nous optimisons le critère choisi par rapport à ces nouvelles variables. Les résultats obtenus sont illustrés sur des exemples de simulation bidimensionnels
We adress here the problem of image reconstruction from a limited number of its Fourier coefficients, degraded by noise and/or systematic errors. The sought image is assumed to belong to a convex set of functions defined by some known template. Sometimes the problem may also consist in updating a default image, so that the reconstructed image be close to the default one in terms of some discrepancy measure. Reconstruction may be achieved by optimization of a criterion which naturally imposes the expected properties on the solution. The design of such a criterion is carried out using the maximum entropy on the mean procedure (MEMP), as originally proposed by J. Navaza. We first emphasize the relationship between MEMP and the maximum entropy image reconstruction methods, which are usualy used in connection with the positivity constraint. Then we present a constructive procedure to design image reconstruction criteria, based on the MEMP, which generalizes the maximum entropy methods, since it works with constraints other than positivity. A study of the properties of the reconstructions which may be obtained is given using a synthetic monodimensionnal problem. The method is then applied to the imaging problem which occurs in aperture synthesis techniques in radio-astronomy. Ln this problem, the influence of systematic errors, which remains after the calibration procedures and especially those affecting the phase of the measured data must be accounted for. The correction of systematic errors is handled through the introduction of a set of parameters, and the criterion is optimized with respect to this new set of variables. Simulation results are provided on bidimensionnal problems
APA, Harvard, Vancouver, ISO, and other styles
24

Ranwez, Vincent. "Méthodes efficaces pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00843175.

Full text
Abstract:
La reconstruction de phylogénies moléculaires consiste à retrouver l'arbre évolutif (ou phylogénie) d'un ensemble de séquences homologues. La méthode de reconstruction la plus fiable actuellement, semble être la méthode du maximum de vraisemblance. Les méthodes classiques pour rechercher la phylogénie de vraisemblance maximale deviennent, rapidement, très coûteuses en temps de calcul lorsque le nombre de séquences augmente. Elles ne peuvent donc pas traiter de grandes phylogénies. Actuellement, les deux types de méthodes qui permettent de reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance sont : les méthodes de distances et les méthodes de quadruplets. Toutes deux divisent le problème initial en sous-problèmes contenant peu de séquences. Elles peuvent alors résoudre rapidement (suivant le principe du maximum de vraisemblance) chacun de ces sous-problèmes, puis combiner les solutions obtenues pour proposer une phylogénie de l'ensemble des séquences. Après avoir présenté les principales méthodes de reconstruction phylogenetique, nous décrivons une nouvelle méthode de quadruplets (Weight Optimization) qui possède de bonnes propriétés théoriques et reconstruit des arbres plus fiables que Quartet Puzzling (une méthode de quadruplets très populaire). Nous expliquons ensuite en quoi les méthodes de quadruplets sont mal adaptées pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance, et comment ces méthodes peuvent résoudre efficacement d'autres problèmes. Puis, nous proposons une approche qui combine de manière originale les méthodes de distances et du maximum de vraisemblance. Cette approche que nous appelons TripleML permet d'améliorer la fiabilité de différentes méthodes de distances en remplaçant les distances qu'elles utilisent par des distances qui sont estimées en optimisant localement la vraisemblance de triplets de séquences (ou de groupes de séquences).
APA, Harvard, Vancouver, ISO, and other styles
25

Amblard, Cécile. "Reconstruction de foyers d'hyperfixation en tomographie d'émission de positons par la méthode du maximum d'entropie sur la moyenne : application à l'oncologie." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0109.

Full text
Abstract:
Ce travail concerne les techniques de reconstruction d'images tridimensionnelles pour la detection de petits foyers cancereux et de metastases, a partir de donnees acquises en tomographie d'emission de positions (tep). En tep, la presence d'un foyer tumoral se traduit par une hyperfixation du traceur injecte. Nous cherchons a maximiser la probabilite de detection et de localisation correcte de petits foyers plutot qu'a restaurer sans biais l'intensite du signal. Ceci nous conduit a modeliser la concentration volumique du radiotraceur a l'aide de lois de melanges, qui traduisent le fait que chaque point de l'objet a une activite soit normale, soit surelev ee. Nous proposons de resoudre ce probleme avec une methode de maximum d'entropie sur la moyenne. Cette approche permet d'introduire de l'information a priori sous forme de lois de melange et conduit a une solution unique, au moyen d'un algorithme d'optimisation dont la forme ne depend pas de la loi a priori. De plus, elle permet de lier modelisations probabiliste et deterministe ; elle donne sens a des criteres de regularisation deterministes classiquement utilises et permet d'en definir de nouveaux. Une strategie d'evaluation a ete elaboree pour caracteriser quantitativement les performances des images reconstruites en terme de detectabilite d'hyperfixations. Cette strategie repose sur l'analyse roc (receiver operating characteristics) d'un vecteur d'indices calcules en differentes zones de l'image, et rendant compte de leur caractere hyperfixant. Les resultats obtenus avec l'approche proposee sont compares a ceux fournis par des methodes de reference en milieu hospitalier : maximum de vraisemblance par l'algorithme des sous ensembles ordonnes (osem) et filtrage retroprojection (fbp). Sur donnees simulees, nous obtenons des resultats significativement meilleurs, au sens de notre strategie d'evaluation, qu'avec fbp et osem. Sur fantome physique et donnees cliniques, les resultats semblent raisonnables.
APA, Harvard, Vancouver, ISO, and other styles
26

Berrabah, Abdelhak. "Observateurs et Principe du Maximum "Approché" des Systèmes Bilinéaires en Dimension Infinie sous contrôles à paramètres distribués." Chambéry, 2004. http://www.theses.fr/2004CHAMS002.

Full text
Abstract:
Cette thèse comporte deux parties : Partie 1 : Etant donné un système bilinéaire en dimension infinie, et commandé par un contrôle à paramètres distribués dans un espace de Hilbert de dimension infinie, on construit un observateur simple pour ce procédé sous une condition de dissipation et lorsque l'opératuer bilinéaire est de Hilbert-Schmidt. Nous établissons pour ce système, des résultats de convergence (convergence faible) de l'erreur d'observation pour la classe des entrées régulièrement persistantes. Nous validons ce travail en donnant quelques exemples d'application pour de "bons contrôles" (contrôles qui observent bien). Partie 2 : Etant donné un système contrôlé en dimension infinie et une fonction coût, le Principe du Maximum (PMP) donne des conditions nécessaires pour qu'une trajectoire soit optimale. Il est bien connu que ces conditions ne sont plus valables, en toute généralité en dimension infinie. Dans cette partie nous démontrons un Principe de Maximum "approché" en dimension infinie pour des systèmes bilinéaires, d'autres part, si le contrôle est en dimension finie, ou lorsque les opérateurs définissant la dynamique des contrôles sont compacts, le PMP redevient "exact"
There are two parts in this thesis : 1st part : Given a bilinear infinite-dimensional system, under control in infinite dimension, we build a simple observer for this process under a Hilbert-Schmidt's and dissipation condition. In this part, we prove a approximate principle of maximum in infinite dimension for bilinear systems. Furthermore if the control is finite dimensional, or if the operators which give the control dynamic are compacts, we prove that we have again an exact PMP
APA, Harvard, Vancouver, ISO, and other styles
27

Boyaval, Stéphane. "Etude de la granulométrie des sprays produits par des injecteurs à swirl destinés à l'injection directe essence : mesures et application du formalisme d'entropie maximum." Rouen, 2000. http://www.theses.fr/2000ROUES062.

Full text
Abstract:
Ce mémoire présente les travaux conduits sur une série d'injecteurs à « Swirl » haute pression d'injection destinés à l'injection directe essence (IDE). Cette étude a été menée en fonctionnement stationnaire et instationnaire. Un aspect important du travail a été la mise au point d'une technique originale pour corriger l'effet de la diffraction multiple sur les distributions de taille mesurées avec un granuloèetre « Malvern » Cette procédure a permis d'étudier les caractéristiques granulométriques dans une zone proche du nez de l'injecteur. Des facteurs de correction appliqués soit aux caractéristiques de la distribution volumique, soit aux intensités diffractées sont définis. Un autre point consiste à utiliser le formalisme d'entropie maximum (MEF) pour la détermination des distributions de taille. On obtient un bon accord entre les distributions de taille expérimentales, corrigées à partir des facteurs de correction, et les distributions calculées. De ces travaux, il ressort que le diamètre moyen d 4 3 moyenne arithmétique de la distribution volumique et le facteur de largeur relatif V sont des caractéristiques importantes de la distribution volumique. Un dernier aspect permet de déterminer des caractéristiques locales de taille à partir du développement d'une méthode originale de déconvolution des mesures « Malvern ». Les premiers résultats indiquent des comportements cohérents sur l'évolution radiale des caractéristiques locales de la distribution volumique. On constate que la phase d'ouverture de l'injecteur est un point critique du fonctionnement des injecteurs IDE. L'étude conduite permet d'identifier de façon assez complète l'influence de la pression d'injection et de la géométrie de l'injecteur sur les caractéristiques de fonctionnement de ces systèmes d'injection, en particulier de faire le point sur l'importance du pré-spray. Ce travail a mis en évidence des comportements importants que l'optimisation du procédé IDE devrait prendre en considération.
APA, Harvard, Vancouver, ISO, and other styles
28

Bourdin, Loïc. "Contributions au calcul des variations et au principe du maximum de Pontryagin en calculs time scale et fractionnaire." Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3009/document.

Full text
Abstract:
Cette thèse est une contribution au calcul des variations et à la théorie du contrôle optimal dans les cadres discret, plus généralement time scale, et fractionnaire. Ces deux domaines ont récemment connu un développement considérable dû pour l’un à son application en informatique et pour l’autre à son essor dans des problèmes physiques de diffusion anormale. Que ce soit dans le cadre time scale ou dans le cadre fractionnaire, nos objectifs sont de : a) développer un calcul des variations et étendre quelques résultats classiques (voir plus bas); b) établir un principe du maximum de Pontryagin (PMP en abrégé) pour des problèmes de contrôle optimal. Dans ce but, nous généralisons plusieurs méthodes variationnelles usuelles, allant du simple calcul des variations au principe variationnel d’Ekeland (couplé avec la technique des variations-aiguilles), en passant par l’étude d’invariances variationnelles par des groupes de transformations. Les démonstrations des PMPs nous amènent également à employer des théorèmes de point fixe et à prendre en considération la technique des multiplicateurs de Lagrange ou encore une méthode basée sur un théorème d’inversion locale conique. Ce manuscrit est donc composé de deux parties : la Partie 1 traite de problèmes variationnels posés sur time scale et la Partie 2 est consacrée à leurs pendants fractionnaires. Dans chacune de ces deux parties, nous suivons l’organisation suivante : 1. détermination de l’équation d’Euler-Lagrange caractérisant les points critiques d’une fonctionnelle Lagrangienne ; 2. énoncé d’un théorème de type Noether assurant l’existence d’une constante de mouvement pour les équations d’Euler-Lagrange admettant une symétrie ; 3. énoncé d’un théorème de type Tonelli assurant l’existence d’un minimiseur pour une fonctionnelle Lagrangienne et donc, par la même occasion, d’une solution pour l’équation d’Euler-Lagrange associée (uniquement en Partie 2) ; 4. énoncé d’un PMP (version forte en Partie 1, version faible en Partie 2) donnant une condition nécessaire pour les trajectoires qui sont solutions de problèmes de contrôle optimal généraux non-linéaires ; 5. détermination d’une condition de type Helmholtz caractérisant les équations provenant d’un calcul des variations (uniquement en Partie 1 et uniquement dans les cas purement continu et purement discret). Des théorèmes de type Cauchy-Lipschitz nécessaires à l’étude de problèmes de contrôle optimal sont démontrés en Annexe
This dissertation deals with the mathematical fields called calculus of variations and optimal control theory. More precisely, we develop some aspects of these two domains in discrete, more generally time scale, and fractional frameworks. Indeed, these two settings have recently experience a significant development due to its applications in computing for the first one and to its emergence in physical contexts of anomalous diffusion for the second one. In both frameworks, our goals are: a) to develop a calculus of variations and extend some classical results (see below); b) to state a Pontryagin maximum principle (denoted in short PMP) for optimal control problems. Towards these purposes, we generalize several classical variational methods, including the Ekeland’s variational principle (combined with needle-like variations) as well as variational invariances via the action of groups of transformations. Furthermore, the investigations for PMPs lead us to use fixed point theorems and to consider the Lagrange multiplier technique and a method based on a conic implicit function theorem. This manuscript is made up of two parts : Part A deals with variational problems on time scale and Part B is devoted to their fractional analogues. In each of these parts, we follow (with minor differences) the following organization: 1. obtaining of an Euler-Lagrange equation characterizing the critical points of a Lagrangian functional; 2. statement of a Noether-type theorem ensuring the existence of a constant of motion for Euler-Lagrange equations admitting a symmetry;3. statement of a Tonelli-type theorem ensuring the existence of a minimizer for a Lagrangian functional and, consequently, of a solution for the corresponding Euler-Lagrange equation (only in Part B); 4. statement of a PMP (strong version in Part A and weak version in Part B) giving a necessary condition for the solutions of general nonlinear optimal control problems; 5. obtaining of a Helmholtz condition characterizing the equations deriving from a calculus of variations (only in Part A and only in the purely continuous and purely discrete cases). Some Picard-Lindelöf type theorems necessary for the analysis of optimal control problems are obtained in Appendices
APA, Harvard, Vancouver, ISO, and other styles
29

Bennani, Youssef. "Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données
This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
APA, Harvard, Vancouver, ISO, and other styles
30

Herpe, Julien. "Caractérisation des performances des surfaces d'échange basée sur l'évaluation numérique du taux de production d'entropie : Application aux échangeurs de chaleur d'automobiles." Valenciennes, 2007. https://ged.uphf.fr/nuxeo/site/esupversions/3074eb79-699c-460a-8414-06d91163304f.

Full text
Abstract:
Ce mémoire de thèse présente une méthode de caractérisation des performances des ailettes d’échangeurs de chaleur automobiles basée sur le second principe de la thermodynamique. Dans le cadre de la mise en place d’une plateforme d’optimisation des surfaces d’échanges, l’approche proposée s’appuie sur des outils de modélisation numérique. L’étude est en particulier consacrée à la détermination du nombre de production d’entropie N s1 = ƒ (S gen) et à son évolution en fonction de paramètres clés du dimensionnement des ailettes d’échangeurs. Les termes du taux de production d’entropie S gen sont modélisés par une approche RANS. Une attention particulière est portée à la modélisation en proche paroi. Des lois de paroi spécifiques aux termes de production d’entropie sont introduites et discutées. A partir des champs locaux du taux de production d’entropie, le critère N s1 est déterminé. La méthode est tout d’abord appliquée à une configuration d’ailette munie de promoteurs de tourbillons longitudinaux. L’angle d’incidence des promoteurs et la conductivité de l’ailette sont modifiés afin d’étudier l’influence du transfert conjugué sur le taux production d’entropie. Dans un second temps des ailettes à persiennes sont étudiées. Les influences sur N s1 du point de fonctionnement, de la résistance de contact thermique tube-ailette, et de paramètres géométriques sont examinées. Cette étude révèle l’existence d’un optimum thermodynamique qui est fonction de ces différents paramètres. Le critère qui lie les irréversibilités visqueuses et thermiques met en lumière la compétition entre ces deux phénomènes antagonistes et permet de définir une limite caractérisant la prépondérance de l’un par rapport à l’autre
This thesis presents a methodology for the characterization of automotive finned tube heat exchanger performances, which is based on the second law of thermodynamics. In order to integrate this methodology as a part of an optimization platform of finned surfaces, the proposed approach is based on the numerical tools. The study is focused on the estimation of the entropy production number N s1 = ƒ (S gen) and on the evolution of this criterion with respects to the key parameters of the fin surface design. A RANS approach is used to calculate each term of the entropy production rate S gen. We focus our attention on the entropy production rate near the wall and specific near wall treatments for the entropy production terms are introduced and discussed. With all local information obtained, the entropy production criterion is calculated. The methodology is first applied to a finned tube with longitudinal vortices generators. The angle of attack of the vortices generators and the fin material are modified in order to study the influence of the conjugated heat transfer on the entropy production rate. As a second step, louvered fins are examined. The influences on N s1 of the operating point, of the thermal contact resistance between the tube and the fin, and of geometrical parameters are examined. This study reveals the existence of a thermodynamic optimum which depends on these parameters. The entropy production number that links the viscous and thermal dissipation terms shows a competition between two antagonist phenomena and permits to determine the boundary that characterize the predominance of the one with respect to the other
APA, Harvard, Vancouver, ISO, and other styles
31

Gallón, Gómez Santiago Alejandro. "Template estimation for samples of curves and functional calibration estimation via the method of maximum entropy on the mean." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2000/.

Full text
Abstract:
L'une des principales difficultés de l'analyse des données fonctionnelles consiste à extraire un motif commun qui synthétise l'information contenue par toutes les fonctions de l'échantillon. Le Chapitre 2 examine le problème d'identification d'une fonction qui représente le motif commun en supposant que les données appartiennent à une variété ou en sont suffisamment proches, d'une variété non linéaire de basse dimension intrinsèque munie d'une structure géométrique inconnue et incluse dans un espace de grande dimension. Sous cette hypothèse, un approximation de la distance géodésique est proposé basé sur une version modifiée de l'algorithme Isomap. Cette approximation est utilisée pour calculer la fonction médiane empirique de Fréchet correspondante. Cela fournit un estimateur intrinsèque robuste de la forme commune. Le Chapitre 3 étudie les propriétés asymptotiques de la méthode de normalisation quantile développée par Bolstad, et al. (2003) qui est devenue l'une des méthodes les plus populaires pour aligner des courbes de densité en analyse de données de microarrays en bioinformatique. Les propriétés sont démontrées considérant la méthode comme un cas particulier de la procédure de la moyenne structurelle pour l'alignement des courbes proposée par Dupuy, Loubes and Maza (2011). Toutefois, la méthode échoue dans certains cas. Ainsi, nous proposons une nouvelle méthode, pour faire face à ce problème. Cette méthode utilise l'algorithme développée dans le Chapitre 2. Dans le Chapitre 4, nous étendons le problème d'estimation de calage pour la moyenne d'une population finie de la variable de sondage dans un cadre de données fonctionnelles. Nous considérons le problème de l'estimation des poids de sondage fonctionnel à travers le principe du maximum d'entropie sur la moyenne -MEM-. En particulier, l'estimation par calage est considérée comme un problème inverse linéaire de dimension infinie suivant la structure de l'approche du MEM. Nous donnons un résultat précis d'estimation des poids de calage fonctionnels pour deux types de mesures aléatoires a priori: la measure Gaussienne centrée et la measure de Poisson généralisée
One of the main difficulties in functional data analysis is the extraction of a meaningful common pattern that summarizes the information conveyed by all functions in the sample. The problem of finding a meaningful template function that represents this pattern is considered in Chapter 2 assuming that the functional data lie on an intrinsically low-dimensional smooth manifold with an unknown underlying geometric structure embedding in a high-dimensional space. Under this setting, an approximation of the geodesic distance is developed based on a robust version of the Isomap algorithm. This approximation is used to compute the corresponding empirical Fréchet median function, which provides a robust intrinsic estimator of the template. The Chapter 3 investigates the asymptotic properties of the quantile normalization method by Bolstad, et al. (2003) which is one of the most popular methods to align density curves in microarray data analysis. The properties are proved by considering the method as a particular case of the structural mean curve alignment procedure by Dupuy, Loubes and Maza (2011). However, the method fails in some case of mixtures, and a new methodology to cope with this issue is proposed via the algorithm developed in Chapter 2. Finally, the problem of calibration estimation for the finite population mean of a survey variable under a functional data framework is studied in Chapter 4. The functional calibration sampling weights of the estimator are obtained by matching the calibration estimation problem with the maximum entropy on the mean -MEM- principle. In particular, the calibration estimation is viewed as an infinite-dimensional linear inverse problem following the structure of the MEM approach. A precise theoretical setting is given and the estimation of functional calibration weights assuming, as prior measures, the centered Gaussian and compound Poisson random measures is carried out
APA, Harvard, Vancouver, ISO, and other styles
32

Seghier, Abdellatif. "Matrices de Toeplitz dans le cas d-dimensionnel : développement asymptotique à l'ordre d.Extension de fonctions de type positif dans le cas d-dimensionnel et maximum d'entropie : application à la reconstruction de densités." Paris 11, 1988. http://www.theses.fr/1988PA112038.

Full text
Abstract:
Les deux premiers articles traitent de la prédiction d'un processus stationnaire du 2°ordre. La prédiction s'effectue relativement à une information provenant d'une partie du passé. L'aspect le plus important de ce travail est l'introduction d'opérateurs (de Tœplitz et de Hankel) qui permettent d'appliquer des techniques de géométrie hilbertienne. II. Les trois articles qui suivent reprennent un problème de Szëgo lié à la prédiction linéaire de processus dépendant d'un paramètre discret. Nous considérons le problème dans le cas d-dimensionnel. Nous donnons un développement asymptotique de la trace de l'inverse de matrice de Tœplitz correspondante jusqu'à l'ordre d. Les cœfficients du développement dépendent alors du symbole (densité spectrale) et de mesures positives à support, selon l'ordre, le domaine de troncature de l'opérateur de Tœplitz (volume, les faces d'ordre d-1 (arêtes) et les sommets. III. Les deux derniers articles sont consacrés à la reconstruction de densités de probabilité et de densités spectrales à l'aide d'extension de fonction de type positif et du principe du maximum d'entropie. Ce problème provient de la cristallographie dont l'un des objectifs est la reconstruction de la densité électronique de molécules. Nous montrons dans le cas d'informations partielles (nombre fini de coefficients de Fourier) et de phases connues que cas multidimensionnel la reconstruction est possible dans le (implantable dans les ordinateurs)
In the two first chapters we are concerned with the prediction of the second order stationnary process. Here the information depends on a part of past. The main aspect of these papers is the use of hilbertian technics based on Tœplitz and Hankel operators. In the following three papers, we deal with an old Szegö's problem on the expansion of the determinant of Tœplitz matrix. We give in the multidimensionnal case a more precise expansion of the trace of the inverse with order d). Moreover the knew cœfficients which appear are strongly related with geometrical invariants of the domain on which the the Tœplitz operators are truncated. In the last two papers knew results about reconstruction of the spectral densities in the multidimentional case are given. The methods are based on extensions of positive defined function and maximum entropy principle. This work is motivated by the problem of the determination of the phases of the electron density function in crystal analysis. Nevertheless, there is still a great amount of work to be done in order to solve this problem
APA, Harvard, Vancouver, ISO, and other styles
33

Fournier, Frantz. "Méthodologie d'optimisation dynamique et de commande optimale des réacteurs électrochimiques discontinus." Vandoeuvre-les-Nancy, INPL, 1998. http://docnum.univ-lorraine.fr/public/INPL_T_1998_FOURNIER_F.pdf.

Full text
Abstract:
Les procédés électrochimiques occupent une part non-négligeable dans l'industrie chimique. Des études préliminaires montrent cependant que le mode de fonctionnement traditionnel de ces procédés (à potentiel ou à courant constant) n'est pas toujours le meilleur. Elles encouragent à envisager l'amélioration du fonctionnement des procédés électrochimiques par l'utilisation des méthodes d'optimisation dynamique. L’étude présentée dans cette thèse propose une méthodologie de l'optimisation dynamique et de la commande optimale dans le cas des procédés électrochimiques discontinus. On cherche ainsi à formuler et résoudre les problèmes d'optimisation du fonctionnement dynamique des réacteurs électrochimiques, à analyser les différentes sensibilités des paramètres du modèle et à appliquer les profils optimaux de commande en boucle fermée dans des conditions expérimentales aussi réalistes que possibles. La méthodologie est appliquée à différents problèmes électrochimiques tels que la minimisation de la consommation d'énergie électrique, la maximisation du rendement, de la sélectivité ou encore la minimisation du temps opératoire. Toutes les méthodes d'optimisation utilisées sont fondées sur le principe du maximum. Un inventaire non exhaustif des techniques de résolution de problèmes d'optimisation dynamique et leurs principales caractéristiques sont ainsi présentées. En intégrant au problème, des contraintes physiques, ces méthodes fournissent des conditions optimales de fonctionnement réalistes. Les performances de l'optimisation dynamique sont comparées à celles résultant des meilleures conditions de fonctionnement statiques. Les améliorations entre le mode de fonctionnement optimisé et le meilleur mode usuel peuvent s'élever à plusieurs dizaine de pourcent. Différentes formes de l'analyse de la sensibilité des paramètres du modèle soulignent la validité des résultats optimaux dans des conditions opératoires qui diffèrent de celles idéalement représentée dans le modèle des réacteurs considérés. Pour la mise en œuvre de la commande optimale, des techniques de reconstruction de l'état et une loi de commande en boucle fermée ont été mis au point.
APA, Harvard, Vancouver, ISO, and other styles
34

Cao, Zhansheng. "Comportement d'un échantillon sous conditionnement extrême, maximum de vraisemblance sous échantillonnage pondéré." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00802459.

Full text
Abstract:
Dans le Chapitre 1, nous explorons le comportement joint des variables d'une marche aléatoire (X1, . . . ,Xn) lorsque leur valeur moyenne tend vers l'infini quand n tend vers l'infini. Il est prouvé que toutes ces variables doivent partager la même valeur, ce qui généralise les résultats précédents, dans le cadre de grands dépassements de sommes finies de i.i.d variables aléatoires. Dans le Chapitre 2, nous montrons un théorème de Gibbs conditionnel pour une marche aléatoire (X1, ..,Xn) conditionnée à une déviation extrême. Il est prouvé que lorsque les opérandes ont des queues légères avec une certaine régularité supplémentaire, la distribution asymptotique conditionnelle de X1 peut être approximée par la distribution tiltée en norme de la variation totale, généralisant ainsi le cas classique du LDP. Le troisième Chapitre explore le principe du maximum de vraisemblance dans les modèles paramétriques, dans le contexte du théorème de grandes déviations de Sanov. Le MLE est associé à la minimisation d'un critère spécifique de type divergence, qui se généralise au cas du bootstrap pondéré, où la divergnce est fonction de la distribution des poids. Certaines propriétés de la procédure résultante d'inférence sont présenteés ; l'efficacité de Bahadur de tests est également examinée dans ce contexte.
APA, Harvard, Vancouver, ISO, and other styles
35

Lagache, Marc-Aurèle. "Analyse de problèmes inverses et directs en théorie du contrôle." Thesis, Toulon, 2017. http://www.theses.fr/2017TOUL0008/document.

Full text
Abstract:
Le contexte général de cette thèse est l’étude de problèmes inverses et directs en théorie du contrôle. Plus précisément, les trois problèmes étudiés sont les suivants.Le premier est un problème de contrôle optimal (approche directe). Il s’agit de fournir la synthèse temps minimum du modèle cinématique d'un drone volant à altitude constante, de vitesse linéaire non nécessairement constante voulant rejoindre une trajectoire circulaire de rayon de courbure minimum.Le deuxième problème concerne une approche inverse du contrôle optimal. Il s’agit d’élaborer des méthodes théoriques de reconstruction du critère optimisé dans un problème de contrôle optimal à partir d’un ensemble de solutions à ce problème, ainsi que caractériser les "bons" ensembles de trajectoires permettant la reconstruction du critère. Le contrôle optimal inverse connait un regain d’intérêt depuis une quinzaine d’années, en particulier dans l’étude des comportements moteurs humains. En effet, selon un paradigme largement accepté en neurophysiologie, parmi tous les mouvements possibles ceux effectivement réalisés sont solutions d’un processus d’optimisation.Le troisième problème traite de stabilisation par retour de sortie. Nous analysons, à travers un exemple académique tiré du contrôle quantique, le problème de stabilisation par retour de sortie (à l’aide d’un observateur) lorsque le point où l'on souhaite stabiliser le système correspond à un contrôle qui rend le système inobservable. L’idée générale est de perturber le retour d’état stabilisant afin de garantir l’observabilité du système tout en stabilisant le système sur la cible. L’analyse de cet exemple académique nous permet dans un second temps de dégager une méthode générale pouvant s’appliquer à une classe de système beaucoup plus large
The overall context of this thesis is the study of inverse and direct problems in control theory. More specifically, the following three problems are studied.The first one is an optimal control problem (direct approach). The aim is to give a time minimum systhesis fora kinematic model of a UAV flying at constant altitude with positive (non-necessarily constant) linear velocityin order to steer it to a fixed circle of minimum turning radius.The second problem deals with an inverse approach of optimal control. The aim is to develop theoretical methods in order to reconstruct the minimized criterion in an optimal control problem from a set of solution to this problem. The aim is also to characterize the « good » sets of trajectories leading to the reconstruction of the criterion. In the last fifteen years, there has been a renewed interest in inverse optimal control, especially inhuman motor behavior. Indeed, according to a well accepted paradigm in neurophysiology, among all possible movements, those actually accomplished are solutions of an optimization process.The third problem tackles output feedback stabilization. We analyze, via a simple academic example from quantum control, the problem of dynamic output feedback stabilization, when the point where we want to stabilize corresponds to a control value that makes the system unobservable. The general idea is to perturb the stabilizing state feedback in order to ensure the observability of the system while stabilizing it to the target.The analysis of this example allows, secondly, to identify a general procedure that can be applied to a widerclass of systems
APA, Harvard, Vancouver, ISO, and other styles
36

Rachah, Amira. "Modélisation mathématique, simulation et contrôle de processus de cristallisation." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2528/.

Full text
Abstract:
Ce travail est dédié à la modélisation mathématique des processus de cristallisation afin de les simuler, les optimiser et les commander. Dans un premier temps, nous présentons les principes de la modélisation, les notions fondamentales de la cristallisation et l'exploitation numérique des modèles de cristallisation. Dans un second temps, nous traitons le modèle mathématique de cristallisation du KCl avec dissolution des fines et classification du produit en mode continu. Ce modèle est décrit par une équation aux dérivées partielles hyperbolique couplée avec une équation intégro-différentielle. Sur un plan théorique, nous prouvons l'existence et l'unicité de solution du modèle, en utilisant les courbes caractéristiques et le principe du point fixe de Banach. Par ailleurs, nous présentons une simulation numérique du modèle. Dans un troisième temps, nous développons le modèle mathématique de la cristallisation du a-lactose monohydraté en mode semi-continu. Ensuite, nous passons à l'étude d'existence et d'unicité globale de solution du modèle établi. Enfin, nous présentons une étude de contrôle optimal dans le cas de la cristallisation du a-lactose monohydraté en utilisant les solveurs ACADO et PSOPT en calculant les profils optimaux de remplissage et de refroidissement. L'objectif est de conférer au produit synthétisé les spécifications voulues afin que le produit soit conforme aux cahiers de charge de l'industrie
In this thesis we are concerned with the mathematical modeling of crystallization processes in order to understand, simulate, optimize and control them. We first present the principles of modeling, the fundamentals of crystallization and the numerical exploitation of models of crystallization. We then discuss exemplary a mathematical model of crystallization of KCl in continuous operational mode with dissolution of fines and product classiffication. This model is described by a hyperbolic partial differential equation coupled with an integro-differential equation. To justify the theoretical model, we prove existence and uniqueness of solutions using the method of characteristics and the Banach fixed-point theorem. We then present numerical simulations of the studied processes. In a third part of the thesis we develop and present a mathematical model of solvated crystallization of a-lactose monohydrate in semi-batch operational mode. We justify the model by proving global existence and uniqueness of solutions. Finally, we study the optimal control of crystallization of a-lactose monohydrate in semi-batch mode using the solvers ACADO and PSOPT. Optimal cooling and filling strategies are computed in order to enhance the properties of the solid
APA, Harvard, Vancouver, ISO, and other styles
37

Comets, Francis. "A propos des systèmes de particules en interaction sur un réseau." Paris 11, 1987. http://www.theses.fr/1987PA112312.

Full text
Abstract:
Nous considérons des systèmes de particules disposées sur un réseau, avec différentes formes d'interaction. Pour l'interaction à courte portée sur zd, nous obtenons les propriétés de grandes déviations pour le champ empirique d'une mesure de Gibbs nous considérons également le cas d'une interaction aléatoire. Puis nous étudions la dynamique de Glauber d'un système sur le tore avec interaction de champ moyen local, dans l'asymptotique d'un nombre infini de particules. L'étude des fluctuations autour de la loi des grands nombres montre la nécessité d'une renormalisation en espace et en temps à la température critique. La théorie des grandes déviations permet d'analyser les changements d'attracteurs à basse température, nous mettons en évidence la nucléation. Enfin, nous étudions les points stationnaires du modèle de champ moyen local à l'aide de la théorie des bifurcations
We are interested in particles systems located on a lattice, with different type of interaction For short range interaction on zd, we study the large deviation properties for the empirical field of a Gibbs measure we also cover the case of random interaction and derive some applications Next we study Glauber dynamics of a local mean field model on the torus in the asymptotics of a large number of particles The fluctuation process has to be rescaled in space and time at the critical temperature We analyse the dynamics of a change of attractor using large deviations techniques at low temperature we recover a description for nucleation We then need to study the stationary points in such a local mean field model this is tackled in the frame of bifurcation theory
APA, Harvard, Vancouver, ISO, and other styles
38

Benmlih, Khalid. "Étude qualitative de certains problèmes semi-linéaires elliptiques." Nancy 1, 1994. http://www.theses.fr/1994NAN10075.

Full text
Abstract:
Notre étude concerne d'une part les propriétés de symétrie et la localisation du point de maximum pour des solutions d'équations aux dérivées partielles semi-linéaires et d'autre part le comportement de solution d'une équation elliptique semi-linéaire lorsque le coefficient d'ellipticité tend vers 0. On suppose que le domaine de définition des solutions est borné, régulier, symétrique par rapport à un hyperplan et convexe dans la direction normale à cet hyperplan et que la non-linéarité f est localement lipschitzienne. Si la solution est un état fondamental, nous montrons qu'elle est symétrique même si elle n'a pas un signe constant. Par ailleurs, d'autres travaux affirment que si la solution est positive elle est strictement monotone, symétrique et atteint son maximum sur l'hyperplan de symétrie. Nous montrons ensuite par la construction d'un contre-exemple adéquat que pour une fonction particulière f, la condition de convexité dans la direction normale à l'hyperplan de symétrie est nécessaire pour établir les propriétés de monotonie et de localisation de point de maximum. Nous examinons ensuite le cas d'un domaine peut régulier, à savoir lorsque le domaine est un triangle isocèle, dans le but de localiser le point du maximum dans un compact, le plus petit possible intérieur au domaine. Dans une dernière partie, nous donnons le comportement de la solution fondamentale positive d'un problème semi linéaire elliptique lorsque le coefficient d'ellipticité tend vers 0. Pour établir notre résultat, nous utilisons certaines propriétés qualitatives de la solution ainsi que le principe de concentration-compacité
APA, Harvard, Vancouver, ISO, and other styles
39

Gardella, Christophe. "Structure et sensibilité des réponses de populations de neurones dans la rétine." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066603/document.

Full text
Abstract:
Les cellules ganglionnaires transfèrent l'information visuelle de l’œil au cerveau, sous une forme encore débattue. Leurs réponses aux stimuli visuels sont non-linéaires, corrélées entre neurones, et une partie de l'information est présente au niveau de la population seulement. J'étudie d'abord la structure des réponses de population. Les cellules du cortex sont influencées par l'activité globale des neurones avoisinants, mais ces interactions manquaient encore de modèle. Je décris un modèle de population qui reproduit le couplage entre neurones et activité globale. Je montre que les neurones de la rétine de salamandre dépendent de l'activité globale de manière surprenante. Je décris ensuite une méthode pour caractériser la sensibilité de populations de neurones de la rétine de rat à des perturbations d'un stimulus. J'utilise des expériences en boucle fermée pour explorer sélectivement l'espace des perturbations autour d'un stimulus donné. Je montre que les réponses à de petites perturbations peuvent être décrites par une linéarisation de leur probabilité. Leur sensibilité présente des signes de codage efficace. Enfin, je montre comment estimer la sensibilité des réponses d'une population de neurones à partir de leur structure. Je montre que les machines de Boltzmann restreintes (RBMs) sont des modèles précis des corrélations neurales. Pour mesurer le pouvoir de discrimination des neurones, je cherche une métrique neurale telle que les réponses à des stimuli différents soient éloignées, et celles à un même stimulus soient proches. Je montre que les RBMs fournissent des métriques qui surpassent les métriques classiques pour discriminer de petites perturbations du stimulus
Ganglion cells form the output of the retina: they transfer visual information from the eye to the brain. How they represent information is still debated. Their responses to visual stimuli are highly nonlinear, exhibit strong correlations between neurons, and some information is only present at the population level. I first study the structure of population responses. Recent studies have shown that cortical cells are influenced by the summed activity of neighboring neurons. However, a model for these interactions was still lacking. I describe a model of population activity that reproduces the coupling between each cell and the population activity. Neurons in the salamander retina are found to depend in unexpected ways on the population activity. I then describe a method to characterize the sensitivity of rat retinal neurons to perturbations of a stimulus. Closed-loop experiments are used to explore selectively the space of perturbations around a given stimulus. I show that responses to small perturbations can be described by a local linearization of their probability, and that their sensitivity exhibits signatures of efficient coding. Finally, I show how the sensitivity of neural populations can be estimated from response structure. I show that Restricted Boltzmann Machines (RBMs) are accurate models of neural correlations. To measure the discrimination power of neural populations, I search for a neural metric such that responses to different stimuli are far apart and responses to the same stimulus are close. I show that RBMs provide such neural metrics, and outperform classical metrics at discriminating small stimulus perturbations
APA, Harvard, Vancouver, ISO, and other styles
40

Canaud, Matthieu. "Estimation de paramètres et planification d'expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteurs." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00677758.

Full text
Abstract:
Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l'entropie maximale.
APA, Harvard, Vancouver, ISO, and other styles
41

Bosch, Pérez Paul Jesús. "Sensibilité et dualité en optimisation et contrôle optimal avec incertitude." Dijon, 2003. http://www.theses.fr/2003DIJOS004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Nadin, Grégoire. "Equations de réaction-diffusion et propagation en milieu hétérogène." Paris 6, 2008. http://www.theses.fr/2008PA066491.

Full text
Abstract:
Cette thèse est consacrée à l'étude d'une équation de réaction-diffusion de type monostable en milieu hétérogène. Dans une première partie nous étudions les valeurs propres principales généralisées associées à une linéarisation de cette équation en milieu périodique en temps et en espace. Puis, nous donnons des propriétés d'existence et d'unicité des solutions entières de l'équation. Dans une seconde partie, nous prouvons l'existence de fronts pulsatoires en milieu périodique en temps et en espace. Une caractérisation de la vitesse de ces fronts est utilisée pour étudier la dépendance entre les coefficients de l'équation et cette vitesse. La troisième partie est consacrée à l'étude de phénomènes de propagation dans des milieux plus généraux. Nous prouvons l'existence de fronts pulsatoires dans des milieux presque périodiques. Pour des milieux hétérogènes généraux, nous montrons qu'il existe une vitesse positive d'expansion. L’existence de fronts de propagation est prouvée pour deux équations non-locales dans la quatrième partie : d'abord l'équation de Fisher-Keller-Segel, puis l’équation de Fisher avec un terme de saturation non-local.
APA, Harvard, Vancouver, ISO, and other styles
43

Fontaine, Clément. "Supervision optimale des véhicules électriques hybrides en présence de contraintes sur l’état." Thesis, Valenciennes, 2013. http://www.theses.fr/2013VALE0024.

Full text
Abstract:
La propulsion des véhicules électriques hybrides parallèles est généralement assurée par un moteur à combustion interne combiné à une machine électrique réversible. Les flux de puissance entre ces deux organes de traction sont déterminés par un algorithme de supervision, qui vise à réduire la consommation de carburant et éventuellement les émissions de certains polluants. Dans la littérature, la théorie de la commande optimale est maintenant reconnue comme étant un cadre puissant pour l’élaboration de lois de commande pour la gestion énergétique des véhicules full-hybrides. Ces stratégies, dénommée « Stratégies de Minimisation de la Consommation Equivalente » (ECMS) sont basée sur le principe du Maximum de Pontryagin. Pour démontrer l’optimalité de l’ECMS, on doit supposer que les limites du système de stockage ne sont pas atteintes durant le cycle de conduite. Il n’est plus possible de faire cette hypothèse lorsque l’on considère les véhicules micro et mild hybrides étudiés dans cette thèse car la variable d’état atteint généralement plusieurs fois les bornes. Des outils mathématiques adaptés à l’étude des problèmes de commande avec contraintes sur l’état sont présentés et appliqués à deux problèmes en lien avec la gestion énergétique. Le premier problème consiste à déterminer le profil optimal de la tension aux bornes d’un pack d’ultra-capacités. Le second problème se concentre sur un système électrique intégrant deux stockeurs. L’accent est mis sur l’étude des conditions d’optimalités valables lorsque les contraintes sur l’état sont actives. Les conséquences de ces conditions pour la commande en ligne sont mises en avant et exploitées afin de concevoir une commande en temps réel. Les performances sont évaluées à l’aide d’un prototype. Une comparaison avec une approche de type ECMS plus classique est également présentée
Parallel hybrid electric vehicles are generally propelled by an internal combustion engine, which is combined to a reversible electric machine. The power flows between these two traction devices are determined by a supervisory control algorithm, which aims at reducing the fuel consumption and possibly some polluting emissions. In the literature, optimal control theory is now recognized as a powerful framework for the synthesis of energy management strategies for full hybrid vehicles. These strategies are referred to as “Equivalent Consumption Minimization Strategies” (ECMS) and are based on the Pontryagin Maximum Principle. To demonstrate the optimality of ECMS, it must be assumed that the storage system limits are not reached during the drive cycle. This hypothesis cannot be made anymore when considering the micro and mild hybrid vehicles studied in this thesis because the state variable generally reaches several times the boundaries. Some mathematical tools suitable for the study of state constrained optimal control problems are introduced and applied to two energy management problems. The first problem consists in determining the optimal profile of the voltage across a pack of ultra-capacitors. The second problem focuses on a dual storage system. The stress is put on the study of the optimality conditions holding in case of active state constraints. Some consequences of these conditions for the online control are pointed out are exploited for the design of a real-time controller. Its performances are assessed using a demonstrator vehicle. A comparison with a classical ECMS-based approach is also provided
APA, Harvard, Vancouver, ISO, and other styles
44

Tixier, Eliott. "Variability modeling and numerical biomarkers design in cardiac electrophysiology." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066325/document.

Full text
Abstract:
Cette thèse de doctorat est consacrée à l'étude de la variabilité observée dans les mesures d'électrophysiologie (i.e. l'activité électrique des tissus biologiques) cardiaque et à la conception de biomarqueurs numériques extraits de ces mesures. Les applications potentielles sont nombreuses, pouvant aller d'une meilleure compréhension des modèles électrophysiologiques existants à l'évaluations des effets nocifs de médicaments en passant par le diagnostic de pathologies cardiaques. Les modèles d'électrophysiologie cardiaque présentés dans ce travail sont, soit des équations différentielles ordinaires (EDOs), soit des équations aux dérivées partielles (EDPs), selon qu'ils concernent l'échelle cellulaire ou l'échelle du tissu. Dans les deux cas, ces modèles sont hautement non linéaires et nécessitent d'intenses ressources computationnelles. Nous adoptons l'approche suivante : de prime abord, nous développons des outils numériques afin de répondre à des problèmes généraux, au-delà de l'électrophysiologie. Puis, nous appliquons ces outils à des mesures synthétiques d'électrophysiologie dans différents scénarios réalistes et, lorsque cela est possible, à des mesures expérimentales. Dans la première partie de cette thèse, nous présentons une méthode générale pour estimer la densité de probabilité de paramètres incertains de modèles basés sur des EDOs ou des EDPs. La méthode est non intrusive et repose sur des évaluations "hors-ligne" du modèle direct, ce qui la rend en pratique computationellement moins dispendieuse que d'autres approches plus sophistiquées. La méthode est illustrée avec des mesures synthétiques et expérimentales d'électrophysiologie. Dans la seconde partie de cette thèse, nous présentons une méthode de sélectionde biomarqueurs à partir des sorties de modèles en vue d'effectuer des tâches de classification ou de résoudre des problèmes d'estimation de paramètres. La méthode repose sur la résolution d'un problème d'optimisation creux. La méthode est illustrée avec des modèles simples et ensuite appliquée à des mesures synthétiques, incluant des enregistrements d'électrocardiogramme, et à des données expérimentales obtenues à partir de mesures de matrices de microélectrodes
This PhD thesis is dedicated to the study of the variability observed in cardiac electrophysiology (i.e. the electrical activity of biological tissues) measurements and to the design of numerical biomarkers extracted from these measurements. The potential applications are numerous, ranging from a better understanding of existing electrophysiology models to the assessment of adverse effects of drugs or the diagnosis of cardiac pathologies. The cardiac electrophysiology models considered in the present work are either ODEs or PDEs depending on whether we focus on the cell scale or the tissue scale. In both cases, these models are highly non-linear and computationally intensive. We proceed as follows: first we develop numerical tools that address general issues and that are applicable beyond the scope of cardiac electrophysiology. Then, we apply those tools to synthetic electrophysiology measurements in various realistic scenarios and, when available, to real experimental data. In the first part of this thesis, we present a general method for estimating the probability density function (PDF) of uncertain parameters of models based on ordinary differential equations (ODEs) or partial differential equations (PDEs). The method is non-instrusive and relies on offline evaluations of the forward model, making it computationally cheap in practice compared to more sophisticated approaches. The method is illustrated with generic PDE and ODE models. It is then applied to synthetic and experimental electrophysiology measurements. In the second part of this thesis, we present a method to extract and select biomarkers from models outputs in view of performing classication tasks or solving parameter identification problems. The method relies on the resolution of a sparse optimization problem. The method is illustrated with simple models and then applied to synthetic measurements, including electrocardiogram recordings, and to experimental data obtained from micro-electrode array measurements
APA, Harvard, Vancouver, ISO, and other styles
45

Cerf, Max. "Optimisation de trajectoires spatiales. Vol d'un dernier étage de lanceur - Nettoyage des débris spatiaux." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00736748.

Full text
Abstract:
Ce travail porte sur deux problèmes d'optimisation de trajectoires spatiales: le vol d'un dernier étage de lanceur, et le nettoyage des débris spatiaux. L'objectif est de développer pour ces deux problèmes des méthodes de résolution et des logiciels utilisables dans un contexte industriel. Les travaux comportent une partie théorique de formulation et une partie appliquée de résolution numérique. Les domaines abordés sont la mécanique spatiale, l'optimisation discrète, l'optimisation continue en dimension finie et le contrôle optimal.
APA, Harvard, Vancouver, ISO, and other styles
46

Martinon, Pierre. "Resolution numerique de problemes de controle optimal par une methode homotopique simpliciale." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00011416.

Full text
Abstract:
On s'interesse ici a la resolution numerique de problemes de controle optimal peu reguliers. On utilise a la base les methodes dites indirectes, a la fois precises et rapides, mais en pratique tres sensibles a l'initialisation. Cette difficulte nous amene a utiliser une demarche homotopique, dans laquelle on part d'un probleme apparente plus facile a resoudre. Le "suivi de chemin" de l'homotopie connectant les deux problemes est ici realise par un algorithme de type simplicial. On s'interesse en premier lieu a un probleme de transfert orbital avec maximisation de la masse utile, puis a deux problemes d'arcs singuliers. Les perspectives futures liees a ces travaux comprennent en particulier l'etude de problemes a contraintes d'etat, egalement delicats a resoudre par les methodes indirectes. Par ailleurs, on souhaite comparer cette approche avec les methodes directes, qui impliquent la discretisation totale ou partielle du probleme.
APA, Harvard, Vancouver, ISO, and other styles
47

Coville, Jérôme. "Equations de réaction-diffusion non-locale." Paris 6, 2003. https://tel.archives-ouvertes.fr/tel-00004313.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Djeridane, Badis. "Sur la commandabilité des systèmes non linéaires à temps discret." Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00009518.

Full text
Abstract:
Le travail réalisé dans cette thèse s'inscrit dans le cadre de l'étude de la commande optimale des systèmes non linéaires à temps discret par des méthodes de type programmation dynamique. Une formulation particulière de l'équation fonctionnelle considérée ici nous a amené à examiner le problème de commandabilité que nous avons encore qualifié de problème d'inversion entrée-états. L'étude comporte deux phases. La première phase consiste à analyser la propriété de commandabilité des systèmes. Plusieurs approches sont considérées: composition de fonction, géométrie différentielle et algèbre différentielle. On propose ensuite une condition nécessaire de commandabilité basée sur l'utilisation du principe du minimum. Finalement, une application directe de cette condition nécessaire de commandabilité est développée pour les systèmes bilinéaires. Une fois la propriété de commandabilité du système vérifiée, la seconde phase consiste à résoudre le problème d'inversion. On propose tout d'abord une technique algébrique conduisant à la détermination d'une séquence de commandes à partir de la matrice de commandabilité. On propose ensuite une approche basée sur une formulation du problème d'inversion en terme d'un problème de commande optimale. On considère également les techniques de linéarisations exactes qu'on aborde selon deux voies. On présente dans la première voie une approche de l'algèbre différentielle. Dans la deuxième voie, on propose une approche de géométrique différentielle dans laquelle on définit une séquence de distributions basée sur l'utilisation de champs vecteurs associés au système, ainsi qu'une sortie virtuelle linéaire. La transformation et le bouclage linéarisant sont calculés à partir de ces distributions. Finalement, ces résultats sur l'accessibilité et la linéarisation exacte sont présentés sur des applications pratiques dans le cadre de la commande optimale par programmation dynamique.
APA, Harvard, Vancouver, ISO, and other styles
49

Koohkan, Mohammad Reza. "Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1140/document.

Full text
Abstract:
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne
Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment
APA, Harvard, Vancouver, ISO, and other styles
50

Chakir, El-Alaoui El-Houcine. "Les métriques sous riemanniennes en dimension 3." Rouen, 1996. http://www.theses.fr/1996ROUES055.

Full text
Abstract:
Cette thèse est consacrée essentiellement à l'étude des métriques sous-riemanniennes dites de contact en dimension 3. Bien que cette étude soit faite localement, on observe des différences fondamentales avec les métriques riemanniennes. En particulier, les lieux conjugue et cut d'un point p contiennent p dans leur adhérence. Ce travail se divise en deux parties : 1. On montre, dans un premier temps, qu'on peut associer à toute métrique sous-riemannienne de contact formelle une forme normale formelle. Ensuite, dans un deuxième temps, on montre que cette forme normale est actuellement lisse (i. E. C, c) si la métrique l'est. Aussi, cette forme normale permet de définir des invariants associés aux métriques sous-riemanniennes de contact. 2. A l'aide de cette forme normale on prouve que l'application exponentielle d'une métrique sous-riemannienne de contact générique est déterminée par un certain jet fini de la métrique. Et on en déduit une classification générique de ces singularités (i. E. Lieux conjugués).
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography