To see the other types of publications on this topic, follow the link: Méthode du point intérieur.

Dissertations / Theses on the topic 'Méthode du point intérieur'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode du point intérieur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kallel, Emna. "Une synthèse sur les méthodes du point intérieur." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ35688.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Djellali, Assia. "Optimisation technico-économique d'un réseau d'énergie électrique dans un environnement dérégulé." Paris 11, 2003. http://www.theses.fr/2003PA112211.

Full text
Abstract:
Avec l'ouverture du marché de l'électricité de nouveaux problèmes apparaissent dans la conduite du réseau. Dans ce contexte l'optimisation des réseaux électriques se heurte aux problèmes rencontrés dans le contexte monopolistique tel que: la nature des contraintes, la taille du problème à résoudre, la non linéarité des équations du réseau, auxquels il faut maintenant ajouter les contraintes du marché. Nous sommes amenés à faire appel aux modèles mathématiques permettant l'optimisation avec un critère non linéaire et sous contraintes non linéaires. Deux méthodes ont été étudiées pour connaître les difficultés que pose le problème de l'optimisation avec la programmation non linéaire d'une part et la conduite du réseau dans un environnement dérégulé d'autre part. La méthode Newton-Lagrange appliquée à un réseau simplifié à 5 nœuds traite le problème d'un marché monopolistique dont les objectifs d'une optimisation technico-économique du système consistent à déterminer la puissance que doit fournir chaque centrale électrique pour assurer la sûreté du système et le faire fonctionner au moindre coût. Cette méthode nous servira de base dans la seconde partie pour traiter le problème de l'exploitation des réseaux dans un environnement dérégulé. La vitesse de convergence de la méthode utilisée est liée aux contraintes inégalités; les résultats sont satisfaisants. Le second outil d'optimisation est basé sur la méthode primale duale du point intérieur, il est appliqué à un réseau test à 12 nœuds. Il traite les problèmes rencontrés dans un environnement concurrentiel, tels que la gestion des écarts entre les prévisions de production et la réalité des opérations d'injection sur le réseau, la gestion des congestions, la gestion des pertes, les effets de l'accès ouvert à de nouveaux producteurs et l'évaluation de leurs impacts sur le réseau. Les résultats obtenus avec cette méthode et la facilité du traitement des contraintes inégalités en font un modèle fiable et robuste
The electric utility industry is undergoing a process of liberalization and deregulation. In this context new difficulties are occurring in the field of transmission network management and optimization. In addition to the classical difficulties encountered in a monopolistic context such as the nature of the network constraints, the considerable size of the problem to be solved and the nonlinearity of the network equations, the optimization procedure has to take into account the new constraints, which are related to the deregulation of the electrical energy market. The nature of this problem requires mathematical models, which allow us the optimization of a nonlinear criterion being subject to nonlinear constraints. In this thesis we investigate two different methods in order to determine on the one hand the difficulties related to the resolution of a nonlinear optimization problem and on the other hand the difficulties related to the network operation in a deregulated environment. The first method is the so-called Newton-Lagrange method, which is applied to a simplified 5-buses network in a monopolistic context in order to achieve a technico-economical optimization. The optimization goal is the determination of the optimal power generation of each power producer to ensure the security of the system operation and to minimize the system operation costs. Even though convergence time can be considerable due to the inequality constraints, the method provides satisfactory results and will be used as a basis in the second part. A second optimization tool is developed, which is based on the primal-dual interior point method. It is applied to a 12-buses test network in order to investigate and to resolve the difficulties related to a competitive environment such as congestion and energy lasses management, the control of generation deviations and the impact of the occurrence of new independent power producers in an established network. An important advantage of this method is the capacity to treat the inequality constraints in an easy way. The reliable and robust optimization tool provides very satisfactory results
APA, Harvard, Vancouver, ISO, and other styles
3

Hadjou, Tayeb. "Analyse numérique des méthodes de points intérieurs : simulations et applications." Rouen, 1996. http://www.theses.fr/1996ROUES062.

Full text
Abstract:
La thèse porte sur une étude à la fois théorique et pratique des méthodes de points intérieurs pour la programmation linéaire et la programmation quadratique convexe. Dans une première partie, elle donne une introduction aux méthodes de points intérieurs pour la programmation linéaire, décrit les outils de base, classifie et présente d'une façon unifiée les différentes méthodes. Elle présente dans la suite un exposé des algorithmes de trajectoire centrale pour la programmation linéaire et la programmation quadratique convexe. Dans une seconde partie sont étudiées des procédures de purification en programmation linéaire. Il s'agit des procédures qui déterminent, via une méthode de points intérieurs, un sommet (ou face) optimal. Dans cette partie, nous avons introduit et développé une nouvelle procédure de purification qui permet de mener dans tous les cas à un sommet optimal et de réduire le temps de calcul. La dernière partie est consacrée aux illustrations et aux expériences numériques.
APA, Harvard, Vancouver, ISO, and other styles
4

Keraghel, Abdelkrim. "Étude adaptative et comparative des principales variantes dans l'algorithme de Karmarkar." Phd thesis, Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00332749.

Full text
Abstract:
Après une description de la méthode de Karmarkar, il est montré que la valeur du pas de déplacement peut être largement améliorée. Les principales difficultés pratiques de la méthode sont discutées. Plus particulièrement, l'hypothèse de connaitre, au départ, la valeur optimale de l'objectif. Diverses extensions et variantes sont étudiées dans le but de relaxer l'hypothèse ci-dessus
APA, Harvard, Vancouver, ISO, and other styles
5

Zerari, Amina. "Méthodes de points intérieurs et leurs applications sur des problèmes d'optimisation semi-définis." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMLH24.

Full text
Abstract:
Les méthodes de points intérieurs sont bien connues comme les plus efficaces pour résoudre les problèmes d’optimisation. Ces méthodes possèdent une convergence polynômiale et un bon comportement numérique. Dans cette recherche, nous nous sommes intéressés à une étude théorique, algorithmique et numérique des méthodes de points intérieurs pour la programmation semi-définie.En effet, on présente dans une première partie un algorithme réalisable projectif primal-dual de points intérieurs de type polynômial à deux phases, où on a introduit trois nouvelles alternatives efficaces pour calculer le pas de déplacement.Ensuite, dans la deuxième partie, on s’intéresse aux méthodes de type trajectoire centrale primale-duale via une fonction noyau, nous proposons deux nouvelles fonctions noyaux à terme logarithmique qui donnent la meilleure complexité algorithmique, obtenue jusqu’à présent
Interior point methods are well known as the most efficient to solve optimization problems. These methods have a polynomial convergence and good behavior. In this research, we are interested in a theoretical, numerical and an algorithmic study of interior-point methods for semidefinite programming.Indeed, we present in a first part, a primal-dual projective interior point algorithm of polynomial type with two phases, where we introduced three new effective alternatives for computing the displacement step.Then, in the second part, we are interested in a primal-dual central trajectory method via a kernel function, we proposed two new kernel functions with a logarithmic term that give the best-known complexity results
APA, Harvard, Vancouver, ISO, and other styles
6

Bornschlegell, Augusto Salomao. "Optimisation aérothermique d'un alternateur à pôles saillants pour la production d'énergie électrique décentralisée." Thesis, Valenciennes, 2012. http://www.theses.fr/2012VALE0023/document.

Full text
Abstract:
La présente étude concerne l’étude d’optimisation thermique d’une machine électrique. Un modèle nodal est utilisé pour la simulation du champ de température. Ce modèle résout l’équation de la chaleur en trois dimensions, en coordonnées cylindriques et en régime transitoire ou permanent. On prend en compte les deux mécanismes de transport les plus importants : La conduction et la convection. L’évaluation de ce modèle est effectuée par l’intermédiaire de 13 valeurs de débits de référence. C’est en faisant varier ces variables qu’on évalue la performance du refroidissement dans la machine. Avant de partir sur l’étude d’optimisation de cettegéométrie, on a lancé une étude d’optimisation d’un cas plus simple afin de mieux comprendre les différents outils d’optimisation disponibles. L’expérience acquise avec les cas simples est utilisée dans l’optimisation thermique de la machine. La machine est thermiquement évaluée sur la combinaison de deux critères : la température maximale et la température moyenne. Des contraintes ont été additionnées afin d’obtenir des résultats physiquement acceptables. Le problème est résolu à l’aide des méthodes de gradient (Active-set et Point-Intérieur) et des Algorithmes Génétiques
This work relates the thermal optimization of an electrical machine. The lumped method is used to simulate the temperature field. This model solves the heat equation in three dimensions, in cylindrical coordinates and in transient or steady state. We consider two transport mechanisms: conduction and convection. The evaluation of this model is performed by means of 13 design variables that correspond to the main flow rates of the equipment. We analyse the machine cooling performance by varying these 13 flow rates. Before starting the study of such a complicated geometry, we picked a simpler case in order to better understand the variety of the available optimization tools. The experience obtained in the simpler case is applyed in the resolution of the thermal optimization problem of the electrical machine. This machine is evaluated from the thermal point of view by combining two criteria : the maximum and the mean temperature. Constraints are used to keep the problem consistent. We solved the problem using the gradient based methods (Active-set and Interior-Point) and the Genetic Algorithms
APA, Harvard, Vancouver, ISO, and other styles
7

Bronschlegell, Augusto. "Optimisation aérothermique d'un alternateur à pôles saillants pour la production d'énergie électrique décentralisée." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2012. http://tel.archives-ouvertes.fr/tel-00768249.

Full text
Abstract:
La présente étude concerne l'étude d'optimisation thermique d'une machine électrique. Un modèle nodal est utilisé pour la simulation du champ de température. Ce modèle résout l'équation de la chaleur en trois dimensions, en coordonnées cylindriques et en régime transitoire ou permanent. On prend en compte les deux mécanismes de transport les plus importants : La conduction et la convection. L'évaluation de ce modèle est effectuée par l'intermédiaire de 13 valeurs de débits de référence. C'est en faisant varier ces variables qu'on évalue la performance du refroidissement dans la machine. Avant de partir sur l'étude d'optimisation de cettegéométrie, on a lancé une étude d'optimisation d'un cas plus simple afin de mieux comprendre les différents outils d'optimisation disponibles. L'expérience acquise avec les cas simples est utilisée dans l'optimisation thermique de la machine. La machine est thermiquement évaluée sur la combinaison de deux critères : la température maximale et la température moyenne. Des contraintes ont été additionnées afin d'obtenir des résultats physiquement acceptables. Le problème est résolu à l'aide des méthodes de gradient (Active-set et Point-Intérieur) et des Algorithmes Génétiques.
APA, Harvard, Vancouver, ISO, and other styles
8

SEGALAT, Philippe. "Méthodes de Points Intérieurs et de quasi-Newton." Phd thesis, Université de Limoges, 2002. http://tel.archives-ouvertes.fr/tel-00005478.

Full text
Abstract:
Cette thèse s'intéresse à des méthodes de points intérieurs et de quasi-Newton en optimisation non linéaire et à leurs mises en oeuvre. On présente le code NOPTIQ utilisant les formules de BFGS à mémoire limitée pour résoudre des problèmes de grande taille. L'originalité de cette approche est l'emploi de ces formules dans le cadre des méthodes de points intérieurs. L'espace mémoire et le coût en opérations du calcul d'une itération sont alors faibles. Le code NOPTIQ est robuste et a des performances comparables avec les codes de références l-BFGS-B et LANCELOT. On présente aussi un algorithme non réalisable utilisant les méthodes précédentes pour résoudre un problème non linéaire avec contraintes d'inégalité et contraintes d'égalité linéaire. L'idée est de pénaliser le problème à l'aide de variables de décalage et d'une variante de la méthode big-M. La convergence q-superlinéaire des itérés internes et la convergence globale des itérés externes sont démontrées.
APA, Harvard, Vancouver, ISO, and other styles
9

Orban, Dominique. "Méthodes de points intérieurs pour l'optimisation non-linéaire." Toulouse, INPT, 2001. http://www.theses.fr/2001INPT012H.

Full text
Abstract:
Ce travail se scinde principalement en deux grandes composantes ; l'une de type théorique et l'autre de type numérique. Dans la partie théorique, on se place dans le cadre de l'optimisation non linéaire avec contraintes. La globalisation d'un algorithme de points intérieurs par des régions de confiance est examinée et l'on détaille ses propriétés de convergence, étayées par des expérimentations numériques sur des problèmes de programmation quadratique. Sous des hypothèses du premier et second ordre, les propriétés de convergence locale, asymptotique, d'une classe d'algorithmes de points intérieurs, parmi laquelle l'algorithme précédent, sont étudiées et l'on montre que l'on peut obtenir une convergence sous-quadratique qui a lieu en composantes. Les résultats sont généralisés à un taux de convergence arbitrairement élevé, au prix de la résolution d'un nombre suffisamment élevé de systèmes de Newton pour chaque valeur du paramètre barrière. Ces résultats asymptotiques supposent que la condition de qualification des contraintes d'indépendance des gradients actifs est satisfaite. Il s'avère que la condition de qualification des contraintes peut être relachée en la condition de Mangasarian et Fromowitz, tout en conservant les propriétés de convergence importantes. Les techniques utilisées et les résultats de convergence asymptotique en les composantes sont enfin généralisés à la résolution de systèmes d'équations non linéaires de rang plein. Dans la composante numérique, on examine ensuite l'environnement CUTE et l'on décrit les nouvelles fonctionnalités et les apports de CUTEr.
APA, Harvard, Vancouver, ISO, and other styles
10

Segalat, Philippe. "Méthodes de points intérieurs et de quasi-Newton." Limoges, 2002. http://www.theses.fr/2002LIMO0041.

Full text
Abstract:
Cette thèse s' intéresse à des méthodes de ponts intérieurs et de quasi-Newton en optimisation non linéaire et à leurs mises en oeuvre. On présente le code NOPTIQ utilisant les formules de BFGS à mémoire limitée pour résoudre des problèmes de grande taille. L' originalité de cette approche est l' emploi de ces formules dans le cadre des méthodes de points intérieurs. L' espace mémoire et le coût en opérations du calcul d' une itération sont alors faibles. Le code NOPTIQ est robuste et a des performances comparables avec les codes de références 1-BFGS-B et LANCELOT. On présente aussi un algorithme non réalisable utilisant les méthodes précédentes pour résoudre un problème non linéaire avec contraintes d' inégalité et contraintes d' égalité linéaire. L' idée est de pénaliser le problème à l' aide de variables de décalage et d' une variante de la méthode big-M. La convergence q-superlinéaire des itérés internes et la convergence globale des itérés externes sont démontrées
This thesis is interested in interior point and quasi-Newton methods in nonlinear optimization and with their implementation. One presents the code NOPTIQ using the limited memory BFGS formulas to solve large scale problems. The originality of this approach is the use of these formulas within the framework of interior point methods. The storage requirement and the computing cost of one iteration are then low. One shows that NOPTIQ is robust and that its performance are comparable with the reference codes 1-BFGS-B and LANCELOT. One presents also an infeasible algorithm using the preceding methods to solve a nonlinear problem with inequality constraints and linear equality constraints. The idea to penalize the problem using shift variables and a variant of the big-M method of linear programming. The q-superlinear convergence of the inner iterates and the global convergence of outer iterates are shown
APA, Harvard, Vancouver, ISO, and other styles
11

Tran, Ngoc Nguyen. "Infeasibility detection and regularization strategies in nonlinear optimization." Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0059/document.

Full text
Abstract:
Dans cette thèse, nous nous étudions des algorithmes d’optimisation non linéaire. D’une part nous proposons des techniques de détection rapide de la non-réalisabilité d’un problème à résoudre. D’autre part, nous analysons le comportement local des algorithmes pour la résolution de problèmes singuliers. Dans la première partie, nous présentons une modification d’un algorithme de lagrangien augmenté pour l’optimisation avec contraintes d’égalité. La convergence quadratique du nouvel algorithme dans le cas non-réalisable est démontrée théoriquement et numériquement. La seconde partie est dédiée à l’extension du résultat précédent aux problèmes d’optimisation non linéaire généraux avec contraintes d’égalité et d’inégalité. Nous proposons une modification d’un algorithme de pénalisation mixte basé sur un lagrangien augmenté et une barrière logarithmique. Les résultats théoriques de l’analyse de convergence et quelques tests numériques montrent l’avantage du nouvel algorithme dans la détection de la non-réalisabilité. La troisième partie est consacrée à étudier le comportement local d’un algorithme primal-dual de points intérieurs pour l’optimisation sous contraintes de borne. L’analyse locale est effectuée sans l’hypothèse classique des conditions suffisantes d’optimalité de second ordre. Celle-ci est remplacée par une hypothèse plus faible basée sur la notion de borne d’erreur locale. Nous proposons une technique de régularisation de la jacobienne du système d’optimalité à résoudre. Nous démontrons ensuite des propriétés de bornitude de l’inverse de ces matrices régularisées, ce qui nous permet de montrer la convergence superlinéaire de l’algorithme. La dernière partie est consacrée à l’analyse de convergence locale de l’algorithme primal-dual qui est utilisé dans les deux premières parties de la thèse. En pratique, il a été observé que cet algorithme converge rapidement même dans le cas où les contraintes ne vérifient l’hypothèse de qualification de Mangasarian-Fromovitz. Nous démontrons la convergence superlinéaire et quadratique de cet algorithme, sans hypothèse de qualification des contraintes
This thesis is devoted to the study of numerical algorithms for nonlinear optimization. On the one hand, we propose new strategies for the rapid infeasibility detection. On the other hand, we analyze the local behavior of primal-dual algorithms for the solution of singular problems. In the first part, we present a modification of an augmented Lagrangian algorithm for equality constrained optimization. The quadratic convergence of the new algorithm in the infeasible case is theoretically and numerically demonstrated. The second part is dedicated to extending the previous result to the solution of general nonlinear optimization problems with equality and inequality constraints. We propose a modification of a mixed logarithmic barrier-augmented Lagrangian algorithm. The theoretical convergence results and the numerical experiments show the advantage of the new algorithm for the infeasibility detection. In the third part, we study the local behavior of a primal-dual interior point algorithm for bound constrained optimization. The local analysis is done without the standard assumption of the second-order sufficient optimality conditions. These conditions are replaced by a weaker assumption based on a local error bound condition. We propose a regularization technique of the Jacobian matrix of the optimality system. We then demonstrate some boundedness properties of the inverse of these regularized matrices, which allow us to prove the superlinear convergence of our algorithm. The last part is devoted to the local convergence analysis of the primal-dual algorithm used in the first two parts of this thesis. In practice, it has been observed that this algorithm converges rapidly even in the case where the constraints do not satisfy the Mangasarian-Fromovitz constraint qualification. We demonstrate the superlinear and quadratic convergence of this algorithm without any assumption of constraint qualification
APA, Harvard, Vancouver, ISO, and other styles
12

Vu, Duc Thach Son. "Numerical resolution of algebraic systems with complementarity conditions : Application to the thermodynamics of compositional multiphase mixtures." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG006.

Full text
Abstract:
Dans les simulateurs de réservoir, la prise en compte des lois d’équilibre thermodynamique pour les mélanges polyphasiques d'hydrocarbures est une partie délicate. La difficulté réside dans la gestion de l'apparition et de la disparition des phases pour différents constituants. L'approche dynamique traditionnelle, dite de variable switching, consiste à ne garder que les inconnues des phases présentes et les équations relatives à celles-ci. Elle est lourde et coûteuse, dans la mesure où le « switching » se produit constamment, même d'une itération de Newton à l'autre.Une approche alternative, appelée formulation unifiée, permet de maintenir au cours des calculs un jeu fixe d'inconnues et d'équations. Sur le plan théorique, c'est un progrès important. Sur le plan pratique, comme la nouvelle formulation fait intervenir des équations de complémentarité qui sont non-lisses, on est obligé après discrétisation d'avoir recours à la méthode semi-lisse Newton-min, au comportement souvent pathologique.Pour aller au bout de l’intérêt de la démarche unifiée, cette thèse a pour objectif de lever cet obstacle numérique en élaborant des algorithmes de résolution mieux adaptés, avec une meilleure convergence. Notre méthodologie consiste à s’inspirer des méthodes qui ont fait leur preuve en optimisation sous contraintes et à les transposer aux systèmes généraux. Cela conduit aux méthodes de points intérieurs, dont nous proposons une version non-paramétrique appelée NPIPM, avec des résultats supérieurs à Newton-min.Une autre contribution de ce travail doctoral est la compréhension et la résolution (partielle) d’une autre obstruction au bon fonctionnement de la formulation unifiée, jusque-là non identifiée dans la littérature. Il s’agit de la limitation du domaine de définition des fonctions de Gibbs associées aux lois d’état cubiques. Pour remédier à l’éventuelle non-existence de solution du système, nous préconisons un prolongement naturel des fonctions de Gibbs
In reservoir simulators, it is usually delicate to take into account the laws of thermodynamic equilibrium for multiphase hydrocarbon mixtures. The difficulty lies in handling the appearance and disappearance of phases for different species. The traditional dynamic approach, known as variable switching, consists in considering only the unknowns and equations of the present phases. It is cumbersome and costly, insofar as "switching" occurs constantly, even from one Newton iteration to another.An alternative approach, called unified formulation, allows a fixed set of unknowns and equations to be maintained during the calculations. From a theoretical point of view, this is an major advance. On the practical level, because of the nonsmoothness of the complementarity equations involved in the new formulation, the discretized equations have to be solved by the semi-smooth Newton-min method, whose behavior is often pathological.In order to fully exploit the interest of the unified approach, this thesis aims at circumventing this numerical obstacle by means of more robust resolution algorithms, with a better convergence. To this end, we draw inspiration from the methods that have proven their worth in constrained optimization and we try to transpose them to general systems. This gives rise to interior-point methods, of which we propose a nonparametric version called NPIPM. The results appear to be superior to those of Newton-min.Another contribution of this doctoral work is the understanding and (partial) resolution of another obstruction to the proper functioning of the unified formulation, hitherto unidentified in the literature. This is the limitation of the domain of definition of Gibbs' functions associated with cubic equations of state. To remedy the possible non-existence of a system solution, we advocate a natural extension of Gibbs' functions
APA, Harvard, Vancouver, ISO, and other styles
13

Kebbiche, Zakia. "Étude et extensions d'algorithmes de points intérieurs pour la programmation non linéaire." Le Havre, 2007. http://www.theses.fr/2007LEHA0014.

Full text
Abstract:
Dans cette thèse, nous présentons une étude algorithmique et numérique concernant la méthode de trajectoire centrale appliquée au problème de complémentarité linéaire considéré comme une formulation unificatrice de la programmation linéaire et de la programmation quadratique convexe. Puis, nous proposons deux variantes intéressantes, l'une de trajectoire centrale et l'autre de type projectif avec linéarisation, pour minimiser une fonction convexe différentiable sur un polyèdre. Les algorithmes sont bien définis et les résultats théoriques correspondants sont établis
In this thesis, we present an algorithmically and numerical study concerning the central path method for linear complementarity problem wich is considered as an unifying framework of linear and quadratic programming. Then, we propose two intersting variants namely the central path and the projective with linearization methods for minimizing a convex differentiable function on a polyhedral set. The algorithms are well defined and the corresponding theoretical results are established
APA, Harvard, Vancouver, ISO, and other styles
14

Roumili, Hayet. "Méthodes de points intérieurs non réalisables en optimisation : théorie, algorithmes et applications." Le Havre, 2007. http://www.theses.fr/2007LEHA0013.

Full text
Abstract:
Dans cette étude, nous nous intéressons au problème d'initialisation dans les méthodes de points intérieurs de types trajectoire centrale, en prenant comme référence les travaux de Y. Zhang pour la programmation linéaire (PL). Après avoir mis en oeuvre un algorithme pour la programmation linéaire (PL), nous proposons une extension pour la programmation quadratique convexe (PQC) puis pour la programmation semidéfinie (PSD)
In this study, we are interested to the initialization problem for central path following interior point methods, taking Y. Zhang's work for the linear programming (LP) as bench-mark. After, we make use of an appropriate algorithm for linear programming, we propose an extension for the quadratic convex programming as well semidefinite programming
APA, Harvard, Vancouver, ISO, and other styles
15

Bouhtou, Mustapha. "Méthodes de points intérieurs pour l'optimisation des systèmes de grande taille." Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090061.

Full text
Abstract:
Les nouvelles méthodes de points intérieurs jouent aujourd'hui un rôle de plus en plus important dans l'optimisation des systèmes de grande taille. Dans cette thèse nous étudions dans une première partie, du point de vue théorique et numérique, une extension d'un algorithme de points intérieurs pour la programmation quadratique convexe et non convexe. Celle-ci utilise l'idée de la région de confiance que l'on peut expliciter grâce à une transformation affine. Sous certaines hypothèses nous démontrons des résultats sur la convergence globale et sur la vitesse de convergence de l'algorithme. Nous donnons aussi une version pratique de cet algorithme, basée sur une généralisation de la méthode de Lanczos pour la résolution des systèmes linéaires indéfinis. Celle-ci donne dans la pratique des résultats très encourageants. Dans la seconde partie, nous étudions du point de vue théorique une extension d'un autre algorithme de points intérieurs pour l'optimisation non linéaire avec contraintes linéaires. Cette extension utilise l'idée de la réduction d'une fonction potentiel après une transformation affine de l'ensemble admissible. Des résultats sur la convergence globale et sur la complexité de l'algorithme sont donnés
APA, Harvard, Vancouver, ISO, and other styles
16

Bouafia, Mousaab. "Étude asymptotique des méthodes de points intérieurs pour la programmation linéaire." Thesis, Le Havre, 2016. http://www.theses.fr/2016LEHA0019/document.

Full text
Abstract:
Dans cette recherche, on s’intéresse à l’étude asymptotique des méthodes de points intérieurs pour la programmation linéaire. En se basant sur les travaux de Schrijver et Padberg, nous proposons deux nouveaux pas de déplacement pour accélérer la convergence de l'algorithme de Karmarkar et réduire sa complexité algorithmique. Le premier pas est une amélioration modérée du comportement de l'algorithme, le deuxième représente le meilleur pas de déplacement fixe obtenu jusqu'à présent. Ensuite nous proposons deux approches paramétrées de la l'algorithme de trajectoire centrale basé sur les fonctions noyau. La première fonction généralise la fonction noyau proposé par Y. Q. Bai et al., la deuxième est la première fonction noyau trigonométrique qui donne la meilleure complexité algorithmique, obtenue jusqu'à présent. Ces propositions ont apporté des nouvelles contributions d'ordre algorithmique, théorique et numérique
In this research, we are interested by asymptotic study of interior point methods for linear programming. By basing itself on the works of Schrijver and Padberg, we propose two new displacement steps to accelerate the convergence of Karmarkar's algorithm and reduce its algorithmic complexity. The first step is a moderate improvement of the behaviour of this algorithm; the second represents the best fixed displacement step obtained actually. We propose two parameterized approaches of the central trajectory algorithm via a kernel function. The first function generalizes the kernel function given by Y. Q. Bai et al., the second is the first trigonometric kernel function that gives the best algorithmic complexity, obtained until now. These proposals have made new contributions of algorithmic, theoretical and numerical order
APA, Harvard, Vancouver, ISO, and other styles
17

Kadiri, Abderrahim. "Analyse des méthodes des points intérieurs pour les problèmes de complémentarité linéaire et la programmation quadratique convexe." INSA de Rouen, 2001. http://www.theses.fr/2001ISAM0008.

Full text
Abstract:
Cette thèse porte sur une étude théorique et pratique des méthodes de points intérieurs pour les problèmes de complémentarité linéaire (LCP) et la programmation linéaire convexe (PQC). Le premier chapitre est un survol de quelques méthodes classiques pour la résolution d'un (PQC). Dans le deuxième chapitre, elle présente les notions de base nécessaires pour les méthodes de trajectoire centrale. Ensuite, elle donne une description d'un algorithme de trajectoire centrale pour résoudre un (PQC). Le troisième est consacré aux méthodes de points intérieurs pour le (LCP). Il contient un exposé de quelques algorithmes principaux avec leurs propriétés de convergence et complexité. Les procédures de purification sont étudiées au chapitre 4. Nous proposons une nouvelle procédure pour le (LCP) et le (PQC) qui permet de mener à une solution exacte et de réduire le temps global de calcul. Des aspects pratiques et des résultats numériques sont présentés dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
18

Ouriemchi, Mohammed. "Résolution de problèmes non linéaires par les méthodes de points intérieurs : théorie et algorithmes." Phd thesis, Université du Havre, 2005. http://tel.archives-ouvertes.fr/tel-00011376.

Full text
Abstract:
Les méthodes barrières proposent de résoudre le problème non linéaire en résolvant une suite de problèmes pénalisés. Le lien entre la suite, dite externe, des solutions des fonctions pénalisées et la solution du problème initial a été établie dans les années soixante.

Dans cette thèse, nous avons utilisé une fonction barrière logarithmique. A chaque itération externe, la technique SQP se charge de produire une série de sous-problèmes quadratiques dont les solutions forment une suite, dite interne, de directions de descente pour résoudre le problème non linéaire pénalisé.

Nous avons introduit un changement de variable sur le pas de déplacement ce qui a permis d'obtenir des conditions d'optimalité plus stable numériquement.

Nous avons réalisé des simulations numériques pour comparer les performances de la méthode des gradients conjugués à celle de la méthode D.C., appliquées pour résoudre des problèmes quadratiques de région de confiance.

Nous avons adapté la méthode D.C. pour résoudre les sous-problèmes verticaux, ce qui nous a permis de ramener leurs dimensions de $n+m$ à $m+p$ ($ p < n $).

L'évolution de l'algorithme est contrôlée par la fonction de mérite. Des tests numériques permettent de comparer les avantages de différentes formes de la fonction de mérite. Nous avons introduit de nouvelles règles pour améliorer cette évolution.

Les expériences numériques montrent un gain concernant le nombre de problèmes résolus. L'étude de la convergence de notre méthode SDC, clôt ce travail.
APA, Harvard, Vancouver, ISO, and other styles
19

Veiga, Géraldo. "Sur l'implantation des méthodes de points intérieurs pour la programmation linéaire : Texte imprimé." Paris 13, 1997. http://www.theses.fr/1997PA132010.

Full text
Abstract:
L'objectif de ce travail vise a l'implantation des algorithmes de points interieurs pour la programmation lineaire. En demarrant avec la premiere implantation d'une variante de l'algorithme de points interieurs qui s'est averee competitive par rapport a la methode du simplexe sur un grand nombre d'experiences numeriques, nous presentons notre contribution pour ce domaine de recherche. A partir d'une famille d'algorithmes de points interieurs de type echelle affine, nous avons developpe une implantation dont les tests numeriques ont confirme sa competitivite, surtout lorsque la taille des problemes testes augmente. Pour une implantation efficace, nous avons developpe des structures de donnees et des techniques de programmation centrees sur la methode d'elimination de gauss appliquee a la resolution d'une sequence de systemes d'equations a matrices symetriques et definies positives. Pour cela, notre approche consiste en un schema de decomposition directe pour les matrices creuses, a l'aide d'une decomposition symbolique effectuee a une etape preparatoire de l'algorithme de programmation lineaire. Une specialisation des methodes duales de points interieurs a ete concue pour les problemes d'optimisation dans les reseaux. Notre implantation utilise une methode du gradient conjugue avec des preconditionneurs diagonaux et des arbres generateurs. Une nouvelle variante de l'algorithme dual propose par tsuchiya et muramatsu a ete ajoutee a notre implantation en vue de la detection anticipee d'une solution optimale. Toujours pour les problemes d'optimisation dans les reseaux, nous avons developpe une methode tronquee du type primal(non realisable)-dual(realisable). Nos remarques finales insistent sur le role des algorithmes de points interieurs parmi les techniques modernes pour la solution des problemes d'optimisation lineaire de grande taille
APA, Harvard, Vancouver, ISO, and other styles
20

Seguin, Jean-Philippe. "Simulation thermomécanique de structures en alliages à mémoire de forme par la méthode des points intérieurs." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0016.

Full text
Abstract:
Les Alliages à Mémoire de Forme (AMF) sont des matériaux dont le comportement mécanique dépend de la sollicitation thermique. La prise en compte du couplage thermomécanique dans les modèles est nécessaire pour mieux comprendre ce type de matériau. Ces travaux de thèse s’intéressent donc aux outils numériques pour simuler les évolutions thermomécaniques de structures en alliages à mémoire de forme. Une nouvelle méthode de résolution est proposée, reposant sur la reformulation du problème incrémental en un problème de complémentarité linéaire et l’utilisation d’un algorithme de points intérieurs. Des simulations tests à température fixée ont permis de valider cette méthode. Enfin, d’autres simulations ont été réalisées pour étudier l’influence du couplage thermomécanique
Shape Memory Alloys (SMA) are materials on which mechanical behaviour depends of thermal solicitation. Thermomechanical coupling in models is necessary to understand better this kind of material. PhD thesis is concerned with the development of numerical tools for simulating thermomechanical evolutions of 3D SMA structures. In the approach that is presented, a crucial point consists in reformulating the incremental problem as a linear complementarity problem. This allows one to take advantage of interior point algorithms for solving the discretized evolutionary equations. Tests simulations with fixed temperature allowed to validate this approach. At least, others simulations have been made to study the influence of the thermomechanical coupling on the structural response
APA, Harvard, Vancouver, ISO, and other styles
21

Halard, Matthieu. "Méthodes du second ordre pour la conception optimale en élasticité non-linéaire." Paris 9, 1999. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1999PA090029.

Full text
Abstract:
La conception optimale de structures élastiques non-linéaires se heurte d'abord au cout de résolution de l'équation d'équilibre soit une vingtaine d'itérations de Newton comprenant une factorisation de la matrice de raideur tangente et une descente-remontée ; puis au mauvais conditionnement du critère à optimiser vis-à-vis des variables de conception ; enfin au traitement des contraintes de conception parfois impératives même au cours de l'optimisation. Les deux premiers points sont résolus en appliquant une méthode de type Newton au système d'optimalité, dans lequel les variables de conception et d'état sont les inconnues. L'algorithme hybride adjoint-direct est techniquement réalisable avec des calculs analytiques de gradients et des dérivées secondes du lagrangien approchées par différences finies. La recherche linéaire dans la direction de Newton est remplacée par une recherche sur un arc linéaire ou parabolique collant à la courbe d'équilibre de l'espace conception-état, afin de se rapprocher d'une méthode de Newton réduite à l'espace de conception. La convergence rapide se voit sur les résultats. Le dernier point est abordé par l'étude d'une méthode de points intérieurs dans laquelle la direction de recherche est déviée vers l'intérieur du domaine de conception pour accroitre la robustesse de l'algorithme. Nous élaborons un autre calcul de déflexion, itératif, fournissant une direction restant dans le domaine linéarisé avec un taux de descente par rapport à la direction de Newton supérieur à un critère de trajectoire centrale. Des exemples bidimensionnels parlants montrent que la combinaison des deux idées allie robustesse et performance. La première partie se clôt sur l'algorithme de conception optimale avec contraintes d'inégalité. La deuxième est consacrée à son application à l'élasticité et à sa programmation avec des couts détaillés car sa performance en dépend. Des cas semi-industriels prouvent l'intérêt des techniques retenues.
APA, Harvard, Vancouver, ISO, and other styles
22

Akoa, François Bertrand. "Approches de points intérieurs et de la programmation DC en optimisation non convexe. Codes et simulations numériques industrielles." Rouen, INSA, 2005. http://www.theses.fr/2005ISARA001.

Full text
Abstract:
Cette thèse est principalement consacrée à l'association des méthodes de points intérieurs et des techniques de l'optimisation DC et DCA pour résoudre les problèmes d'optimisation non convexe de grande taille. La thèse comporte trois parties : La première partie est consacrée aux techniques d'optimisations locales et s'articule autour des méthodes de points intérieurs et de la programmation DC. Nous y développons deux algorithmes. La seconde partie de la thèse est consacrée à l'intégration de l'algorithme des points intérieurs dans un schéma séparation-évaluation. La dernière partie de la thèse est consacrée aux applications industrielles. Nous y appliquons les deux nouveaux algorithmes développés dans la première partie à un problème de mécanique de structure de grande dimension, puis à un problème de séparateur à vaste marge
APA, Harvard, Vancouver, ISO, and other styles
23

Malisani, Paul. "Pilotage dynamique de l'énergie du bâtiment par commande optimale sous contraintes utilisant la pénalisation intérieure." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00740044.

Full text
Abstract:
Dans cette thèse, une méthode de résolution de problèmes de commande optimale non linéaires sous contraintes d'état et de commande. Cette méthode repose sur l'adaptation des méthodes de points intérieurs, utilisées en optimisation de dimension finie, à la commande optimale. Un choix constructif de fonctions de pénalisation intérieure est fourni dans cette thèse. On montre que ce choix permet d'approcher la solution d'un problème de commande optimale sous contraintes en résolvant une suite de problèmes de commande optimale sans contraintes dont les solutions sont simplement caractérisées par les conditions de stationnarité du calcul des variations.Deux études dans le domaine de la gestion de l'énergie dans les bâtiments sont ensuite conduites. La première consiste à quantifier la durée maximale d'effacement quotidien du chauffage permettant de maintenir la température intérieure dans une certaine bande de confort, et ce pour différents types de bâtiments classés de mal à bien isolés. La seconde étude se concentre sur les bâtiments BBC et consiste à quantifier la capacité de ces bâtiments à réaliser des effacements électriques complets du chauffage de 6h00 à 22h00 tout en maintenant, là encore, la température intérieure dans une bande de confort. Cette étude est réalisée sur l'ensemble de la saison de chauffe.
APA, Harvard, Vancouver, ISO, and other styles
24

Davy, Guillaume. "Génération de codes et d'annotations prouvables d'algorithmes de points intérieurs à destination de systèmes embarqués critiques." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0034/document.

Full text
Abstract:
Dans l'industrie, l'utilisation de l'optimisation est omniprésente. Elle consiste à calculer la meilleure solution tout en satisfaisant un certain nombre de contraintes. Cependant, ce calcul est complexe, long et pas toujours fiable. C'est pourquoi cette tâche est longtemps restée cantonnée aux étapes de conception, ce qui laissait le temps de faire les calculs puis de vérifier que la solution était correcte et si besoin refaire les calculs. Ces dernières années, grâce à la puissance toujours grandissante des ordinateurs, l'industrie a commencé à intégrer des calculs d'optimisation au cœur des systèmes. C'est-à-dire que des calculs d'optimisation sont effectués en permanence au sein du système, parfois des dizaines de fois par seconde. Par conséquent, il est impossible de s'assurer a posteriori de la correction d'une solution ou de relancer un calcul. C'est pourquoi il est primordial de vérifier que le programme d'optimisation est parfaitement correct et exempt de bogue.L'objectif de cette thèse a été de développer outils et méthodes pour répondre à ce besoin.Pour ce faire, nous avons utilisé la théorie de la preuve formelle qui consiste à considérer un programme comme un objet mathématique. Cet objet prend des informations en entrée et produit un résultat. On peut alors, sous certaines conditions sur les entrées, prouver que le résultat satisfait nos exigences. Notre travail a consisté à choisir un programme d'optimisation puis à prouver formellement que le résultat de ce programme est correct
In the industry, the use of optimization is ubiquitous. Optimization consists of calculating the best solution subject to a number of constraints. However, this calculation is complex,long and not always reliable. This is why this task has long been confined to the design stages,which allowed time to do the computation and then check that the solution is correct and if necessary redo the computation. In recent years, thanks to the ever-increasing power of computers, the industry has begun to integrate optimization computation at the heart of the systems. That is to say that optimization computation is carried out continuously within the system, sometimes dozens of times per second. Therefore, it is impossible to check a posteriori the solution or restart a calculation. That is why it is important to check that the program optimization is perfectly correct and bug-free. The objective of this thesis was to develop tools and methods to meet this need. To do this we have used the theory of formal proof that is to consider a program as a mathematical object. This object takes input data and produces a result. We can then, under certain conditions on the inputs, prove that the result meets our requirements. Our job was to choose an optimization program and formally prove that the result of this program is correct
APA, Harvard, Vancouver, ISO, and other styles
25

Jonsson, Xavier. "Méthodes de points intérieurs et de régions de confiance en optimisation non linéaire et application à la conception de verres ophtalmiques progressifs." Paris 6, 2002. http://www.theses.fr/2002PA066191.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Tanoh, Germain. "Algorithmes du point intérieur pour l'optimisation en tomographie dynamique et en mécanique du contact." Toulouse 3, 2004. http://www.theses.fr/2004TOU30144.

Full text
Abstract:
Dans cette thèse nous proposons quelques méthodes d'optimisation primales et primales-duales avec des applications en tomographie dynamique et en mécanique du contact dans le cadre de l'élasticité linéaire. Un algorithme primal-dual pour un problème inverse de tomographie dynamique est décrit. Ce problème fait intervenir des contraintes d'inégalités linéaires pour tenir compte de l'aspect dynamique de l'image. Sa résolution est effectuée par une méthode des régions de confiance adaptée aux problèmes mal posés. Compte tenu de la grande taille du problème, nous avons adopté des techniques itératives qui nécessitent seulement le résultat d'un produit matrice vecteur. Une méthode de Newton basée sur une pénalisation logarithmique est développée. Nous proposons une nouvelle méthode d'optimisation pour le problème de contact en ingénierie mécanique. Nous étudions quelques propriétés du problème pénalisé par une fonction barrière logarithmique et montrons que sa solution converge fortement. Une variante basée sur le Lagrangien augmenté est examinée. L'approche primale-duale exploite les techniques de lissage de Newton appliquées aux inéquations variationnelles issues du problème de contact. Dans le cas d'un problème avec frottement, le problème de contact est non différentiable. En appliquant la théorie de la dualité aux conditions de contact, un problème dual différentiable avec des contraintes d'inégalités quadratiques et linéaires est obtenu. Un algorithme de Newton primal-dual est proposé. Sa spécificité réside dans le traitement des contraintes quadratiques dans le cas d'un problème 3D. Notre méthode peut être considérée comme une extension des techniques d'optimisation de somme de normes euclidiennes. Notre étude comporte quelques résultats numériques
In this thesis we propose some primal and primal-dual optimization methods with application in dynamic tomography and mechanical contact in the linear elasticity context. A primal-dual algorithm for an inverse problem in dynamic tomography is presented. This problem includes inequalities constraints because of the dynamic properties of the image. We solved it by using a trust region method adapted to ill behaved problems. Since the problem size is very large, we have used iterative techniques which need only a result of a matrix vector product. We have developed a Newton method based on a logarithmic penalty. We propose a new optimization method for contact problems in mechanical engineering. We study some properties of the penalized problem by logarithmic barrier function and show that its solution converges strongly. A variant based on the augmented Lagrangian is considered. The primal-dual approach uses a non smooth Newton technique applied to variational inequalities arising in contact problems. In the case of frictional contact problem, we have a non differentiable problem. Applying the duality theory to the contact conditions, we get a dual differentiable problem with quadratic and linear inequalities constraints. We propose a primal-dual Newton algorithm. It's specially oriented to the treatment of the quadratic constraints for a 3D problem. Our method can be view as an extension of the optimization techniques for the sum of Euclidean norm. Our study includes some numerical results
APA, Harvard, Vancouver, ISO, and other styles
27

Kara-Terki, Chafik. "Une méthode de mise au point des circuits intégrés." Paris 6, 1986. http://www.theses.fr/1986PA066113.

Full text
Abstract:
La méthode de mise au point des circuits intégrés VLSI est basée sur l'utilisation de techniques améliorant la testabilité, comme le chemin de test (LSSD). Différentes approches structurées (approches descendante, ascendante, recherche binaire) sont étudiées à travers un circuit complexe, le papillon FFT. Les problèmes spécifiques de la mise au point sont analysés et des solutions sont proposées. La réalisation d'un outil de mise au point est présentée. Il est composé d'un système permettant l'échantillonnage et la génération de vecteurs de test et d'un ensemble d'interfaces logicielles et matérielles assurant la liaison avec la chaîne de conception assistée par ordinateur et un banc de test sous pointes.
APA, Harvard, Vancouver, ISO, and other styles
28

Corbineau, Marie-Caroline. "Proximal and interior point optimization strategies in image recovery." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC085/document.

Full text
Abstract:
Les problèmes inverses en traitement d'images peuvent être résolus en utilisant des méthodes variationnelles classiques, des approches basées sur l'apprentissage profond, ou encore des stratégies bayésiennes. Bien que différentes, ces approches nécessitent toutes des algorithmes d'optimisation efficaces. L'opérateur proximal est un outil important pour la minimisation de fonctions non lisses. Dans cette thèse, nous illustrons la polyvalence des algorithmes proximaux en les introduisant dans chacune des trois méthodes de résolution susmentionnées.Tout d'abord, nous considérons une formulation variationnelle sous contraintes dont la fonction objectif est composite. Nous développons PIPA, un nouvel algorithme proximal de points intérieurs permettant de résoudre ce problème. Dans le but d'accélérer PIPA, nous y incluons une métrique variable. La convergence de PIPA est prouvée sous certaines conditions et nous montrons que cette méthode est plus rapide que des algorithmes de l'état de l'art au travers de deux exemples numériques en traitement d'images.Dans une deuxième partie, nous étudions iRestNet, une architecture neuronale obtenue en déroulant un algorithme proximal de points intérieurs. iRestNet nécessite l'expression de l'opérateur proximal de la barrière logarithmique et des dérivées premières de cet opérateur. Nous fournissons ces expressions pour trois types de contraintes. Nous montrons ensuite que sous certaines conditions, cette architecture est robuste à une perturbation sur son entrée. Enfin, iRestNet démontre de bonnes performances pratiques en restauration d'images par rapport à une approche variationnelle et à d'autres méthodes d'apprentissage profond.La dernière partie de cette thèse est consacrée à l'étude d'une méthode d'échantillonnage stochastique pour résoudre des problèmes inverses dans un cadre bayésien. Nous proposons une version accélérée de l'algorithme proximal de Langevin non ajusté, baptisée PP-ULA. Cet algorithme est incorporé à un échantillonneur de Gibbs hybride utilisé pour réaliser la déconvolution et la segmentation d'images ultrasonores. PP-ULA utilise le principe de majoration-minimisation afin de gérer les distributions non log-concaves. Comme le montrent nos expériences réalisées sur des données ultrasonores simulées et réelles, PP-ULA permet une importante réduction du temps d'exécution tout en produisant des résultats de déconvolution et de segmentation très satisfaisants
Inverse problems in image processing can be solved by diverse techniques, such as classical variational methods, recent deep learning approaches, or Bayesian strategies. Although relying on different principles, these methods all require efficient optimization algorithms. The proximity operator appears as a crucial tool in many iterative solvers for nonsmooth optimization problems. In this thesis, we illustrate the versatility of proximal algorithms by incorporating them within each one of the aforementioned resolution methods.First, we consider a variational formulation including a set of constraints and a composite objective function. We present PIPA, a novel proximal interior point algorithm for solving the considered optimization problem. This algorithm includes variable metrics for acceleration purposes. We derive convergence guarantees for PIPA and show in numerical experiments that it compares favorably with state-of-the-art algorithms in two challenging image processing applications.In a second part, we investigate a neural network architecture called iRestNet, obtained by unfolding a proximal interior point algorithm over a fixed number of iterations. iRestNet requires the expression of the logarithmic barrier proximity operator and of its first derivatives, which we provide for three useful types of constraints. Then, we derive conditions under which this optimization-inspired architecture is robust to an input perturbation. We conduct several image deblurring experiments, in which iRestNet performs well with respect to a variational approach and to state-of-the-art deep learning methods.The last part of this thesis focuses on a stochastic sampling method for solving inverse problems in a Bayesian setting. We present an accelerated proximal unadjusted Langevin algorithm called PP-ULA. This scheme is incorporated into a hybrid Gibbs sampler used to perform joint deconvolution and segmentation of ultrasound images. PP-ULA employs the majorize-minimize principle to address non log-concave priors. As shown in numerical experiments, PP-ULA leads to a significant time reduction and to very satisfactory deconvolution and segmentation results on both simulated and real ultrasound data
APA, Harvard, Vancouver, ISO, and other styles
29

Nguegang, Nkeuwa William. "Mise au point des revêtements nanocomposites multicouches transparents polymérisés sous ultraviolets pour le bois à usage intérieur." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30414/30414.pdf.

Full text
Abstract:
Ce travail de recherche comprenait deux volets. Le premier volet avait comme objectif général d’améliorer les propriétés barrières et mécaniques de la couche de surface devant constituer le revêtement multicouche (MC) pour le bois. L’objectif général du second volet visait quant à lui à augmenter l’adhérence du système [MC/surface du bois]. Dans le premier volet, des revêtements polymérisés sous ultraviolets (UV) pour la couche de surface ont été préparés en utilisant trois grades de nanoargile commerciale dispersés (1 et 3 % en masse totale dans la formulation) dans un oligomère commercial du type époxy acrylate. La morphologie des revêtements nanocomposites a été étudiée par diffraction des rayons X et par microscopie électronique à transmission (MET). La propriété barrière, la clarté optique ainsi que les propriétés mécaniques de ces revêtements ont également été évalués. Dans le deuxième volet, les surfaces de bois du bouleau jaune (Betula alleghaniensis Britton) ont été protégées avec six types de MC. Les formulations polymérisables sous UV pour la couche d’imprégnation et la couche de surface contenaient respectivement la nanosilice (NS : 0 et 0,5 %) et la nanoargile (NA : 0, 1 et 3 %). La morphologie de la section transversale du système [MC/surface du bois] a été étudiée par microscopie électronique à balayage (MEB) et par MET. Enfin, l’adhérence du système [MC/surface du bois] a été investiguée en fonction de l’humidité relative (HR). Les images de MET révèlent que la C30B a été moins bien dispersée que la C10A et la C15A, lesquelles ont donné lieu à l’obtention des revêtements nanocomposites dont la morphologie serait du type intercalée. Les nanoargiles ont un effet autant sur la propriété barrière que sur la clarté optique. Parmi les trois grades de nanoargiles, la C10A serait idéale pour une application pratique (salles de bains) et a été utilisée comme agent de renfort pour la couche de surface des MC. La contrainte d’adhérence du système [MC/surface du bois] a été plus élevée pour les échantillons conditionnés à 80% d’HR que pour ceux conditionnés à 40% d’HR. Le revêtement multicouche 5 (0,5% NS – 1% NA) serait idéal comme système de protection.
This research consists in two sections. The main objective of the first section was to improve barrier and mechanical properties of topcoats for wood furniture; while for the second section, the main objective was to increase the adhesion of multilayer coatings on wood surfaces. In the first section, free standing UV-cured coatings were prepared by using three different types of commercial organoclays. These nanoparticles were dispersed (1 and 3 wt % into the formulation) into a commercial epoxy acrylate oligomer. The morphology of these nanocomposites was studied by X-ray diffraction and by transmission electron microscopy (TEM). The barrier property (WVTR: water vapor transmission rate), optical clarity and mechanical tests of these nanocomposites were also assessed. In the second section, surfaces of yellow birch wood (Betula alleghaniensis Britton) were protected with six different types of multilayer coatings (MCs). Prepared primer and topcoat UV-curable formulations constituting these MCs contained, respectively nanosilica (NS: 0 and 0.5 wt %) and nanoclay (NC: 0, 1 and 3 wt %). The morphology of the cross-section of coated wood samples was studied by means of both scanning and transmission electron microscopy (SEM and TEM analysis respectively). The adhesion strength of these MCs on wood surfaces was assessed as a function of relative humidity (RH). TEM images reveal that C30B was not found to be dispersible into the acrylate matrix; while both UV-cured nanocomposites containing C10A and C15A respectively seemed to have an intercalated morphology. All the organoclays used in this study have had an effect on both WVTR and optical clarity. Among the three different types of organoclays, C10A appears to be the ideal reinforcing agent for practical application (bathrooms) and was used for topcoat constituting MCs on wood surfaces. The adhesion strength of coated wood samples conditioned at 80% RH was higher than that obtained on those conditioned at 40% RH. Multilayer coating 5 (0.5% NS–1% NC) appears to be the ideal protection system.
APA, Harvard, Vancouver, ISO, and other styles
30

Raouj, Abdallah. "Réseau de transport déréglementé un algorithme de point intérieur pour la résolution du sous-problème des opérateurs." Mémoire, Université de Sherbrooke, 2002. http://savoirs.usherbrooke.ca/handle/11143/4536.

Full text
Abstract:
Nous considérons le contexte d'un réseau de transport déréglementé impliquant les automobiles privées, les passagers des autobus et les opérateurs des autobus où ces derniers choisissent librement les routes où ils vont offrir les services de transport public. Nous supposons que les conducteurs des autos et les passagers de bus ont pour objectifs de minimiser le temps de voyage individuel, tandis que les opérateurs de bus essaient de maximiser leurs profits individuels. Dans chaque système usagers-opérateurs, un état d'équilibre peut être caractérisé comme la solution d'une inégalité variationnelle. Notre travail est concentré sur la solution de l'équilibre des opérateurs de bus pour laquelle nous proposons un nouvel algorithme solution basé sur les méthodes de points intérieurs.
APA, Harvard, Vancouver, ISO, and other styles
31

Larroque, Virginie. "Développement d'une méthode de micro-extraction sur phase solide pour l'analyse de composés organiques volatils dans l'air intérieur." Pau, 2006. http://www.theses.fr/2006PAUU3038.

Full text
Abstract:
L'amélioration des connaissances sur la qualité de l'air intérieur nécessite une caractérisation fine de la pollution. En alternative aux méthodes d'échantillonnage classiques, la SPME a donc été étudiée pour la mesure des COV dans cet environnement. Malgré ses nombreux avantages, la SPME montre quelques limites pour la quantification. Une méthodologie de prélèvement à l'équilibre thermodynamique a donc été développée pour résoudre le problème des compétitions d'adsorption. Les conditions opératoires mettent en jeu une fibre PDMS/Car et une extraction en mode statique dans un volume d'échantillon fixe. Les cinétiques d'adsorption de COV modèles ont été tracées pour 3 volumes afin de déterminer le meilleur compromis temps d'extraction/performances. Le volume retenu est 250 mL avec un temps d'équilibre de 3h. Des limites de détection de l'ordre du µg. M-3 sont atteintes en GC/MS et la quantification est possible jusqu'à 9 µmol. M-3, même pour une humidité relative de 70%. Pour mieux comprendre les mécanismes mis en jeu durant l'échantillonnage, une approche théorique basée sur la modélisation de la diffusion a été abordée. La méthode de quantification développée a ensuite été comparée à des méthodes de prélèvement hors équilibre qui mettent en jeu des temps d'extraction courts. De meilleures performances sont obtenues pour la méthode à l'équilibre. La conservation des fibres a finalement été étudiée pour éviter les contaminations et les pertes avant et après prélèvement. La méthodologie a été appliquée avec succès à l'analyse des COV dans deux écoles différentes (HQE et non HQE). L'effet du produit de nettoyage des sols a aussi été évalué
Indoor air quality is a recent concern and to improve the knowledge in this field, analytical methods are required for pollution characterisation. In this aim, SPME was studied as alternative to traditional sampling methods for the analysis of VOCs in indoor air. Despite its numerous advantages, SPME shows some limits for quantitative analysis. Therefore, an equilibrium sampling method was developed to overcome competitive adsorption. Operating conditions involves PDMS/Car fibre and static extraction in a fixed sample volume. Adsorption kinetics of model compounds were determined for 3 volumes in order to find the best compromise between extraction time and performance. 250 mL and 3h extraction were retained. Limits of detection in the sub -µg. M-3 order are reached in GC/MS and quantitative analysis is possible up to 9 µmol. M-3, even with 70% RH air humidity. For a better understanding of sampling mechanisms, a theoretical approach, based on diffusion modelling, was studied. Then, the method developed was compared to non-equilibrium methods involving short extraction times. Best results were obtained for the equilibrium method: linearity domains are larger and limits of detection are at least twice lower. Fibre storage was studied to avoid both contamination and losses before and after sampling. The methodology was then successfully applied to the analysis of VOCs in classrooms of two nursery schools built according to two different rules of building (traditional and HEQ). The effect of floor cleaning on VOCs content in air was also shown
APA, Harvard, Vancouver, ISO, and other styles
32

Batti, Ahmed. "Etude spatio-temporelle par télédection du cycle crue-decrue dans le delta central du fleuve du Niger (Mali) : méthode des ondelettes." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR1GE04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Mancino, Davide. "Mise au point et évaluation microscopique d'une méthode d'obturation canalaire optimale." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAE011/document.

Full text
Abstract:
Évaluer la capacité de remplissage des cinq différentes techniques d’obturation canalaire dans l’obturation des canaux ovales. Matériel et méthodes : Un total de 220 molaires mandibulaires, avec 1 canal dans la racine distale, a été sélectionné. Chaque canal a été mise en forme jusqu’à la longueur de travail en utilisant un système mono-instrument le WaveOne Gold Primary Les dents préparées ont été divisées au hasard en cinq groupes égaux (n = 40 par groupe) pour l'obturation: condensation à onde continue (CWC), technique avec tuteur GuttaCore (GC), technique avec tuteur Thermafil (TH), technique utilisant un cône unique (SC), condensation hydraulique à froid (CHC). Les pourcentages de GPFA, SFA et VA ainsi que la présence des matériaux d’obturation à l’intérieur des tubulis dentinaires (tag)à longueur de travail (LT) -4mm et -2 mm a été évalué à par microscopie numérique optique, microscopie électronique à balayage (SEM) et microanalyse par rayons X à dispersion d'énergie (EDX). Analyse statistique : Les données collectées ont été analysées avec la version 11.2 de SigmaPlot (Systat Software, Inc., San José, CA, USA). Les pourcentages de GPFA, SFA, VA correspondant aux différentes groupes ont été comparés en utilisant le test de Kruskal-Wallis avec α=0,05. Résultats: à LT-4 et LT-2 mm, cette étude à montré une différence statistiquement significative en terme de capacité d’obturation pour le cinq techniques. À LT-4, les groupes GC et TH ont montré une différence statistiquement significative par rapport aux trois autres groupes en terme de GPFA et SFA. En terme de VA, il y a une différence statistiquement significative avec les groupes SC et CHC tandis qu’aucune différence n’a été démontrée entre les groupes GC , TH et CWC . À LT-2, les groupes GC et TH ont montré une différence statistiquement significative par rapport aux trois autres groupes en terme de GPFA, SFA, VA. Conclusion : Cette étude montre clairement que les obturations par GC et TH sont en mesure de remplir les canaux ovales d’une manière plus appropriée que les autres techniques d’obturation. Les groupes GC et TH, à LT -4 et -2mm, présentaient des tags de gutta-percha à l’intérieur des tubulis dentinaires. La présence de tags de gutta-percha à l’intérieur des tubulis dentinaires (à la place de tags de ciment beaucoup plus vulnérables) pourrait se comporter comme une barrière physique, capable de sceller les bactéries à l’intérieur des tubulis et surtout non résorbable dans le temps
Assess the filling ability in oval-shaped canals using five different filling techniques. Materials and Methods : 220 human mandibular first molars with one distal oval canal were selected. Distal Canals were shaped using WaveOne Gold Primary. The prepared teeth were randomly divided in four equal groups (n = 40) for obturation : Continuous Wave Condensation (CWC), GuttaCore carrier based technique (GC), Thermafil (TH) carrier based technique, Single Cone technique (SC), Cold hydraulic Condensation (CHC). The proportions of gutta-percha filled areas (GPFA), sealer filled areas (SFA), void areas (VA) and the tags into dentinal tubules at 4 mm and 2 mm were analyzed by Optical numeric microscope, SEM and EDX. Statistical analysis : they were compared by Kruskal-Wallis one-way ANOVA on ranks, with statistical significance set at α = 0.05. Results : At 4 and 2 mm from the apex, this study discloses statistically different filling ability for the five techniques. At 4 mm from the apex, the GC et TH groups showed significantly higher PGFAs than lateral condensation and System B techniques. The GC et TH groups showed a statistically significance difference compared with the others three groups in terms of higher PGFA, lower SFA. It showed a statistically significance difference with SC and CHC groups in term of VA. At 2 mm level from the apex, the GC et TH groups showed a statistically significance differece compared with the others three groups in terms of higher PGFA, lower SFA and VA. Conclusions : GC obturation is able to fill oval-shaped canals in a more appropriate way than the other filling techniques. GC was the only group which showed the presence of gutta-tags at 4 and 2 mm from the apex. The gutta- percha tags could behave as a physical barrier able to entomb bacteria
APA, Harvard, Vancouver, ISO, and other styles
34

REBAI, Raja. "Optimisation de réseaux de télécommunications avec sécurisation." Phd thesis, Université Paris Dauphine - Paris IX, 2000. http://tel.archives-ouvertes.fr/tel-00010841.

Full text
Abstract:
La première partie de cette thèse, concerne une étude de robustesse des algorithmes de points intérieurs prédicteurs correcteurs, ainsi qu'une approche par décomposition de cette méthode pour la résolution de problè mes de multiflot. Dans la deuxième partie, nous nous intéressons au Problème de Sécurisation Globale dont l'objectif est de déterminer un multiflot (qui transporte toute demande de son noeud origine à son noeud destination en respectant la loi de Kirchhoff) et l'investissement de moindre coût en capacité s nominale et de réserve qui assure le routage nominal et garantit sa survie par reroutage global. Dans notre modèle les routages et les capacités peuvent être fractionnés. PSG se formule alors comme un problème linéaire de grande taille avec plusieurs niveaux de couplage. Sa structure particulière appelle à l'emploi d'algorithmes de décompositions. Nous proposons quatre méthodes utilisant la technique de génération de colonnes. Les deux premières sont basées sur les techniques proximales. Leur tâche principale consiste en la résolution de sous problèmes quadratiques indépendants. Le troisième algorithme s'inspire de l'approche de points intérieurs décrite à la première partie. Pour finir, nous intégrons une procédure d'élimination de chemins dans une adaptation d'un solveur de points intérieurs. Nous reportons des résultats numériques obtenus en testant ces algorithmes sur des données réelles fournies par le CNET.
APA, Harvard, Vancouver, ISO, and other styles
35

Tondellier, Thibaut. "Mise au point d'un dispositif expérimental de frottement intérieur pour l'étude de la mobilité des dislocations dans les semi-conducteurs." Poitiers, 2002. http://www.theses.fr/2002POIT2266.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Taha, Khaled. "Analyse numérique d'algorithmes pour la programmation linéaire-quadratique généralisée." Rouen, 1995. http://www.theses.fr/2000ROUES035.

Full text
Abstract:
Dans cette thèse, nous présentons une étude à la fois théorique et algorithmique de la programmation linéaire-quadratique généralisée. Nous commençons par dégager les différentes propriétés de l'objectif et de définir le lien de l'optimalité avec les inégalités variationnelles et le problème de complémentarité linéaire. Pour résoudre numériquement ces problèmes, nous adaptons en premier lieu une variante SQP de la méthode quasi-newtonienne BFGS et proposons d'appliquer l'algorithme du point proximal lorsque l'objectif est non différentiable. Ensuite, nous nous plaçons dans le cadres des méthodes de point intérieur et proposons une nouvelle méthode basée sur la résolution d'une suite de systèmes quasi-définis. Cette méthode tire un grand avantage de la structure particulière de ces systèmes. Après, nous généralisons notre étude au problème du minimax à termes linéaires croisés. Deux cas importants sont analysés, le cas des contraintes linéaires polyèdriques et celui des inégalités linéaires matricielles. Enfin, nous appliquons notre résultat à la résolution des problèmes issus de l'optimisation dynamique et stochastique. Les expériences numériques réalisées confirment les performances de notre méthode
In this work, we present a theoretical and numerical study of extended linear-quadratic programming. We start with bringing out the different proprieties of objective and defining the relation of optimality with variational inequalities and linear complementarity problems. To solve the problem numerically, we adapt first and foremost a SQP variant of the quasi-Newton method BFGS and suggest the proximal point algorithm for the non-differentiable case. In the following, we deal with interior point methods and propose a new method based on solving a sequence of quasi-definite systems. This method takes advantage of the particular structure of these systems. Afterwards, we generalize our study on the minimax problem. In this context, two important cases are analysed; the case of polyhedral constraints and the case of linear matrix inequalities. Finally, we apply our results to solve problems of dynamic and stochastic optimisation. Numerical simulations done in this work assess the efficiency of our method
APA, Harvard, Vancouver, ISO, and other styles
37

Guyon, Hélène. "Mise au point d'une méthode de mesure d'interaction ligand-ARN par électrochimie." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB147/document.

Full text
Abstract:
Etant donné leur implication dans de nombreux processus biochimiques, les ARN sont maintenant considérés comme des cibles thérapeutiques très prometteuses. Cependant, nos connaissances limitées concernant les phénomènes d'interaction entre les ARN et de petites molécules, compliquent l'élaboration de nouveaux ligands (ou médicaments), capables de reconnaître sélectivement une structure complexe d'ARN. En absence de toute approche rationnelle, une stratégie de criblage pourrait permettre de mieux comprendre ces phénomènes de reconnaissance. Cette thèse porte sur la mise au point d'une méthode électrochimique, simple, adaptée pour du criblage haut-débit et permettant de détecter et de quantifier les interactions ARN/ligands. Le principe de la méthode repose sur la différence de coefficient de diffusion qui existe entre la forme libre d'un ligand possédant des propriétés redox et sa forme complexée à l'ARN. Cette stratégie de détection par voie électrochimique présente comme avantages d'être peu coûteuse, rapide, simple d'utilisation, adaptée pour du criblage haut-débit de molécules et utilisable dans de faibles volumes. Cette méthodologie a été utilisée pour caractériser la formation d'un complexe entre un analogue d'aminoglycoside porteur d'un groupe ferocene et une séquence d'ARNr 16S23. De plus, des expériences de compétition entre le complexe ARN/ligand redox et des aminoglycosides non modifiées permettent d'étendre la méthode à la détermination de constantes de dissociation (KD) pour des molécules non marquées en phase homogène. Ces expériences de compétition pourront être généralisées pour mesurer le KD de librairies de molécules, permettant ainsi de trouver de meilleurs ligands d'ARN
RNA molecules play a major role in various biochemical processes and they are now considered as an important drug target. However, our limited understanding of the interactions occurring between small molecules and RNA complicate the search for new ligands (or drugs) with improved specific interaction and binding to elaborated RNA structures. In the absence of any rational approach, a screening strategy could shed light on the ligand/RNA interactions. In this thesis, we describe a simple electrochemical approach allowing for high-throughput detection and quantification of small molecule/RNA interactions. The principle of the method relies on the difference of diffusion rates between a redoxmolecular probe free or bound to its RNA target and thus to the ability to more easily electrochemically detect the forme rover the latter in a homogenous solution. This electrochemical detection strategy has the advantages of being affordable,fast, easy to use, sensitive and well-adapted to a high-throughput screening strategy in small volume samples. This methodology was used to characterize the binding of an aminoglycoside analog bearing a ferocenyl group to the ribosomal RNA fragment (rRNA 16S23). Furthermore, competitive binding of unlabelled aminoglycosides on theRNA/electrochemical probe complex allowed us to evaluate their dissociation constants (KD). These competitive experiments could further be generalized to measure KD values for libraries of molecules, which could help to find better RNA ligands
APA, Harvard, Vancouver, ISO, and other styles
38

Will, François. "Mise au point et applications d'une méthode d'étude du cheveu : le phototrichogramme." Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR1M253.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Dendane, Nabil. "Mise au point d’une méthode de fonctionnalisation de microcomposants par vois photochimique." Grenoble 1, 2007. http://www.theses.fr/2007GRE10278.

Full text
Abstract:
Le travail ici exposé a pour finalité le développement d'une méthode efficace de fonctionnalisation et d'adressage de biomolécules sur support solide fermé tel que des microcanaux ou capillaires. La fonctionnalisation de la surface de verre ou de silicium est réalisée en utilisant la formation d'un lien covalent oxime entre la molécule et le support. L'adressage est réalisé en utilisant une déprotection photochimique de la fonction oxyamine protégée par un groupe photolabile (NPPOC). Nous avons démontré en format plan et en format capillaire que la surface oxyamine protégée par un groupe photolabile est efficace pour l’immobilisation de plusieurs oligonucléotides de façon localisée. La stratégie a été étendue pour l’immobilisation dans les capillaires d’autres molécules tels que les sucres, peptides ou molécules hydrophobes et hydrophiles. Les résultats montrent l’efficacité de notre stratégie pour l’immobilisation de ce type de molécules. Nous avons également montré que l’utilisation d’une surface hydrophile (PEG) améliore sensiblement le bruit de fond
The aim of our work is to develop an effective method for the patterning of closed solid support such as microchannels or capillaries by biomolecules. The covalent attachment of biomolecules on the glass and silicon surfaces is carried out by using the formation an oxime linkage. Patterning is achieved upon illumination by deprotecting the aminooxy function protected by a photolabile (NPPOC) group. We have show that on both planar format and capillary format the aminooxy surface protected by a photolabile group, is effective for the immobilization of several oligonucleotides at predefined positions. The strategy was further extended for the immobilization of other molecules such as sugars, peptides or different hydrophobic and hydrophilic molecules in the capillaries. The results show the effectiveness of our strategy for the immobilization of variety of molecules. Further, we showed that the use of a hydrophilic surface (PEG) improves the sensitivity of this methodology
APA, Harvard, Vancouver, ISO, and other styles
40

Claveau, Sébastien. "Mise au point d'une méthode permettant l'évolution dirigée par amplification d'acide nucléique." Thèse, Université du Québec à Trois-Rivières, 2004. http://depot-e.uqtr.ca/1813/1/000118157.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Rizk, Malak. "Développement, validation et mise en œuvre sur le terrain d’une méthode de caractérisation in-situ des processus de sorption des composés organiques volatils par les matériaux de construction." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10074/document.

Full text
Abstract:
La qualité de l’air intérieur QAI constitue une problématique de recherche en plein essor vu son impact sanitaire et environnemental. Outre la diversité des polluants dans les espaces confinés, de nombreux facteurs influencent la QAI. Alors que les modèles de prédiction de la QAI sont restreints aux paramètres d’émissions de polluants et leurs transports aérauliques, la réactivité chimique et les processus de sorption aux surfaces sont peu évalués à l’échelle du terrain. Ainsi, il est particulièrement intéressant de renseigner les paramètres de sorption des Composés Organiques Volatils (COV) à la surface des matériaux de construction selon une démarche plus représentative des conditions réelles afin de mieux prédire leurs concentrations.L’objectif de cette thèse est de développer une nouvelle méthode pour caractériser in-situ les processus de sorption des COV aux surfaces intérieures, par un couplage d’une cellule d’essai d’émission (FLEC) à un spectromètre de masse à transfert de proton (PTR-MS). La méthodologie développée au laboratoire a été validée en comparaison avec la méthode de référence basée sur de grandes chambres d’essai d’émission utilisables uniquement au laboratoire. La nouvelle méthodologie a été déployée sur le terrain lors de deux campagnes de mesures intensives menées dans un collège performant en énergie. Cette étude a porté sur la détermination des paramètres de sorption de nombreux COV pour différentes surfaces et l’évaluation de leurs variabilités spatio-temporelles. Les paramètres de sorption déterminés au moyen de cette méthode transportable, rapide et non destructive, doivent être utilisés en données d’entrée à un modèle de prédiction de la QAI
Indoor air quality IAQ is a main concern attracting more researches since its impact on environment and human health is becoming obvious. Besides the diversity of pollutants indoors, several processes may affect IAQ. While the major part of IAQ models still limited on the parameters describing the pollutants emissions and their transport by air flow, the reactivity phenomena and the sorption of pollutants on surfaces are still poorly characterized on the field scale. In addition, the representativeness of sorption parameters derived from laboratory experiments to predict indoor air concentrations on the field, is still a source of uncertainties. Therefore, it is particularly interesting to evaluate sorption parameters of Volatile Organic Compounds (VOCs) on the surface of building materials, using a representative method of field conditions, to better predict VOCs concentrations indoors. The main objective of this thesis is to develop a new method to characterize in-situ VOCs sorption processes on indoor surfaces, by coupling a Field and Laboratory Emission Cell (FLEC) with a proton transfer mass spectrometer (PTR-MS). The methodology developed and characterized in the laboratory, was compared to the method used in literature on the laboratory scale and based on larger emission test chambers. The new method was used on the field during two intensive field campaigns conducted in an energy efficient college. Sorption parameters of a large number of VOCS were determined for the main surfaces as well as their spatial and temporal variability. Using this transportable, fast and non-destructive method, derived sorption parameters could be used as data inputs to an indoor air model, to well predict VOCs concentrations indoors
APA, Harvard, Vancouver, ISO, and other styles
42

Lalande, Delphine. "Mise au point d'une méthode de détection des radicaux libres par la chimioluminescence." Paris 5, 1996. http://www.theses.fr/1996PA05P021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Fournier, Francette. "Mise au point d'une méthode de calcul adaptée au bruit de fenestron d'hélicoptères." Ecully, Ecole centrale de Lyon, 1988. http://www.theses.fr/1988ECDLA012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Guglielmino, Maud. "Développement d'une nouvelle méthode analytique du formaldéhyde dans l'air basée sur un dispositif microfluidique." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAF048.

Full text
Abstract:
Le formaldéhyde (HCHO) est un polluant majeur de l’air intérieur. L’objectif de cette thèse est de réaliser les avancées scientifiques et technologiques nécessaires à l’obtention d’une méthode analytique basée sur un dispositif microfluidique de mesure du formaldéhyde dans l’air associant précision, sélectivité, rapidité d’analyse avec pour objectif majeur une autonomie suffisante sur de longues durées, typiquement un mois. Le principe de la méthode reposait initialement sur trois étapes clés, à savoir le piégeage du formaldéhyde gazeux en solution, la réaction du formaldéhyde avec un agent dérivatif, puis la détection du produit de dérivation par colorimétrie ou fluorimétrie. La méthode a finalement évolué vers seulement deux étapes distinctes grâce à l’utilisation d’un dispositif microfluidique innovant dans lequel le piégeage et la réaction ont lieu simultanément. L’étude des performances analytiques du dispositif a permis de valider la méthode développée pendant cette thèse
Formaldehyde (HCHO) is a major pollutant in indoor air. The objective of this work is to realize the scientific and technological advances required to obtain an analytical method based on a microfluidic device to measure air formaldehyde combining precision, selectivity, analysis speed with for major objective a sufficient autonomy on a long time, typically one month. The principle of the method was initially based on three key steps, the gaseous formaldehyde uptake in solution, the formaldehyde derivatization reaction, then the detection of reaction product by colorimetry or fluorimetry. The method has finally advanced toward only two definite steps thanks to the use of an innovative microfluidic device in which uptake and reaction take place simultaneously. The study of analytical performances of the device allows to validate the method developedduring this work
APA, Harvard, Vancouver, ISO, and other styles
45

Lazure-Demers, Geneviève. "Mise au point d'une méthode rapide d'extraction des autolysines chez Lactobacillus bulgaricus ssp. delbrueckii." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape2/PQDD_0017/MQ55774.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Delpeuch, Anne. "Mise au point de la méthode de dosage du produit A et applications pharmaceutiques." Paris 5, 1997. http://www.theses.fr/1997PA05P112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Schneider, Raphaël. "Mise au point d'une méthode de synthèse de bêta-nitroénones : étude de leur réactivité." Nancy 1, 1994. http://www.theses.fr/1994NAN10005.

Full text
Abstract:
Cette thèse comprend trois parties. Dans la première partie, la préparation de bêta-nitroénones a été étudiée. Une nouvelle méthode de synthèse de ces composes quasi-inconnus, basée sur l'ouverture régiosélective de dérivés 1-nitro-2,3-epoxyalcanes en présence de silice, d'alumine ou d'isopropylate d'aluminium, a été mise au point. L’oxydation des gamma-hydroxy-alpha-nitrooléfines ainsi obtenues à l'aide de chlorochromate de pyridinium a permis d'accéder avec de bons rendements aux structures recherchées. La seconde partie a été consacrée à l'étude de la réactivité des bêta-nitroénones vis-à-vis de nucléophiles. Les alcoolates, les thiolates et les énolates de composés à méthylène bis-actives s'additionnent régioselectivement sur le site 3. Le comportement des énolates de cétones et d'esters, nucléophiles plus réactifs, est diffèrent: sous contrôle cinétique, l'addition a lieu sur le carbonyle; au contraire, lorsqu'une équilibration est permise, seul le produit d'addition sur la nitrooléfine est obtenu. Dans la dernière partie du travail présenté, les bêta-nitroéthers obtenus par l'addition d'alcoolates insaturés ont été utilisés dans la synthèse d'hétérocycles. La transformation du groupement nitrométhyle en oxyde de nitrile ou en nitronate silyle a permis, après cycloaddition 1,3-dipolaire intramoléculaire, la préparation de 2-isoxazolines et d'isoxazoles bicycliques
APA, Harvard, Vancouver, ISO, and other styles
48

Baaj, Yasser. "Mise au point d'une méthode utilisant des biopuces pour le diagnostic de Neuropathies Héréditaires." Limoges, 2008. https://aurore.unilim.fr/theses/nxfile/default/4f59cc9c-c7cc-412e-afa4-d9dfb186cb50/blobholder:0/2008LIMO310C.pdf.

Full text
Abstract:
La méthode de puce à ADN devient progressivement répandue et attrayante pour le diagnostic moléculaire et le génotypage des mutations. Les améliorations de cette méthode se sont principalement focalisées sur l'augmentation de sa fiabilité. Nous rapportons, dans l'étude présente, le développement d'une méthode de génotypage où une puce à ADN portant des sondes dites « en épingle à cheveux » ("hairpin") dont la structure présente une tige et une boucle. Cette puce a été particulièrement conçue pour optimiser la spécificité d'hybridation des séquences complémentaires d'ADN. Nous avons employé cette méthode pour détecter plusieurs mutations impliquées dans une pathologie neurologique appelée la maladie de Charcot-Marie-Tooth (CMT). L'ADN de témoins et de patients ont été amplifiés et marqués par PCR et ensuite hybrides sur des puces à ADN. Les intensités de signal des sondes sauvages étaient considérablement plus élevées que leurs sondes homologues mutantes différant par un seul nucléotide (taux de discrimination) pour l'ADN normal ("homozygote"). D'autre part, pour les échantillons d'ADN muté ("hétérozygote"), les intensités des signaux étaient approximativement équivalents pour les sondes sauvages et mutées (taux de discrimination proche de un aux positions de mutations). Ces résultats ont été obtenus avec des produits de PCR individuellement amplifiés, ou avec des produits de PCR multiplexe. Notre méthode de puce à ADN permet un génotypage très spécifique en combinant les sondes "hairpin" et la PCR multiplexe
Microarray method is becoming increasingly widespread and attractive for molecular diagnosis and mutations genotyping. Improvements of this method have focused on increasing of its reliability. Here we report the development of a genotyping method where a microarray was spotted with stem-loop probes, especially designed to optimize the hybridization specificity of complementary DNA sequences. This accurate method was used to screen for several common disease-causing mutations involved in a neurological disorder called Charcot-Marie-Tooth disease (CMT). Healthy individuals and patients DNA were amplified and labeled by PCR and hybridized on microarray. Signal intensities of wild type probes were considerably higher than their homologues mutant probes differing by only one nucleotide (discrimination ratio) for healthy individual "homozygous" DNA. On the other hand, "heterozygous" mutant DNA samples gave rise to signal intensity ratios close to 1 at mutation positions, as expected with approximately equivalent signals of wild type and mutant probes. These results were obtained either with individually amplified PCR products, or with multiplex PCR products combining several amplicons. Our system combines then the highly specific genotyping principle of stem-loop structure probes with the advantages of a microarray method that allows highly multiplexed and parallel analysis
APA, Harvard, Vancouver, ISO, and other styles
49

Blaise, Patrick. "Mise au point d'une méthode d'ajustement des paramètres de résonance sur des expériences intégrales." Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11063.

Full text
Abstract:
L'ajustement statistique classique utilise pour inclure l'information integrale dans les sections efficaces constituant les bibliotheques d'application se heurte aux problemes generes par la deconvolution et le phenomene d'autoprotection. Une methodologie d'ajustement rigoureuse a ete developpee et appliquee directement aux parametres de resonance pour contourner ces lacunes. Cette methodologie est basee sur un calcul des coefficients de sensibilite des parametres integraux aux parametres de resonances a l'aide d'une combinaison judicieuse des methodes des perturbations et de calculs directs, parametrises en fonction de la dilution du noyau d'interet dans le milieu, afin de prendre en compte les effets d'autoprotection. Elle a ete utilisee pour les premieres resonances de l'u#2#3#8, du pu#2#4#0 et du pu#2#4#2. Et a montre des differences notables sur l'ajustement des sections efficaces multigroupes a dilution infinie, en demontrant de meme le bien-fonde de la nouvelle approche. Cette methode peut etre generalisee et appliquee a tous les types de parametres nucleaires de base. Elle est la seule solution exacte au probleme de deconvolution de l'ajustement.
APA, Harvard, Vancouver, ISO, and other styles
50

Massiani, Anne. "Estimation par la méthode des ondelettes : le point de vue du processus empirique local." Paris 6, 2004. http://www.theses.fr/2004PA066222.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography