To see the other types of publications on this topic, follow the link: Algorithme numérique.

Dissertations / Theses on the topic 'Algorithme numérique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithme numérique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lin, Ta-Long. "Ligne, algorithme, analyse." Paris 1, 1998. http://www.theses.fr/1998PA010533.

Full text
Abstract:
Cette étude présente sous un angle algorithmique, diverses enquêtes et réflexions concernant la ligne et l'analyse dans la création artistique. Dans la première partie - ligne, nous discutons d'abord la ligne dans différents domaines : mathématiques, ingénierie et beaux-arts. Nous interprétons ensuite le dessin linéaire et le concept de la ligne dans l'art moderne d'un point de vue algorithmique. Enfin, des caractères algorithmiques de la ligne dans la peinture chinoise sont exposés. Dans la deuxieme partie - algorithme, après une brève introduction des principes généraux de l'algorithme et des algorithmes de génération des lignes, nous étudions l'évolution de l'art assiste par ordinateur par rapport au développement des algorithmes. Dans la troisième partie - analyse, nous proposons le langage postscript pour décrire des formes de façon quantitative et algorithmique, et autolisp pour l'analyse interactive des formes et de la composition. En référant à "point et ligne sur plan" de Kandinky, nous écrivons une bibliothèque de prototype des formes élémentaires par postscript, et interprétons des passages de Kandinsky sur les formes dans cet ouvrage. Nous montrons aussi comment analyser la composition de la peinture à l'aide des grammaires de forme<br>This study presents various surveys and reflections regarding the line and the analysis in artistic creation from an algorithmic viewpoint. In parti - line, we discuss first the line in different domains : mathematics, engineering and fine arts. Then we interpret the line drawing and the concepts of line in modern art from an algorithmic viewpoint. Finally, some algorithmic characters of line in chinese painting are presented. In part ii - algorithm, after a brief introduction of general principles of algorithm and some algorithms for line generation, we study the evolution of the computer art with regard to the development of algorithms. In part III - analysis, we propose the language postscript for describing the forms in the way quantitative and algorithmic, and autolisp for interactive analysis of form and composition. Referring to kandinsky's "point and line to plane", we write a prototype library of elementary forms by postscript, and interpret some passages of kandinsky concerning the forms in this book. We also show how to analyze the composition of painting by use of shape grammars
APA, Harvard, Vancouver, ISO, and other styles
2

Zibouche, Kamel. "Simulation numérique des problèmes d'interactions fluide-structure appliqués au domaine du bâtiment et génie civil." Paris 6, 2005. http://www.theses.fr/2005PA066615.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

El, Hassani Mohammed. "Segmentation basée-région pour l’amélioration de séquences vidéo : Algorithme-Architecture dans un contexte temps réel." Caen, 2008. http://www.theses.fr/2008CAEN2023.

Full text
Abstract:
L'expression amélioration d'image dans le domaine de la vidéo numérique, désigne l'ensemble des techniques pouvant modifier le contenu d'une séquence vidéo pour un meilleur rendu visuel. Ces techniques peuvent modifier non seulement le contenu d'une image, mais aussi ses dimensions et sa cadence d'affichage. Durant les dix dernières années, les fabricants de boîtiers nume��riques ont commencé à intégrer de plus en plus d'algorithmes d'amélioration de séquences vidéo dans leurs produits. Cependant, la plupart des solutions adoptées utilisent une représentation pixellique de l'image. Dans cette thèse nous proposons d'exploiter une représentation région de l'image pour optimiser l'amélioration du rendu des séquences vidéo. Notre thèse fait appel à trois thématiques : les algorithmes d'amélioration de séquences vidéo, l'implémentation matérielle et les algorithmes de segmentation. Après un état de l'art sur ces trois domaines, nous allons nous attacher à concevoir un algorithme de segmentation vidéo TCVSEG ayant une bonne consistance temporelle entre les images successives. La segmentation vidéo étant un traitement complexe, notre conception est guidée par la simplicité. Nous implémentons TCVSEG sur une architecture programmable dont le choix est justifié. Après l'évaluation de cette première implémentation, nous étudions la parallélisation de notre segmentation spatiale afin d'accélérer le traitement pour des séquences de résolution supérieure au CIF. Ensuite nous proposons des améliorations d'image exploitant la représentation région de l'image, et finalement nous donnons des perspectives pour améliorer les performances et la qualité de notre segmentation vidéo ainsi que des améliorations qui exploitent, également la représentation région de l'image<br>The expression image improvement in the field of digital video indicates all the techniques which can modify the contents of a video sequence for a better visual rendering. These techniques can modify not only the contents of an image, but also its dimensions and its display rate. During the last ten years, the manufacturers of Set Top Boxes began to integrate more and more algorithms to improve the video rendering in their products. However, most of the adopted solutions use a pixel representation of the image. In this thesis we suggest to take benefit of a region representation of the image in order to optimize the improvement of the video rendering. Our thesis is then related to three domains: video improvement algorithms, material implementation and segmentation algorithms. After a state of the art on these three domains, we are going to design a video segmentation algorithm with a good temporal consistency between the successive images. As the video segmentation is a bottleneck for real time processing, our design is simplicity driven. We implement the TCVSEG on a programmable architecture whose choice is justified. After the evaluation of this first implementation, we study the parallelization of our spatial segmentation to accelerate the processing for video sequences of resolution higher than CIF. Then we propose image improvements methods exploiting the region representation of the image. Finally we give perspectives to improve the performances and the quality of our video segmentation as well as improvements which exploit also the region representation of the image
APA, Harvard, Vancouver, ISO, and other styles
4

Bekkouche, Fatiha. "Étude théorique et numérique des équations non-linéaires de Sobolev." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0018/document.

Full text
Abstract:
L'objectif de la thèse est l'étude mathématique et l'analyse numérique du problème non linéaire de Sobolev. Un premier chapitre est consacré à l'analyse a priori pour le problème de Sobolev où on utilise des méthodes de semi-discrétisation explicite en temps. Des estimations d'erreurs ont été obtenues assurant que les schémas numériques utilisés convergent lorsque le pas de discrétisation en temps et le pas de discrétisation en espace tendent vers zéro. Dans le second chapitre, on s'intéresse au problème de Sobolev singulièrement perturbé. En vue de la stabilité des schémas numériques, on utilise dans cette partie des méthodes numériques implicites (la méthode d'Euler et la méthode de Crank- Nicolson) pour discrétiser le problème par rapport au temps. Dans le troisième chapitre, on présente des applications et des illustrations où on utilise le logiciel "FreeFem++". Dans le dernier chapitre, on considère une équation de type Sobolev et on s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des éléments finis conforme en espace et un schéma d'Euler implicite en temps. La borne supérieure est globale en espace et en temps et permet le contrôle effectif de l'erreur globale. A la fin du chapitre, on propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques<br>The purpose of this work is the mathematical study and the numerical analysis of the nonlinear Sobolev problem. A first chapter is devoted to the a priori analysis for the Sobolev problem, where we use an explicit semidiscretization in time. A priori error estimates were obtained ensuring that the used numerical schemes converge when the time step discretization and the spatial step discretization tend to zero. In a second chapter, we are interested in the singularly perturbed Sobolev problem. For the stability of numerical schemes, we used in this part implicit semidiscretizations in time (the Euler method and the Crank-Nicolson method). Our estimates of Chapters 1 and 2 are confirmed in the third chapter by some numerical experiments. In the last chapter, we consider a Sobolev equation and we derive a posteriori error estimates for the discretization of this equation by a conforming finite element method in space and an implicit Euler scheme in time. The upper bound is global in space and time and allows effective control of the global error. At the end of the chapter, we propose an adaptive algorithm which ensures the control of the total error with respect to a user-defined relative precision by refining the meshes adaptively, equilibrating the time and space contributions of the error. We also present numerical experiments
APA, Harvard, Vancouver, ISO, and other styles
5

Luu, Keurfon. "Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM077/document.

Full text
Abstract:
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe<br>Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure
APA, Harvard, Vancouver, ISO, and other styles
6

Ziad, Abderrahmane. "Contributions au calcul numérique des valeurs propres des matrices normales." Saint-Etienne, 1996. http://www.theses.fr/1996STET4001.

Full text
Abstract:
Première partie: la convergence globale de l'algorithme QR avec le shift de Rayleigh appliquée à une matrice normale Hessenberg supérieure irréductible est démontrée. Ensuite nous avons proposé un shift avec lequel la convergence est cubique, lorsque la matrice est symétrique tridiagonale irréductible. Deuxième partie: nous avons proposé une méthode pour le calcul d'une valeur propre de rang donné d'une matrice symétrique tridiagonale irréductible, cette méthode est un procédé d'initialisation de la méthode dite d'itération inverse de Rayleigh
APA, Harvard, Vancouver, ISO, and other styles
7

Ouafi, Abdellah. "La procédure thêta : applicaton au e-algorithme et aux suites de point fixe." Lille 1, 1989. http://www.theses.fr/1989LIL10157.

Full text
Abstract:
L'objet de ce travail est l'étude des transformations, dérivées du e-algorithme par application de la procédure thêta. Il est composé de trois chapitres. Le premier est consacré à l'étude des propriétés de ces transformations, de leur convergence et accélération de la convergence. La connexion avec d'autres transformations, déjà connues, est faite et l'intérêt de l'application de la procédure thêta aux règles de e-algorithme est mis en évidence. Le deuxième chapitre est consacré à la construction de quelques méthodes de résolution des équations non linéaires, dans le cas des racines multiples. L'amélioration de ces méthodes est aussi faite ainsi que leur comparaison. Dans le dernier chapitre, nous proposons des critères permettant de tester l'efficacité de certaines transformations de suites. La comparaison entre elles, à l'aide de leur ordre d'accélération, indice d'efficacité, domaine d'accélération, domaine d'amélioration et domaine de contraction est aussi étudiée
APA, Harvard, Vancouver, ISO, and other styles
8

Delaroque, Aurélie. "Élaboration d’un outil numérique pour la réduction et l’optimisation des mécanismes cinétiques pour les systèmes de combustion." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS417.

Full text
Abstract:
Lors de la modélisation d’un processus de combustion, l’obtention de données globales telles que la vitesse de flamme peut sous certaines condition être réalisée à l’aide de mécanismes très réduits. En revanche, la prédiction de données détaillées comme la concentration d’espèces polluantes minoritaires nécessite l’utilisation de mécanismes cinétiques détaillés mettant en jeu de nombreuses espèces chimiques. Du fait de leur taille et des différences d’échelles de temps, l’intégration de tels modèles chimiques à des simulations numériques complexes est cependant extrêmement coûteuse en temps de calcul. Pour s’affranchir de cette limite, un outil de réduction basé sur les méthodes de Directed Relation Graph et d’analyse de sensibilité a été développé. Il permet la génération automatique de mécanismes réduits en fonction de quantités d’intérêt telles que les données globales (vitesse de flamme, délai d’auto-allumage, etc) et détaillées (profils de concentration) en fonction de tolérances d’erreur définies par l’utilisateur. Les opérations de réduction sont couplées à une optimisation par algorithme génétique des constantes de réaction afin de compenser au maximum les erreurs issues de la perte d’information. Cette optimisation peut être réalisée par rapport à des données issues de simulations numériques mais également par rapport à des mesures expérimentales. L’outil complet a été testé sur différentes configurations canoniques pour différents combustibles (méthane, éthane et n-heptane) et des taux de réduction supérieurs à 80% ont pu être obtenus<br>In the modeling of a combustion process, obtention of global data such as flame speed can, under certain circumstances, be achieved through extremely reduced mechanisms. On the contrary, prediction of detailed data such as polluant species requires the use of detailed kinetic mechanisms involving many chemical species. Due to the size and to the presence of many differents time scales, the integration of those models to complex numerical simulations is a non trivial task. A reduction tool based on Directed Relation Graph and sensitivity analysis methods is proposed to tackle this issue. Reduced mechanisms fitting user defined tolerances for quantities of interest such as global (flame speed, ignition delay, etc) and detailed data (concentration profiles) are automatically generated. The reduction process is paired up with an optimisation of reaction rates through a genetic algorithm to make up for the error induced by the loss of information. This process can use both numerical and experimental reference entries. The complete numerical tool has been tested on several canonical configurations for several fuels (methane, ethane and n-heptane) and reduction rates up to 90% have been observed
APA, Harvard, Vancouver, ISO, and other styles
9

Boust, Clotilde. "Contribution à l'amélioration des images numériques par un algorithme fondé sur la démarche de l'expert chromiste." Paris 6, 2004. http://www.theses.fr/2004PA066025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

El, Khouja Nazek. "Une première approche de la modélisation numérique des écoulements viscoplastiques fonctionnels." Nantes, 2013. http://archive.bu.univ-nantes.fr/pollux/show.action?id=999c2e52-c900-45e6-b7cd-a7c99f90d0a9.

Full text
Abstract:
De nombreux matériaux complexes sont obtenus par la transformation d’un assemblage granulaire humide en une pâte homogène viscoplastique. Cette transformation résulte d’une mise en écoulement de l’assemblage. C’est le cas notamment du malaxage de béton. Les travaux récents sur le comportement en écoulement des assemblages granulaires mettent en évidence la viscoplasticité mais aussi la friction. Toutefois, seul le caractère viscoplastique semble avoir fait l’objet de recherches mathématiques. Dans la littérature, le modèle de Bingham permet d’analyser la viscoplasticité. Dans cette thèse, le caractère frictionnel est produit en introduisant une dépendance à la pression dans le seuil de plasticité du modèle de Bingham. Le modèle résultant est nommé LVF. Les travaux portent alors sur l’étude théorique et numérique de LVF. Seul le problème LVF à seuil régularisé est entièrement résolu théoriquement et numériquement. A cet effet, trois problème sont analysés : un problème à seuil variable, LVF à seuil régularisé et LVF discret. Notamment, l’existence de la solution est montrée, un algorithme de résolution numérique basé sur l’existence d’un point fixe est construit pour la non-linéarité de seuil et une discrétisation spatiale par une méthode d’éléments finis mixtes approximation mixte bilinéaire-constante en vitesse-pression et bilinéaire discontinue pour les contraintes est mise en oeuvre. De plus, la convergence et la robustesse sont mises en évidence sur différents problèmes comme la géométrie de Couette et l’écoulement autour d’un cylindre. Enfin, la faisabilité de l’algorithme de résolution numérique est abordée dans le cas d’un malaxeur planétaire<br>Many complex materials are obtained by transformation a moist granular assembly in a homogeneous viscoplastic paste. This transformation results setting a flow assembly. This is particularly the case concrete mixing. Recent work on the behavior viscoplasticity but also friction. However, only the viscoplastic character seems to have been the subject of mathematical research. In the literature, the Bingham model is used to analyze the viscoplasticity. In this thesis, the frictional character is obtained introducing a dependency pressure in plasticity yield stress Bingham model, named FVL. The work then focuses on the theoretical and numerical study of VFL. For this purpose, three types of problems are analyzed: problem with variable yield stress, FVL with regularized yield stress and discreet FVL. In particular, the existence of a solution is shown, a numerical resolution algorithm based on the existence of a fixed point is designed for non-linearty yield stress and a spatial discretisation by a mixte finite element method bilinear-constant in pressure- velocity and bilinear discontinous for stress is carried out. More, its convergence and robustness are evidenced on different geometry as Couette geometry and flow around a cylinder. Finally, the feasibility of the numerical resolution algorithm is proved in the case of a planetary mixer
APA, Harvard, Vancouver, ISO, and other styles
11

Smirnova, Julia. "Modélisation numérique et expérimentale de la cristallisation des polymères en injection." Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1382.

Full text
Abstract:
Le but de ce travail est de développer un modèle permettant de prévoir l'évolution de la cinétique globale ainsi que le développement de la morphologie complexe pendant le procédé d'injection. Le modèle est représenté par un système d'équations différentielles du premier ordre où les paramètres initiaux sont des fonctions de la température et du cisaillement. Il est résolu numériquement par la méthode de Runge et Kutta d'ordre 2. Les paramètres initiaux sont déduits directement de l'expérience ou ajustés en utilisant les méthodes inverses d'optimisation comme les algorithmes génétiques. Finalement, le modèle est implémenté dans le logiciel d'injection Rem3D®, qui permet de modéliser la cristallisation dans les conditions complexes des procédés industriels<br>The purpose of the present work is to develop a crystallization model which is able to predict overall crystallization kinetic and microstructure development in the injection moulding. The mathematical model is based on the Avrami's hypothesis and consists of a system of differential equations where the initial parameters are functions of the temperature and of the shear rate. The system is solved numerically by the Runge and Kutta method of order 2. The coefficients of the physical functions are determined directly from the experience or adjusted using Inverse Optimisation Methods as the Genetic Algorithm Method. The model is implemented in a fluid mechanics software, Rem3D®, that enables to predict the crystallization in the complex conditions of industrial processes
APA, Harvard, Vancouver, ISO, and other styles
12

Simard, Catherine. "Analyse d'algorithmes de type Nesterov et leurs applications à l'imagerie numérique." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/7714.

Full text
Abstract:
Ce mémoire se veut d'abord un recueil des principales variantes de l'algorithme optimal en pire cas pour la résolution de problèmes convexes et fortement convexes sans contraintes présenté par Yurii Nesterov en 1983 et en 2004. Ces variantes seront présentées dans un cadre unifié et analysées de manière théorique et empirique. On y retrouve une analyse des rôles des différents paramètres composant l'algorithme de base ainsi que de l'influence des constantes L et mu, respectivement la constante de Lipschitz du gradient et la constante de forte convexité de la fonction objectif, sur le comportement des algorithmes. On présentera également une nouvelle variante hybride et nous démontrerons empiriquement qu'elle performe mieux que plusieurs variantes dans la majorité des situations. La comparaison empirique des différentes variantes sur des problèmes sans contraintes utilise un modèle de calcul se basant sur le nombre d'appels à un oracle de premier ordre plutôt que sur le nombre d'itérations. Enfin, une application de ces variantes sur trois instances de problèmes en imagerie numérique ainsi qu'une analyse empirique des résultats obtenus en confrontation avec la méthode optimale FISTA et l'algorithme classique L-BFGS-B viennent clore ce mémoire.
APA, Harvard, Vancouver, ISO, and other styles
13

Khelifi, Mohamed. "Algorithme de Lanczos pour le calcul numérique des valeurs et vecteurs propres de matrices non symètriques de grande taille." Lille 1, 1989. http://www.theses.fr/1989LIL10108.

Full text
Abstract:
On étudie et développe l'algorithme de Lanczos, destiné à calculer des valeurs et vecteurs propres de matrices non symétriques. On apporte des solutions aux problèmes du blocage de l'algorithme et de la perte d'orthogonalité, en utilisant un algorithme de Parlett et Taylor. Ce dernier algorithme est généralisé
APA, Harvard, Vancouver, ISO, and other styles
14

Lê, Thi Hoai An. "Analyse numérique des algorithmes de l'optimisation D. C. . Approches locale et globale. Codes et simulations numériques en grande dimension. Applications." Rouen, 1994. http://www.theses.fr/1994ROUES047.

Full text
Abstract:
Cette thèse est consacrée à l'analyse qualitative et quantitative de l'optimisation d. C. (différence de deux fonctions convexes). Le chapitre I est destiné à l'étude générale de la théorie et des algorithmes de l'optimisation d. C. - approche locale. Dans le chapitre II nous nous intéressons à la fois à l'étude théorique (la dualité lagrangienne, conditions d'optimalité) et algorithmique (algorithmes globaux, DCA) du problème de minimisation d'une forme quadratique sur une boule ou une sphère euclidienne. Nous présentons dans le chapitre III deux nouvelles méthodes (méthode globale de type branch and bound et DCA) pour la minimisation d'une forme quadratique indéfinie sur un polyèdre convexe. La résolution du problème d'optimisation multicritère par DCA via la pénalité exacte et par un algorithme global de type branch and bound fait l'objet du chapitre IV. Le chapitre V concerne le traitement du problème multidimensionnel des tableaux de dissimilarités (MDS) par DCA. La résolution du problème de calcul des valeurs propres extrêmes d'une matrice réelle symétrique par DCA est étudiée dans le chapitre VI. Enfin, dans le dernier chapitre nous étudions une méthode globale d'optimisation d. C. Et son application à la résolution d'un problème industriel d'optimisation non convexe de Pool carburant
APA, Harvard, Vancouver, ISO, and other styles
15

Jaï, Mohammed. "Analyse numérique d'un schéma aux différences finies "mixtes" L. P. D. E. M. Et d'un algorithme de cavitation." Lyon 1, 1990. http://www.theses.fr/1990LYO19005.

Full text
Abstract:
Dans une premère partie, on étudie théoriquement et numériquement uneméthode du type differences finies "mixtes", résolution des problèmes elliptiques : L. P. D. E. M. (locally exact partial differential equation method). Cette méthode, initialement proposée par C. H. T. Pan, A. Perlman et W. Li de manière heuristique pour la résolution des problèmes issus de la lubrification hydrodynamique, présente un certain nombre de caractères originaux que nous mettons en évidence. Nous montrons en particulier qu'elle donne un schéma numérique exact pour les équations elliptiques sans terme d'ordre 0 en dimension 1. Par ailleurs sa grande stabilité observée numériquement peut s'expliquer en référence à des propriétés liéess à l'homogénéisation. Nous donnons ensuite une variante de cette méthode pour la résolution des équations de diffusion convection et plus particulièrement pour les problèmes de perturbations singulières, en dimension 1, pour lesquelles on établit des estrimations d'erreurs uniformes. Comme pour les équations de diffusion pure, on montre que le schéma aux différences, est exact, en dimension 1, pour les équations de diffusion convection sans terme d'ordre 0. La deuxième partie s'intéresse à l'étude mathématique et à l'unicité de la solution approchée d'un problème monodimensionnel de frontière libre intervenant dans l'écoulement d'un fluide peu compressible en présence de cavitation et sous l'hypothèse des films minces, pour des conditions aux limites de Jackobson-Floberg-Adams.
APA, Harvard, Vancouver, ISO, and other styles
16

Herbert, Vincent. "Des codes correcteurs pour sécuriser l'information numérique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00657110.

Full text
Abstract:
Les codes correcteurs d'erreurs sont utilisés pour reconstituer les données numériques, qui sont sujettes à des altérations lors de leur stockage et de leur transport. Il s'agit là de l'utilisation principale des codes correcteurs mais ils peuvent encore être employés en cryptographie. Ils sont dans ce contexte un outil permettant, entre autres choses, de chiffrer des données et d'authentifier des personnes. Ces différents aspects sont traités dans ce document. Pour commencer, nous étudions la classe de codes cycliques possédant un ensemble de définition de la forme {1, 2^i+1, 2^j+1}, où i et j désignent des entiers positifs distincts. Nous concentrons notre attention sur la caractérisation des codes trois-correcteurs appartenant à cette classe ainsi que sur la distribution de poids de ces codes. Nous améliorons l'algorithme de Schaub, qui donne une minoration de la distance minimale des codes cycliques. Nous mettons en oeuvre cet algorithme pour calculer l'immunité spectrale de fonctions booléennes. Cette quantité est reliée à la distance minimale de codes cycliques et est importante pour garantir la sécurité dans certains cryptosystèmes de chiffrement à flot. Dans un second temps, nous proposons une solution pour accélérer le calcul des racines de polynômes dans des corps finis de caractéristique deux. Ce calcul est la phase la plus lente du déchiffrement des cryptosystèmes de type McEliece basés sur les codes de Goppa binaires classiques. Nous fournissons une analyse de la complexité de l'algorithme sous-jacent baptisé BTZ. Nous achevons nos travaux par une étude des protocoles d'authentification à bas coût, dérivés du protocole HB, en adoptant une approche basée sur le problème du décodage par syndrome, plutôt que par l'approche standard, fondée sur le problème LPN.
APA, Harvard, Vancouver, ISO, and other styles
17

Redko, Vadym. "Développement d'un algorithme numérique pour l'identification in-situ du champ de perméabilités d'une préforme fibreuse par une méthode inverse." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10202.

Full text
Abstract:
Dans le procédé RTM (Resin Transfer Molding) utilisé pour la mise en œuvre de structures composites de haute performance, la phase d'imprégnation d'une préforme fibreuse par une résine est déterminante pour la qualité des pièces fabriquées. Pour éviter des défauts de fabrication, la simulation numérique du procédé est largement utilisée. Elle demande une bonne connaissance de caractéristiques matériau dont la principale est la perméabilité du renfort. La caractérisation expérimentale de la perméabilité ayant une variabilité importante, des techniques numériques fiables et applicables dans l'industrie sont recherchées. Ce projet de thèse vise à développer une méthode numérique d'identification in-situ du champ de perméabilité. La performance de la méthode est démontrée sur l'exemple de trois cas d'étude. Un algorithme basé sur la méthode inverse permet notamment d'identifier la perméabilité isotrope et anisotrope ainsi que de détecter l'effet de race-tracking. Dans la suite, les résultats de ce travail pourront être implémentés dans un système de contrôle on-line du procédé RTM<br>In the Resin Transfert Molding process used to manufacture high performance composite structures, the fibrous preform impregnation by resin largely determines the piece quality. Numerical simulation is widely used in order to adress the issue of manufacturing defects. It is necessary to know material charasteristics of preform such as perméability which is the most important one. Generally, the preform permeability is obtained by an experimental measurement having a large variability. Therefore, reliable numerical techniques are being looked for. This PhD thesis aims to develop a numerical algorithm by inverse method to identify in-situ the permeability field. The performance of the method is shown by validation of three study cases. The developped algorithm allows to identify isotropic and anisotropic permeability as well as to detect the race tracking effect. In a future work, this numerical algorithm will be implemented in an on-line control system to optimize the mold filling process
APA, Harvard, Vancouver, ISO, and other styles
18

Leca, Pierre. "Simulation numérique sur des calculateurs à architecture MIMD : l'expérience des systèmes MULTI-AP de l'ONERA et LCAP1 d'IBM." Paris 11, 1987. http://www.theses.fr/1987PA112370.

Full text
Abstract:
Cette thèse fait le bilan des activités de l'auteur sur l'adéquation des algorithmes numériques aux calculateurs à architecture parallèle de type M. I. M. D. A l'ONERA ces études sont conduites autour d'un système multiprocesseur expérimental, multi-AP120b, dont les caractéristiques sont décrites dans la PARTIE I. La PARTIE II présente les résultats obtenus sur certains algorithmes "classiques" de l'analyse numérique linéaire. Les dépendances entre les différentes tâches qui composent les versions "parallèles" de ces algorithmes, ainsi que la notion de "granularité" d'une tâche, associée aux structures de données et aux caractéristiques de l'architecture du multiprocesseur, sont particulièrement prises en considération. La PARTIE II expose les différentes étapes de la conception et de la réalisation, sur l'installation multi-AP, d'un code de simulation numérique de la turbulence tridimensionnelle, basé sur l'utilisation d'une méthode de type pseudo-spectral. La PARTIE IV propose quelques éléments pour une méthodologie de programmation de multiprocesseurs à mémoires distribuées (dépourvus de mémoire partagée) dont les architectures visent à exploiter l'idée de localité aussi bien des calculs que des données. Des résultats sont présentés qui concernent l'implémentation' d'algorithmes parallèles sur le système multi­ FPS164 LCAP1 en utilisant un logiciel d'échanges de messages entre processeurs<br>This thesis is devoted to the works done by the author around the ONERA multi-AP 120b and the IBM Kingston multi-FPS164 LCAP1 systems. The main features of the ONERA experimental multiprocessor system are described in PART I. PART II reviews the parallelization of classical linear algebra algorithms on the ONERA system. Inter-tasks dependencies and tasks granularity, in association with data structures and specific features of the architecture are specially emphased. Part III deals with the different steps in the design and implementation, on the multi-AP, of a 3D numerical simulation of turbulence code, based on a pseudo-spectral method. At last, Part IV introduces elements for a programming methodology of distributed memories multiprocessors whose architecture tends to exploit eventual data locality in a computation. Results concerning parallel algorithms, such A. D. I. Methods, on the LCAP1 system using message passing primitives, are reviewed and explained
APA, Harvard, Vancouver, ISO, and other styles
19

Brussieux, Marc. "Reconnaissance des formes et cartographie des nappes d'hydrocarbures par traitement numérique d'images de télédétection." Paris 6, 1986. http://www.theses.fr/1986PA066499.

Full text
Abstract:
On s'intéresse à la reconnaissance et à la cartographie des nappes d'hydrocarbures polluant la surface de la mer. Après avoir comparé les performances et les coûts des principaux capteurs disponibles dans ce domaine, on propose un premier type d'opérateurs de reconnaissance utilisant l'information multispectrale. Puis, on montre qu'il est possible d'obtenir également des cartes à partir d'images monochromatiques en utilisant l'information spatiale. Enfin, dans une partie consacrée à la synthèse d'images de nappes d'huile en mouvement, on décrit l'implantation des algorithmes proposes et leur test en vol sur un microcalculateur embarqué à bord d'un avion de surveillance maritime. Un tel système permet d'assister le pilote dans ses taches de reconnaissance et de guidage.
APA, Harvard, Vancouver, ISO, and other styles
20

Venel, Juliette. "Modélisation mathématique et numérique de mouvements de foule." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00346035.

Full text
Abstract:
Nous nous intéressons à la modélisation des mouvements de foule causés par des situations d'évacuation d'urgence. L'objectif de cette thèse est de proposer un modèle mathématique et une méthode numérique de gestion des contacts, afin de traiter les interactions locales entre les personnes pour finalement mieux rendre compte de la dynamique globale du trafic piétonnier. Nous proposons un modèle microscopique de mouvements de foule reposant sur deux principes. D'une part, chaque personne a une vitesse souhaitée, celle qu'elle aurait en l'absence des autres. D'autre part, la vitesse réelle des individus prend en compte une certaine contrainte d'encombrement maximal. En précisant le lien entre ces deux vitesses, le problème d'évolution prend la forme d'une inclusion différentielle du premier ordre. Son caractère bien posé est démontré en utilisant des résultats sur les processus de rafle par des ensembles uniformément prox-réguliers. Ensuite, nous présentons un schéma numérique et démontrons sa convergence. Pour calculer une vitesse souhaitée particulière (celle dirigée par le plus court chemin évitant les obstacles), nous présentons une programmation orientée objet ayant pour but de simuler l'évacuation d'une structure de plusieurs étages présentant une géométrie quelconque. Nous finissons avec d'autres choix de vitesse souhaitée (par exemple, en ajoutant des stratégies individuelles) et présentons les résultats numériques associés. Ces simulations numériques permettent de retrouver certains phénomènes observés lors de déplacements piétonniers.
APA, Harvard, Vancouver, ISO, and other styles
21

Briant, Olivier. "Étude théorique et numérique du problème de la gestion de la diversité." Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00004710.

Full text
Abstract:
Le problème de la gestion de la diversité est défini sur un ensemble partiellement ordonné d'élements possédant des demandes et des coûts unitaires de production. L'objectif est de produire un sous-ensemble de $k$ éléments références, $k$ étant un nombre donné, minimisant les coûts. Chaque élément non produit doit être remplacé par une référence qui lui est supérieure, ce qui implique un sur-coût. Après une étude théorique de complexité, nous modélisons ce problème grâce à un programme linéaire en nombres entiers, proche de ceux des problèmes de localisation $k$-médians. Pour résoudre ce programme, nous présentons un algorithme lagrangien, ainsi que de nombreux critères de fixation de variables permettant de réduire la taille du problème. Nous exploitons ensuite cet algorithme pour construire des solutions de bonne qualité. Nous développons enfin un algorithme exact de Séparation et Coupe. Nous étudions un certain type de coupes ainsi qu'une heuristique permettant de les générer. Nous concluons par des tests numériques effectués sur des instances réelles.
APA, Harvard, Vancouver, ISO, and other styles
22

Muquet, Bertrand. "Nouveaux schémas de réception et décodage pour les systèmes OFDM sans fil avec préfixe cyclique ou zero-padding." Paris, ENST, 2001. http://www.theses.fr/2001ENST0022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Gentot, Laëtitia. "Adoucissement par fatigue des milieux élastomères : caractérisation, modélisation et simulation numérique." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-207-208.pdf.

Full text
Abstract:
L'étude porte sur le comportement hyperélastique de matériaux élastomères et sur l'endommagement de ceux-ci lors de sollicitations en fatigue à faible nombre de cycles. Les essais de traction répétée à déformation maximale imposée sur différents matériaux élastomères ont montré un adoucissement important qui se caractérise par une chute de la contrainte dès les premiers cycles de chargement. Cette étude expérimentale a permis de mettre en évidence la dépendance de ce phénomène d'adoucissement par fatigue vis à vis d'une part de la déformation maximale imposée au cours du chargement cyclique et d'autre part du nombre de cycles de chargement. L'étude bibliographique a permis de constater que les modèles proposés pour décrire le phénomène d'adoucissement ne faisaient pas intervenir, simultanément, les deux paramètres mis en é'vidence lors de l'étude expérimentale. Deux tendances se sont imposées: les modèles qui ne prennent en compte que la déformation maximale imposée et les modèles qui ne tiennent compte que du nombre de cycles de chargement. Afin d'illustrer ces deux tendances, nous présentons deux modèles relativement récents dont nous montrerons les limites au travers de résultats expérimentaux. Ainsi, un modèle permettant de rendre compte du phénomène d'adoucissement par fatigue, et prenant en compte l'ensemble des paramètres intervenant dans celui-ci, a été développé. Une fois l'identification du comportement faite, le modèle proposé pénalise le comportement hyperélastique du milieu élastomère par un endommagement évoluant en fonction des deux paramètres précédemment cités. Ce modèle, prédictif, présente l'avantage de nécessiter l'identification d'un unique paramètre. Celui-ci a été testé sur plusieurs matériaux différant soit par la matrice, soit par les renforts. Une étude, du seul paramètre intervenant dans le modèle proposé, a permis de montrer que sa détermination à un certain niveau de déformation maximale imposée permettait de prévoir l'adoucissement pour des niveaux de déformation maxirnale imposés et des niveaux de contrainte induite plus faibles, et ce quelque soit le nombre de cycles considéré. Par la suite, le modèle d'adoucissement par fatigue développé a été implémenté au sein d'un code éléments finis modulaire (modulef) afin d'offrir un outil d'aide à la conception de structures élastomères prenant en compte ces phénomènes d'adoucissement. Dans ce but, un algorithme non incrémentaI de résolution a été développé afin de prendre en compte d'une part la nature incompressible et endommageable du comportement et d'autre part le caractère grandement déformable et non linéaire des comportements mis en jeu. En effet, les problèmes à traiter étant par définition des problèmes non linéaires (comportement hyperéla. Stique) et instationnaires (endommagement), l'utilisation d'algorithme classique de type incrémentaI ne pouvait être envisagée à cause des temps de calculs alors requis. Un algorithme non incrémentaI basé sur des techniques de type Newton, ou plus précisément LATIN, a donc été proposé ainsi que plusieurs méthodes d'optimisation afin de diminuer les temps de calcul.
APA, Harvard, Vancouver, ISO, and other styles
24

Chaudru, de Raynal Paul Éric. "Équations différentielles stochastiques : résolubilité forte d'équations singulières dégénérées ; analyse numérique de systèmes progressifs-rétrogrades de McKean-Vlasov." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00954417.

Full text
Abstract:
Cette thèse traite de deux sujets: la résolubilité forte d'équations différentielles stochastiques à dérive hölderienne et bruit hypoelliptique et la simulation de processus progressifs-rétrogrades découplés de McKean-Vlasov. Dans le premier cas, on montre qu'un système hypoelliptique, composé d'une composante diffusive et d'une composante totalement dégénérée, est fortement résoluble lorsque l'exposant de la régularité Hölder de la dérive par rapport à la composante dégénérée est strictement supérieur à 2/3. Ce travail étend au cadre dégénéré les travaux antérieurs de Zvonkin (1974), Veretennikov (1980) et Krylov et Röckner (2005). L'apparition d'un seuil critique pour l'exposant peut-être vue comme le prix à payer pour la dégénérescence. La preuve repose sur des résultats de régularité de la solution de l'EDP associée, qui est dégénérée, et est basée sur une méthode parametrix. Dans le second cas, on propose un algorithme basé sur les méthodes de cubature pour la simulation de processus progessifs-rétrogrades découplés de McKean-Vlasov apparaissant dans des problèmes de contrôle dans un environnement de type champ moyen. Cet algorithme se divise en deux parties. Une première étape de construction d'un arbre de particules, à dynamique déterministe, approchant la loi de la composante progressive. Cet arbre peut être paramétré de manière à obtenir n'importe quel ordre d'approximation (en terme de pas de discrétisation de l'intervalle). Une seconde étape, conditionnelle à l'arbre, permettant l'approximation de la composante rétrograde. Deux schémas explicites sont proposés permettant un ordre d'approximation de 1 et 2.
APA, Harvard, Vancouver, ISO, and other styles
25

Santiago, Jenny. "Développement de nouveaux plans d'expériences uniformes adaptés à la simulation numérique en grande dimension." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4302.

Full text
Abstract:
Cette thèse propose une méthodologie pour des études en simulation numérique en grande dimension. Elle se décline en différentes étapes : construction de plan d'expériences approprié, analyse de sensibilité et modélisation par surface de réponse. Les plans d'expériences adaptés à la simulation numérique sont les "Space Filling Designs", qui visent à répartir uniformément les points dans l'espace des variables d'entrée. Nous proposons l'algorithme WSP pour construire ces plans, rapidement, avec de bons critères d'uniformité, même en grande dimension. Ces travaux proposent la construction d'un plan polyvalent, qui sera utilisé pour les différentes étapes de l'étude : de l'analyse de sensibilité aux surfaces de réponse. L'analyse de sensibilité sera réalisée avec une approche innovante sur les points de ce plan, pour détecter le sous-ensemble de variables d'entrée réellement influentes. Basée sur le principe de la méthode de Morris, cette approche permet de hiérarchiser les variables d'entrée selon leurs effets. Le plan initial est ensuite "replié" dans le sous-espace des variables d'entrée les plus influentes, ce qui nécessite au préalable une étude pour vérifier l'uniformité de la répartition des points dans l'espace réduit et ainsi détecter d'éventuels amas et/ou lacunes. Ainsi, après réparation, ce plan est utilisé pour l'étape ultime : étude de surfaces de réponse. Nous avons alors choisi d'utiliser l'approche des Support Vector Regression, indépendante de la dimension et rapide dans sa mise en place. Obtenant des résultats comparables à l'approche classique (Krigeage), cette technique semble prometteuse pour étudier des phénomènes complexes en grande dimension<br>This thesis proposes a methodology of study in numeric simulation for high dimensions. There are several steps in this methodology : setting up an experimental design, performing sensitivity analysis, then using response surface for modelling. In numeric simulation, we use a Space Filling Design that scatters the points in the entire domain. The construction of an experimental design in high dimensions must be efficient, with good uniformity properties. Moreover, this construction must be fast. We propose using the WSP algorithm to construct such an experimental design. This design is then used in all steps of the methodology, making it a versatile design, from sensitivity analysis to modelling. A sensitivity analysis allows identifying the influent factors. Adapting the Morris method principle, this approach classifies the inputs into three groups according to their effects. Then, the experimental design is folded over in the subspace of the influent inputs. This action can modify the uniformity properties of the experimental design by creating possible gaps and clusters. So, it is necessary to repair it by removing clusters and filling gaps. We propose a step-by-step approach to offer suitable repairing for each experimental design. Then, the repaired design is used for the final step: modelling from the response surface. We consider a Support Vector Machines method because dimension does not affect the construction. Easy to construct and with good results, similar to the results obtained by Kriging, the Support Vector Regression method is an alternative method for the study of complex phenomena in high dimensions
APA, Harvard, Vancouver, ISO, and other styles
26

ROLAND, Christophe. "Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00010238.

Full text
Abstract:
La première partie est consacrée à la résolution de systèmes linéaires. Le chapitre 1 expose des résultats théoriques et numériques sur les méthodes proposées par Altman et précise le lien avec les méthodes de Krylov. Le chapitre 2 utilise des techniques d'extrapolation introduites par Brezinski pour obtenir une estimation du vecteur erreur. Plusieurs méthodes de projection sont retrouvées et de nouvelles procédures d'accélération données. Dans la deuxième partie, une nouvelle stratégie inspirée de la méthode de Cauchy-Barzilai-Borwein permet de définir de nouveaux schémas résolvant des problèmes de point fixe. Des résultats numériques sur un problème de bifurcation et un théorème de convergence sont donnés. Les chapitres 4, 5 et 6 sont consacrés à l'accélération de l'algorithme EM utilisé pour calculer des estimateurs du maximum de vraisemblance. Une classe de schémas itératifs basés sur la stratégie précédente est présentée, un théorème de convergence et une application à un problème de tomographie sont donnés. La dernière partie, fruit d'un projet du cemracs 2003, traite d'un problème issu de la physique des plasmas : l'amélioration des Codes Particles in Cell à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes et sa validation numérique.
APA, Harvard, Vancouver, ISO, and other styles
27

Hamouda, Leila. "Formulations mixtes et hybrides pour les équations de la magnétostatique 3D dans un domaine non borné : mise en oeuvre numérique de diverses techniques de résolution." Paris 11, 2002. http://www.theses.fr/2002PA112079.

Full text
Abstract:
Le travail que nous présentons dans cette thèse repose sur l'étude mathématique et numérique de formulations mixtes et hybrides en magnétostatique tridimensionnelle, discrétisées par des éléments finis appropriés. Ce travail est fait dans le cadre de matériaux isotropes où l'on n'a besoin d'aucune condition au bord de la région magnétique, le problème extérieur étant résolu par une méthode intégrale. Le premier chapitre est consacré aux aspects théoriques d'une première formulation variationnelle mixte en champ magnétique et potentiel vecteur. L'existence et l'unicité de la solution de cette formulation y sont montrées. Après discrétisation, le système matriciel obtenu est alors résolu par la méthode d'Uzawa. Le second chapitre présente une méthode de pénalisation du système matriciel et de bons résultats ont été obtenus pour le Problème 13 du Team Work Shop. Nous avons également comparé cette technique de pénalisation du système matriciel avec celle du problème continu et nous avons conclu que notre technique est plus avantageuse que cette dernière. Le troisième chapitre expose la technique d'arbre en facettes, technique implémentée pour assurer l'unicité du potentiel vecteur. Le quatrième chapitre introduit les multiplicateurs de Lagrange sur les interfaces afin de relaxe les deux contraintes de continuité de la composante tangentielle du champ magnétique et de la composante normale de l'induction. Deux méthodes de résolution sont utilisées: la méthode d'Uzawa et la méthode de condensation statique. De bons résultats numériques sont obtenus. Finalement, une annexe présente un préconditionnement polynômial de la matrice de masse du système matriciel et un code est implémentée pour un domaine à perméabilité constante<br>We present a mathematical and a numerical study of mixed and hybrid formulations for magnetostatics 3D in an unbounded domain, discretised with well-chosen finite elements. This study deals with isotrope materials without any condition on the boundary of the magnetic domain, the external problem is solved by an integral method. The first chapter is devoted to the theoritical sights of a first mixed formulation where the magnetic field and the vector potentiel are the unknowns. The existence and the unicity of the solution are established. After the discretization, the matrix system is solved by Uzawa's method. The second chapter presents a perturbation method of the linear system. Good results are obtained for the Problem 13 of the Team Work Shop. We also compared these results with those obtained when the continued problem is perturbed. We, then, deduce that our method is more advantageous than the latter. The third chapter sets out the tree-cotree technic in order to impose the unicity of the vector potential. The fourth chapter introduces the lagrange multipliers used to relax continuity constraints: the continuity of the tangential component of magnetic field and the continuity of the normal component of the induction. Linear systems obtained have block diagonal matrix. Uzawa's method and static condensation method are used to solve these systems. Good results with good accuracy are obtained. Finally, an appendix relates the purpose of a polynomial preconditioning and a code is implemented for a domain having a constant permeability
APA, Harvard, Vancouver, ISO, and other styles
28

Hadjou, Tayeb. "Analyse numérique des méthodes de points intérieurs : simulations et applications." Rouen, 1996. http://www.theses.fr/1996ROUES062.

Full text
Abstract:
La thèse porte sur une étude à la fois théorique et pratique des méthodes de points intérieurs pour la programmation linéaire et la programmation quadratique convexe. Dans une première partie, elle donne une introduction aux méthodes de points intérieurs pour la programmation linéaire, décrit les outils de base, classifie et présente d'une façon unifiée les différentes méthodes. Elle présente dans la suite un exposé des algorithmes de trajectoire centrale pour la programmation linéaire et la programmation quadratique convexe. Dans une seconde partie sont étudiées des procédures de purification en programmation linéaire. Il s'agit des procédures qui déterminent, via une méthode de points intérieurs, un sommet (ou face) optimal. Dans cette partie, nous avons introduit et développé une nouvelle procédure de purification qui permet de mener dans tous les cas à un sommet optimal et de réduire le temps de calcul. La dernière partie est consacrée aux illustrations et aux expériences numériques.
APA, Harvard, Vancouver, ISO, and other styles
29

Belhaj, Skander. "Algèbre matricielle rapide en calcul formel et calcul numérique." Phd thesis, Université de Franche-Comté, 2010. http://tel.archives-ouvertes.fr/tel-00487346.

Full text
Abstract:
Dans cette thèse, nous visons l'amélioration de quelques algorithmes en algèbre matricielle rapide et plus spécifiquement les algorithmes rapides sur les matrices structurées en calcul formel et numérique. Nous nous intéressons en particulier aux matrices de Hankel et de Toeplitz. Nous introduisons un nouvel algorithme de diagonalisation par blocs approchée de matrices réelles de Hankel. Nous décrivons la relation naturelle entre l'algorithme d'Euclide et notre factorisation par blocs approchée pour les matrices de Hankel associées à deux polynômes, ainsi que pour les matrices de Bézout associées aux mêmes polynômes. Enfin, dans le cas complexe, nous présentons un algorithme révisé de notre diagonalisation par blocs approchée des matrices de Hankel, en calculant la suite des restes et la suite des quotients apparues au cours de l'exécution de l'algorithme d'Euclide.
APA, Harvard, Vancouver, ISO, and other styles
30

Allali, Anthony. "Algorithme de reconstruction itératif pour tomographie optique diffuse avec mesures dans le domaine temporel." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8909.

Full text
Abstract:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
31

Zeloufi, Mohamed. "Développement d’un convertisseur analogique-numérique innovant dans le cadre des projets d’amélioration des systèmes d’acquisition de l’expérience ATLAS au LHC." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT115.

Full text
Abstract:
À l’horizon 2024, l’expérience ATLAS prévoit de fonctionner à des luminosités 10 fois supérieures à la configuration actuelle. Par conséquent, l’électronique actuelle de lecture ne correspondra pas aux conditions de ces luminosités. Dans ces conditions, une nouvelle électronique devra être conçue. Cette mise à niveau est rendue nécessaire aussi par les dommages causés par les radiations et le vieillissement. Une nouvelle carte frontale va être intégrée dans l’électronique de lecture du calorimètre LAr. Un élément essentiel de cette carte est le Convertisseur Analogique-Numérique (CAN) présentant une résolution de 12bits pour une fréquence d’échantillonnage de 40MS/s, ainsi qu’une résistance aux irradiations. Compte tenu du grand nombre des voies, ce CAN doit remplir des critères sévères sur la consommation et la surface. Le but de cette thèse est de concevoir un CAN innovant qui peut répondre à ces spécifications. Une architecture à approximations successives (SAR) a été choisie pour concevoir notre CAN. Cette architecture bénéficie d’une basse consommation de puissance et d’une grande compatibilité avec les nouvelles technologies CMOS. Cependant, le SAR souffre de certaines limitations liées principalement aux erreurs de décisions et aux erreurs d’appariement des capacités du CNA. Deux prototypes de CAN-SAR 12bits ont été modélisés en Matlab afin d’évaluer leur robustesse. Ensuite les conceptions ont été réalisées dans une technologie CMOS 130nm d’IBM validée par la collaboration ATLAS pour sa tenue aux irradiations. Les deux prototypes intègrent un algorithme d’approximations avec redondance en 14 étapes de conversion, qui permet de tolérer des marges d’erreurs de décisions et d’ajouter une calibration numérique des effets des erreurs d’appariement des capacités. La partie logique de nos CAN est très simplifiée pour minimiser les retards de génération des commandes et la consommation d’énergie. Cette logique exécute un algorithme monotone de commutation des capacités du CNA permettant une économie de 70% de la consommation dynamique par rapport à un algorithme de commutation classique. Grâce à cet algorithme, une réduction de capacité totale est aussi obtenue : 50% en comparant notre premier prototype à un seul segment avec une architecture classique. Pour accentuer encore plus le gain en termes de surface et de consommation, un second prototype a été réalisé en introduisant un CNA à deux segments. Cela a abouti à un gain supplémentaire d’un facteur 7,64 sur la surface occupée, un facteur de 12 en termes de capacité totale, et un facteur de 1,58 en termes de consommation. Les deux CAN consomment respectivement une puissance de ~10,3mW et ~6,5mW, et ils occupent respectivement une surface de ~2,63mm2 et ~0,344mm2.Afin d’améliorer leurs performances, un algorithme de correction numérique des erreurs d’appariement des capacités a été utilisé. Des buffers de tensions de référence ont étés conçus spécialement pour permettre la charge/décharge des capacités du convertisseur en hautes fréquences et avec une grande précision. En simulations électriques, les deux prototypes atteignent un ENOB supérieur à 11bits tout en fonctionnant à la vitesse de 40MS/s. Leurs erreurs d’INL simulés sont respectivement +1,14/-1,1LSB et +1,66/-1,72LSB.Les résultats de tests préliminaires du premier prototype présentent des performances similaires à celles d’un CAN commercial de référence sur notre carte de tests. Après la correction, ce prototype atteint un ENOB de 10,5bits et un INL de +1/-2,18LSB. Cependant suite à une panne de carte de tests, les résultats de mesures du deuxième prototype sont moins précis. Dans ces circonstances, ce dernier atteint un ENOB de 9,77bits et un INL de +7,61/-1,26LSB. En outre la carte de tests actuelle limite la vitesse de fonctionnement à ~9MS/s. Pour cela une autre carte améliorée a été conçue afin d’atteindre un meilleur ENOB, et la vitesse souhaitée. Les nouvelles mesures vont être publiées dans le futur<br>By 2024, the ATLAS experiment plan to operate at luminosities 10 times the current configuration. Therefore, many readout electronics must be upgraded. This upgrade is rendered necessary also by the damage caused by years of total radiations’ effect and devices aging. A new Front-End Board (FEB) will be designed for the LAr calorimeter readout electronics. A key device of this board is a radiation hard Analog-to-Digital Converter (ADC) featuring a resolution of 12bits at 40MS/s sampling rate. Following the large number of readout channels, this ADC device must display low power consumption and also a low area to easy a multichannel design.The goal of this thesis is to design an innovative ADC that can deal with these specifications. A Successive Approximation architecture (SAR) has been selected to design our ADC. This architecture has a low power consumption and many recent works has shown his high compatibility with modern CMOS scaling technologies. However, the SAR has some limitations related to decision errors and mismatches in capacitors array.Using Matlab software, we have created the models for two prototypes of 12bits SAR-ADC which are then used to study carefully their limitations, to evaluate their robustness and how it could be improved in digital domain.Then the designs were made in an IBM 130nm CMOS technology that was validated by the ATLAS collaboration for its radiation hardness. The prototypes use a redundant search algorithm with 14 conversion steps allowing some margins with comparator’s decision errors and opening the way to a digital calibration to compensate the capacitors mismatching effects. The digital part of our ADCs is very simplified to reduce the commands generation delays and saving some dynamic power consumption. This logic follows a monotonic switching algorithm which saves about70% of dynamic power consumption compared to the conventional switching algorithm. Using this algorithm, 50% of the total capacitance reduction is achieved when one compare our first prototype using a one segment capacitive DAC with a classic SAR architecture. To boost even more our results in terms of area and consumption, a second prototype was made by introducing a two segments DAC array. This resulted in many additional benefits: Compared to the first prototype, the area used is reduced in a ratio of 7,6, the total equivalent capacitance is divided by a factor 12, and finally the power consumption in improved by a factor 1,58. The ADCs respectively consume a power of ~10,3mW and ~6,5mW, and they respectively occupy an area of ~2,63mm2 and ~0,344mm2.A foreground digital calibration algorithm has been used to compensate the capacitors mismatching effects. A high frequency open loop reference voltages buffers have been designed to allow the high speed and high accuracy charge/discharge of the DAC capacitors array.Following electrical simulations, both prototypes reach an ENOB better than 11bits while operating at the speed of 40MS/s. The INL from the simulations were respectively +1.14/-1.1LSB and +1.66/-1.72LSB.The preliminary testing results of the first prototype are very close to that of a commercial 12bits ADC on our testing board. After calibration, we measured an ENOB of 10,5bits and an INL of +1/-2,18LSB. However, due to a testing board failure, the testing results of the second prototype are less accurate. In these circumstances, the latter reached an ENOB of 9,77bits and an INL of +7,61/-1,26LSB. Furthermore the current testing board limits the operating speed to ~9MS/s. Another improved board was designed to achieve a better ENOB at the targeted 40MS/s speed. The new testing results will be published in the future
APA, Harvard, Vancouver, ISO, and other styles
32

Timesli, Abdelaziz. "Simulation du soudage par friction et malaxage à l'aide de méthodes sans maillage." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0111/document.

Full text
Abstract:
Le procédé de soudage par friction et malaxage est un procédé récent qui a été développé au sein de l'institut de soudure britannique "The Welding Institute" au début des années 90. Ce procédé, utilisé généralement en aéronautique, est sans apport de matière et permet de souder principalement des alliages d'aluminium difficilement soudables par les procédés classiques de soudage. Il consiste à malaxer le matériau de base à l'aide d'un outil constitué d'un pion et d'un épaulement frottant sur les faces supérieures des tôles à souder. La modélisation de ce procédé est très complexe puisque ce dernier implique des couplages entre des phénomènes mécaniques, thermiques et métallurgiques. Le malaxage dans le procédé de soudage FSW est difficile à simuler à l'aide de la méthode des éléments finis (en lagrangien) puisque la zone proche de l'outil de soudage est le siège de grandes déformations. Donc le remaillage est nécessaire. Cependant, le remaillage est cher et très difficile pour les problèmes tridimensionnels. Par ailleurs, après un remaillage, il est nécessaire d'interpoler les champs (vitesses, contraintes,...) correspondant à la solution courante, ce qui peut introduire des erreurs supplémentaires dans le calcul (on parle de diffusion numérique). Nous proposons dans ce travail des modèles basés sur la méthode sans maillage dite "Smoothed Particle Hydrodynamics SPH" et la méthode des moindres carrés mobiles (Moving Least Square MLS) pour la simulation de ce procédé. Ces modèles sont formulés dans le cadre lagrangien et utilisent la forme forte des équations aux dérivées partielles. Le premier modèle basé sur SPH considère la zone de soudure comme un fluide non newtonien faiblement compressible et dont la viscosité dépend de la température. Ce modèle est proposé pour la simulation numérique du comportement thermomécanique d'un matériau soudé par le procédé FSW. Dans le deuxième modèle, un algorithme itératif implicite de premier ordre a été proposé, pour simuler le malaxage de la matière dans le cas d'un matériau viscoplastique, en utilisant la méthode MLS et la technique de collocation. Le troisième modèle est un algorithme implicite d'ordre élevé basée sur le couplage de la méthode MLS et la Méthode Asymptotique Numérique MAN. Cet algorithme permet de réduire le temps de calcul par rapport à l'algorithme itératif implicite de premier ordre. La validation de ces trois modèles proposés a été faite par le code industriel Fluent<br>Friction stir welding is a recent process that has been developed by the British Welding Institute TWI "The Welding Institute" since 1990s. This process, generally used in aerospace, does not need additional material and allows mainly joining plates of aluminum alloys which are difficult to weld by the classical welding processes. It consists in mixing the base material using a tool comprising a pin and a shoulder which heats the plates to be welded by friction. The modeling of this process is very complex since it involves the coupling between mechanical, thermal and metallurgical phenomena. The mixing in welding process FSW is difficult to simulate using finite element method in lagrangian framework since the area near the welding tool is submitted to large deformations. So remeshing procedure is often required. However, remeshing can be very expensive and difficult to perform for three-dimensional problems. Moreover, after remeshing step, it is necessary to interpolate the fields (velocities, constraints ...) corresponding to the current solution, which may lead to additional errors in the calculation (called numerical diffusion). We propose in this work models based on meshless methods called "Smoothed Particle Hydrodynamics SPH" and Moving Least Square method for the simulation of this welding process. These models are formulated in lagrangian framework and use the strong form of partial differential equations. The first model based on SPH considers the welding zone as a weakly compressible non-newtonian fluid and whose viscosity depends on the temperature. This model is proposed for the numerical simulation of thermo-mechanical behavior of a welded material by FSW process. The second model is a first order implicit iterative algorithm proposed to simulate material mixing in the case a visco-plastic behavior using the MLS method and the collocation technique. The third model is a high order implicit algorithm based on the coupling of MLS method and Asymptotic Numerical Method (ANM). This algorithm allows reducing the computation time by comparison with the first order implicit iterative algorithm. The validation of these three proposed models was done by the industrial code Fluent
APA, Harvard, Vancouver, ISO, and other styles
33

Shen, Jie. "Résolution numérique des équations de Stokes et Navier-Stokes par les méthodes spectrales." Paris 11, 1987. http://www.theses.fr/1987PA112221.

Full text
Abstract:
Nous présentons des méthodes spectrales pour la résolution des équations de Stokes et de Navier-Stokes. D'abord, nous construisons un solveur rapide de Helmholtz, basé sur la méthode de Tchebychev-Tau, qui sera fréquemment utilisé par la suite. Ensuite, nous considérons deux méthodes pour l'approximation du problème de Stokes: l'une est de type Uzawa; l'autre est appelée la méthode de la matrice d'influence. Divers résultats théoriques et numériques sont présentés. Enfin, nous proposons deux schémas pour l'approximation des équations de Navier­Stokes d'évolution. Nous montrons que ces deux schémas sont tous deux inconditionnellement stables et convergents<br>We present spectral methods for solving Stokes et Navier-Stokes equations. First of all, we construct a fast Helmholtz solver, based on Chebychev-Tau method, which we will use frequently later. Then, we consider two methods for the approximation of Stokes problem : one is based on the Uzawa algorithm, the other is called the influence matrix method. Several theoritical and numerical results are presented. Finally, we propose two schemes for the approximation of Navier-Stokes equations. We prove that both schemes are unconditionary stable and convergent
APA, Harvard, Vancouver, ISO, and other styles
34

El, Azzouzi Khalid. "Modélisation et simulation numérique à l’échelle des fibres du comportement dynamique d’un multifilament unidirectionnel en placement de fibres robotisé." Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0027.

Full text
Abstract:
Le comportement mécanique d’un fil de carbone en compression transverse est caractérisé par des déplacements relatifs importants entre fibres, ce qui lui confère un comportement fortement non-linéaire lié aux contacts inter-fibres. Le caractère multi-échelle de la structure fibreuse rend problématique la caractérisation du comportement mécanique du fil de carbone utilisé dans le procédé de placement de fibres sèches automatisé. La complexité de la modélisation mécanique de ce milieu fibreux à l’échelle des fibres est due au fait que la forte non-linéarité mécanique dépend en grande partie de la configuration géométrique des fibres, des interactions de contact-frottement entre elles et le contexte dynamique de la dépose. Le couplage fort entre chargements et modes de déformation dans les différentes directions et l’évolution de la microstructure, qu’il est bien difficile d’appréhender, accentuent fortement la complexité de la modélisation d’une telle structure fibreuse. Le travail de la thèse s’inscrit dans le cadre de l’optimisation du moyen de dépose robotisé de fils secs avec une source de chaleur par laser. Afin de comprendre le comportement thermo-mécanique du fil au cours de la dépose, un modèle dynamique a été développé pour simuler un milieu fibreux en interaction. Le but est de pouvoir prédire le réarrangement des fibres dans un fil sous sollicitation, ainsi que l’évolution des points de contact entre fibres. Ce travail est une première étape vers l’objectif final qui est de définir les paramètres procédés par rapport à la nature des fils secs déposés permettant d’obtenir une préforme de bonne qualité avec une vitesse de dépose élevée<br>The mechanical behavior of the carbon tow in lateral pressure characterized by the relative movement between fibers giving it a non-linear behavior because of the contact inter-fibers. The fact that the fibrous structure of the tow makes it difficult to characterize its mechanical behavior during the automated placement. The complexity of the mechanical modeling of this fibrous media at fiber scale is due to the fact that the mechanical non-linearity depends in large part to the geometric configuration of fibers, the friction between fibers and also the dynamic environment of the placement. The mechanical modeling complexity is a consequence of the tight coupling between loading and deformation directions modifying the microstructure. This thesis is in keeping with the parameter optimization of the Automated Dry Fiber Placement process with a laser heat source. In order to improve understanding the thermos-mechanical behavior of tow during placement, a dynamic model has been developed to simulate the interaction between fibers. The aim is to be able to predict the geometric configuration of fibers under loading, as well as the position of the contact points. These works are the first step to achieving the objective of identifying and optimizing process parameters in order to increase the lay down speed as well as the quality of the preform
APA, Harvard, Vancouver, ISO, and other styles
35

Azzaz, Mohamed Salah. "Implantation paramétrable d'un nouvel algorithme de cryptage symétrique basé Chaos par inclusion au sein d'une architecture reconfigurable de type FPGA." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0385.

Full text
Abstract:
Depuis 1980, l'idée d'utiliser des systèmes chaotiques pour la conception d'algorithmes de chiffrement/déchiffrement attire de plus en plus l'attention des chercheurs. La riche dynamique des systèmes chaotiques, telle que la sensibilité aux conditions initiales et aux paramètres de contrôle, l'imprédictibilité à long terme et à large spectre, permet d'avoir de fortes propriétés telles que la "confusion" et la "diffusion". La découverte de la possibilité d'une synchronisation du chaos en 1990, a ouvert les portes d'investigation aux chiffrements chaotiques. Par ailleurs, deux approches possibles coexistes pour la conception des cryptosystèmes basés chaos : les approches analogique et numérique. Les techniques de chiffrement analogiques sont basées principalement sur la recherche d'une synchronisation des signaux chaotiques générés analogiquement. Tandis que, les techniques numériques de chiffrement chaotique ne dépendent pas d'une synchronisation chaotique et peuvent être mis en ?uvre soit sous forme logicielle ou matérielle. Plusieurs contributions ont été proposées pour la réalisation de cryptosystèmes numériques. Cependant, la plupart d'entre elles sont vulnérables et cryptanalysées. Afin de concevoir des chiffrements numériques chaotiques plus robustes et répondant aux besoins de sécurité dans les systèmes embarqués, des mécanismes originaux doivent soigneusement être considérés au cours d'une conception. Toutefois, le problème de la dégradation dynamique d'une numérisation lors de la conception des systèmes chaotiques n'a pas été sérieusement considéré par la plupart des concepteurs d'algorithmes de chiffrements numériques. D'autre part, la quasi-totalité des cryptosystèmes numériques basés chaos proposés ne traitent l'aspect pas sécurité-embarquabilité. Cette thèse se concentre sur la conception et l'implantation numérique d'un nouveau cryptosystème basé chaos, dédié aux applications embarquées temps réel. Parmi les tâches développées au cours de ces travam de thèse, on trouve les solutions adaptées et performantes de résolution de ces deux principaux inconvénients, notamment pour les applications embarquées sécurisées. Nos principales contributions sont, premièrement la conception et l'implantation sur FPGA de nouveaux générateurs de clés pseudo-aléatoires basés sur des systèmes chaotiques (continus et discrets). Deuxièmement, l'analyse statistique détaillée de la sécurité de ces générateurs. Troisièmement, la conception d'un nouveau générateur de clés de chiffrement adéquat par comparaison et son intégration dans un cryptosystème symétrique par flot, tout en y incluant la résolution du problème de la synchronisation entre un émetteur et un récepteur. Quatrièmement, la mise en ?uvre matérielle du cryptosystème proposé pour des applications réelles de cryptage/décryptage. Plus précisément, le chiffrement/déchiffrement en temps réel de données audio, image et vidéo. De plus, une évaluation des performances et une comparaison avec d'autres algorithmes basés chaos sont réalisées afin d'extraire les points faibles et forts de l'approche proposée et dont le but d'en tirer des perspectives de travaux futurs<br>Since 1980, the idea of using dynamic systems with chaotic behaviour for the design of encryption/decryption algorithms has attracted increasing: attention from researchers. The strong dynamics of chaotic systems such as sensitivity to initial conditions and control parameters, the unpredictability in the long term and broad-spectrum can provide important properties such as confusion and diffusion usually meet in standard cryptography. In addition, there are two possible approaches for designing chaos-based cryptosystems: analog and digital. Analog encryption techniques are primarily based on chaos-synchronization, while the chaotic digital encryption approaches do not depend on the chaos-synchronization and can be implemented either in software or hardware. This thesis focuses on the digital design and implementation of a new cryptosystem based on chaos-synchronization. The discovery of the possibility of chaos synchronization in 1990 opens the door to investigation digital chaos-based encryption. Indeed, many contributions are made for many promising achievements of digital cryptosystems. However, a number of recently proposed digital chaotic ciphers have been shown that they are not secure enough and they are cryptanalyzed. In addition, in order to design more secure digital chaotic ciphers and meet the security requirements in embedded systems, rules and new mechanisms must be carefully considered to make up the flaws in the design flow. However, the problem of the degradation dynamics of chaotic systems has not been seriously considered by most designers of digital chaotic ciphers. Furthermore, most all the digital chaos-based cryptosystems proposed in the literature does not address the issue of real-time embedded applications. Consequently, the tasks of these thesis works focus on the design solutions providing the real secure suitable for embedded applications. Our contributions in this thesis are, firstly the design and hardware implementation on reconfigurable FPGA technology of a pseudo-random key generator based on chaotic systems (continuous and discrete). Secondly, the statistical analysis detailed security of the proposed generators. Thirdly, the development, the conception and the integration of a new chaotic generator in a symmetric stream cipher, includes the resolution problem of the chaos synchronization between the transmitter (encryption) and receiver (decryption). Fourthly, the hardware implementation of the proposed cryptosystem on real encryption applications. i.e. the encryption/decryption of real-time audio, image and video data. In addition, a performance evaluation and comparisons with previous conventional and chaos-based ciphers is performed in order to extract these weaknesses and strengths and define future work prospects
APA, Harvard, Vancouver, ISO, and other styles
36

Jamei, Mehrez. "Contribution à la modélisation du comportement plastique des sols partiellement saturés pour le calcul numérique des charges limites." Grenoble 1, 1993. http://www.theses.fr/1993GRE10150.

Full text
Abstract:
Le couplage des sollicitations mecaniques et hydriques a fait dans cette derniere decennie l'objet de plusieurs travaux. La modelisation de ce probleme complexe reste limitee par plusieurs hypotheses restrictives. En se basant sur les resultats experimentaux de la litterature concernant le comportement des sols partiellement satures, nous proposons une modelisation en plasticite, que nous mettons en uvre en appliquant la methode cinematique de l'analyse limite. La modelisation proposee retient le principe des contraintes effectives dans un domaine de succions etendu defini comme l'union du domaine totalement sature et d'un domaine quasi sature caracterise par sa borne superieure qui est une succion critique. Dans le domaine ou la succion s est superieure a la succion critique, nous nous basons sur le principe des variables independantes (independance de la contrainte totale, de la pression de la phase gazeuse et de la phase liquide) pour proposer une generalisation du critere de coulomb (l'angle de frottement et la cohesion deviennent fonction de la succion) d'une part, et la definition d'un critere de plasticite issu de la generalisation du concept de l'etat critique (critere de type drucker-praguer) d'autre part. Le couplage hydro-mecanique s'effectue donc par le biais du critere de plasticite. La mise en uvre numerique de cette modelisation comporte deux parties: la premiere concerne la determination du champ de succion (resolution de l'equation de richards par une methode d'elements finis ou d'elements frontiere dans des cas particuliers); la seconde, la determination des charges limites (resolution d'un probleme d'optimisation non lineaire). Cette mise en uvre est suivie d'une etude sur la precision, la convergence des differents algorithmes utilises, qui met en evidence l'influence de la singularite des contraintes mathematiques et celle de la dilatance excessive induite par l'hypothese de la regle d'ecoulement normale. Les resultats numeriques obtenus avec le critere de coulomb generalise, pour un essai de compression simple, sont en bon accord avec des resultats experimentaux (essais triaxiaux realises par y. Cui et delage avec un sol fin). En revanche, une comparaison analogue infirme la validite du critere de type drucker-praguer pour le materiau considere. Un calcul transitoire effectue avec deux fonctions permeabilite relative differentes, montre l'influence du choix du tenseur de permeabilite. Les potentialites du code de calcul developpe sont illustrees par des applications a des problemes de mecanique des sols divers (enfoncement d'un objet dans un sol sous-marin, stabilite de talus renforces, force portante d'un sol soumis a des sollicitations sismiques). Les resultats obtenus sont en general satisfaisants
APA, Harvard, Vancouver, ISO, and other styles
37

Kzaz, Mustapha. "Accélération de la convergence de la formule de quadrature de Gauss-Jacobi dans le cas des fonctions analytiques." Lille 1, 1992. http://www.theses.fr/1992LIL10174.

Full text
Abstract:
La méthode de quadrature de gauss est une méthode numérique d'intégration très puissante. Néanmoins, elle présente certains inconvénients : la suite générée par cette méthode ne vérifie aucune relation de récurrence, le calcul de chaque terme de cette suite est assez couteux, et enfin, la convergence de cette suite est tres lente lorsque la fonction à intégrer présente des singularités assez voisines de l'intervalle d'intégration. Afin de remédier a ce problème, nous allons proposer des algorithmes d'accélération nous permettant d'avoir une meilleure approximation de la valeur exacte de l'intégrale. Comme dans toutes les méthodes d'extrapolation, on aura à déterminer le ou les premiers termes du développement asymptotique de l'erreur. Dans le premier chapitre, des résultats concernant l'expression de l'erreur, les polynomes orthonormaux de jacobi, ainsi que certains résultats d'analyse seront presentés. Dans le deuxieme et le troisieme chapitre, on etudiera les cas ou l'integrand appartient à certaines classes de fonctions. Dans le dernier chapitre, le cas des intégrales à valeur principale de cauchy sera étudié pour le cas de fonctions étudiées dans les deux chapitres précédents
APA, Harvard, Vancouver, ISO, and other styles
38

Rakotondrandisa, Aina. "Modélisation et simulation numérique de matériaux à changement de phase." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR051/document.

Full text
Abstract:
Nous développons dans ce travail de thèse un outil de simulation numérique pour les matériaux à changement de phase (MCP), en tenant compte du phénomène de convection naturelle dans la phase liquide, pour des configurations en deux et trois dimensions. Les équations de Navier-Stokes incompressible avec le modèle de Boussinesq pour la prise en compte des forces de flottabilité liées aux effets thermiques, couplées avec une formulation de l’équation d’énergie suivant la méthode d’enthalpie, sont résolues par une méthode d’éléments finis adaptatifs. Une approche mono-domaine, consistant à résoudre les mêmes systèmes d’équations dans les phases solide et liquide, est utilisée. La vitesse est ramenée à zéro dans la phase solide, en introduisant un terme de pénalisation dans l’équation de quantité de mouvement, suivant le modèle de Carman-Kozeny, consistant à freiner la vitesse à travers un milieu poreux. Une discrétisation spatiale des équations utilisant des éléments finis de Taylor-Hood, éléments finis P2 pour la vitesse et éléments finis P1 pour la pression, est appliquée, avec un schéma d’intégration en temps implicite d’ordre deux (GEAR). Le système d’équations non-linéaires est résolu par un algorithme de Newton. Les méthodes numériques sont implémentées avec le logiciel libre FreeFem++ (www.freefem.org), disponible pour tout système d’exploitation. Les programmes sont distribués sous forme de logiciel libre, sous la forme d’une forme de toolbox simple d’utilisation, permettant à l’utilisateur de rajouter d’autres configurations numériques pour des problèmes avecchangement de phase. Nous présentons dans ce manuscrit des cas de validation du code de calcul, en simulant des cas tests bien connus, présentés par ordre de difficulté croissant : convection naturelle de l’air, fusion d’un MCP, le cycle complet fusion-solidification, chauffage par le bas d’un MCP, et enfin, la solidification de l’eau<br>In this thesis we develop a numerical simulation tool for computing two and three-dimensional liquid-solid phase-change systems involving natural convection. It consists of solving the incompressible Navier-Stokes equations with Boussinesq approximation for thermal effects combined with an enthalpy-porosity method for the phase-change modeling, using a finite elements method with mesh adaptivity. A single-domain approach is applied by solving the same set of equations over the whole domain. A Carman-Kozeny-type penalty term is added to the momentum equation to bring to zero the velocity in the solid phase through an artificial mushy region. Model equations are discretized using Galerkin triangular finite elements. Piecewise quadratic (P2) finite-elements are used for the velocity and piecewise linear (P1) for the pressure. The coupled system of equations is integrated in time using a second-order Gear scheme. Non-linearities are treated implicitly and the resulting discrete equations are solved using a Newton algorithm. The numerical method is implemented with the finite elements software FreeFem++ (www.freefem.org), available for all existing operating systems. The programs are written and distributed as an easy-to-use open-source toolbox, allowing the user to code new numerical algorithms for similar problems with phase-change. We present several validations, by simulating classical benchmark cases of increasing difficulty: natural convection of air, melting of a phase-change material, a melting-solidification cycle, a basal melting of a phase-change material, and finally, a water freezing case
APA, Harvard, Vancouver, ISO, and other styles
39

Khorbatly, Mohamad. "Optimisation numérique appliquée à la gestion de crise : Approche basée sur un algorithme hybride pour la résolution du problème intégré d'ordonnancement et d'allocation des ressources." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH18/document.

Full text
Abstract:
Les travaux présentes dans cette thèse s'inscrivent dans le cadre des méthodes d'évacuation des populations. Ils visent à étudier les capacités et modéliser le problème d'évacuation (blessés, sinistrés, enfants, personnes agées, etc.) dans une situation de crise (attentats terroristes, catastrophes naturelles, etc.) et développer des méthodes d'aide à la décision tout en proposant une meilleure planification et des plans optimaux d'évacuation des populations de la zone de crise vers les centres hospitaliers.Notre travail consiste à résoudre le problème d'évacuation de blessés dans des zones de crise avec une nouvelle vision qui consiste à optimiser le temps de transport et par conséquent sauver le maximum des personnes touchées par cette crise d'une façon dynamique, efficace et rapide pour minimiser la perte humaine<br>The work presented in this thesis is part of human evacuation methods. It aims to study the capacities, model the evacuation problem (wounded, victims, children, elderly, etc.) in a crisis situation (terrorist attacks, natural disasters, etc.) and to develops methods for decision making while proposing better planning and optimal evacuation plans for populations from the crisis zone to hospitals.Our job is to solve the wounded evacuation problem in crisis zone with a new vision that optimizes the transport time and thus saving the maximum of causalities in a dynamic, efficient and fast way in order to minimize human loss
APA, Harvard, Vancouver, ISO, and other styles
40

Le, Chuiton Frédéric. "Une méthode implicite non-factorisée décentrée hybride pour la simulation numérique d'écoulements autour de géométries complexes." Ecully, Ecole centrale de Lyon, 1999. http://bibli.ec-lyon.fr/exl-doc/TH_T1781_flechuiton.pdf.

Full text
Abstract:
Ce mémoire de thèse est consacré à l'étude d'un schéma numérique permettant, à terme, d'effectuer des calculs Navier-Stokes précis à l'aide d'une intégration Euler implicite non-factorisée. La discrétisation en espace est celle d'un schéma décentré hybride (HUS), d'après les travaux de Coquel &amp; Liou, qui conjugue le schéma de Perthame (FVS), fondé sur une interprétation cinétique des équations d'Euler, et le schéma de Osher (FDS). Le schéma ainsi bati préserve la robustesse des FVS, au travers des ondes non-linéaires, et la précision des FDS, pour la capture des ondes linéaires. L'opérateur implicite est construit par linéarisation du FVS à l'ordre un en espace et par linéarisation des conditions-limites aussi bien aux frontières physiques qu'aux frontières de raccord multi-domaines. Le système linéaire qui en résulte est inversé de manière approchée à l'aide d'un algorithme itératif de Krylov, ici Bi-CGStab dû à Van der Vorst, que l'on préconditionne par un autre algorithme itératif SSOR. La validation de l'opérateur spatial est effectuée sur des cas de tube à choc et sur un profil d'aile par comparaison avec le schéma de Jameson. Ensuite, l'intégration temporelle implicite est évaluée à l'aide de cas bidimensionnels, un canal avec bosse et le même profil d'aile, et à l'aide de cas tridimensionnels, une nacelle isolée et une configuration comprenant un tronçon d'aile, un mât et une nacelle perméable. Ces études mettent en évidence, d'une part, la nette amélioration de la représentation des sillages et la réduction des pertes de pression totale obtenue à l'aide du schéma hybride par rapport à un FVS seul et, d'autre part, le bien fondé de l'implicitation des conditions-limites, de l'augmentation forcée du CFL, d'une résolution seulement approchée du système linéaire et du préconditionnement itératif<br>This thesis dissertation aims at studying a numerical scheme that allows accurate Navier-Stokes computations using an Euler implicit non-factorised integration. The spatial operator has been constructed by the combination of the scheme of Perthame (FVS), based on a kinetic interpretation of the Euler equations, and of the scheme of Osher (FDS). This results in one member of the hybrid upwind scheme family (HUS) introduced by Coquel &amp; Liou, which retains the FVS robustness through non-linear waves and the FDS accuracy in capturing linear waves. The implicit operator is provided by the exact linearization of the FVS part, at first order in space, and by incorporating the boundary conditions, inter-block matching ones as well as physical ones. The subsequent linear system is approximately inverted by means of a Krylov algorithm, Bi-CGStab from Van der Vorst, and is preconditioned by an SSOR iterative method. The spatial discretization has been validated on shock tube problems and on an aerofoil profile by comparison with the scheme of Jameson. Then, the implicit integration has been assessed on bi-dimensional cases, a channel with a bump and the same aerofoil profile, and on three-dimensional cases, an isolated nacelle and a full configuration made of a truncated wing, a pylon and a nacelle. Numerical tests have demonstrated, on the one hand, a serious improvement in capturing wakes and in reducing total pressure losses, due to the hybrid scheme over a simple FVS scheme and, on the other hand, the relevance of implicit boundary conditions, the constant increase of the CFL number, a mere approximate inversion of the linear system and the efficiency of the iterative preconditioner
APA, Harvard, Vancouver, ISO, and other styles
41

Wakrim, Mohamed. "Analyse numérique des équations de Navier-Stokes incompressibles et simulations dans des domaines axisymétriques." Saint-Etienne, 1993. http://www.theses.fr/1993STET4015.

Full text
Abstract:
Dans cette thèse, on a développé une méthode numérique pour la simulation des écoulements de fluides à nombre de Reynolds élevé, utilisant deux types d'éléments finis. On a établi la convergence de l'algorithme d'Uzawa en formulation de Petrov-Galerkin et on a étudié l'élément fini de Crouzeix-Raviart en formulation de Petrov-Galerkin. Pour finir, on a construit un préconditionneur du CGS pour une formulation couplée
APA, Harvard, Vancouver, ISO, and other styles
42

Claudel, Stéphane. "Mise au point d'un algorithme d'aide à la génération automatique de modèles d'écoulement à compartiments à partir de traçages expérimentaux dans des réacteurs industriels." Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPL001N.

Full text
Abstract:
Les mesures de la distribution de temps de séjour (DTS) peuvent être interprétées et simulées en utilisant des modèles à compartiment qui consistent en une interconnexion de modules élémentaires (réacteurs piston, réacteurs parfaitement agités. . . ). Cependant, le choix du modèle approprié reste une tâche délicate dans le cas de réacteurs industriels complexes. Cette thèse a pour but de développer un nouvel algorithme pour la génération automatique des modèles à compartiment basé, à la fois sur des courbes de DTS et sur la description physique des réacteurs étudiés. Dans une première étape, une liste de relations floues entre la courbe de DTS et les caractéristiques du procédé étudié d'une part, et les modèles d'autre part ,a été établie. Après une analyse des différentes méthodes mathématiques permettant l'utilisation de ces relations, nous avons choisi la théorie des possibilités, développée par Zadeh (1978), qui consiste à affecter des coefficients sur la réalisation d'un événement donné. La recherche sur les travaux existants nous a permis de sélectionner environ quarante modèles, qui permettent de décrire une large gamme de réacteurs industriels. Des coefficients de possibilité et de certitude ont été affectés aux modèles pour la réalisation d'un fait. La procédure de " fusion ", permettant l'agrégation de toutes les règles, conduit à choisir le modèle le plus approprié. L'algorithme a été testé, en régime permanent et à débit variable, sur différents exemples tirés de la littérature et des résultats d'expériences de laboratoire. L'ajout de nouvelles règles ou de nouveaux modèles n'affectent ni la structure du logiciel ni la procédure de " fusion ". Le logiciel est très souple d'utilisation et ses évolutions sont seulement limitées par le niveau d'expertise en procédé.
APA, Harvard, Vancouver, ISO, and other styles
43

Tisseur, Françoise. "Méthodes numériques pour le calcul d'éléments spectraux : étude de la précision, la stabilité et la parallélisation." Saint-Etienne, 1997. http://www.theses.fr/1997STET4006.

Full text
Abstract:
Cette thèse est constituée de deux parties. La première traite de la méthode QR pour le calcul de valeurs propres de matrices quelconques, de tailles modérées. Les contributions originales à ce sujet sont a) une preuve rigoureuse de sa stabilité inverse, b) un nouveau critère d'arrêt justifié par une analyse mathématique. La seconde partie traite de la méthode de Yau et Lu pour le calcul de valeurs propres de matrices symétriques réelles de grandes tailles. Les contributions dans ce travail à ce sujet sont a) une compréhension mathématique accrue de la méthode, b) sa validation numérique, c) une proposition de parallélisation
APA, Harvard, Vancouver, ISO, and other styles
44

Dap, Simon. "Etude numérique et expérimentale de la détection et la formation de poussières carbonées dans un plasma radio fréquence en mélange Ar/C2H2." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0084/document.

Full text
Abstract:
La présence de poussières au sein des plasmas est rencontrée dans de multiples environnements tels que les plasmas de laboratoires ou les plasmas de fusion. Les processus conduisant à leur formation constituent un vaste champ d'études depuis plusieurs années. Ce travail de thèse a pour objectif d'étudier un nouveau mécanisme de croissance des poussières dans un plasma radiofréquence capacitif en mélange argon/acétylène. Dans certaines conditions, il a été observé que des ondes de densité de poussières apparaissaient spontanément au sein des nuages de poussières. Elles peuvent grandement favoriser l'agglomération des particules grâce à l'importante énergie cinétique qu'elles leur transfèrent. Pour réaliser cette étude, différents outils diagnostics ont été développés. Pour sonder les populations de poussières nanométriques, un premier diagnostic basé sur des mesures d'extinction dans le domaine visible associé à une méthode inverse a été mis au point. Un second diagnostic permettant l'étude des populations d'agglomérats supra-microniques a été utilisé. Il est basé sur l'utilisation de l'imagerie rapide et l'analyse automatique des films à l'aide d'un algorithme adapté (TRACE). Enfin, une méthode d'extraction des poussières en vue d'analyses ex-situ et utilisant la force de thermophorèse a été développée.Ces diagnostics ont ensuite été appliqués à l'étude des ondes de poussières et des processus d'agglomération. Nous avons montré que des agglomérats de plusieurs centaines de microns pouvaient être formés en quelques dizaines de secondes. L'influence des conditions expérimentales sur les caractéristiques des ondes et des agglomérats formés a également été étudiée<br>The dust particle growth in plasmas is of major concern for safety issues in fusion reactors, and conversely has important industrial impacts. Dusty plasmas produced in laboratory, fusion, and in astrophysical environments have been therefore widely studied for many years to better understand the involved physical phenomena. In this thesis work, we have investigated a new dust-growing mechanism in a capacitive radio-frequency plasma of argon/acetylene mixture, with developing necessary diagnostic tools. The population of nano-particles was probed using visible-wavelength range extinction measurements combined with an inverse method. The motions and the collisions in enlarging agglomerates were followed through a fast-imaging device and the images were then analyzed using a compatible algorithm (TRACE). Ex-situ studies were also carried out on dust particles collected with an extraction technique based on the thermophoresis force. These diagnostic tools allowed us to observe a spontaneous emergence of dust density waves (DDWs) under specific experimental conditions. These waves impart substantial kinetic energy to the dust particles and thus enhance their agglomeration rate. Large agglomerates up to several hundreds of microns may thus be produced in a few tens of seconds. We have also studied the influence of experimental conditions (power, pressure) on the waves and the agglomerate characteristics
APA, Harvard, Vancouver, ISO, and other styles
45

Chebli, Rezki. "Simulation 2D et 3D des écoulements cavitants : développement d'un algorithme original dans Code_Saturne et étude de l'influence de la modélisation de la turbulence." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0040/document.

Full text
Abstract:
La cavitation est l'un des phénomènes physiques les plus contraignants influençant les performances des machines hydrauliques. Il est donc primordial de savoir prédire son apparition et son développement, et de quantifier les pertes de performances qui lui sont associées. L'objectif de ce travail est de développer un algorithme 3D instationnaire pour la simulation numérique de la cavitation dans le code industriel « Code_Saturne ». Il est basé sur la méthode à pas fractionnaires et préserve le principe du minimum/maximum sur le taux de vide. Un solveur implicite, basé sur l'équation de transport du taux de vide couplée avec les équations Navier-Stokes est proposé. Un traitement numérique spécifique des termes sources de cavitation permet d'obtenir des valeurs physiques du taux de vide (entre 0 et 1) sans aucune limitation artificielle. L'influence des modèles de turbulence RANS sur la simulation de la cavitation est étudiée sur deux types de géométries 2D (Venturi et Hydrofoil). Cela confirme que la modification de Reboud et al. (1998) appliquée aux modèles à viscosité turbulente à deux équations, k-epsilon et k-omega-SST, permet de reproduire les principales caractéristiques du comportement instationnaire de la poche de cavitation. Le modèle du second ordre RSM-SSG, basé sur le transport des contraintes de Reynolds, se révèle capable de reproduire le comportement instationnaire de l'écoulement sans aucune modification arbitraire. Les effets tridimensionnels intervenant dans les mécanismes d'instabilité de la poche sont également analysés. Ce travail nous permet d'aboutir à un outil numérique, validé sur des configurations d'écoulements cavitants complexes, afin d'améliorer la compréhension des mécanismes physiques qui contrôlent les effets instationnaires tridimensionnels intervenants dans les mécanismes d'instabilité<br>Cavitation is one of the most demanding physical phenomena influencing the performance of hydraulic machines. It is therefore important to predict correctly its inception and development, in order to quantify the performance drop it induces, and also to characterize the resulting flow instabilities. The aim of this work is to develop an unsteady 3D algorithm for the numerical simulation of cavitation in an industrial CFD solver « Code_saturne ». It is based on a fractional step method and preserves the minimum/maximum principle of the void fraction. An implicit solver, based on a transport equation of the void fraction coupled with the Navier-Stokes equations is proposed. A specific numerical treatment of the cavitation source terms provides physical values of the void fraction (between 0 and 1) without including any artificial numerical limitation. The influence of RANS turbulence models on the simulation of cavitation on 2D geometries (Venturi and Hydrofoil) is then studied. It confirms the capability of the two-equation eddy viscosity models, k-epsilon and k-omega-SST, with the modification proposed by Reboud et al. (1998) to reproduce the main features of the unsteady sheet cavity behavior. The second order model RSM-SSG, based on the Reynolds stress transport, appears able to reproduce the highly unsteady flow behavior without including any arbitrary modification. The three-dimensional effects involved in the instability mechanisms are also analyzed. This work allows us to achieve a numerical tool, validated on complex configurations of cavitating flows, to improve the understanding of the physical mechanisms that control the three-dimensional unsteady effects involved in the mechanisms of instability
APA, Harvard, Vancouver, ISO, and other styles
46

Pinon, Grégory. "Modélisation numérique de jets transverses : application aux cas des inverseurs de poussée d'un avion en phase d'atterrissage." Le Havre, 2005. http://www.theses.fr/2005LEHA0057.

Full text
Abstract:
Cette étude a pour but de prédire les trajectoire de jets issus des inverseurs de poussée. Ces dispositifs équipent les avions et génèrent une contre-poussée qui permet de freiner l'appareil lorsque celui-ci est au sol en phase d'atterrissage. L'écoulement sort des inverseurs de poussée sous forme de jet. Un tel écoulement est complexe et s'étend sur une grande distance. Nous avons alors opté pour la méthode particulaire de type « Vortex Blob ». Le domaine d'étude est infini, la résolution est instationnaire et la discrétisation limitée aux zones rotationnelles. Celles-ci se retrouvent sous forme de particules porteuses d'une information tourbillonnaire que l'on suit dans leur mouvement de manière lagrangienne. Dans un premier temps, nous passons en revue tous les types d'écoulement de jet et nous ressortons les principales caractéristiques, notamment pour l'écoulement de jet à buse débouchant dans un écoulement transverse où une paire de tourbillons contra-rotatifs apparaît et persiste loin en aval. L'activité tourbillonnaire est intense et l'évolution du jet varie selon le rapport d'injection du jet (vitesse du jet rapporté à la vitesse de l'écoulement transverse). Nous abordons ensuite l'aspect numérique de l'étude présentant la méthode particulaire. Nous utilisons une méthode particulaire tridimensionnelle à laquelle nous avons adapté un algorithme rapide de type « Tree code », un remmaillage global de l'écoulement ainsi qu'un schéma de diffusion de type « Particle strength Exchange » qui peut prendre en compte un modèle de Simulation des Grandes Échelles (SGE). Le code est de plus entièrement parallélisé grâce aux librairies MPI. Puis, nous traitons de manière académique les simulations de jets transverses. Nous observons et étudions l'évolution des structures tourbillonnaires existantes dans de tels écoulements en fonction du rapport d'injection du jet, d'une variation temporelle de la vitesse initiale du jet, etc. . . Dans un dernier temps, nous présentons une méthode hybride de couplage entre des simulations eulériennes et nos simulation lagrangiennes pour traiter des cas industriels. Après une validation de ce méthode de couplage avec décomposition de domaine, nous présentons des simulation complètes d'un avion en phase d'atterrissage. Enfin, nous mettons en évidence un cas de ré ingestion déjà observé expérimentalement en soufflerie<br>The aim of this PhD study is to predict the thrust reversers jets trajectories. These devices equip the aircrafts and produce opposite thrust, which brakes the aircraft in landingphase. The flow is ejected from the thrust reversers in a jet like form. This flow is complex and the mains characteristics are present even on a long distance from the nozzle's exit. For this study, we chose the vortex method more especially its « vortex blob » version. The resolution is unsteady and the discretisation is confined to the vortical zones. These zones are represented by vortex particles, carrying vortical information and followed in the flow in a lagrangian way. First, we make a short review of most jet like flows and we focus on their main characteristics, especially form jet issuing from a nozzle into a crossflow, where a contra-rotating vortex pair appears and is long-lived. Vortical structures are numerous in these kind of flow and they mostly depend on the injection ratio (ratio of the jet velocity compared to crossflow velocity). Secondly, treat the numerical aspects of the vortex method method. We use a three-dimensional Vortex Blob method, on which we have implemented a « Tree code » algorithm, a global reggridding of the flow and a « Particle strength Exchange » diffusion scheme, which unables us to use a Large Eddy Simulation (LES) model. On top of that, the whole code is parallelised using the MPI libraries. Then, we present some academical results of crossflow jet simulations. Nous study the temporal evolution of the vortical structures depending on the injection ratio, the temporal evoltion of the jet exit velocity, etc. . . Finally, we present a new hybrid method which couples eulerian simulations to our langrangian simulations in order to treat the industrial flow configurations. After some validation aspects of the new hybrid method with domain decomposition, we present several « complete » simulations of an aircraft in a landing phase. Finally, we are able to distingish re-ingestion case as they were experimentally obersed during wind tunnel testings
APA, Harvard, Vancouver, ISO, and other styles
47

Popa, Sorin. "Algorithme de contact quasi-symétrique et conditions aux limites répétitives pour la simulation tridimensionnelle du forgeage." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00002047.

Full text
Abstract:
La simulation numérique de la mise en forme est un outil indispensable pour réduire les coûts de conception dans l'industrie. Le logiciel d'analyse éléments finis FORGE3® fut créé dans ce but et il est capable de résoudre des problèmes thermomécaniques des grandes déformations complexes, en prenant en comptes des lois de comportement non-linéaires et plusieurs corps déformables. Dans la première partie de cette thèse on présente les travaux effectuées pour prendre en compte les symétries cycliques de répétition afin de réduire le temps CPU pour la simulation thermomécanique du forgeage des engrenages hélicoïdaux. Ce type de symétrie est traité comme une condition de contact bilatéral collant particulière entre deux faces de symétrie appartenant au même corps, à travers d'un algorithme maître-esclave. Ensuite une technique similaire est utilisée pour traiter le contact entre la pièce et les outils déformables tout en gardant un domaine réduit sur lequel on effectue les calculs. Une première série des tests montre la fiabilité de la méthode. La deuxième partie se focalise sur l'amélioration du traitement du contact entre les corps déformables, dont les maillages sont non coïncidents. On utilise une formulation nodale, quasi-symétrique pénalisée de la condition de contact. Cette approche nous permet d'appliquer des conditions aux limites sur tous les nœuds des interfaces sans surcontraindre le problème. Une deuxième série d'exemples académiques et industriels montre les avantages en terme de précision et de vitesse de convergence de la nouvelle méthode, d'une part, et la robustesse du code pour résoudre des problèmes industriels d'autre part.
APA, Harvard, Vancouver, ISO, and other styles
48

Coulibaly, Macky. "Analyse par ondelettes : quelques aspects numériques et applications à des signaux océaniques simulés et à l'estimation de densité de probabilité." Phd thesis, Grenoble 1, 1992. http://tel.archives-ouvertes.fr/tel-00341126.

Full text
Abstract:
Ce travail porte sur les aspects numériques de la décomposition en ondelettes et quelques applications aux tourbillons océaniques ainsi qu'a l'estimation de densité de probabilité. On présente une synthèse des différents types de transformée en ondelettes. Nous proposons une étude de régularité et de décroissance a l'infini des ondelettes complexes progressives issues d'ondelettes réelles. On s'intéresse au calcul numérique de la transformée en ondelettes dans les cas unidimensionnels et bidimensionnels. Les aspects de l'implémentation, à l'aide de la fft (fast Fourier transform), de l'algorithme général de la transformée en ondelettes sont présentés. Nous montrons une application de l'analyse par ondelettes a des signaux électriques industriels ainsi qu'a des tourbillons océaniques engendres par un modèle numérique du gulf stream. On introduit une approche originale d'analyse spectrale locale par ondelettes fondée sur l'utilisation de la transformée en ondelettes continue. Nous présentons également une methode de filtrage numérique par ondelettes orthogonales qui permet d'extraire une structure spécifique dans un signal. La dernière partie est relative a l'application des ondelettes a l'estimation de densité de probabilité. Nous développons un algorithme de calcul efficace, fonde sur l'utilisation des ondelettes a support compact de Daubechies, pour construire un estimateur d'une densité inconnue de probabilité
APA, Harvard, Vancouver, ISO, and other styles
49

Nouno, Gilbert. "Suivi de tempo appliqué aux musiques improvisées, à la recherche du temps perdu. ." Paris 6, 2008. http://www.theses.fr/2008PA066644.

Full text
Abstract:
Cette thèse a pour objet le temps musical pulsé : un temps qui induit une sensation de rythme, de pulsation. Musique Improvisée : musique avant tout exposée, composée ou non et indépendamment d'un style qui la catégorise, c'est le caractère de création que nous retenons. Du point de vue informatique, la ``vision'' ou ``l'écoute'' est l'acquisition et le traitement d'informations. Nous plaçons notre recherche dans le cadre suivant : l'ordinateur reçoit des informations temporelles musicales pour lesquelles il n'a pas de clef a priori, la musique lui apparaît comme une improvisation, un signal informatif généré qu'il observe dans le temps à l'aide de processus algorithmiques. Nous proposons un modèle original d'estimation de tempo basé sur la recherche d'une grille optimale: une grille régulière de temps ou de pulsations qui coïncident le mieux possible avec les événements musicaux. Nous réalisons un suivi de tempo dans le cadre d'une inférence dynamique complétée par un modèle de focus attentionnel issu de la théorie de l'attention dynamique de la psychologie cognitive. Nous intégrons notre paradigme de suivi de tempo dans un environnement musical en temps réel.
APA, Harvard, Vancouver, ISO, and other styles
50

Nigro, Abdelmalek. "Algorithmes progressifs stables pour l'approximation de courbes et surfaces." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346056.

Full text
Abstract:
Dans cette étude, nous traitons un problème d'interpolation de données dans le plan ou dans l'espace. Ce problème se distingue des autres problèmes existants par le fait que les points sont obtenus progressivement, c'est-à-dire à un instant donné, seules sont connues les données jusqu'à cet instant. Les méthodes utilisées sont basées sur l'utilisation de splines récurrentes, i.e., chaque morceau de la spline à l'étape i (correspondant à l'information i) est calculé en fonction des morceaux précédents par un raccordement paramétrique ou géométrique. L'algorithme ainsi construit est régi par une relation de récurrence dont nous étudions la stabilité numérique. Les données ont été interpolées de deux manières différentes: ― par une fonction spline vectorielle: dans ce cas la stabilité est démontrée au moyen des paramètres de forme issus du raccordement géométrique entre les sections de la spline. Ainsi, nous avons donné un nouveau rôle aux paramètres de forme qui consiste à absorber les oscillations provenant du calcul itératif. ― par une représentation scalaire des données: chaque morceau de la spline appartient à un espace de dimension n, engendré par une famille de fonctions ayant certaines propriétés. On démontre que la stabilité est en fait obtenue par le choix même des fonctions de base de l'espace
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography