To see the other types of publications on this topic, follow the link: Algorithme non numérique.

Dissertations / Theses on the topic 'Algorithme non numérique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithme non numérique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bekkouche, Fatiha. "Étude théorique et numérique des équations non-linéaires de Sobolev." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0018/document.

Full text
Abstract:
L'objectif de la thèse est l'étude mathématique et l'analyse numérique du problème non linéaire de Sobolev. Un premier chapitre est consacré à l'analyse a priori pour le problème de Sobolev où on utilise des méthodes de semi-discrétisation explicite en temps. Des estimations d'erreurs ont été obtenues assurant que les schémas numériques utilisés convergent lorsque le pas de discrétisation en temps et le pas de discrétisation en espace tendent vers zéro. Dans le second chapitre, on s'intéresse au problème de Sobolev singulièrement perturbé. En vue de la stabilité des schémas numériques, on utilise dans cette partie des méthodes numériques implicites (la méthode d'Euler et la méthode de Crank- Nicolson) pour discrétiser le problème par rapport au temps. Dans le troisième chapitre, on présente des applications et des illustrations où on utilise le logiciel "FreeFem++". Dans le dernier chapitre, on considère une équation de type Sobolev et on s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des éléments finis conforme en espace et un schéma d'Euler implicite en temps. La borne supérieure est globale en espace et en temps et permet le contrôle effectif de l'erreur globale. A la fin du chapitre, on propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques
The purpose of this work is the mathematical study and the numerical analysis of the nonlinear Sobolev problem. A first chapter is devoted to the a priori analysis for the Sobolev problem, where we use an explicit semidiscretization in time. A priori error estimates were obtained ensuring that the used numerical schemes converge when the time step discretization and the spatial step discretization tend to zero. In a second chapter, we are interested in the singularly perturbed Sobolev problem. For the stability of numerical schemes, we used in this part implicit semidiscretizations in time (the Euler method and the Crank-Nicolson method). Our estimates of Chapters 1 and 2 are confirmed in the third chapter by some numerical experiments. In the last chapter, we consider a Sobolev equation and we derive a posteriori error estimates for the discretization of this equation by a conforming finite element method in space and an implicit Euler scheme in time. The upper bound is global in space and time and allows effective control of the global error. At the end of the chapter, we propose an adaptive algorithm which ensures the control of the total error with respect to a user-defined relative precision by refining the meshes adaptively, equilibrating the time and space contributions of the error. We also present numerical experiments
APA, Harvard, Vancouver, ISO, and other styles
2

Khelifi, Mohamed. "Algorithme de Lanczos pour le calcul numérique des valeurs et vecteurs propres de matrices non symètriques de grande taille." Lille 1, 1989. http://www.theses.fr/1989LIL10108.

Full text
Abstract:
On étudie et développe l'algorithme de Lanczos, destiné à calculer des valeurs et vecteurs propres de matrices non symétriques. On apporte des solutions aux problèmes du blocage de l'algorithme et de la perte d'orthogonalité, en utilisant un algorithme de Parlett et Taylor. Ce dernier algorithme est généralisé
APA, Harvard, Vancouver, ISO, and other styles
3

Lê, Thi Hoai An. "Analyse numérique des algorithmes de l'optimisation D. C. . Approches locale et globale. Codes et simulations numériques en grande dimension. Applications." Rouen, 1994. http://www.theses.fr/1994ROUES047.

Full text
Abstract:
Cette thèse est consacrée à l'analyse qualitative et quantitative de l'optimisation d. C. (différence de deux fonctions convexes). Le chapitre I est destiné à l'étude générale de la théorie et des algorithmes de l'optimisation d. C. - approche locale. Dans le chapitre II nous nous intéressons à la fois à l'étude théorique (la dualité lagrangienne, conditions d'optimalité) et algorithmique (algorithmes globaux, DCA) du problème de minimisation d'une forme quadratique sur une boule ou une sphère euclidienne. Nous présentons dans le chapitre III deux nouvelles méthodes (méthode globale de type branch and bound et DCA) pour la minimisation d'une forme quadratique indéfinie sur un polyèdre convexe. La résolution du problème d'optimisation multicritère par DCA via la pénalité exacte et par un algorithme global de type branch and bound fait l'objet du chapitre IV. Le chapitre V concerne le traitement du problème multidimensionnel des tableaux de dissimilarités (MDS) par DCA. La résolution du problème de calcul des valeurs propres extrêmes d'une matrice réelle symétrique par DCA est étudiée dans le chapitre VI. Enfin, dans le dernier chapitre nous étudions une méthode globale d'optimisation d. C. Et son application à la résolution d'un problème industriel d'optimisation non convexe de Pool carburant
APA, Harvard, Vancouver, ISO, and other styles
4

Gentot, Laëtitia. "Adoucissement par fatigue des milieux élastomères : caractérisation, modélisation et simulation numérique." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-207-208.pdf.

Full text
Abstract:
L'étude porte sur le comportement hyperélastique de matériaux élastomères et sur l'endommagement de ceux-ci lors de sollicitations en fatigue à faible nombre de cycles. Les essais de traction répétée à déformation maximale imposée sur différents matériaux élastomères ont montré un adoucissement important qui se caractérise par une chute de la contrainte dès les premiers cycles de chargement. Cette étude expérimentale a permis de mettre en évidence la dépendance de ce phénomène d'adoucissement par fatigue vis à vis d'une part de la déformation maximale imposée au cours du chargement cyclique et d'autre part du nombre de cycles de chargement. L'étude bibliographique a permis de constater que les modèles proposés pour décrire le phénomène d'adoucissement ne faisaient pas intervenir, simultanément, les deux paramètres mis en é'vidence lors de l'étude expérimentale. Deux tendances se sont imposées: les modèles qui ne prennent en compte que la déformation maximale imposée et les modèles qui ne tiennent compte que du nombre de cycles de chargement. Afin d'illustrer ces deux tendances, nous présentons deux modèles relativement récents dont nous montrerons les limites au travers de résultats expérimentaux. Ainsi, un modèle permettant de rendre compte du phénomène d'adoucissement par fatigue, et prenant en compte l'ensemble des paramètres intervenant dans celui-ci, a été développé. Une fois l'identification du comportement faite, le modèle proposé pénalise le comportement hyperélastique du milieu élastomère par un endommagement évoluant en fonction des deux paramètres précédemment cités. Ce modèle, prédictif, présente l'avantage de nécessiter l'identification d'un unique paramètre. Celui-ci a été testé sur plusieurs matériaux différant soit par la matrice, soit par les renforts. Une étude, du seul paramètre intervenant dans le modèle proposé, a permis de montrer que sa détermination à un certain niveau de déformation maximale imposée permettait de prévoir l'adoucissement pour des niveaux de déformation maxirnale imposés et des niveaux de contrainte induite plus faibles, et ce quelque soit le nombre de cycles considéré. Par la suite, le modèle d'adoucissement par fatigue développé a été implémenté au sein d'un code éléments finis modulaire (modulef) afin d'offrir un outil d'aide à la conception de structures élastomères prenant en compte ces phénomènes d'adoucissement. Dans ce but, un algorithme non incrémentaI de résolution a été développé afin de prendre en compte d'une part la nature incompressible et endommageable du comportement et d'autre part le caractère grandement déformable et non linéaire des comportements mis en jeu. En effet, les problèmes à traiter étant par définition des problèmes non linéaires (comportement hyperéla. Stique) et instationnaires (endommagement), l'utilisation d'algorithme classique de type incrémentaI ne pouvait être envisagée à cause des temps de calculs alors requis. Un algorithme non incrémentaI basé sur des techniques de type Newton, ou plus précisément LATIN, a donc été proposé ainsi que plusieurs méthodes d'optimisation afin de diminuer les temps de calcul.
APA, Harvard, Vancouver, ISO, and other styles
5

Wangermez, Maxence. "Méthode de couplage surfacique pour modèles non-compatibles de matériaux hétérogènes : approche micro-macro et implémentation non-intrusive." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN001.

Full text
Abstract:
Un des objectifs prioritaires des industries aéronautiques est la réduction de la masse des structures, tout en permettant l'amélioration de leurs performances. Ceci passe notamment par l'utilisation de matériaux composites et le recours croissant à la simulation numérique, permettant la minimisation du nombre d'essais physiques et l'optimisation des structures.L'enjeu de ces travaux est de pouvoir calculer précisément, sur des matériaux architecturés, l'influence de la microstructure, modélisée par exemple directement par tomographie, sur la tenue de pièces complètes. Pour prendre en compte à la fois l'ensemble de la pièce et les effets de son chargement, une approche global/local multiéchelle semble adaptée tant du point de vue des méthodes de calcul que des modèles matériaux utilisés.Pour répondre à cette problématique, une méthode de couplage entre des modèles qui décrivent une même structure, mais à des échelles différentes, a été développée. Elle repose sur une séparation micro-macro des quantités d’interface, dans la zone de raccord surfacique entre les deux modèles. Pour faciliter son utilisation dans les bureaux d’étude, une technique de résolution itérative non-intrusive est également présentée. Elle permet de mettre en œuvre la méthode de couplage proposée dans un environnement logiciel industriel qui utilise bien souvent des codes éléments finis commerciaux fermés. La méthode est systématiquement comparée à d'autres méthodes de couplage de la littérature et la qualité des solutions est quantifiée par comparaison à une solution de référence obtenue par un calcul direct à l'échelle fine.Les principaux résultats sont encourageants dans la mesure où ils montrent, dans des cas d'étude représentatifs bidimensionnels et tridimensionnels, sous des hypothèses d’élasticité linéaire, des solutions cohérentes avec les théories de l’homogénéisation au premier et second ordre. De fait, les solutions obtenues sont systématiquement de meilleure qualité avec la méthode proposée qu'avec les méthodes de la littérature, non-adaptées à des cas de couplage pour modèles non-compatibles.Finalement, les perspectives sont multiples en raison des différentes alternatives de la méthode qui, dans un contexte industriel, pourrait offrir un véritable outil d'analyse visant à introduire un modèle local décrit à l'échelle fine dans un modèle global macroscopique homogénéisé
One of the priority objectives of the aeronautics industry is to reduce the mass of structures while improving their performances. This involves the use of composite materials and the increasing use of digital simulation to optimize structures.The major challenge of this project is to be able to accurately calculate the local variations of the microstructure - for instance detected by tomography and directly modelled from tomogram - on the behavior of an architectured material part. In order to take into account the whole structure and its load effects, a multi-scale approach seems to be a natural choice. Indeed, the related models to the part and its microstructure might use different formalisms according to each scale.In this context, a coupling formulation was proposed in order to replace, in a non-intrusive way, a part of a homogenized macroscopic finite-element model by a local one described at a microscopic level. It is based on a micro-macro separation of interface quantities in the coupling area between the two models. To simplify its use in design offices, a non-intrusive iterative resolution procedure has also been proposed. It allows the implementation of the proposed coupling method in an industrial software environment that often uses closed commercial finite element codes. Different mechanical problems under linear elasticity assumption are proposed. The proposed method is systematically compared with other coupling methods of the literature and the quality of the solutions is quantified compared to a reference one obtained by direct numerical simulation at a fine scale.The main results are promising as they show, for representatives test cases under linear elasticity assumption in two and three-dimensions, solutions that are consistent with first- and second-order homogenization theories. The solutions obtained with the proposed method are systematically the best approximations of the reference solution whereas the methods of the literature are less accurate and shown to be unsuitable to couple non-compatible models.Finally, there are many perspectives due to the different alternatives of the method which could become, in an industrial context, a real analytic tool that aims to introduce a local model described at a fine scale, into a homogenized macroscopic global one
APA, Harvard, Vancouver, ISO, and other styles
6

Hamouda, Leila. "Formulations mixtes et hybrides pour les équations de la magnétostatique 3D dans un domaine non borné : mise en oeuvre numérique de diverses techniques de résolution." Paris 11, 2002. http://www.theses.fr/2002PA112079.

Full text
Abstract:
Le travail que nous présentons dans cette thèse repose sur l'étude mathématique et numérique de formulations mixtes et hybrides en magnétostatique tridimensionnelle, discrétisées par des éléments finis appropriés. Ce travail est fait dans le cadre de matériaux isotropes où l'on n'a besoin d'aucune condition au bord de la région magnétique, le problème extérieur étant résolu par une méthode intégrale. Le premier chapitre est consacré aux aspects théoriques d'une première formulation variationnelle mixte en champ magnétique et potentiel vecteur. L'existence et l'unicité de la solution de cette formulation y sont montrées. Après discrétisation, le système matriciel obtenu est alors résolu par la méthode d'Uzawa. Le second chapitre présente une méthode de pénalisation du système matriciel et de bons résultats ont été obtenus pour le Problème 13 du Team Work Shop. Nous avons également comparé cette technique de pénalisation du système matriciel avec celle du problème continu et nous avons conclu que notre technique est plus avantageuse que cette dernière. Le troisième chapitre expose la technique d'arbre en facettes, technique implémentée pour assurer l'unicité du potentiel vecteur. Le quatrième chapitre introduit les multiplicateurs de Lagrange sur les interfaces afin de relaxe les deux contraintes de continuité de la composante tangentielle du champ magnétique et de la composante normale de l'induction. Deux méthodes de résolution sont utilisées: la méthode d'Uzawa et la méthode de condensation statique. De bons résultats numériques sont obtenus. Finalement, une annexe présente un préconditionnement polynômial de la matrice de masse du système matriciel et un code est implémentée pour un domaine à perméabilité constante
We present a mathematical and a numerical study of mixed and hybrid formulations for magnetostatics 3D in an unbounded domain, discretised with well-chosen finite elements. This study deals with isotrope materials without any condition on the boundary of the magnetic domain, the external problem is solved by an integral method. The first chapter is devoted to the theoritical sights of a first mixed formulation where the magnetic field and the vector potentiel are the unknowns. The existence and the unicity of the solution are established. After the discretization, the matrix system is solved by Uzawa's method. The second chapter presents a perturbation method of the linear system. Good results are obtained for the Problem 13 of the Team Work Shop. We also compared these results with those obtained when the continued problem is perturbed. We, then, deduce that our method is more advantageous than the latter. The third chapter sets out the tree-cotree technic in order to impose the unicity of the vector potential. The fourth chapter introduces the lagrange multipliers used to relax continuity constraints: the continuity of the tangential component of magnetic field and the continuity of the normal component of the induction. Linear systems obtained have block diagonal matrix. Uzawa's method and static condensation method are used to solve these systems. Good results with good accuracy are obtained. Finally, an appendix relates the purpose of a polynomial preconditioning and a code is implemented for a domain having a constant permeability
APA, Harvard, Vancouver, ISO, and other styles
7

Le, Chuiton Frédéric. "Une méthode implicite non-factorisée décentrée hybride pour la simulation numérique d'écoulements autour de géométries complexes." Ecully, Ecole centrale de Lyon, 1999. http://bibli.ec-lyon.fr/exl-doc/TH_T1781_flechuiton.pdf.

Full text
Abstract:
Ce mémoire de thèse est consacré à l'étude d'un schéma numérique permettant, à terme, d'effectuer des calculs Navier-Stokes précis à l'aide d'une intégration Euler implicite non-factorisée. La discrétisation en espace est celle d'un schéma décentré hybride (HUS), d'après les travaux de Coquel & Liou, qui conjugue le schéma de Perthame (FVS), fondé sur une interprétation cinétique des équations d'Euler, et le schéma de Osher (FDS). Le schéma ainsi bati préserve la robustesse des FVS, au travers des ondes non-linéaires, et la précision des FDS, pour la capture des ondes linéaires. L'opérateur implicite est construit par linéarisation du FVS à l'ordre un en espace et par linéarisation des conditions-limites aussi bien aux frontières physiques qu'aux frontières de raccord multi-domaines. Le système linéaire qui en résulte est inversé de manière approchée à l'aide d'un algorithme itératif de Krylov, ici Bi-CGStab dû à Van der Vorst, que l'on préconditionne par un autre algorithme itératif SSOR. La validation de l'opérateur spatial est effectuée sur des cas de tube à choc et sur un profil d'aile par comparaison avec le schéma de Jameson. Ensuite, l'intégration temporelle implicite est évaluée à l'aide de cas bidimensionnels, un canal avec bosse et le même profil d'aile, et à l'aide de cas tridimensionnels, une nacelle isolée et une configuration comprenant un tronçon d'aile, un mât et une nacelle perméable. Ces études mettent en évidence, d'une part, la nette amélioration de la représentation des sillages et la réduction des pertes de pression totale obtenue à l'aide du schéma hybride par rapport à un FVS seul et, d'autre part, le bien fondé de l'implicitation des conditions-limites, de l'augmentation forcée du CFL, d'une résolution seulement approchée du système linéaire et du préconditionnement itératif
This thesis dissertation aims at studying a numerical scheme that allows accurate Navier-Stokes computations using an Euler implicit non-factorised integration. The spatial operator has been constructed by the combination of the scheme of Perthame (FVS), based on a kinetic interpretation of the Euler equations, and of the scheme of Osher (FDS). This results in one member of the hybrid upwind scheme family (HUS) introduced by Coquel & Liou, which retains the FVS robustness through non-linear waves and the FDS accuracy in capturing linear waves. The implicit operator is provided by the exact linearization of the FVS part, at first order in space, and by incorporating the boundary conditions, inter-block matching ones as well as physical ones. The subsequent linear system is approximately inverted by means of a Krylov algorithm, Bi-CGStab from Van der Vorst, and is preconditioned by an SSOR iterative method. The spatial discretization has been validated on shock tube problems and on an aerofoil profile by comparison with the scheme of Jameson. Then, the implicit integration has been assessed on bi-dimensional cases, a channel with a bump and the same aerofoil profile, and on three-dimensional cases, an isolated nacelle and a full configuration made of a truncated wing, a pylon and a nacelle. Numerical tests have demonstrated, on the one hand, a serious improvement in capturing wakes and in reducing total pressure losses, due to the hybrid scheme over a simple FVS scheme and, on the other hand, the relevance of implicit boundary conditions, the constant increase of the CFL number, a mere approximate inversion of the linear system and the efficiency of the iterative preconditioner
APA, Harvard, Vancouver, ISO, and other styles
8

Enakoutsa, Koffi. "Modèles non locaux en rupture ductile des métaux." Paris 6, 2007. https://tel.archives-ouvertes.fr/tel-01492088.

Full text
Abstract:
On évalue dans la première partie, l'efficacité pratique de deux solutions au problème de la concentration infinie de la déformation et de l'endommagement dans le modèle de Gurson, sous l'angle de leur capacité à affranchir les résultats numériques qu'elles prédisent vis-à-vis de la taille de maille et à reproduire de manière satisfaisante les résultats d'expériences de rupture ductile. La première solution consiste à adopter dans les équations du modèle de Gurson une équation d'évolution non locale de la porosité, sous la forme d'une intégrale de convolution. La seconde est une extension de la technique d'homogénéisation de Gurson en condition de taux de déformation homogène au bord, au cas des conditions de taux de déformation inhomogène au bord. Dans la seconde partie, on définit un modèle pour un matériau ductile poreux à deux populations de cavités, étendant celui de Perrin et al. (2000) au cas de la prise en compte de la germination continue des petites cavités de la seconde population
In the first part, one assess the practical hability of two proposals of modolfication of the Gurson model to circumvent the problem of unlimited strain and damage localization in this model. The assessment of the model is based on two criteria, absence of mesh size effect in finish elements computations and agreement of experimental and numerical results for some typical ductile fracture tests. The first proposal consisted of adopting some nonlocal evolution equation for the porosity involving some convolution integral. The second proposal is an extension of Gurson's condition of homogeneous boundary strain rate, to the case of conditions of inhomogeneous boundary strain rate. In the second part, one define a model for porous ductile material containing two "populations" of cavities, extending that of Perrin et al. (2000) to the case where continuous nucleation of secondary small voids is taking into account
APA, Harvard, Vancouver, ISO, and other styles
9

ROLAND, Christophe. "Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00010238.

Full text
Abstract:
La première partie est consacrée à la résolution de systèmes linéaires. Le chapitre 1 expose des résultats théoriques et numériques sur les méthodes proposées par Altman et précise le lien avec les méthodes de Krylov. Le chapitre 2 utilise des techniques d'extrapolation introduites par Brezinski pour obtenir une estimation du vecteur erreur. Plusieurs méthodes de projection sont retrouvées et de nouvelles procédures d'accélération données. Dans la deuxième partie, une nouvelle stratégie inspirée de la méthode de Cauchy-Barzilai-Borwein permet de définir de nouveaux schémas résolvant des problèmes de point fixe. Des résultats numériques sur un problème de bifurcation et un théorème de convergence sont donnés. Les chapitres 4, 5 et 6 sont consacrés à l'accélération de l'algorithme EM utilisé pour calculer des estimateurs du maximum de vraisemblance. Une classe de schémas itératifs basés sur la stratégie précédente est présentée, un théorème de convergence et une application à un problème de tomographie sont donnés. La dernière partie, fruit d'un projet du cemracs 2003, traite d'un problème issu de la physique des plasmas : l'amélioration des Codes Particles in Cell à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes et sa validation numérique.
APA, Harvard, Vancouver, ISO, and other styles
10

Abassi, Oussama. "Étude des décodeurs LDPC non-binaires." Lorient, 2014. https://hal.science/tel-01176817.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Puengnim, Anchalee. "Classification de modulations linéaires et non-linéaires à l'aide de méthodes bayésiennes." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000676/.

Full text
Abstract:
La reconnaissance de modulations numériques consiste à identifier, au niveau du récepteur d'une chaîne de transmission, l'alphabet auquel appartiennent les symboles du message transmis. Cette reconnaissance est nécessaire dans de nombreux scénarios de communication, afin, par exemple, de sécuriser les transmissions pour détecter d'éventuels utilisateurs non autorisés ou bien encore de déterminer quel terminal brouille les autres. Le signal observé en réception est généralement affecté d'un certain nombre d'imperfections, dues à une synchronisation imparfaite de l'émetteur et du récepteur, une démodulation imparfaite, une égalisation imparfaite du canal de transmission. Nous proposons plusieurs méthodes de classification qui permettent d'annuler les effets liés aux imperfections de la chaîne de transmission. Les symboles reçus sont alors corrigés puis comparés à ceux du dictionnaire des symboles transmis
This thesis studies classification of digital linear and nonlinear modulations using Bayesian methods. Modulation recognition consists of identifying, at the receiver, the type of modulation signals used by the transmitter. It is important in many communication scenarios, for example, to secure transmissions by detecting unauthorized users, or to determine which transmitter interferes the others. The received signal is generally affected by a number of impairments. We propose several classification methods that can mitigate the effects related to imperfections in transmission channels. More specifically, we study three techniques to estimate the posterior probabilities of the received signals conditionally to each modulation
APA, Harvard, Vancouver, ISO, and other styles
12

Nus, Patrice. "Étude et implantation de méthodes d'estimation spectrale paramétriques et non paramétriques : application à l'analyse vibratoire de machines tournantes." Nancy 1, 1993. http://www.theses.fr/1993NAN10020.

Full text
Abstract:
Cette thèse traite de l'étude des méthodes d'estimation spectrale classiques utilisant les transformées de Fourier et de Hartley ainsi que celles paramétriques autorégressives exploitant notamment l'algorithme de Kalman rapide. Les algorithmes de calcul sont implantés sur des processeurs spécialisés en traitement numérique du signal les dsp56001 et dsp96002. Les fréquences d'échantillonnage possibles pour une estimation spectrale en temps réel, sont déterminées en fonction des complexités numériques des algorithmes programmés sur les deux processeurs de signal. Ces techniques sont appliquées à l'analyse vibratoire d'un moteur électrique asynchrone et d'une lisseuse de machine à papier
APA, Harvard, Vancouver, ISO, and other styles
13

El, Azzouzi Khalid. "Modélisation et simulation numérique à l’échelle des fibres du comportement dynamique d’un multifilament unidirectionnel en placement de fibres robotisé." Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0027.

Full text
Abstract:
Le comportement mécanique d’un fil de carbone en compression transverse est caractérisé par des déplacements relatifs importants entre fibres, ce qui lui confère un comportement fortement non-linéaire lié aux contacts inter-fibres. Le caractère multi-échelle de la structure fibreuse rend problématique la caractérisation du comportement mécanique du fil de carbone utilisé dans le procédé de placement de fibres sèches automatisé. La complexité de la modélisation mécanique de ce milieu fibreux à l’échelle des fibres est due au fait que la forte non-linéarité mécanique dépend en grande partie de la configuration géométrique des fibres, des interactions de contact-frottement entre elles et le contexte dynamique de la dépose. Le couplage fort entre chargements et modes de déformation dans les différentes directions et l’évolution de la microstructure, qu’il est bien difficile d’appréhender, accentuent fortement la complexité de la modélisation d’une telle structure fibreuse. Le travail de la thèse s’inscrit dans le cadre de l’optimisation du moyen de dépose robotisé de fils secs avec une source de chaleur par laser. Afin de comprendre le comportement thermo-mécanique du fil au cours de la dépose, un modèle dynamique a été développé pour simuler un milieu fibreux en interaction. Le but est de pouvoir prédire le réarrangement des fibres dans un fil sous sollicitation, ainsi que l’évolution des points de contact entre fibres. Ce travail est une première étape vers l’objectif final qui est de définir les paramètres procédés par rapport à la nature des fils secs déposés permettant d’obtenir une préforme de bonne qualité avec une vitesse de dépose élevée
The mechanical behavior of the carbon tow in lateral pressure characterized by the relative movement between fibers giving it a non-linear behavior because of the contact inter-fibers. The fact that the fibrous structure of the tow makes it difficult to characterize its mechanical behavior during the automated placement. The complexity of the mechanical modeling of this fibrous media at fiber scale is due to the fact that the mechanical non-linearity depends in large part to the geometric configuration of fibers, the friction between fibers and also the dynamic environment of the placement. The mechanical modeling complexity is a consequence of the tight coupling between loading and deformation directions modifying the microstructure. This thesis is in keeping with the parameter optimization of the Automated Dry Fiber Placement process with a laser heat source. In order to improve understanding the thermos-mechanical behavior of tow during placement, a dynamic model has been developed to simulate the interaction between fibers. The aim is to be able to predict the geometric configuration of fibers under loading, as well as the position of the contact points. These works are the first step to achieving the objective of identifying and optimizing process parameters in order to increase the lay down speed as well as the quality of the preform
APA, Harvard, Vancouver, ISO, and other styles
14

Ounnas, Badreddine. "Étude et optimisations de jets photoniques pour des applications non conventionnelles dans les domaines optique et hyperfréquences." Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET4009/document.

Full text
Abstract:
Le travail de cette thèse est consacré à l’étude et l’optimisation d’un cas particulier de la diffusion des ondes électromagnétiques. Elle porte plus particulièrement sur un phénomène appelé le « jet photonique ou jet électromagnétique (jet EM)». Il s’agit d’un faisceau de lumière étroit et concentré en champ proche avec des caractéristiques physiques remarquables. Dans ce travail, un guide d’onde terminé par un embout de forme particulière est utilisé pour générer le jet photonique. Cette thèse a pour objectif l’étude, la caractérisation expérimentale et l’optimisation de jets photoniques pour des applications dans le domaine optique et hyperfréquences. Une méthode robuste et rapide a été développée pour calculer le champ électromagnétique généré par un objet diélectrique ou en sortie d’un guide d'onde avec un embout de forme particulière. Elle est basée sur la Méthode d'Equation Intégrale aux Frontière (MEIF) qui utilise la seconde identité Green. La caractérisation expérimentale des jets photoniques a été réalisée dans le domaine micro-ondes à des fréquences autour de 30 GHz. La possibilité de générer un jet simple et double en utilisant un guide d’onde à embout a été montrée expérimentalement et théoriquement par la méthode MEIF. Les jets EM simples et doubles ont été utilisés pour la détection d’objets métalliques de taille plus petite que la longueur d’onde et l'imagerie en champ proche à travers des structures optiquement opaques. Une procédure d’optimisation basée sur le couplage entre la MEIF et les algorithmes génétiques a été mise au point afin de générer des jets photoniques avec des caractéristiques a priori bien définie. Des optimisations des jets photoniques générés par un objet diélectrique et en sortie d’un guide d’onde avec embout ont été effectuées pour la micro-gravure laser et l’imagerie HF
The work of this thesis is devoted to the study and optimization of a particular case of the scattering of electromagnetic waves. Particularly, it is about a phenomenon called the "photonic jet or electromagnetic jet (EM jet)". This is a narrow light beam concentrated in near-field with remarkable physical characteristics. In this work, a waveguide terminated by a tip with special form is used to generate the photonic jet. This thesis performs the electromagnetic modeling, the experimental characterization and the optimization of photonic jets for applications in optic and microwave field. A robust and fast method was developed to calculate the electromagnetic field generated by a dielectric object or by a waveguide terminated with a tip. It is based on the boundary integral equation method (BIEM) which uses the second Green identity. Experimental characterization of photonic jets was conducted in the microwave field around 30 GHz. The ability to generate a single and double EM jet using a tipped waveguide has been shown experimentally and theoretically by BEIM method. The single and double EM jets were used for the detection of metal objects with a size smaller than the wavelength and for imaging through opaque structures in near field. An optimization procedure based on the coupling between the BEIM and genetic algorithms has been developed to generate photonic jets with properties well defined. Optimizations of photonic jets generated by a dielectric object and by a tipped waveguide have been realized for laser micro-etching and RF imaging
APA, Harvard, Vancouver, ISO, and other styles
15

Alame, Ibrahim. "Application de la géométrie différentielle des groupes de Lie à la dynamique non linéaire des milieux curvilignes." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1992. http://pastel.archives-ouvertes.fr/pastel-00568707.

Full text
Abstract:
L'objectif de cette thèse est l'étude du comportement dynamique des milieux curvilignes, en grands déplacements. Ce qui introduit une source de non linéarité géométrique qui se manifeste dans le terme d'inertie ainsi que dans le terme de rigidité. Le milieu curviligne considéré est modélisé par une suite continue de sections rigides liées par des milieux élastiques de masse nulle. On n'introduit aucune hypothèse simplificatrice dans la description des efforts intérieurs. Dans le modèle proposé, nous pouvons introduire une loi de comportement élastique non linéaire ce qui rajoute une deuxième source de non linéarité. On utilise ici comme outil fondamental le formalisme de la géométrie différentielle des groupes de Lie, ceci permet une écriture simple et condensée des équations de la dynamique et facilite leur traitement numérique. Les équations sont résolues par un algorithme numérique élaboré dans le même formalisme, ce qui évite l'utilisation "lourde" des paramètres de coordonnées. Enfin, les résultats obtenus sont appliqués à deux exemples concrets : le premier d'origine industrielle concerne le comportement du faisceau de câbles robotiques, le deuxième issu du Génie parasismique traite du comportement dynamique de grands bâtiments.
APA, Harvard, Vancouver, ISO, and other styles
16

Dridi, Mehdi. "Dérivation numérique : synthèse, application et intégration." Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00687239.

Full text
Abstract:
Les algorithmes de dérivation sont des méthodes numériques permettant d'estimer la dérivée d'un signal à partir d'une mesure de celui-ci. Dans la discipline de l'automatique, et comme il a été repris dans une large part des travaux de la communauté automaticienne, ces méthodes fournissent une aide précieuse dans les problèmes de commande non linéaire dans la mesure où celles-ci permettent de fournir, par dérivation de signaux mesurables, une estimation design aux intervenant dans le calcul de la commande. Les approches les plus connues au problème, sont basées sur les observateurs. Dans celles-ci, le signal à dériver est modélisé comme la sortie d'un système dynamique donné dont l'entrée est un signal canonique connu. Les dérivées du signal sont alors obtenues par observation de l'état de son modèle. La plupart de ces techniques prennent en compte, implicitement ou explicitement, des hypothèses, stochastiques ou déterministes, propres sur le signal à dériver et/ou sur la perturbation l'affectant. Dans ce travail, on s'intéresse à l'étude et l'application des différentes approches linéaires et non linéaires d'observation dans la synthèse d'algorithmes de dérivation. Dans un cadre linéaire, différentes approches de filtrage et d'observation (grand gain,Kalman, H2) sont alors introduites et appliquées pour l'estimation de la dérivée d'un signal mesuré. Une proposition d'approche alternative d'observation linéaire a été introduite et appliquée à la dérivation. Dans celle-ci, un observateur est mis en œuvre par optimisation d'une norme H∞.Le problème de synthèse d'observateurs est alors formulé comme un problème d'optimisation sous contraintes LMI. Cette approche présente l'intérêt de la possibilité de considérer une norme H∞ pondérée dans la synthèse de l'observateur. Dans ce cas, il est possible d'imposer un gabarit particulier sur la Densité Spectrale de Puissance du signal d'erreur. Une investigation supplémentaire est également apportée quant à la possibilité de considérer des structures d'observateurs alternatives à la structure Luenberger classique afin de s'affranchir de cette contrainte structurelle. Dans un cadre non linéaire, les observateurs par modes glissants fournissent une alternative aux observateurs linéaires dans l'application à la dérivation. Ces méthodes présentent l'intérêt de leur robustesse avérée et de pouvoir apporter une amélioration potentielle de la précision des algorithmes. De plus, celles-ci permettent l'introduction d'une notion de convergence inconnue dans un cadre linéaire : la convergence en temps fini. Du fait de leur non linéarité, la procédure de réglage de algorithmes qui en découlent est assez délicate et dépend, surtout, de la nature du signal à dériver et du niveau de bruit sur celui-ci. Ainsi, un réglage reste optimal pour un signal donné mais ne garantit pas le même niveau de performances pour un autre. Dans ce cas, des approches d'adaptation en temps réel des gains de réglage des algorithmes ont été introduites afin de s'affranchir de cette difficulté de réglage ou, du moins, la rendre moins complexe. Une version adaptative d'un algorithme de dérivation par modes glissants classique a été alors proposée. Cependant, notre approche dans l'étude du problème ne s'est pas réservée uniquement aux fondements théoriques des méthodes de dérivation. Ainsi, suite au travail théorique décrit précédemment, un travail de nature pratique et expérimental a été effectué. L'objectif étant de mettre en place un " capteur logiciel " embarqué sur cible numérique à faible coût permettant l'estimation des variables d'état d'un système mécatronique, par dérivation de signaux mesurés, en vue de sa commande. [...]
APA, Harvard, Vancouver, ISO, and other styles
17

Braci, Mohamed. "Algorithmes de différentiation numérique pour l'estimation de systèmes non linéaires." Paris 11, 2006. http://www.theses.fr/2006PA112359.

Full text
Abstract:
La principale motivation de ce mémoire de thèse est l'étude d'algorithmes de différentiation numérique qui sont à la fois simples et efficaces pour des signaux connus seulement à travers leurs échantillons et qui sont entachés de bruit de mesure. De tels algorithmes sont en effet les briques élémentaires d'une structure d'observateur combinant des conditions d'observabilité issues de l'approche algébrique et une synthèse du type Kalman incorporant un signal d'erreur (entre la mesure et sa prédiction) ainsi qu'une partie prédiction permettant de combler le retard créé éventuellement par les opérateurs de différentiation numériques. La nécessité pour les différentiateurs recherchés d'être simples (en temps de calculs) vient de ce qu'ils peuvent être invoqués plusieurs fois dans un seul observateurs. Après avoir proposé une légère modification de la structure de l'observateur précédemment mentionné, nous avons passé en revue les différents algorithmes de différentiation candidats. Comme on le sait la différentiation numérique est un opérateur inverse mal posé. Comme tous les opérateurs de ce type, son implantation pratique ne peut se faire qu'à travers une régularisation. Un schéma de différentiation numérique est précisément un opérateur qui régularise la différentiation. Le premier d'entre eux que nous avons examiné est le très populaire filtre linéaire obtenu par approximation de la transformée de Laplace de l'opérateur de différentiation par une fonction de transfert propre, souvent du premier ordre. Nous avons montré qu'on ne peut pas se contenter de dire que la fréquence de coupure de ce filtre, qui passe pour le paramètre de régularisation, doit être choisie petite. Nous avons obtenu des valeurs optimales pour cette fréquence de coupure qui représentent un compromis entre la nécessité de filtrage du bruit par de petites valeurs et celle d'approximer précisément l'opérateur de différentiation par de grandes valeurs de la fréquence de coupure. Il existe également une méthode de différentiation numérique tout aussi populaire, c'est les différences finies. Ici aussi nous avons montré comment cette méthode peut être régularisée en un schéma de différentiation numérique grâce à un calcul de la période d'échantillonnage optimale. Le schéma de différentiation dite de Savitzky-Golay, également très utilisés dans les sciences expérimentales a été revisité pour montrer comment le régulariser. Les résultats sont appliqués à 2 exemples académiques : l'estimation du substrat d'un réacteur biologique et la vitesse latérale d'une automobile
The main motivation of this PhD dissertation is the study of numerical differentiation algorithms which are simple and efficient for signals which are available only through their samples and which are corrupted by noise. Such algorithms are building blacks of some observer structure which combining observability conditions derived from the differential algebraic approach of observability and a synthesis like Kalman observer which incorporates a measurement error (between the !rue measurement and predicted one) in a loop and a prediction device which allows to compensate for the delay created by the differentiation operators. The necessity for these algorithms to be simple (in terms of computation burden) results from the fact that they may be invoked many times in a single observer. Alter having proposed a slight improvement of the observer structure previously mentioned we have preceded to the review of simple differentiation algorithms which are candidates. As is known numerical differentiation is an ill-posed inverse problem. As all operators of this type, its practical implementation necessarily goes through regularization. A numerical differentiation scheme is precisely an operator which regularizes the differentiation. The first one we have examined is the very popular linear filter consisting of an approximate of the Laplace transform of the differentiation operator by a proper transfer function, often of first order. We have shown that we cannot content ourselves in saying that the filter bandwidth, which is the regularization parameter, should be kept small. We have obtained optimal values of the filter bandwidth as a compromise of the necessity of narrow filter bandwidth in order to efficiently filter out the noise and large filler bandwidth in order to precisely reproduce the differentiation operator. There is also a method of numerical differentiation which popular as well, it is the finite differences method. Here, loo, we have shown how to choose the sampling period in an optimal way. The so-called Savitzky-Golay differentiation scheme, very much used in experimental sciences, is also revisited: we have shown how it can be regularized. The results are applied to 2 academic examples: the estimation of the substrate in a bioreactor, and the estimation of the lateral speed of a car
APA, Harvard, Vancouver, ISO, and other styles
18

Ramirez, Villalba Leidy catherine. "Towards an efficient modeling of Fluid-Structure Interaction." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0029.

Full text
Abstract:
Les applications industrielles FSI se caractérisent par des géométries et des matériaux complexes. Afin de prédire avec précision leur comportement, des coûts de calcul élevés sont associés, à la fois en temps et en ressources informatiques. Pour améliorer la qualité de la prédiction sans pénaliser le temps de calcul, et pour réduire le temps de calcul sans impacter la précision disponible aujourd'hui, deux axes principaux sont explorés dans ce travail. Le premier est l'étude d'un algorithme asynchrone qui pourrait permettre l'utilisation de modèles structurels complexes. Le second consiste à étudier la méthode des tranches en combinant l'utilisation d'un modèle RANS et d'un modèle FEM non linéaire. D'une part, l'étude de l'asynchronicité dans le domaine FSI a révélé différents aspect d'intérêt qui doivent être approfondis avant que l'approche puisse être utilisée industriellement. Cependant, un premier traitement des points mentionnés ci-dessus a montré des signe d'amélioration qui pourraient conduire à un algorithme prometteur, qui se situe naturellement entre l'algorithme explicite et l'algorithme implicite. D'autre part, il a été montré que la méthode des tranches développée dans ce travail conduit à une réduction significative du temps de calcul sans dégradation de la précision
FSI industrial applications are often described by complex geometries and materials. In order to accurately predict their behavior, high computational costs are associated, both in time and in computational resources. To improve the quality of the prediction without penalizing the computational time, and to reduce the computational time without impacting the accuracy that is available today, two main axes are explored in this work. The first one is the study of an asynchronous algorithm that could allow the use of complex structural models. The second axis consists of the study of the strip method while combining the use of a RANS model and a non-linear FEM model. On the one hand, the study of asynchronicity in the FSI domain revealed different aspects of interest that must be addressed before the approach can be used industrially. However, a first treatment of the limitations found showed signs of an improvement that could lead to a promising algorithm, one that naturally lies between the implicit external algorithm and the implicit internal algorithm. On the other hand, it was shown that the strip method developed in this work achieves a significant reduction in calculation time while maintaining excellent accuracy
APA, Harvard, Vancouver, ISO, and other styles
19

Greiner, Eric. "Mise en oeuvre de méthodes de contrôle optimal pour l'assimilation de données in situ et satellitaires dans les modèles océaniques." Paris 6, 1993. http://www.theses.fr/1993PA066108.

Full text
Abstract:
L'etude porte sur la resolution de problemes de moindres carres non lineaires rencontres dans le domaine des ecoulements oceaniques a grande echelle. L'originalite de ce travail reside dans l'approche qui est faite par la methode du controle optimal plutot que par une technique statistique. Cette methode consiste a minimiser une fonctionnelle correspondant au probleme de moindre carre etudie, le minimum de cette optimisation etant une solution du probleme. Lors des applications numeriques, le gradient de cette fonctionnelle n'est pas calcule par differences finies mais a l'aide du modele adjoint. La premiere etude de cette these concerne l'estimation des conditions initiales manquantes de modeles oceaniques tels que ceux de saint-venant, stokes et boussinesq a l'aide de donnees partielles sur l'etat du systeme. Cette etude theorique faite essentiellement en lineaire est suivie d'une application reelle, l'initialisation d'un modele shallow water non lineaire avec des donnees d'altimetrie du satellite geosat. La troisieme etude traite de l'initialisation d'un modele non lineaire de boussinesq quasi stationnaire avec des donnees de temperature et de salinite uniquement. Cette etude theorique est suivie d'une experience numerique d'initialisation d'un modele operationnel de simulation oceanique tridimensionnelle a l'aide de donnees in situ de temperature et de climatologie de temperature et de salinite. Les resultats theoriques partiels ainsi que les experiences numeriques montrent que la methode s'applique de maniere satisfaisante et qu'elle pourra etre utilisee de maniere operationnelle ainsi qu'en mode recherche pour ameliorer notre vision de l'ocean et parfaire sa description
APA, Harvard, Vancouver, ISO, and other styles
20

Lefèbvre, Matthieu. "Algorithmes sur GPU pour la simulation numérique en mécanique des fluides." Paris 13, 2012. http://scbd-sto.univ-paris13.fr/intranet/edgalilee_th_2012_lefebvre.pdf.

Full text
Abstract:
La simulation numérique en mécanique des fluides nécessite souvent une importante puissance de calcul. Pour accélérer ces simulations l’utilisation de GPU est envisagée. Cette thèse s’intéresse tout d’abord à l’étude d’algorithmes de mécanique des fluides numérique en maillage structuré. La structuration du maillage amène un rangement mémoire naturellement convenable pour effectuer des simulations sur GPU. Ceci permet de dégager des principes d’utilisation sans avoir à considérer le bruit occasionné par la définition d’une structure de données spécifique. Par la suite nous nous concentrons sur les algorithmes de mécanique des fluides numériques sur maillage non structuré et trois stratégies algorithmiques sont présentées. La première de ces techniques est une réorganisation visant à rendre les données consécutives en mémoire, au prix d’une copie des données coûteuse à la fois en temps et en mémoire. Une deuxième technique résultant en un partitionnement fin du domaine de calcul est développée, elle permet d’utiliser les mémoires cache des GPU modernes de manière plus efficace. La troisième de ces techniques est le raffinement générique. Le maillage initial est composé d’éléments grossiers raffinés de façon identique. Cette algorithme permet d’accéder aux données de façon consécutive et apporte des performances accrues
Numerical simulations in fluid mechanics require tremendous computational power ; GPU computing is one of the newest approaches to accelerate such simulations. On one hand, this thesis studies the case of fluid mechanics algorithms on structured meshes. The mesh structuration naturally brings well suited memory arrangements and allows to reach guidelines when using GPUs for numerical simulations. On the other hand, we examine the case of fluid mechanics on unstructured meshes with the help of three different algorithmic strategies. The first of these technique is a reorganisation to produce consecutive data accesses, but at the cost of expensive data copies, both in time and in memory. The second technique, a cell partitioning approach, is developed and allows to extensively use modern GPUs’ cache memories. The third technique consists on a generic refinement. The initial mesh is made of coarse elements refined in the exact same way in order to produce consecutive memory accesses. This approach brings significant performance improvements for fluid mechanics simulations on unstructured meshes
APA, Harvard, Vancouver, ISO, and other styles
21

Lenain, Roland. "Amélioration des méthodes de calcul de cœurs de réacteurs nucléaires dans APOLLO3 : décomposition de domaine en théorie du transport pour des géométries 2D et 3D avec une accélération non linéaire par la diffusion." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112180/document.

Full text
Abstract:
Ce travail de thèse est consacré à la mise en œuvre d’une méthode de décomposition de domaine appliquée à l’équation du transport. L’objectif de ce travail est l’accès à des solutions déterministes haute-fidélité permettant de correctement traiter les hétérogénéités des réacteurs nucléaires, pour des problèmes dont la taille varie d’un motif d’assemblage en 3 dimensions jusqu’à celle d’un grand cœur complet en 3D. L’algorithme novateur développé au cours de la thèse vise à optimiser l’utilisation du parallélisme et celle de la mémoire. La démarche adoptée a aussi pour but la diminution de l’influence de l’implémentation parallèle sur les performances. Ces objectifs répondent aux besoins du projet APOLLO3, développé au CEA et soutenu par EDF et AREVA, qui se doit d’être un code portable (pas d’optimisation sur une architecture particulière) permettant de réaliser des modélisations haute-fidélité (best estimate) avec des ressources allant des machines de bureau aux calculateurs disponibles dans les laboratoires d’études. L’algorithme que nous proposons est un algorithme de Jacobi Parallèle par Bloc Multigroupe. Chaque sous domaine est un problème multigroupe à sources fixes ayant des sources volumiques (fission) et surfaciques (données par les flux d’interface entre les sous domaines). Le problème multigroupe est résolu dans chaque sous domaine et une seule communication des flux d’interface est requise par itération de puissance. Le rayon spectral de l’algorithme de résolution est rendu comparable à celui de l’algorithme de résolution classique grâce à une méthode d’accélération non linéaire par la diffusion bien connue nommée Coarse Mesh Finite Difference. De cette manière une scalabilité idéale est atteignable lors de la parallélisation. L’organisation de la mémoire, tirant parti du parallélisme à mémoire partagée, permet d’optimiser les ressources en évitant les copies de données redondantes entre les sous domaines. Les architectures de calcul à mémoire distribuée sont rendues accessibles par un parallélisme hybride qui combine le parallélisme à mémoire partagée et à mémoire distribuée. Pour des problèmes de grande taille, ces architectures permettent d’accéder à un plus grand nombre de processeurs et à la quantité de mémoire nécessaire aux modélisations haute-fidélité. Ainsi, nous avons réalisé plusieurs exercices de modélisation afin de démontrer le potentiel de la réalisation : calcul de cœur et de motifs d’assemblages en 2D et 3D prenant en compte les contraintes de discrétisation spatiales et énergétiques attendues
This thesis is devoted to the implementation of a domain decomposition method applied to the neutron transport equation. The objective of this work is to access high-fidelity deterministic solutions to properly handle heterogeneities located in nuclear reactor cores, for problems’ size ranging from colorsets of assemblies to large reactor cores configurations in 2D and 3D. The innovative algorithm developed during the thesis intends to optimize the use of parallelism and memory. The approach also aims to minimize the influence of the parallel implementation on the performances. These goals match the needs of APOLLO3 project, developed at CEA and supported by EDF and AREVA, which must be a portable code (no optimization on a specific architecture) in order to achieve best estimate modeling with resources ranging from personal computer to compute cluster available for engineers analyses. The proposed algorithm is a Parallel Multigroup-Block Jacobi one. Each subdomain is considered as a multi-group fixed-source problem with volume-sources (fission) and surface-sources (interface flux between the subdomains). The multi-group problem is solved in each subdomain and a single communication of the interface flux is required at each power iteration. The spectral radius of the resolution algorithm is made similar to the one of a classical resolution algorithm with a nonlinear diffusion acceleration method: the well-known Coarse Mesh Finite Difference. In this way an ideal scalability is achievable when the calculation is parallelized. The memory organization, taking advantage of shared memory parallelism, optimizes the resources by avoiding redundant copies of the data shared between the subdomains. Distributed memory architectures are made available by a hybrid parallel method that combines both paradigms of shared memory parallelism and distributed memory parallelism. For large problems, these architectures provide a greater number of processors and the amount of memory required for high-fidelity modeling. Thus, we have completed several modeling exercises to demonstrate the potential of the method: 2D full core calculation of a large pressurized water reactor and 3D colorsets of assemblies taking into account the constraints of space and energy discretization expected for high-fidelity modeling
APA, Harvard, Vancouver, ISO, and other styles
22

Sassi, Taoufik. "Méthodes de décomposition de domaine pour la résolution de problème d'élasticité non linéaire avec maillages incompatibles." Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090010.

Full text
Abstract:
Cette thèse est composée de deux parties qui traitent de différentes méthodes de décomposition de domaines. Il s'agit ici des méthodes sans recouvrement, parallelisables, applicables à la résolution des problèmes d'élasticité non linéaires. De manière générale, une fois le domaine divise en régions, nous utilisons sur chaque sous-domaine une discrétisation en éléments finis avec maillages incompatibles à l'interface. L’analyse de la convergence de la solution approchée est basée sur la méthode d'élément avec joint « mortar-element ». Une erreur de discrétisation optimale est obtenue mais cette méthode est non conforme et reste toujours globale. De plus, le problème algébrique associe a une structure matricielle particulière. Ceci nous conduit a développer de nouveaux algorithmes pour le résoudre. Deux algorithmes d'approximation et de calcul par sous-domaines, généralisant ou bien la méthode de complément de Schur ou bien la méthode de Schwartz avec recouvrement fictif sont développés et analyses. Ces algorithmes ont été testes sur un problème d'élasticité linéaire tridimensionnel dans le cas de maillages compatibles et incompatibles
APA, Harvard, Vancouver, ISO, and other styles
23

Fournier, Luc. "Algorithmes multigrilles parallèles pour l'accélération de calculs d'écoulements complexes en maillages non-structurés 2D et 3D." Nice, 2001. http://www.theses.fr/2001NICE5616.

Full text
Abstract:
La méthode multigrille par agglomération de volumes a été conçue au début des années 90 pour répondre à un besoin important de réduction des coûts de calcul en mécanique des fluides numérique. Cette thèse décrit plusieurs études visant à améliorer l'efficacité et la robustesse d'une méthode multigrille linéaire par agglomération de volumes en maillages non-structurés, ainsi que son extension et son application au calcul d'écoulements tridimensionnels complexes d'intérêt industriel. La méthode est utilisée comme accélérateur de la résolution itérative de systèmes linéaires creux résultant d'un schéma d'intégration en temps implicite linéarisé. La discrétisation du système d'équations de Navier-Stokes moyennées, couplé à un modèle de turbulence k-e, repose ici sur une formulation mixte éléments finis/volumes finis en maillages triangulaires ou tétraédriques, associée à des schémas décentrés monotones pour un traitement robuste des écoulements considérés. Ce manuscrit comporte des contributions à caractère méthodologique consacrées à la parallélisation de la méthode sur plateformes de calcul à mémoire distribuée, à son extension au traitement d'écoulements tridimensionnels, et à la mise au point d'une nouvelle stratégie d'agglomération combinant des principes empruntés aux algorithmes de partitionnement de maillages avec une méthode d'optimisation locale de la forme des agglomérats constituant les grilles grossières. Enfin, ce mémoire présente deux contributions plus prospectives visant à mieux adapter la méthode multigrille linéaire aux plateformes de calcul parallèle. La première de ces contributions est une étude théorique et numérique d'une formulation multigrille additive par filtrage de résidu; la seconde consiste en une analyse des propriétés de lissage de méthodes de résolution par sous-domaine de type Schwarz additives.
APA, Harvard, Vancouver, ISO, and other styles
24

Gdoura, Mohamed Khaled. "Problème de Stokes avec des conditions aux limites non-linéaires : analyse numérique et algorithmes de résolution." Caen, 2011. http://www.theses.fr/2011CAEN2021.

Full text
Abstract:
Ce travail est un premier pas dans l’analyse math´ematique des probl`emes li´es `a la simulation du remplissage du moule par un polym`ere fondu en tenant compte de l’´eventuel glissement sur les parois solides. Notre travail est focalis´e sur le probl`eme de Stokes avec des conditions aux limites de type Tresca vue que les r´esultats d’analyse num´erique de ce type de probl`emes sont tr`es rares. Dans la premi`ere partie on commence d’abord par ´ecrire le probl`eme primal sous forme d’une in´equation variationnelle. Le terme de frottement apparait sous forme d’une fonction non-diff´erentiable. On propose par la suite une formulation mixte `a trois champs dans laquelle on dualise le frottement et on impose div(u) = 0 `a l’aide du multiplicateur de Lagrange p s’identifiant `a la pression. L’existence et l’unicit´e de la solution de cette formulation est garantie par une condition inf-sup continue qu’on prouve. Les ´el´ements finis P1 bulle/P1 pour le champs (u, p) et P1 pour le multiplicateur d´efinit sur le bord de Tresca ont permis de discr´etiser le probl`eme r´esultant. On montre que des conditions inf-sup discr`etes découplées sur le pression p et la contrainte tangentielle sont suffisantes pour la stabilit´e du probl`eme discret. Des estimations d’erreurs optimales ont ´et´e d´eriv´ees. La deuxi`eme partie porte sur l’estimation de la valeur optimale des p´enalit´es des algorithmes utilis´es, connus respectivement dans la litt´erature sous le nom ALG2 et ALG3. L’´equivalence entre les m´ethodes de directions altern´ees et la formulation en lagrangien augment´e a permis de r´e´ecrire les algorithmes sous forme d’un probl`eme d’´evolution dual discr´etis´e en temps par un sch´ema de splitting classique mettant en jeu des op´erateurs multivoques maximaux monotones. On montre d’abord la convergence dans le cas continu des deux algorithmes vers la solution stationnaire du probl`eme d’´evolution. On d´eduit par la suite la valeur optimale de la p´enalit´e de chaque algorithme `a partir de l’estimation de sa vitesse de convergence. La derni`ere partie porte sur deux m´ethodes de d´ecomposition de domaine bas´ees sur les algorithmes d’Uzawa appliqu´es au probl`eme de d´epart. Des tests num´eriques ont ´et´e r´ealis´es et un pr´econditionneur a ´et´e proposé pour la deuxième approche
This work is a first step in the analysis of mathematical problems arising from numerical simulation of mold filling process by polymer melt which can slip on solid wall. We focus on Stokes problem with Tresca boundary conditions since numerical analysis of such problem is rare. In the first part of the manuscript we begin by setting the primal problem written as a variational inequality. The friction term is presented by a nondifferential function. Then, we propose a three field mixed formulation in which friction is dualized and div(u) = 0 is forced by the Lagrange multiplier p identified to the pressure. Existence and uniqueness of the solution of such formulation is guaranteed by continuous inf-sup condition that we prove. P1 bubble-P1 finite element for (u, p) and P1 for , defined on the Tresca boundary, are used to discretize the resulting problem. We prove that only two uncoupled discrete inf-sup conditions on the pressure p and the shear stress are sufficient to ensure the stability of the discrete problem. Optimal error estimates are derived. The second part is devoted to the estimation of the optimal value of relaxation parameters in the used algorithms, known as ALG2 & ALG3. Using equivalence between alternating-direction methods and augmented Lagrangian formulation, we write ALG2 & ALG3 as a dual evolution problem discretized by some classical splitting scheme involving multivalued maximal monotone operators. We prove the convergence of the algorithms, in continuous case, to the steady state solution of the dual evolution problem and we deduce the optimal value of relaxation parameters after stimating the rate convergence of the two algorithms. In the last part, we present two domain decomposition methods based on Uzawa algorithms to solve Stokes problem with slip boundary conditions. Numerical tests are carried out and a preconditioner is proposedfor the second approache
APA, Harvard, Vancouver, ISO, and other styles
25

Chine, Abderrazek. "Algorithmes robustes en optimisation non convexe : codes et simulations numériques en grande dimension." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00340403.

Full text
Abstract:
Cette thèse est consacrée a l'étude des algorithmes en optimisation non convexe, a l'implémentation des codes a l'usage industriel et aux simulations numériques dans les problèmes de grande tailles. L'étude des problèmes quadratiques (convexes ou non convexes) sous contraintes linéaires et quadratiques ainsi que celle des méthodes de région de confiance pour minimisation d'une fonction de classe c#2, font l'objet de deux premiers chapitres. Les chapitres 3 et 4 sont réservés a l'optimisation non convexe (classification, dualité, stabilité et les algorithmes de sous gradients de resolution). Enfin, les simulations numériques dans les problèmes concrets de grande taille sont présentées et commentées dans le dernier chapitre
APA, Harvard, Vancouver, ISO, and other styles
26

Al, Moatassime Hassan. "Simulations numériques d'écoulements permanents de fluides non newtoniens par une méthode multigrille." Paris 11, 1993. http://www.theses.fr/1993PA112472.

Full text
Abstract:
Nous présentons une méthode numérique pour analyser les écoulements permanents de fluides viscoélastiques. La méthode des différences finies a été introduite sur des grilles décalées à maille non uniforme en utilisant un schéma décentré pour discrétiser l'équation constitutive ou le tenseur des extra-contraintes peut être décomposé en une partie newtonienne et une partie non newtonienne. Nous avons utilisé l'algorithme multigrille FAS (Full Approximation Storage). La performance de notre méthode est testée sur le problème du stick-slip et le problème de la contraction 4:1 en géometrie plane. Pour les simulations numériques nous avons choisi les fluides obéissant au modèle d'Oldroyd et a celui de Phan Thien-Tanner. Les résultats obtenus montrent que le modèle d'Oldroyd n'est pas satisfaisant.
APA, Harvard, Vancouver, ISO, and other styles
27

Cérou, Frédéric. "Filtrage non linéaire sans bruit de dynamique : comportement en temps long et algorithmes numériques." Aix-Marseille 1, 1995. http://www.theses.fr/1995AIX11076.

Full text
Abstract:
Dans la premiere partie de cette these, nous considerons un probleme crucial en filtrage stochastique et encore tres ouvert concernant la concentration de la loi conditionnelle dans un voisinage arbitraire de l'etat courant (inconnu) lorsque le temps croit vers +. Nous nous sommes restreint a une classe de systemes dont l'equation d'etat est deterministe, en mettant l'accent sur certaines notions d'observabilite, et non d'ergodicite comme dans les travaux precedents. Nous montrons egalement certaines connexions avec la theorie des systemes dynamiques, notamment la notion de phase asymptotique. Dans la deuxieme partie, nous considerons la meme classe de problemes sans bruit de dynamique, mais du point de vue numerique. En particulier les algorithmes numeriques (approximations particulaires et cellulaires), particulierement bien adaptes a un traitement parallele, sont decrits en detail. On donne egalement des mesures de performances sur divers calculateurs paralleles et vectoriels sur un probleme reel de trajectographie passive par mesure d'angle seul
APA, Harvard, Vancouver, ISO, and other styles
28

Lagoutière, Frédéric. "Modélisation mathématique et résolution numérique de problèmes de fluides à plusieurs constituants." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2000. http://tel.archives-ouvertes.fr/tel-00001385.

Full text
Abstract:
Ce travail concerne les fluides eulériens compressibles constitués de plusieurs espèces, qui peuvent être mélangées ou séparées par des interfaces. Le mémoire est composé de trois parties. La première partie est consacrée à la résolution numérique de problèmes modèles : équation d'advection, équation de Burgers, équations d'Euler, en dimensions un et deux. L'accent est mis sur la précision des méthodes (en particulier pour des données initiales discontinues), et des algorithmes non dissipatifs sont développés. Ils sont basés sur un décentrage aval des flux (de type volumes finis) sous des contraintes de stabilité. La seconde partie traite de la modélisation mathématique des mélanges de fluides. Nous y construisons et analysons une classe de modèles entropiques, symétrisables, hyperboliques, non forcément conservatifs. Ce sont des modèles à plusieurs températures et plusieurs pressions. Dans la troisième partie, nous utilisons les idées introduites dans la première partie (décentrage aval et schémas non dissipatifs) pour la résolution numérique des problèmes aux dérivées partielles construits dans la deuxième partie. Nous présentons des résultats numériques en dimensions un et deux.
APA, Harvard, Vancouver, ISO, and other styles
29

Picollet, Éric. "Contribution aux algorithmes de résolution non linéaire des problèmes couplés en géomécanique." Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0521.

Full text
Abstract:
Ce mémoire est consacre a certaines contributions apportées aux algorithmes de résolution des problèmes non linéaires. L'étude s'applique dans le domaine de la géotechnique, et concerne essentiellement la mise en œuvre de la méthode de longueur d'arc dans le code de calcul par éléments finis Gefdyn. Une première partie situe tout d'abord le cadre du développement, détaillant les équations ainsi que la discrétisation pour un problème couple hydraulique-mécanique. L'accent est mis en particulier, sur les grandes familles de méthodes de résolutions incrémentales des systèmes non linéaires. La méthode de longueur d'arc à pilotage de charge scalaire est exposée dans un second chapitre, permettant ainsi de mieux la situer parmi la classe des techniques de continuation. Développée de façon classique pour la résolution des problèmes mécaniques, elle est ensuite adaptée et présentée dans le cadre de phénomènes physiques couplés, appliques à la mécanique des sols. La finalité de l'étude théorique considéré une généralisation du raisonnement pour des pilotages multiples, que l'on nomme alors méthode a chargement vectoriel. La logique mathématique est exposée, ainsi que les détails sur la solution numérique. En guise de validation, des calculs qualitatifs sont présentés afin de prouver l'efficacité de l'algorithme. Le premier objectif consiste à passer des points limite, existant pour certains cas de charge. Des tests constitues de matériaux biphasiques a comportement élastoplastique sont réalisés, en pilotant le problème en force. La principale difficulté réside dans la gestion incrémentale de la variable de temps, a partir du moment où les problèmes tiennent compte de l'historique de chargement. Il s'agit donc de gérer un phénomène physique instationnaire, ou le temps est pilote de façon identique à la charge. La seconde application concerne la construction par couches des barrages en remblais. L'originalité de la démarche consiste à gérer de façon incrémentale la pose des couches, en contrôlant l'augmentation progressive et raffinée du poids de chaque épaisseur déposée. Cette approche parait plus proche de ce qui est réalisé sur le chantier. Enfin, une étude qualitative réalisée pour la construction par couches d'un barrage en remblais, permet de mettre en évidence des pressions résiduelles présentés à l'interface entre le noyau et les recharges. L'objectif principal est de prouver que des conditions aux limites hydrauliques bien choisies sur le domaine d'étude, permettent d'éliminer ce phénomène peu réaliste.
APA, Harvard, Vancouver, ISO, and other styles
30

Buatois, Luc. "Algorithmes sur GPU de visualisation et de calcul pour des maillages non-structurés." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00331935.

Full text
Abstract:
Les algorithmes les plus récents de traitement numérique de la géométrie ou bien encore de simulation numérique de type CFD (Computational Fluid Dynamics) utilisent à présent de nouveaux types de grilles composées de polyèdres arbitraires, autrement dit des grilles fortement non-structurées. Dans le cas de simulations de type CFD, ces grilles peuvent servir de support à des champs scalaires ou vectoriels qui représentent des grandeurs physiques (par exemple : densité, porosité, perméabilité). La problématique de cette thèse concerne la définition de nouveaux outils de visualisation et de calcul sur de telles grilles. Pour la visualisation, cela pose `a la fois le problème du stockage et de l'adaptativité des algorithmes `a une géométrie et une topologie variables. Pour le calcul, cela pose le problème de la résolution de grands systèmes linéaires creux non-structurés. Pour aborder ces problèmes, l'augmentation incessante ces dernières années de la puissance de calcul parallèle des processeurs graphiques nous fournit de nouveaux outils. Toutefois, l'utilisation de ces GPU nécessite de définir de nouveaux algorithmes adaptés aux modèles de programmation parallèle qui leur sont spécifiques. Nos contributions sont les suivantes : (1) Une méthode générique de visualisation tirant partie de la puissance de calcul des GPU pour extraire des isosurfaces à partir de grandes grilles fortement nonstructurées. (2) Une méthode de classification de cellules qui permet d'accélérer l'extraction d'isosurfaces grâce à une pré-sélection des seules cellules intersectées. (3) Un algorithme d'interpolation temporelle d'isosurfaces. Celui-ci permet de visualiser de manière continue dans le temps l'évolution d'isosurfaces. (4) Un algorithme massivement parallèle de résolution de grands systèmes linéaires non-structurés creux sur le GPU. L'originalité de celui-ci concerne son adaptation à des matrices de motif arbitraire, ce qui le rend applicable `a n'importe quel système creux, dont ceux issus de maillages fortement non-structurés.
APA, Harvard, Vancouver, ISO, and other styles
31

Gu, Xiaonan. "Structures métalliques a liaisons semi-rigides : algorithmes de calcul et résolution numérique en analyse non linéaire pré et post critique." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0076.

Full text
Abstract:
Dans les structures dites « à barres » les propriétés mécaniques des assemblages sont susceptibles d'influence non négligeables sur tous les aspects du compromettante mécanique d'ensembles ? Dans ce contexte, le présent travail propose un ensemble numérique d'analyse par éléments finis du comportement quasi statique non linéaire des structures métalliques planes à histoire de changement arbitraires en présence de liaisons semi-rigides ; L'ensemble procède en description Lagrangienne actualisée actualisé approchée. Le comportement non linéaire est décrit par la méthode de Newton-Raphson en conjonction avec des techniques de pilotage de Crisfield par longueurs d'arc imposées. La formulation associe un élément fini de barre original calculé à partir de le forme non linéaire complète de l'expression du principe des travaux virtuels, une loi d'interaction moment-effort normal multilinéaire, et divers modèles de comportement non linéaire des liaisons. Le couplage noeuds-liaisons-barres utilise une matrice dite « de connexion » qui simplifie l'algorithme d'itération à l'équilibre sans adjonction de variables nodales spécifiques. La validité et l'intérêt des modèles proposés sont montés sur des exemples en analyse élastique et post élastique au premier et second ordre
In framework structures, the mechanical properties of joints can considerably influence the whole mechanical behaviour. In this context, a numerical finite element analysis software package is proposed for the study of the quasi static non linear behaviour of steel plane structure with arbitrary loading condition and semi rigid connection. The approximated and updated Lagrangian description is used. The Newton-Raphson method in conjunction with the Crisfield's arc-length methods allowing limit points to be « passed automatically » is used to describe the whole reponse for problems with geometrical and material non linearity. In the formulation, a special beam-column finite element obtained form the complete non linear form of the virtual work principle is associated with a multi linear moment-axial force interaction low and with some models of non linear connections. A so called connection matrix is built to deal with the coupling effects between nodes connections and beam columns. This matrix simplifies the interactive equilibrium algorithm without any specific addition nodal parameter. The validity and interest of the proposed models are shown using some examples with elastic and post elastic behaviour following first and second order analysis
APA, Harvard, Vancouver, ISO, and other styles
32

Deshpande, Lalita Narhar. "Des algorithmes rapides pour la validation croisée sur des problèmes d'approximation non linéaires." Grenoble 1, 1990. http://tel.archives-ouvertes.fr/tel-00337860.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Blusseau, Samy. "On salience and non-accidentalness : comparing human vision to a contrario algorithms." Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0042/document.

Full text
Abstract:
Dans cette thèse, nous comparons la vision humaine à des algorithmes de vision par ordinateur, basés sur un modèle mathématique appelé théorie a-contrario. Pour cela, nous nous concentrons sur deux taches visuelles dont la modélisation d'une part, et l'expérimentation psychophysique d'autre part, sont simples. Celles-ci consistent dans le groupement perceptuel d'éléments orientés appelés patchs de Gabor. Dans la première tache il s'agit de détecter des alignements, et dans la seconde des courbes, soit des configurations plus générales d'éléments en bonne continuation. Dans les deux cas, des expériences psychophysiques ont été menées afin de collecter des données sur la perception visuelle humaine dans un contexte de masquage.Le principe de non-accidentalité désigne le fait que les relations spatiales entre des éléments prennent un sens pour la perception lorsqu'il semble invraisemblable qu'elles soient le fruit du hasard. Ce principe trouve une formalisation dans la théorie a-contrario, qui est utilisée en vision par ordinateur pour déterminer des seuils de détection en accord avec la non-accidentalité. Dans cette thèse, les méthodes a-contrario sont appliquées dans l'implémentation de deux algorithmes conçus pour détecter respectivement des alignements et des courbes non-accidentels. Ces algorithmes ont joué le role de sujets artificiels dans nos expériences.Les données expérimentales des sujets humains ont donc été comparées aux algorithmes sur les memes taches, conduisant à deux principaux résultats. Premièrement, le Nombre de Fausses Alarmes (NFA), qui est la mesure scalaire de non-accidentalité dans la théorie a-contrario, est en forte corrélation avec les taux de détection obtenus par lessujets humains sur un large éventail de stimuli. Deuxièmement, les réponses des algorithmes ressemblent précisément à celles de la moyenne des sujets humains.La contribution de cette thèse est donc double. D'une part, elle valide de façon rigoureuse la pertinence des méthodes a-contrario dans l'estimation de seuils perceptuels, et leur application en vision par ordinateur. D'autre part, elle souligne l'importance du principe de non-accidentalité dans la vision humaine.Dans le but de rendre ces recherches reproductibles, les méthodes décrites dans la thèse ont été publiées dans le journal IPOL. Ces publications fournissent le détail des algorithmes, leur code source commenté, ainsi qu'une démonstration en ligne pour chacun d'eux
The present dissertation compares the human visual perception to computer vision algorithms based on a mathematical model called a-contrario theory. To this aim, it focuses on two visual tasks that are at the same time easy to model and convenient to test in psychophysical experiments. Both tasks consist in the perceptual grouping of oriented elements, namely Gabor patches. The first one is the detection of alignments and the second one extends to curves, that is to say to more general arrangements of elements in good continuation. In both cases, alignments and curves, psychophysical experiments were set up to collect data on the human visual perception in a masking context.The non-accidentalness principle states that spatial relations are perceptually relevant when their accidental occurrence is unlikely. The a-contrario theory is a formalization of this principle, and is used in computer vision to set detection thresholds accordingly. In this thesis, the a-contrario framework is applied in two practical algorithms designed to detect non-accidental alignments and curves respectively. These algorithms play the part of artificial subjects for our experiments.The experimental data of human subjects is then compared to the detection algorithms on the very same tasks, yielding two main results. First, this procedure shows that the Number of False Alarms (NFA), which is the scalar measure of non-accidentalness in the a-contrario theory, strongly correlates with the detection rates achieved by human subjects on a large variety of stimuli. Secondly,the algorithms' responses match very well the average behavior of human observers.The contribution of this thesis is therefore two-sided. On the one hand, it provides a rigorous validation of the a-contrario theory's relevance to estimate visual thresholds and implement visual tasks in computer vision. On the other hand, it reinforces the importance of the non-accidentalness principle in human vision.Aiming at reproducible research, all the methods are submitted to IPOL journal, including detailed descriptions of the algorithms, commented reference source codes, and online demonstrations for each one
APA, Harvard, Vancouver, ISO, and other styles
34

Moussaed, Carine. "Modèles variationnels dynamique et hybride pour la simulation numérique d'écoulements turbulents." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20130/document.

Full text
Abstract:
Ce travail est une contribution à la simulation numérique d'écoulements turbulents dans un but d'application industrielle. Nous nous intéressons dans un premier temps à une nouvelle combinaison "VMS-LES/procédure dynamique" pour la simulation d'écoulements autour de cylindres circulaire et carré. L'approche VMS-LES mise en œuvre a pour originalité d'utiliser une procédure de moyennage sur des volumes finis agglomérés dans le but de séparer les échelles, l'approche dynamique étant celle introduite par Germano en LES. Une approche hybride RANS/VMS-LES est ensuite évaluée sur le problème du cylindre circulaire à des nombres de Reynolds élevés. Cette approche introduit un paramètre d'hybridation qui selon la résolution locale de grille privilège le modèle RANS ou celui VMS-LES. Enfin, les performances d'un algorithme de Schwarz deux-niveau, qui utilise les méthodes de déflation et de balancing, sont examinées d'un point de vue efficacité et scalabilité dans le cas de simulations VMS-LES
This work is a contribution to the numerical simulation of turbulent flows with the aim of industrial application. At first, we focus on a new combination "VMS-LES/dynamic procedure" for the simulation of flows around circular and square cylinders. The VMS-LES approach adopted in this work is original in using an averaging procedure over agglomerated finite volumes in order to separate the scales, the dynamic approach being the one introduced by Germano in LES. A RANS/VMS-LES hybrid approach is then evaluated on the circular cylinder test case at high Reynolds numbers. This approach introduces a hybridization parameter which privileges the RANS model or the VMS-LES model according to the grid resolution. Finally, the performance of a two-level Schwarz algorithm, which uses the deflation and balancing methods, are examined in terms of efficiency and scalability in the context of VMS-LES simulations
APA, Harvard, Vancouver, ISO, and other styles
35

Huyan, Pengfei. "Electromagnetic digital actuators array : characterization of a planar conveyance application and optimized design." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2178/document.

Full text
Abstract:
Dans les systèmes mécaniques ou mécatroniques, les actionneurs sont les composants utilisés pour convertir l’énergie d’entrée, généralement l’énergie électrique, en tâche mécanique telles que le mouvement, la force ou une combinaison des deux. Actionneur analogique et actionneur numérique sont les deux types d’actionneurs les plus communs. Les actionneurs numériques possèdent les avantages du contrôle en boucle ouverte, faible consommation d’énergie par rapport aux actionneurs analogiques. Cependant, les actionneurs numériques présentent deux inconvénients majeurs. Les erreurs de fabrication de ces actionneurs doivent être contrôlées précisément parce que, contrairement à des actionneurs analogiques, une erreur de fabrication ne peut pas être compensée par la loi de commande. Un autre inconvénient est leur capacité à réaliser les tâches continues en raison de leur corse discrète. Un assemblage de plusieurs actionneurs numériques peut néanmoins réaliser des tâches multiples discrètes. Cette thèse porte sur la caractérisation et l’optimisation d’une conception expérimentale actionneurs tableau numériques pour l’application planaire de transport. Le premier objectif principal de la présente thèse est axé sur la caractérisation de l’ensemble des actionneurs existants et aussi une application planaire de transport sur la base du tableau des actionneurs. A cette fin, une modélisation de la matrice des actionneurs essais expérimentaux ont été effectués afin de déterminer l’influence de certains paramètres sur le comportement des actionneurs de tableau. Le deuxième objectif est de concevoir une nouvelle version du tableau actionneurs sur la base de l’expérience du premier prototype. Une optimisation de la conception a ensuite été réalisée en utilisant des techniques d’algorithmes génétiques tout en tenant compte de plusieurs critères
In mechanical or mechatronical systems, actuators are the components used to convert input energy, generally electrical energy, into mechanical tasks such as motion, force or a combination of both. Analogical actuator and digital actuator are two common types of actuators. Digital actuators have the advantages of open-loop control, low energy consumption and etc compared to analogical actuators. However, digital actuators present two main drawbacks. The manufacturing errors of these actuators have to be precisely controlled because, unlike to analogical actuators, a manufacturing error cannot be compensated using the control law. Another drawback is their inability to realize continuous tasks because of their discrete stroke. An assembly of several digital actuators can nevertheless realize multi-discrete tasks. This thesis focuses on the experimental characterization and optimization design of a digital actuators array for planar conveyance application. The firs main objective of the present thesis is focused on the characterization of the existing actuators array and also a planar conveyance application based on the actuators array. For that purpose, a modeling of the actuators array and experimental test has been carried out in order to determine the influence of some parameters on the actuators array behavior. The second objective is to design a new version of the actuators array based on the experience of the first prototype. An optimization of the design has then been realized using genetic algorithm techniques while considering several criteria
APA, Harvard, Vancouver, ISO, and other styles
36

Yang, Minglin. "Computation of light scattering, radiation force, torque and stress of large non-spherical particles with Multilevel Fast Multipole Algorithm and Vectorial Complex Ray Model." Rouen, 2014. http://www.theses.fr/2014ROUES055.

Full text
Abstract:
Cette thèse est dédiée à la validation du modèle de Tracé de Rayons Vectoriels Complexes (VCRM - Vectorial Complex Ray Model en anglais) par la comparaison des diagrammes de diffusion avec les résultats de SIE- MLFMA (Surface Integral Equation with Multilevel Fast Multipole Algorithm en anglais) et les applications de MLFMA développé à la prédiction de la force de pression de radiation, le couple et la tension exercés sur des grosses particules non-sphériques par un faisceau laser. En introduisant la courbure du front d’onde comme une nouvelle propriété des rayons lumineux, VCRM apporte une amélioration considérable sur la précision et l’applicabilité du modèle de rayons pour la diffusion de la lumière par les particules non-sphériques. Cependant ses résultats pour les particules non-sphériques restent à valider. Alors, MLFMA est une méthode numérique très efficace pour traiter l’interaction de la lumière avec des particules de forme quelconque. Afin d’étendre sa capacité pour les grosses particules, dans cette thèse, MLFMA est améliorée et parallélisée. Le code mis au point permet d’obtenir des résultats exacts pour les particules de paramètre de taille supérieur à 600. Le bon accord entre les diagrammes de diffusion des grosses particules ellipsoïdales calculées par MLFMA et VCRM illustre la grande capacité de ces deux méthodes. Ensuite, le code MLFMA développé est appliqué au calcul de la force de pression de radiation (FPR) et le couple sur des particules homogènes de forme quelconque. Pour éviter l’imprécision de la description mathématique en champ lointain de faisceau laser, l’expression analytique de champs électromagnétiques dans la région proche de la particule est utilisée. La FPR et le couple sont donc calculés par le flux du vecteur du tenseur de Maxwell sur une surface sphérique incluant la particule. Cette méthode est très puissante et flexible permettant de prédire la FPR et le couple exercés par un faisceau de forme quelconque sur une grosse particule, comme des particules sphéroïdales, des particules de forme de globule rouge ou moteur. La FPR et le couple sont des effets mécaniques globaux d’un faisceau de lumière exercés sur une particule. La tension sur la surface d’une particule peut être importante dans l’étude des propriétés élastiques de certaines particules. Le code MLFMA développé est donc étendu au calcul de la tension de surface et VCRM a été appliqué à l’analyse le mécanisme de la tension sur des particules sphéroïdales.
APA, Harvard, Vancouver, ISO, and other styles
37

Ben, Gharbia Ibtihel. "Résolution de problèmes de complémentarité. : Application à un écoulement diphasique dans un milieu poreux." Phd thesis, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00776617.

Full text
Abstract:
Les problèmes de complémentarité interviennent dans de nombreux domaines scientifiques : économie, mécanique des solides, mécanique des fluides. Ce n'est que récemment qu'ils ont commencé d'intéresser les chercheurs étudiant les écoulements et le transport en milieu poreux. Les problèmes de complémentarité sont un cas particulier des inéquations variationnelles. Dans cette thèse, on offre plusieurs contributions aux méthodes numériques pour résoudre les problèmes de complémentarité. Dans la première partie de cette thèse, on étudie les problèmes de complémentarité linéaires 0 6 x ⊥ (Mx+q) > 0 où, x l'inconnue est dans Rn et où les données sont q, un vecteur de Rn, et M, une matrice d'ordre n. L'existence et l'unicité de ce problème est obtenue quand la matrice M est une P-matrice. Une méthode très efficace pour résoudre les problèmes de complémentarité est la méthode de Newton-min, une extension de la méthode de Newton aux problèmes non lisses.Dans cette thèse on montre d'abord, en construisant deux familles de contre-exemples, que la méthode de Newton-min ne converge pas pour la classe des P-matrices, sauf si n= 1 ou 2. Ensuite on caractérise algorithmiquement la classe des P-matrices : c'est la classe des matrices qui sont telles que quel que, soit le vecteur q, l'algorithme de Newton-min ne fait pas de cycle de deux points. Enfin ces résultats de non-convergence nous ont conduit à construire une méthode de globalisation de l'algorithme de Newton-min dont nous avons démontré la convergence globale pour les P-matrices. Des résultats numériques montrent l'efficacité de cet algorithme et sa convergence polynomiale pour les cas considérés. Dans la deuxième partie de cette thèse, nous nous sommes intéressés à un exemple de problème de complémentarité non linéaire concernant les écoulements en milieu poreux. Il s'agit d'un écoulement liquide-gaz à deux composants eau-hydrogène que l'on rencontre dans le cadre de l'étude du stockage des déchets radioactifs en milieu géologique. Nous présentons un modèle mathématique utilisant des conditions de complémentarité non linéaires décrivant ces écoulements. D'une part, nous proposons une méthode de résolution et un solveur pour ce problème. D'autre part, nous présentons les résultats numériques que nous avons obtenus suite à la simulation des cas-tests proposés par l'ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) et le GNR MoMaS. En particulier, ces résultats montrent l'efficacité de l'algorithme proposé et sa convergence quadratique pour ces cas-tests
APA, Harvard, Vancouver, ISO, and other styles
38

Roland, Christophe. "Méthodes d'accélération de convergence en analyse numérique et en statistique." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Roland.pdf.

Full text
Abstract:
En premier lieu (chap. 1), je me suis intéressé à deux méthodes différentes proposées par Altman (1960) pour résoudre un système linéaire. Ces méthodes peuvent être considérées cornme des méthodes de sous-espaces de Krylov pour résoudre un système projeté du système initial. Le lien avec les méthodes classiques de sous-espaces de Krylov est précisé et des résultats théoriques et numériques sur le comportement de la:convergence sont donnés. Ensuite (chap. 2), en utilisant des techniques d'extrapolation introduites par Brezinski (1999); j'ai obtenu diverses estimations du vecteur erreur. Cette nouvelle approche permet de retrouver plusieurs méthodes connues de projection et de donner de nouvelles procédures d'accélération. Puis (chap. 3), j'ai introduit une nouvelle méthode itérative pour résoudre des problèmes non linéaires de point fixe. Cette méthode inspirée par la méthode de Cauchy-Barzilai-Borwein (Raydan et al (2002)) peut être considérée comme une modification des méthodes Delta k introduites par Brezinski et Chehab (1998). Des résultats numériques concernant la solution d'un problème de réaction-diffusion avec bifurcations illustrent l'efficacité de cette nouvelle méthode. Un résultat théorique de convergence est donné. Finalement, je me suis intéréssé à l'accélération de la convergence de l'algorithme E. M. (chap. 4) qui est utilisé pour calculer des estimateurs du maximum de vraisemblance dans des problèmes de données incomplètes. J'ai présenté une nouvelle stratégie appelée Squaring (chap. 5) qui permet d'obtenir une classe de schémas itératifs afin d'accélérer la convergence de cet algorithme. Des résultats de convergence et des expériences numériques variées dont une application en tomographie (chap. 6) montrent l'intérêt de ces schémas. D'autre part (chap. 7), dans le cadre du Cemracs 2003, je me suis intéressé à un problème issu de la physique des plasmas concernant la résolution d'une équation de Vlasov-Poisson. Le but était d'améliorer l'efficacité des codes Particles ln Cell (PIC) à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes. Des résultats numériques en une dimension concernant le problème de l'amortissement Landau ont été obtenus pour valider la méthode.
APA, Harvard, Vancouver, ISO, and other styles
39

Abou, Khachfe Refahi. "Résolution numérique de problèmes inverses 2D non linéaires de conduction de la chaleur par la méthode des éléments finis et l'algorithme du gradient conjugué : validation expérimentale." Nantes, 2000. http://www.theses.fr/2000NANT2045.

Full text
Abstract:
Ce travail vise à développer de nouveaux outils numériques d'analyse des transferts de chaleur par conduction inverse. L'étude est basée sur la mise en œuvre conjointe de la méthode des éléments finis et de l'algorithme du gradient conjugue. Le choix des éléments finis garantit une approche générale à la résolution numérique de l'équation parabolique. Cette méthode est également bien adaptée aux cas non linéaires, fréquents en pratique. Le choix du gradient conjugue découle de la démarche globale unique adoptée pour formuler les différents types de problèmes inverses. Cet algorithme itératif est également bien adapté à la mise en œuvre du principe de régularisation itérative, le caractère mal pose des problèmes inverses est ainsi traite numériquement sans introduire de paramètres "régularisateurs" supplémentaires. Le code numérique inverse a été développé en exploitant les ressources de la bibliothèque d'éléments finis modulef. Il est ainsi compatible avec les nombreux processeurs utilitaires disponibles dans cette bibliothèque ainsi que dans certains grands codes commerciaux (maillage, traitement graphique, interface,). Les principaux problèmes résolus concernent les applications les plus fréquentes de l'analyse thermique inverse : a) l'estimation d'une condition à la frontière du domaine, le cas d'une distribution spatiale et temporelle, et celui d'une fonction dépendant de la température ont été considérés, b) l'estimation simultanée des positions et intensités de sources ponctuelles, c) l'estimation simultanée du tenseur de conductivité et de la chaleur spécifique dans un milieu orthotrope. Pour chaque problème traité, un dispositif expérimental a été mis au point, en vue de valider les résultats numériques obtenus.
APA, Harvard, Vancouver, ISO, and other styles
40

Nguyen, Thi Thanh. "Algorithmes gloutons orthogonaux sous contrainte de positivité." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0133/document.

Full text
Abstract:
De nombreux domaines applicatifs conduisent à résoudre des problèmes inverses où le signal ou l'image à reconstruire est à la fois parcimonieux et positif. Si la structure de certains algorithmes de reconstruction parcimonieuse s'adapte directement pour traiter les contraintes de positivité, il n'en va pas de même des algorithmes gloutons orthogonaux comme OMP et OLS. Leur extension positive pose des problèmes d'implémentation car les sous-problèmes de moindres carrés positifs à résoudre ne possèdent pas de solution explicite. Dans la littérature, les algorithmes gloutons positifs (NNOG, pour “Non-Negative Orthogonal Greedy algorithms”) sont souvent considérés comme lents, et les implémentations récemment proposées exploitent des schémas récursifs approchés pour compenser cette lenteur. Dans ce manuscrit, les algorithmes NNOG sont vus comme des heuristiques pour résoudre le problème de minimisation L0 sous contrainte de positivité. La première contribution est de montrer que ce problème est NP-difficile. Deuxièmement, nous dressons un panorama unifié des algorithmes NNOG et proposons une implémentation exacte et rapide basée sur la méthode des contraintes actives avec démarrage à chaud pour résoudre les sous-problèmes de moindres carrés positifs. Cette implémentation réduit considérablement le coût des algorithmes NNOG et s'avère avantageuse par rapport aux schémas approximatifs existants. La troisième contribution consiste en une analyse de reconstruction exacte en K étapes du support d'une représentation K-parcimonieuse par les algorithmes NNOG lorsque la cohérence mutuelle du dictionnaire est inférieure à 1/(2K-1). C'est la première analyse de ce type
Non-negative sparse approximation arises in many applications fields such as biomedical engineering, fluid mechanics, astrophysics, and remote sensing. Some classical sparse algorithms can be straightforwardly adapted to deal with non-negativity constraints. On the contrary, the non-negative extension of orthogonal greedy algorithms is a challenging issue since the unconstrained least square subproblems are replaced by non-negative least squares subproblems which do not have closed-form solutions. In the literature, non-negative orthogonal greedy (NNOG) algorithms are often considered to be slow. Moreover, some recent works exploit approximate schemes to derive efficient recursive implementations. In this thesis, NNOG algorithms are introduced as heuristic solvers dedicated to L0 minimization under non-negativity constraints. It is first shown that the latter L0 minimization problem is NP-hard. The second contribution is to propose a unified framework on NNOG algorithms together with an exact and fast implementation, where the non-negative least-square subproblems are solved using the active-set algorithm with warm start initialisation. The proposed implementation significantly reduces the cost of NNOG algorithms and appears to be more advantageous than existing approximate schemes. The third contribution consists of a unified K-step exact support recovery analysis of NNOG algorithms when the mutual coherence of the dictionary is lower than 1/(2K-1). This is the first analysis of this kind
APA, Harvard, Vancouver, ISO, and other styles
41

Boudjelaba, Kamal. "Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2015/document.

Full text
Abstract:
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application
The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application
APA, Harvard, Vancouver, ISO, and other styles
42

Khoury, Jawad. "Optimisation de dimensionnement et de fonctionnement d’un système photovoltaïque assistant un réseau électrique intermittent pour une application résidentielle." Thesis, Cergy-Pontoise, 2016. http://www.theses.fr/2016CERG0763/document.

Full text
Abstract:
Le travail effectué dans cette thèse propose et évalue une solution au problème de coupure fréquente du courant électrique fourni par le réseau publique défaillant dans plusieurs pays en voie de développement. La solution consiste à installer un système de panneaux Photovoltaïques (PV) avec des batteries de stockage opérant conjointement avec le réseau. L’étude traite particu- lièrement le cas Libanais et considère une application résidentielle à consommation d’énergie élevée. La topologie du système proposé introduit des contraintes supplémentaires au fonction- nement de l’ensemble par rapport aux deux configurations classiques traitées dans la littérature, à savoir accrochage au réseau ou système autonome. L’étude vise principalement à maintenir une alimentation permanente en électricité du foyer ainsi qu’à réduire les frais du système installé tout en respectant les niveaux de confort exigés par les résidents. L’étude traite l’optimisation du système PV-Batteries, en partant du dimensionnement jusqu’au fonctionnement. Tout d’abord, sa configuration est optimisée en se basant sur une étude économique détaillée pour l’estimation des frais considérant une durée de vie de 20 ans. Le dimensionnement est formulé comme un problème d’optimisation visant la réduction du coût global du système. L’optimisation du fonctionnement du système PV-batterie vient en second lieu. Un algorithme de contrôle de charges est élaboré. Cet algorithme sert à éviter la coupure du courant électrique tout en mainte- nant des niveaux élevés de confort des habitants d’une part et en respectant les contraintes de fonctionnement du système d’autre part. La gestion des charges s’effectue à plusieurs niveaux, afin de gérer les charges prévisibles et imprévisibles. La commande développée assure la coordi- nation complète entre tous les composants de l’installation : réseau, panneaux PV, batteries de stockage et charges électriques. L’étude prouve que le contrôle des charges conçu ne se limite pas à l’optimisation du fonctionnement du système, mais contribue de même à la réduction de son coût global. Le logiciel établi est optimisé de sorte à assurer une faible consommation de mémoire et une prise de décision rapide afin de réaliser l’implémentation des codes sur des processeurs de type ARM Cortex-A9. Les résultats de simulation et d’implémentation montrent que le programme développé est générique, flexible, précis, rapide et fiable.Les résultats présentés dans cette thèse attestent que le système PV-batterie proposé est bien approprié pour remplacer le réseau public pendant les périodes de coupure du courant électrique dans une application résidentielle. De plus, ce système présente une bonne fiabilité surtout lorsqu’il est couplé avec le programme de contrôle des charges développé
This thesis addresses the issue of intermittent primary energy source in several developing countries and considers, in particular, the case study of Lebanon. A PV-battery backup system is proposed and assessed as a replacement of the grid energy during daily power outage periods for a high energy consuming residential house. The proposed system topology introduces more critical conditions and additional constraints on the operation of the system compared to standard on-grid or standalone PV systems. The main concern is to provide permanent electricity supply to the house, reduce the resulting fees, and ensure high performance and reliability of the backup system while respecting the residents’ comfort levels. This thesis aims at thoroughly assessing the suitability of the proposed backup system by focusing on various aspects of the system. First, its configuration is optimized through the development of a detailed economic study estimating the resulting fees over its 20-year lifetime. The sizing process is formulated as an optimization problem having the sole objective of minimizing the overall cost of the system. Furthermore, a detailed comparative study of various water heating techniques is conducted to the end of determining the most suitable configuration to be coupled with the proposed backup solution. Second, the thesis targets the operation optimization of the PV-battery system by implementing a Demand Side Management (DSM) program aiming at preventing the occurrence of loss of power supply to the house while maintaining high comfort levels to the inhabitants and respecting the operation constraints of the system. The control is divided into several layers in order to manage predictable and unpredictable home appliances. The strength of the developed control lies in ensuring the complete coordination between all the components of the installation: the grid, PV panels, battery storage, and the load demand. The benefits of the DSM are proven to go beyond the operation optimization of the system since they highly affect the sizing of the backup, and by extension, the overall resulting cost. The established program is optimized for the hardware implementation process by ensuring a low memory consumption and fast decision making. The developed C codes of the full DSM program are implemented on ARM Cortex-A9 processors. The simulation and implementation results show that the developed management program is highly generic, flexible, accurate, fast, and reliable.The results presented in this thesis validate that the proposed PV-Battery backup system is highly suitable to assist unreliable grids. It outperforms currently installed Diesel Generators and demonstrates a remarkable reliability especially when coupled with the developed DSM program
APA, Harvard, Vancouver, ISO, and other styles
43

Giraud, Remi. "Algorithmes de correspondance et superpixels pour l’analyse et le traitement d’images." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0771/document.

Full text
Abstract:
Cette thèse s’intéresse à diverses composantes du traitement et de l’analyse d’images par méthodes non locales. Ces méthodes sont basées sur la redondance d’information présente dans d’autres images, et utilisent des algorithmes de recherche de correspondance, généralement basés sur l’utilisation patchs, pour extraire et transférer de l’information depuis ces images d’exemples. Ces approches, largement utilisées par la communauté de vision par ordinateur, sont souvent limitées par le temps de calcul de l’algorithme de recherche, appliqué à chaque pixel, et par la nécessité d’effectuer un prétraitement ou un apprentissage pour utiliser de grandes bases de données.Pour pallier ces limites, nous proposons plusieurs méthodes générales, sans apprentissage,rapides, et qui peuvent être facilement adaptées à diverses applications de traitement et d’analyse d’images naturelles ou médicales. Nous introduisons un algorithme de recherche de correspondances permettant d’extraire rapidement des patchs d’une grande bibliothèque d’images 3D, que nous appliquons à la segmentation d’images médicales. Pour utiliser de façon similaire aux patchs,des présegmentations en superpixels réduisant le nombre d’éléments de l’image,nous présentons une nouvelle structure de voisinage de superpixels. Ce nouveau descripteur permet d’utiliser efficacement les superpixels dans des approches non locales. Nous proposons également une méthode de décomposition régulière et précise en superpixels. Nous montrons comment évaluer cette régularité de façon robuste, et que celle-ci est nécessaire pour obtenir de bonnes performances de recherche de correspondances basées sur les superpixels
This thesis focuses on several aspects of image analysis and processing with non local methods. These methods are based on the redundancy of information that occurs in other images, and use matching algorithms, that are usually patch-based, to extract and transfer information from the example data. These approaches are widely used by the computer vision community, and are generally limited by the computational time of the matching algorithm, applied at the pixel scale, and by the necessity to perform preprocessing or learning steps to use large databases. To address these issues, we propose several general methods, without learning, fast, and that can be easily applied to different image analysis and processing applications on natural and medical images. We introduce a matching algorithm that enables to quickly extract patches from a large library of 3D images, that we apply to medical image segmentation. To use a presegmentation into superpixels that reduces the number of image elements, in a way that is similar to patches, we present a new superpixel neighborhood structure. This novel descriptor enables to efficiently use superpixels in non local approaches. We also introduce an accurate and regular superpixel decomposition method. We show how to evaluate this regularity in a robust manner, and that this property is necessary to obtain good superpixel-based matching performances
APA, Harvard, Vancouver, ISO, and other styles
44

Dakroub, Jad. "Analyse a posteriori d'algorithmes itératifs pour des problèmes non linéaires." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066259/document.

Full text
Abstract:
La résolution numérique de n’importe quelle discrétisation d’équations aux dérivées partielles non linéaires requiert le plus souvent un algorithme itératif. En général, la discrétisation des équations aux dérivées partielles donne lieu à des systèmes de grandes dimensions. Comme la résolution des grands systèmes est très coûteuse en terme de temps de calcul, une question importante se pose: afin d’obtenir une solution approchée de bonne qualité, quand est-ce qu’il faut arrêter l’itération afin d’éviter les itérations inutiles ? L’objectif de cette thèse est alors d’appliquer, à différentes équations, une méthode qui nous permet de diminuer le nombre d’itérations de la résolution des systèmes en gardant toujours une bonne précision de la méthode numérique. En d’autres termes, notre but est d’appliquer une nouvelle méthode qui fournira un gain remarquable en terme de temps de calcul. Tout d’abord, nous appliquons cette méthode pour un problème non linéaire modèle. Nous effectuons l’analyse a priori et a posteriori de la discrétisation par éléments finis de ce problème et nous proposons par la suite deux algorithmes de résolution itérative correspondants. Nous calculons les estimations d’erreur a posteriori de nos algorithmes itératifs proposés et nous présentons ensuite quelques résultats d’expérience numériques afin de comparer ces deux algorithmes. Nous appliquerons de même cette approche pour les équations de Navier-Stokes. Nous proposons un schéma itératif et nous étudions la convergence et l’analyse a priori et a posteriori correspondantes. Finalement, nous présentons des simulations numériques montrant l’efficacité de notre méthode
The numerical resolution of any discretization of nonlinear PDEs most often requires an iterative algorithm. In general, the discretization of partial differential equations leads to large systems. As the resolution of large systems is very costly in terms of computation time, an important question arises. To obtain an approximate solution of good quality, when is it necessary to stop the iteration in order to avoid unnecessary iterations? A posteriori error indicators have been studied in recent years owing to their remarkable capacity to enhance both speed and accuracy in computing. This thesis deals with a posteriori error estimation for the finite element discretization of nonlinear problems. Our purpose is to apply a new method that allows us to reduce the number of iterations of the resolution system while keeping a good accuracy of the numerical method. In other words, our goal is to apply a new method that provides a remarkable gain in computation time. For a given nonlinear equation we propose a finite element discretization relying on the Galerkin method. We solve the discrete problem using two iterative methods involving some kind of linearization. For each of them, there are actually two sources of error, namely discretization and linearization. Balancing these two errors can be very important, since it avoids performing an excessive number of iterations. Our results lead to the construction of computable upper indicators for the full error. Similarly, we apply this approach to the Navier-Stokes equations. Several numerical tests are provided to evaluate the efficiency of our indicators
APA, Harvard, Vancouver, ISO, and other styles
45

Liu, Siwei. "Apport d'un algorithme de segmentation ultra-rapide et non supervisé pour la conception de techniques de segmentation d'images bruitées." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4371.

Full text
Abstract:
La segmentation d'image constitue une étape importante dans le traitement d'image et de nombreuses questions restent ouvertes. Il a été montré récemment, dans le cas d'une segmentation à deux régions homogènes, que l'utilisation de contours actifs polygonaux fondés sur la minimisation d'un critère issu de la théorie de l'information permet d'aboutir à un algorithme ultra-rapide qui ne nécessite ni paramètre à régler dans le critère d'optimisation, ni connaissance a priori sur les fluctuations des niveaux de gris. Cette technique de segmentation rapide et non supervisée devient alors un outil élémentaire de traitement.L'objectif de cette thèse est de montrer les apports de cette brique élémentaire pour la conception de nouvelles techniques de segmentation plus complexes, permettant de dépasser un certain nombre de limites et en particulier :- d'être robuste à la présence dans les images de fortes inhomogénéités ;- de segmenter des objets non connexes par contour actif polygonal sans complexifier les stratégies d'optimisation ;- de segmenter des images multi-régions tout en estimant de façon non supervisée le nombre de régions homogènes présentes dans l'image.Nous avons pu aboutir à des techniques de segmentation non supervisées fondées sur l'optimisation de critères sans paramètre à régler et ne nécessitant aucune information sur le type de bruit présent dans l'image. De plus, nous avons montré qu'il était possible de concevoir des algorithmes basés sur l'utilisation de cette brique élémentaire, permettant d'aboutir à des techniques de segmentation rapides et dont la complexité de réalisation est faible dès lors que l'on possède une telle brique élémentaire
Image segmentation is an important step in many image processing systems and many problems remain unsolved. It has recently been shown that when the image is composed of two homogeneous regions, polygonal active contour techniques based on the minimization of a criterion derived from information theory allow achieving an ultra-fast algorithm which requires neither parameter to tune in the optimized criterion, nor a priori knowledge on the gray level fluctuations. This algorithm can then be used as a fast and unsupervised processing module. The objective of this thesis is therefore to show how this ultra-fast and unsupervised algorithm can be used as a module in the conception of more complex segmentation techniques, allowing to overcome several limits and particularly:- to be robust to the presence of strong inhomogeneity in the image which is often inherent in the acquisition process, such as non-uniform illumination, attenuation, etc.;- to be able to segment disconnected objects by polygonal active contour without complicating the optimization strategy;- to segment multi-region images while estimating in an unsupervised way the number of homogeneous regions in the image.For each of these three problems, unsupervised segmentation techniques based on the optimization of Minimum Description Length criteria have been obtained, which do not require the tuning of parameter by user or a priori information on the kind of noise in the image. Moreover, it has been shown that fast segmentation techniques can be achieved using this segmentation module, while keeping reduced implementation complexity
APA, Harvard, Vancouver, ISO, and other styles
46

Khalid-Naciri, Abdalilah. "Test par microcalculateur de réseaux arborescents de postes NAND, NOR, de multiplexeurs." Nancy 1, 1986. http://www.theses.fr/1986NAN10004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Duarte, Max. "Méthodes numériques adaptatives pour la simulation de la dynamique de fronts de réaction multi-échelles en temps et en espace." Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00667857.

Full text
Abstract:
Nous abordons le développement d'une nouvelle génération de méthodes numériques pour la résolution des EDP évolutives qui modélisent des phénomènes multi-échelles en temps et en espace issus de divers domaines applicatifs. La raideur associée à ce type de problème, que ce soit via le terme source chimique qui présente un large spectre d'échelles de temps caractéristiques ou encore via la présence de fort gradients très localisés associés aux fronts de réaction, implique en général de sévères difficultés numériques. En conséquence, il s'agit de développer des méthodes qui garantissent la précision des résultats en présence de forte raideur en s'appuyant sur des outils théoriques solides, tout en permettant une implémentation aussi efficace. Même si nous étendons ces idées à des systèmes plus généraux par la suite, ce travail se focalise sur les systèmes de réaction-diffusion raides. La base de la stratégie numérique s'appuie sur une décomposition d'opérateur spécifique, dont le pas de temps est choisi de manière à respecter un niveau de précision donné par la physique du problème, et pour laquelle chaque sous-pas utilise un intégrateur temporel d'ordre élevé dédié. Ce schéma numérique est ensuite couplé à une approche de multirésolution spatiale adaptative permettant une représentation de la solution sur un maillage dynamique adapté. L'ensemble de cette stratégie a conduit au développement du code de simulation générique 1D/2D/3D académique MBARETE de manière à évaluer les développements théoriques et numériques dans le contexte de configurations pratiques raides issue de plusieurs domaines d'application. L'efficacité algorithmique de la méthode est démontrée par la simulation d'ondes de réaction raides dans le domaine de la dynamique chimique non-linéaire et dans celui de l'ingénierie biomédicale pour la simulation des accidents vasculaires cérébraux caractérisée par un terme source "chimique complexe''. Pour étendre l'approche à des applications plus complexes et plus fortement instationnaires, nous introduisons pour la première fois une technique de séparation d'opérateur avec pas de temps adaptatif qui permet d'atteindre une précision donnée garantie malgré la raideur des EDP. La méthode de résolution adaptative en temps et en espace qui en résulte, étendue au cas convectif, permet une description consistante de problèmes impliquant une très large palette d'échelles de temps et d'espace et des scénarios physiques très différents, que ce soit la propagation des décharges répétitives pulsées nanoseconde dans le domaine des plasmas ou bien l'allumage et la propagation de flammes dans celui de la combustion. L'objectif de la thèse est l'obtention d'un solveur numérique qui permet la résolution des EDP raides avec contrôle de la précision du calcul en se basant sur des outils d'analyse numérique rigoureux, et en utilisant des moyens de calculs standard. Quelques études complémentaires sont aussi présentées comme la parallélisation temporelle, des techniques de parallélisation à mémoire partagée et des outils de caractérisation mathématique des schémas de type séparation d'opérateur.
APA, Harvard, Vancouver, ISO, and other styles
48

De, Anda Salazar Jorge. "Development of variational models and algorithmic strategies for coupled problems." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0058.

Full text
Abstract:
Une approche de modélisation et des techniques de résolution de problèmes couplés sont proposées, basées sur un principe variationnel. La modélisation repose sur une approche variationnelle utilisée dans des types spécifiques de problèmes couplés. Le modèle proposé est généralisé pour les problèmes couplés indépendamment des types de physique sur lesquels ils s'appuient. Différentes stratégies de solutions numériques sont dérivées du modèle variationnel proposé. Ces stratégies peuvent être liées à des stratégies empiriques telles que des approches “global/local” et/ou “staggered”. Les modèles proposés et les techniques de résolution sont présentés pour différents exemples 1D. Le modèle généralisé est utilisé en électrochimie et un modèle variationnel pour une batterie lithium-ion est dérivé. Le cadre variationnel est également utilisé pour comparer différents modèles existants pour l'électrolyte de la batterie
A modeling approach and numericalsolution techniques for coupled problems are proposed based on variational principles. The modeling is based on a variational approach used in specific types of coupled problems. The proposed model is generalized for coupled problems independently of the types of physics on which they are based. Different numerical solution strategies are derived from the proposed variational models. These strategies can be linked to empirical strategies such as « global/local" and/or « staggered" approaches. The proposed models and the resolution techniques are presented for different 1D examples. The generalized model is used in electrochemistry and a variational model for a lithium-ion battery is derived. The variational framework is also used to compare different existing models for the battery electrolyte
APA, Harvard, Vancouver, ISO, and other styles
49

Sodjo, Jessica. "Modèle bayésien non paramétrique pour la segmentation jointe d'un ensemble d'images avec des classes partagées." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0152/document.

Full text
Abstract:
Ce travail porte sur la segmentation jointe d’un ensemble d’images dans un cadre bayésien.Le modèle proposé combine le processus de Dirichlet hiérarchique (HDP) et le champ de Potts.Ainsi, pour un groupe d’images, chacune est divisée en régions homogènes et les régions similaires entre images sont regroupées en classes. D’une part, grâce au HDP, il n’est pas nécessaire de définir a priori le nombre de régions par image et le nombre de classes, communes ou non.D’autre part, le champ de Potts assure une homogénéité spatiale. Les lois a priori et a posteriori en découlant sont complexes rendant impossible le calcul analytique d’estimateurs. Un algorithme de Gibbs est alors proposé pour générer des échantillons de la loi a posteriori. De plus,un algorithme de Swendsen-Wang généralisé est développé pour une meilleure exploration dela loi a posteriori. Enfin, un algorithme de Monte Carlo séquentiel a été défini pour l’estimation des hyperparamètres du modèle.Ces méthodes ont été évaluées sur des images-test et sur des images naturelles. Le choix de la meilleure partition se fait par minimisation d’un critère indépendant de la numérotation. Les performances de l’algorithme sont évaluées via des métriques connues en statistiques mais peu utilisées en segmentation d’image
This work concerns the joint segmentation of a set images in a Bayesian framework. The proposed model combines the hierarchical Dirichlet process (HDP) and the Potts random field. Hence, for a set of images, each is divided into homogeneous regions and similar regions between images are grouped into classes. On the one hand, thanks to the HDP, it is not necessary to define a priori the number of regions per image and the number of classes, common or not.On the other hand, the Potts field ensures a spatial consistency. The arising a priori and a posteriori distributions are complex and makes it impossible to compute analytically estimators. A Gibbs algorithm is then proposed to generate samples of the distribution a posteriori. Moreover,a generalized Swendsen-Wang algorithm is developed for a better exploration of the a posteriori distribution. Finally, a sequential Monte Carlo sampler is defined for the estimation of the hyperparameters of the model.These methods have been evaluated on toy examples and natural images. The choice of the best partition is done by minimization of a numbering free criterion. The performance are assessed by metrics well-known in statistics but unused in image segmentation
APA, Harvard, Vancouver, ISO, and other styles
50

Baptiste, Julien. "Problèmes numériques en mathématiques financières et en stratégies de trading." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED009.

Full text
Abstract:
Le but de cette thèse CIFRE est de construire un portefeuille de stratégies de trading algorithmique intraday. Au lieu de considérer les prix comme une fonction du temps et d'un aléa généralement modélisé par un mouvement brownien, notre approche consiste à identifier les principaux signaux auxquels sont sensibles les donneurs d'ordres dans leurs prises de décision puis alors de proposer un modèle de prix afin de construire des stratégies dynamiques d'allocation de portefeuille. Dans une seconde partie plus académique, nous présentons des travaux de pricing d'options européennes et asiatiques
The aim of this CIFRE thesis is to build a portfolio of intraday algorithmic trading strategies. Instead of considering stock prices as a function of time and a brownian motion, our approach is to identify the main signals affecting market participants when they operate on the market so we can set up a prices model and then build dynamical strategies for portfolio allocation. In a second part, we introduce several works dealing with asian and european option pricing
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography