To see the other types of publications on this topic, follow the link: Calcul parallèle.

Dissertations / Theses on the topic 'Calcul parallèle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Calcul parallèle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mezher, Dany. "Calcul parallèle de pseudo-spectres." Rennes 1, 2001. http://www.theses.fr/2001REN10054.

Full text
Abstract:
Nous présentons un nouvel outil pour le calcul parallèle des pseudo-spectres. L'outil proposé utilise un algorithme de suivi de lignes de niveau pour tracer la limite du pseudo-spectre. L'algorithme est parfaitement fiable et peut traverser les singularités de la ligne sans difficultés. Il offre une garantie de terminaison même en présence d'erreurs d'arrondi et présente une grande granularité pour le parallélisme permettant d'atteindre de bonnes accélérations. Notre outil est capable de tracer plusieurs lignes de niveau indépendamment et peut segmenter une même ligne de niveau en un ensemble de tranches calculées simultanément, ce qui augmente l'accélération et améliore l'efficacité. L'utilisateur utilise une interface graphique conviviale pour piloter l'application ; cette interface intègre toutes les fonctionnalités graphiques et de contrôle cruciales pour apprécier l'information offerte par le pseudo-spectre. L'application a été développée pour le problème du calcul de pseudo-spectres mais peut servir, moyennant de faibles modifications, pour tracer les lignes de niveau de toute fonction continue f(z) : C -> R.
APA, Harvard, Vancouver, ISO, and other styles
2

Barboteu, Mikaël. "Contact, frottement et techniques de calcul parallèle." Montpellier 2, 1999. http://www.theses.fr/1999MON20047.

Full text
Abstract:
Dans ce travail, nous avons developpe une modelisation mecanique et des methodes numeriques adaptees a l'analyse du comportement de structures multicontact ou interviennent de maniere essentielle le contact et le frottement. En effet, la multiplicite des zones de contact entre les differents corps deformables de la structure a pour consequence de rendre le probleme de grande taille, severement non lineaire et tres mal conditionne. Dans un premier temps, nous avons donne une formulation continue du contact qui a abouti au niveau discret a l'implantation d'elements contact. Une etude portant sur un rideau metallique compose de lames articulees a mis en evidence les limites des methodes classiques de resolution necessitant un temps de calcul exorbitant et une place memoire considerable. Pour remedier a cela, nous avons developpe deux techniques numeriques adaptees a l'architecture parallele de la nouvelle generation d'ordinateurs : - un preconditionneur element-by-element adapte aux elements contact fut etabli pour reduire le cout souvent excessif du preconditionnement de systemes mal conditionnes de grande taille. L'avantage de cette technique caracterisee par un parallelisme a petits grains reside dans le faible niveau de stockage necessaire, tout en ayant des performances comparables, et parfois superieures aux preconditionneurs classiques. - la deuxieme strategie basee sur des techniques de decomposition de domaine a permis de developper une methode de resolution utilisant une forte granularite, et donc mieux adaptee aux machines multi-processeurs. Notre probleme de contact avec frottement est alors traite par un schema de resolution couplant une methode de newton pour lever la difficulte de la non linearite et la methode du complement de schur permettant de resoudre les problemes linearises tangents non symetriques.
APA, Harvard, Vancouver, ISO, and other styles
3

Plazolles, Bastien. "Plateforme de calcul parallèle « Design for Demise »." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30055.

Full text
Abstract:
Les risques liés aux débris spatiaux sont à présent considérés comme critiques par les gouvernements et les agences spa-tiales internationales. Durant la dernière décennie les agences spatiales ont développé des logiciels pour simuler la rentrée atmosphérique des satellites et des stations orbitales afin de déterminer les risques et possibles dommages au sol. Néan-moins les outils actuels fournissent des résultats déterministes alors que les modèles employés utilisent des valeurs de paramètres qui sont mal connues. De plus les résultats obtenus dépendent fortement des hypothèses qui sont faites. Une solution pour obtenir des résultats pertinents et exploitables est de prendre en considération les incertitudes que l’on a sur les différents paramètres de la modélisation afin d’effectuer des analyses de type Monte-Carlo. Mais une telle étude est particulièrement gourmande en temps de calcul à cause du grand espace des paramètres à explorer (ce qui nécessite des centaines de milliers de simulations numériques). Dans le cadre de ces travaux de thèse nous proposons un nouveau logiciel de simulation numérique de rentrée atmosphérique de satellite, permettant de façon native de prendre en consi-dération les incertitudes sur les différents paramètres de modélisations pour effectuer des analyses statistiques. Afin de maitriser les temps de calculs cet outil tire avantage de la méthode de Taguchi pour réduire le nombre de paramètres à étudier et aussi des accélérateurs de calculs de type Graphics Processing Units (GPUs) et Intel Xeon Phi
The risk of space debris is now perceived as primordial by government and international space agencies. Since the last decade, international space agencies have developed tools to simulate the re-entry of satellites and orbital stations in order to assess casualty risk on the ground. Nevertheless , all current tools provide deterministic solutions, though models include various parameters that are not well known. Therefore, the provided results are strongly dependent on the as-sumptions made. One solution to obtain relevant and exploitable results is to include uncertainties around those parame-ters in order to perform Monte-Carlo analysis. But such a study is very time consuming due to the large parameter space to explore (that necessitate hundreds of thousands simulations). As part of this thesis work we propose a new satellite atmospheric reentry simulation to perform statistical analysis. To master computing time this tool takes advantage of Taguchi method to restrain the amount of parameter to study and also takes advantage of computing accelerators like Graphic Processing Units (GPUs) and Intel Xeon Phi
APA, Harvard, Vancouver, ISO, and other styles
4

Lorong, Philippe. "Sur une approche parallèle pour le calcul des structures : comportement sur calculateurs parallèles." Cachan, Ecole normale supérieure, 1994. http://www.theses.fr/1994DENS0015.

Full text
Abstract:
Cette thèse a pour support une méthode de décomposition de domaine ayant pour cadre le calcul des structures en quasi statique, les matériaux ayant éventuellement un comportement non linéaire. Cette méthode comporte une double originalité. Elle présente le problème à étudier comme étant un assemblage d'entités, toutes mécaniques, les sous-structures et les interfaces, et elle utilise une approche à grand incrément de temps pour construire un algorithme itératif de résolution. Les développements réalisés, dans cette thèse, portent sur une première mise en œuvre numérique et informatique dans le cadre de l'élasticité. Le premier chapitre commence par présenter l'approche dans un cadre général. Le comportement des sous-structures et des interfaces y est détaillé. L'application à l'élasticité est ensuite aborde; des éléments de convergence sont donnes dans ce cadre. Le second chapitre, outre la présentation des choix effectues lors de la mise en œuvre numérique (mise en œuvre basée sur une approche éléments finis), propose une étude du comportement itératif de la méthode en fonction de divers paramètres présents. Une comparaison, en nombre d'opérations sur des réels avec une méthode de type Crout y est donnée. Enfin, le troisième chapitre détaille l'adaptabilité informatique de l'approche sur différentes classes de calculateurs parallèles existants: des calculateurs mimd (alliant fx8 et alliant 2800, ipsc d'Intel, ncube) et un calculateur simd (connection machine cm2)
APA, Harvard, Vancouver, ISO, and other styles
5

Bergogne, Laurent. "Quelques algorithmes parallèles sur des "séquences de" pour différents modèles de calcul parallèle." Amiens, 1999. http://www.theses.fr/1999AMIE0130.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Kla, Koué Sylvanus. "Calcul parallèle et en-ligne des fonctions arithmétiques." Lyon 1, 1993. http://www.theses.fr/1993LYO10031.

Full text
Abstract:
Dans ce travail nous etudions de nouveaux algorithmes pour calculer plus rapidement les fonctions arithmetiques sur ordinateur, d'abord lorsque les chiffres des nombres manipules circulent en parallele, ensuite lorsqu'ils circulent en serie poids forts en tete. Le premier mode de calcul etudie correspond au cas habituel ou les chiffres des nombres manipules sont disponibles au meme moment. Par l'utilisation de nouveaux systemes d'ecriture des nombres, nous arrivons a concevoir des algorithmes plus paralleles et plus adaptes a une implantation rapide sur materiel. De tels algorithmes sont etudies pour l'addition, la racine carree, l'exponentielle, le cosinus, le sinus, le logarithme et d'autres fonctions. Mais lorsque l'on travaille sur un grand nombre de chiffres il est difficile de pouvoir les faire circuler tous en meme temps. Nous etudions un deuxieme mode de calcul dans le cas ou les chiffres sont transmis en serie poids forts en tete. En representant les nombres de la meme facon que dans le premier mode de calcul nous arrivons pour toutes les fonctions a concevoir des algorithmes egalement adaptes a une implantation materielle, et qui sont caracterises par le fait que les chiffres du resultat sont calcules au fur et a mesure que les chiffres des operandes sont disponibles, ce qui permet, par un pipeline d'operations successives, d'atteindre aussi d'excellentes performances de rapidite
APA, Harvard, Vancouver, ISO, and other styles
7

Xiao, Manyu. "Optimisation multidisciplinaire avec modèles réduits et calcul parallèle." Compiègne, 2010. http://www.theses.fr/2010COMP1894.

Full text
Abstract:
La gestion des calculs (temps CPU, mémoire, interfaçage) constitue un problème majeur en optimisation multidisciplinaire (Multidisciplinary Design Optimization ou MDO), notamment en raison du coût des simulations numériques « haute fidélité » (éléments finis, volumes finis, etc. ), et du couplage entre disciplines (échanges d’informations, compatibilité des maillages, formats de fichiers). En conséquence, pour limiter le coût global du processus d'optimisation multidisciplinaire, des modèles réduits combinés avec une stratégie de calcul parallèle fournissent une solution économique et performante ; cette problématique est spécifiquement investiguée dans cette thèse. Tout d'abord, un environnement de calcul parallèle considérant simultanément algorithmes d'optimisation, modèles numériques et gestion des processeurs est analysé sur le cas d'un profil d'aile aéroélastique, démontrant la relation étroite entre choix des méthodes d'optimisation et architecture de plates-formes parallèles, et mettant en évidence l'importance de développer des modèles réduits. La suite de la thèse s'attaque donc à l'élaboration de méthodes d'approximation originales combinant les avantages respectifs des métamodèles « généralistes » et « physiques ». Plus précisément, des variantes contraintes (CPOD/CPOD2) de la méthode de décomposition aux valeurs propres ont été mises au point, et appliquées avec succès sur un cas test académique (aile d’avion), ainsi que sur une application industrielle (optimisation multiobjectif de la forme d’un conduit d’admission développé par Renault)
The management of the computational effort (CPU time, memory, interfacing) is a major issue in Multidisciplinary Design Optimization (MDO), due to the cost of the “high fidelity” numerical simulations (finite elements, finite volumes, etc. ), as well as the coupling between disciplines (exchange of information, mesh compatibility, file formats). Therefore, to decrease the overall cost of an MDO process, reduced-order models combined with parallel computing strategies constitute an economical and efficient solution. This topic is thoroughly investigated in this thesis. First, a parallel computing environment gathering optimization algorithms, numerical models and process management is analyzed for the case of an airfoil subject to fluid-structure interaction, demonstrating the close connection between the selection of optimization algorithms and the high-performance computing (HPC) platforms, and also revealing the need for reduced-order models. Consequently, the remainder of the thesis is concerned with the development of novel approximation methods combining the advantages of both “general” and “physics-based” metamodels. More precisely, constrained versions of proper orthogonal decomposition techniques (called CPOD/CPOD2) have been carried out, and successfully applied to an academic test case (the aeroelastic airfoil) and to an industrial example (the multiobjective shape optimization of an intake port developed by Renault)
APA, Harvard, Vancouver, ISO, and other styles
8

Fedak, Gilles. "XtremWeb : une plate-forme générique pour l'étude expérimentale du calcul global et pair-à-pair." Paris 11, 2003. http://www.theses.fr/2003PA112095.

Full text
Abstract:
Héritier des systèmes de calcul global (SETI@Home, distributed. Net) et des applications pair à pair (Napster, Gnuttella), le calcul global pair à pair propose l'exploitation massive des ressources vacantes au sein des réseaux et sur Internet pour l'exécution d'applications parallèles. Dans ce modèle, chaque ressource est potentiellement mise à disposition pour l'ensemble des participants. L'environnement XtremWeb est une plate-forme généraliste, sécurisée et tolérante aux défaillances pour l'exécution d'applications parallèles. Le projet poursuit deux objectifs: un environnement de calcul haute-performance, pour la production, à destination des institutions académiques ou industrielles et une plate-forme logicielle d'expérimentation et de recherche. La thèse présente un état de l'art des systèmes distribués à grande échelle, les principes fondamentaux, l'architecture, la réalisation et une évaluation de performance d'XtremWeb. L'architecture s'articule autour de trois composants : le worker qui contrôle la ressource de calcul, le client qui soumet les applications et le coordinateur qui répartit les exécutions sur les noeuds du système et assure la tolérance à la volatilité des workers et des clients. Cette plate-forme a permis de mener à bien deux études plus spécifiques sur la sécurité des ressources ainsi que l'exécution d'applications parallèles communicantes à travers MPICH-V. MPICH- V est une implémentation de la librairie MPICH tolérante à la volatilité des noeuds de calcul fondée sur un checkpoint non coordonné et le log pessimiste des messages. XtremWeb est actuellement utilisé par plusieurs collaborateurs scientifiques à travers des projets ACI, RNTL, actions spécifiques et industriels en environnement de production. Une grille de PC basée sur XtremWeb est en cours de déploiement sur le campus d'Orsay
Defined as a merge between Global Computing systems (SETI@Home, distributed. Net) and Peer-to-Peer applications (Napster, Gnuttella), Peer-to-Peer Global Computing, gathers idle computing resources, spread over Internet or LAN to execute massively parallel applications. In this model, every resource is able to compute or to request a computation from the other participants. XtremWeb is a generic, secured, fault-tolerant environment to execute parallel applications on volatile nodes. The project aims at providing a high-performance computing environment for production use and providing a soft-ware platform for research and experimentation. The thesis presents a state of the art of large scale distributed systems, the fundamental principles, architecture, realization and performances evaluation of XtremWeb. Architecture is based on three components : Worker which controls the computing node, Client which submits applications and Dispatcher which distributes executions on computing no des and insures fault tolerance of workers and clients. With this platform we made two specific studies relative to security of computing nodes and execution of parallel applications (MPICH-V). MPICH-V is an implementation of the MPICH library tolerant to the nodes volatility based on uncoordinated checkpoint and pessimistic log of the messages. XtremWeb is used by several scientific collaborators through ACI, RNTL projects and by industrial partners in a production environment. A Desk-top Grid based on XtremWeb is currently deployed within the University Paris-Sud Campus
APA, Harvard, Vancouver, ISO, and other styles
9

Karaseva, Olga. "Déformations élastiques des presses de forgeage et calcul parallèle." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00001513.

Full text
Abstract:
Afin d'améliorer la précision de la simulation numérique des procédés de forgeage à froid, un modèle de raideur de presse de forgeage a été introduit dans le logiciel Forge3®. Les déformations de la structure de la presse sont le résultat combiné du système pièce-outillage-presse qui évolue pendant le procédé de forgeage puisque la géométrie de la pièce évolue aussi. Le principe des puissances virtuelles appliqué à ce système conduit aux équations fortement couplées, qui déterminent les champs de vitesses et de pressions dans la pièce forgée et les outils déformables, mais aussi six vitesses additionnelles de corps rigide représentant les déflections de la presse. La prise en compte de ce modèle dans les applications industrielles s'est avérée justifiée et efficace. La comparaison des résultats des simulations avec des données expérimentales a montré un excellent accord, validant ainsi le modèle utilisé et son implémentation dans Forge3®. La deuxième partie de ce travail concerne le calcul parallèle et plus précisément les méthodes de décomposition de domaine. En se basant sur deux méthodes "classiques", la méthode de complément de Schur et la méthode FETI, nous avons proposé une nouvelle approche hybride, a priori mieux adaptée à la formulation mixte en vitesse/pression caractéristique de Forge3®. Les aspects de pré-conditionnement et de traitement des modes rigides ont également été abordés. Les résultats obtenus lors d'une étude des performances de ces méthodes dans le cadre de Forge3® sont prometteurs.
APA, Harvard, Vancouver, ISO, and other styles
10

Goldman, Alfredo. "Impact des modèles d'exécution pour l'ordonnancement en calcul parallèle." Phd thesis, Grenoble INPG, 1999. http://tel.archives-ouvertes.fr/tel-00004839.

Full text
Abstract:
Le contexte général de ce travail est l'étude du comportement d'applications parallèles, représentées par un graphe de précédence. La programmation de telles applications dépend fortement des supports d'exécution. Nous présentons et discutons les principaux modèles d'exécution et leur influence sur les problèmes d'ordonnancement des tâches du programme parallèle. Nous étudions en détail quatre problèmes d'ordonnancement sur des modèles d'exécution où le coût de communication est pris en compte. Nous proposons une solution pour un problème à grain très fin, le problème du sac à dos, sur hypercube dans un modèle d'exécution synchrone où le coût de communication est implicite. Nous étudions l'ordonnancement de chaînes sur un modèle à gros grain de communication, le modèle BSP. Nous démontrons qu'ici la recherche d'un ordonnancement optimal est un problème NP-difficile. Nous proposons des solutions avec un compromis entre le nombre de phases de communication/synchronisation et le temps d'inactivité dans chaque processeur. Les deux derniers problèmes étudiés concernent des techniques qui permettent de réduire l'impact du coût des communications inter processeurs. La première technique considère la duplication des tâches. Nous proposons un algorithme de liste avec garantie de performance 2 pour les problèmes à petit temps de communication sur un nombre limité de processeurs. Le deuxième méthode consiste à optimiser les phases de communication en ordonnançant les transmissions de messages. La recherche de la solution optimale étant NP-difficile, nous proposons plusieurs heuristiques.
APA, Harvard, Vancouver, ISO, and other styles
11

Kaci, Ania. "Conception d'une architecture extensible pour le calcul massivement parallèle." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1044.

Full text
Abstract:
En réponse à la demande croissante de performance par une grande variété d’applications (exemples : modélisation financière, simulation sub-atomique, bio-informatique, etc.), les systèmes informatiques se complexifient et augmentent en taille (nombre de composants de calcul, mémoire et capacité de stockage). L’accroissement de la complexité de ces systèmes se traduit par une évolution de leur architecture vers une hétérogénéité des technologies de calcul et des modèles de programmation. La gestion harmonieuse de cette hétérogénéité, l’optimisation des ressources et la minimisation de la consommation constituent des défis techniques majeurs dans la conception des futurs systèmes informatiques.Cette thèse s’adresse à un domaine de cette complexité en se focalisant sur les sous-systèmes à mémoire partagée où l’ensemble des processeurs partagent un espace d’adressage commun. Les travaux porteront essentiellement sur l’implémentation d’un protocole de cohérence de cache et de consistance mémoire, sur une architecture extensible et sur la méthodologie de validation de cette implémentation.Dans notre approche, nous avons retenu les processeurs 64-bits d’ARM et des co-processeurs génériques (GPU, DSP, etc.) comme composants de calcul, les protocoles de mémoire partagée AMBA/ACE et AMBA/ACE-Lite ainsi que l’architecture associée « CoreLink CCN » comme solution de départ. La généralisation et la paramètrisation de cette architecture ainsi que sa validation dans l’environnement de simulation Gem5 constituent l’épine dorsale de cette thèse.Les résultats obtenus à la fin de la thèse, tendent à démontrer l’atteinte des objectifs fixés
In response to the growing demand for performance by a wide variety of applications (eg, financial modeling, sub-atomic simulation, bioinformatics, etc.), computer systems become more complex and increase in size (number of computing components, memory and storage capacity). The increased complexity of these systems results in a change in their architecture towards a heterogeneous computing technologies and programming models. The harmonious management of this heterogeneity, resource optimization and minimization of consumption are major technical challenges in the design of future computer systems.This thesis addresses a field of this complexity by focusing on shared memory subsystems where all processors share a common address space. Work will focus on the implementation of a cache coherence and memory consistency on an extensible architecture and methodology for validation of this implementation.In our approach, we selected processors 64-bit ARM and generic co-processor (GPU, DSP, etc.) as components of computing, shared memory protocols AMBA / ACE and AMBA / ACE-Lite and associated architecture "CoreLink CCN" as a starting solution. Generalization and parameterization of this architecture and its validation in the simulation environment GEM5 are the backbone of this thesis.The results at the end of the thesis, tend to demonstrate the achievement of objectives
APA, Harvard, Vancouver, ISO, and other styles
12

Cellier, Fabien. "Modélisation et calcul parallèle pour le Web SIG 3D." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10015/document.

Full text
Abstract:
Cette thèse est centrée sur l'affichage et la manipulation en temps interactif au sein d'un navigateur Internet de modèles 3D issus de Systèmes d'Informations Géographiques (SIG). Ses principales contributions sont la visualisation de terrains 3D haute résolution, la simplification de maillages irréguliers sur GPU, et la création d'une nouvelle API navigateur permettant de réaliser des traitements lourds et efficaces (parallélisme GP/GPU) sans compromettre la sécurité. La première approche proposée pour la visualisation de modèles de terrain s'appuie sur les récents efforts des navigateurs pour devenir une plateforme versatile. Grâce aux nouvelles API 3D sans plugin, nous avons pu créer un client de visualisation de terrains "streamés" à travers HTTP. Celui-ci s'intègre parfaitement dans les écosystèmes Web-SIG actuels (desktop et mobile) par l'utilisation des protocoles standards du domaine (fournis par l'OGC, Open Geospatial Consortium). Ce prototype s'inscrit dans le cadre des partenariats industriels entre ATOS Worldline et ses clients SIG, et notamment l'IGN (institut national de l'information géographique et forestière) avec le Géoportail (http://www.geoportail.gouv.fr) et ses API cartographiques. La 3D dans les navigateurs possède ses propres défis, qui sont différents de ce que l'on connaît des applications lourdes : aux problèmes de transfert de données s'ajoutent les restrictions et contraintes du JavaScript. Ces contraintes, détaillées dans le paragraphe suivant, nous ont poussé à repenser les algorithmes de référence de visualisation de terrain afin de prendre en compte les spécificités dues aux navigateurs. Ainsi, nous avons su profiter de la latence du réseau pour gérer dynamiquement les liaisons entre les parties du maillage sans impacter significativement la vitesse du rendu. Au-delà de la visualisation 3D, et bien que le langage JavaScript autorise le parallélisme de tâches, le parallélisme de données reste quasi inexistant au sein des navigateurs Web. Ce constat, couplé à la faiblesse de traitement du JavaScript, constituait un frein majeur dans notre objectif de définir une plateforme SIG complète et performante intégrée au navigateur. C'est pour cette raison que nous avons conçu et développé, à travers les WebCLWorkers, une API Web de calcul GP/GPU haute performance répondant aux critères de simplicité et de sécurité inhérents au Web. Contrairement à l'existant, qui se base sur des codes déjà précompilés ou met de côté les performances, nous avons tenté de trouver le bon compromis pour avoir un langage proche du script mais sécurisé et performant, en utilisant les API OpenCL comme moteur d'exécution. Notre proposition d'API a intéressé la fondation Mozilla qui nous a ensuite demandé de participer à l'élaboration du standard WebCL dans la cadre du groupe Khronos, (aux côtés de Mozilla mais aussi de Samsung, Nokia, Google, AMD, etc.). Grâce aux nouvelles ressources de calcul ainsi obtenues, nous avons alors proposé un algorithme de simplification parallèle de maillages irréguliers. Alors que l'état de l'art repose essentiellement sur des grilles régulières pour le parallélisme (hors Web) ou sur la simplification via clusterisation et kd-tree, aucune solution ne permettait d'avoir à la fois une simplification parallèle et des modèles intermédiaires utilisables pour la visualisation progressive en utilisant des grilles irrégulières. Notre solution repose sur un algorithme en trois étapes utilisant des priorités implicites et des minima locaux afin de réaliser la simplification, et dont le degré de parallélisme est linéairement lié au nombre de points et de triangles du maillage à traiter [etc...]GP/GPU
This thesis focuses on displaying and manipulating 3D models from Geographic Information Systems (GIS) in interactive time directly in a web browser. Its main contributions are the visualization of high resolution 3D terrains, the simplification of irregular meshes on the GPU, and the creation of a new API for performing heavy and effective computing in the browser (parallelism GP/GPU) without compromising safety. The first approach proposed for the visualization of terrain models is built on recent browsers efforts to become a versatile platform. With the new 3D pluginless APIs, we have created a visualization client for terrain models “streamed” through HTTP. It fits perfectly into the current Web-GIS ecosystem (desktop and mobile) by the use of the standard protocols provided by OGC Open Geospatial Consortium. This prototype is part of an industrial partnership between ATOS Wordline and its GIS customer, and particularly the IGN (French National Geographic Institute) with the Geoportail application (http://www.geoportail.gouv.fr) and its mapping APIs. The 3D embedded in browsers brings its own challenges which are different from what we know in heavy applications: restrictions and constraints from JavaScript but also problems of data transfer. These constraints, detailed in the next paragraph, led us to rethink the standard algorithms for 3D visualization to take into account the browser specificities. Thus, we have taken advantage of network latency to dynamically manage the connections between the different parts of the mesh without significantly impacting the rendering speed. Beyond 3D visualization, and even if the JavaScript language allows task parallelism, data parallelism remains absent from Web browsers. This observation, added to the slowness of JavaScript processing, constituted a major obstacle in our goal to define a complete and powerful GIS platform integrated in the browser. That is why we have designed and developed the WebCLWorkers, a GP/GPU Web API for high performance computing that meets the criteria of simplicity and security inherent to the Web. We tried to find a trade-off for a language close to the script but secure and efficient, based on the OpenCL API at runtime. This approach is opposite to the existing ones, which are either based on precompiled code or disregard performances. Our API proposal interested the Mozilla Foundation which asked us to participate in the development of the WebCL standard by integrating the Khronos Group (Mozilla, Samsung, Nokia, Google, AMD, and so on). Exploiting these new computing resources, we then suggested an algorithm for parallel simplification of irregular meshes. While the state of the art was mainly based on regular grids for parallelism (and did not take into account Web browsers restrictions) or on simplification and kd-tree clustering, no solution could allow both parallel simplification and progressive visualization using irregular grids. Our solution is based on a three-step algorithm using implicit priorities and local minima to achieve simplification, and its degree of parallelism is linearly related to the number of points and triangles in the mesh to process. We have proposed in the thesis an innovative approach for 3D WebGIS pluglinless visualization, offering tools that bring to the browser a comfortable GP/GPU computing power, and designing a method for irregular meshes parallel simplification allowing to visualize level of details directly in Web browsers. Based on these initial results, it becomes possible to carry all the rich functionalities of desktop GIS clients to Web browsers, on PC as well as mobile phones and tablets
APA, Harvard, Vancouver, ISO, and other styles
13

Baladron, Pezoa Javier. "Exploring the neural codes using parallel hardware." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847333.

Full text
Abstract:
The aim of this thesis is to understand the dynamics of large interconnected populations of neurons. The method we use to reach this objective is a mixture of mesoscopic modeling and high performance computing. The rst allows us to reduce the complexity of the network and the second to perform large scale simulations. In the rst part of this thesis a new mean eld approach for conductance based neurons is used to study numerically the eects of noise on extremely large ensembles of neurons. Also, the same approach is used to create a model of one hypercolumn from the primary visual cortex where the basic computational units are large populations of neurons instead of simple cells. All of these simulations are done by solving a set of partial dierential equations that describe the evolution of the probability density function of the network. In the second part of this thesis a numerical study of two neural eld models of the primary visual cortex is presented. The main focus in both cases is to determine how edge selection and continuation can be computed in the primary visual cortex. The dierence between the two models is in how they represent the orientation preference of neurons, in one this is a feature of the equations and the connectivity depends on it, while in the other there is an underlying map which denes an input function. All the simulations are performed on a Graphic Processing Unit cluster. Thethesis proposes a set of techniques to simulate the models fast enough on this kind of hardware. The speedup obtained is equivalent to that of a huge standard cluster.
APA, Harvard, Vancouver, ISO, and other styles
14

Jurczuk, Krzysztof. "Calcul parallèle pour la modélisation d'images de résonance magnétique nucléaire." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S089.

Full text
Abstract:
L'objet de cette thèse est la modélisation computationnelle de l'Imagerie par Résonance Magnétique (IRM), appliquée à l'imagerie des réseaux vasculaires. Les images sont influencées par la géométrie des vaisseaux mais aussi par le flux sanguin. Par ailleurs, outre la qualité des modèles développés, il est important que les calculs soient performants. C'est pourquoi, le calcul parallèle est utilisé pour gérer ce type de problèmes complexes. Dans cette thèse, trois solutions sont proposées. La première concerne les algorithmes parallèles pour la modélisation des réseaux vasculaires. Des algorithmes dédiés à différentes architectures sont proposés. Le premier est basé sur le modèle de « passage de messages » pour les machines à mémoires distribuées. La parallélisation concerne l'irrigation de nouvelles zones de tissu par les vaisseaux existants. Le deuxième algorithme est dédié aux machines à mémoire partagée. Il parallélise également le processus de perfusion mais des processeurs différents se chargent de gérer les différents arbres vasculaires. Le troisième algorithme est une combinaison des approches précédentes offrant une solution pour les architectures parallèles hybrides. Les algorithmes proposés permettent d'accélérer considérablement la croissance des réseaux vasculaires complexes, ce qui rend possible la simulation de structures vasculaires plus précises, en un temps raisonnable et aide à améliorer le modèle vasculaire et à tester plus facilement différents jeux de paramètres. Une nouvelle approche de modélisation computationnelle des flux en IRM est également proposée. Elle combine le calcul de flux par la méthode de Lattice Boltzmann, la simulation IRM par le suivi temporel de magnétisations locales, ainsi qu'un nouvel algorithme de transport des magnétisations. Les résultats montrent qu'une telle approche intègre naturellement l'influence du flux dans la modélisation IRM. Contrairement aux travaux de la littérature, aucun mécanisme additionnel n'est nécessaire pour considérer les artéfacts de flux, ce qui offre une grande facilité d'extension du modèle. Les principaux avantages de cette méthode est sa faible complexité computationnelle, son implémentation efficace, qui facilitent le lancement des simulations en utilisant différents paramètres physiologiques ou paramètres d'acquisition des images. La troisième partie du travail de thèse a consisté à appliquer le modèle d'imagerie de flux à des réseaux vasculaires complexes en combinant les modèles de vaisseaux, de flux et d'acquisition IRM. Les algorithmes sont optimisés à tous les niveaux afin d'être performants sur des architectures parallèles. Les possibilités du modèle sont illustrées sur différents cas. Cette démarche de modélisation peut aider à mieux interpréter les images IRM grâce à l'intégration, dans les modèles, de connaissances variées allant de la vascularisation des organes jusqu'à la formation de l'image en passant par les propriétés des flux sanguins
This PhD thesis concerns computer modeling of magnetic resonance imaging (MRI). The main attention is centered on imaging of vascular structures. Such imaging is influenced not only by vascular geometries but also by blood flow which has to been taken into account in modeling. Next to the question about the quality of developed models, the challenge lies also in the demand for high performance computing. Thus, in order to manage computationally complex problems, parallel computing is in use. In the thesis three solutions are proposed. The first one concerns parallel algorithms of vascular network modeling. Algorithms for different architectures are proposed. The first algorithm is based on the message passing model and thus, it is suited for distributed memory architectures. It parallelizes the process of connecting new parts of tissue to existing vascular structures. The second algorithm is designed for shared memory machines. It also parallelizes the perfusion process, but individual processors perform calculations concerning different vascular trees. The third algorithm combines message passing and shared memory approaches providing solutions for hybrid parallel architectures. Developed algorithms are able to substantially speed up the time-demanded simulations of growth of complex vascular networks. As a result, more elaborate and precise vascular structures can be simulated in a reasonable period of time. It can also help to extend the vascular model and to test multiple sets of parameters. Secondly, a new approach in computational modeling of magnetic resonance (MR) flow imaging is proposed. The approach combines the flow computation by lattice Boltzmann method, MRI simulation by following discrete local magnetizations in time and a new magnetization transport algorithm together. Results demonstrate that such an approach is able to naturally incorporate the flow influence in MRI modeling. As a result, in the proposed model, no additional mechanism (unlike in prior works) is needed to consider flow artifacts, what implies its easy extensibility. In combination with its low computational complexity and efficient implementation, the solution is a user-friendly and manageable at different levels tool which facilitates running series of simulations with different physiological and imaging parameters. The goal of the third solution is to apply the proposed MR flow imaging model on complex vascular networks. To this aim, models of vascular networks, flow behavior and MRI are combined together. In all the model components, computations are adapted to be performed at various parallel architectures. The model potential and possibilities of simulations of flow and MRI in complex vascular structures are shown. The model aims at explaining and exploring MR image formation and appearance by the combined knowledge from many processes and systems, starting from vascular geometry, through flow patterns and ending on imaging technology
APA, Harvard, Vancouver, ISO, and other styles
15

Jankee, Christopher. "Optimisation par métaheuristique adaptative distribuée en environnement de calcul parallèle." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0480/document.

Full text
Abstract:
Pour résoudre des problèmes d'optimisation discret de type boîte noire, de nombreux algorithmes stochastiques tels que les algorithmes évolutionnaires ou les métaheuristiques existent et se révèlent particulièrement efficaces selon le problème à résoudre. En fonction des propriétés observées du problème, choisir l'algorithme le plus pertinent est un problème difficile. Dans le cadre original des environnements de calcul parallèle et distribué, nous proposons et analysons différentes stratégies adaptative de sélection d'algorithme d'optimisation. Ces stratégies de sélection reposent sur des méthodes d'apprentissage automatique par renforcement, issu du domaine de l'intelligence artificielle, et sur un partage d'information entre les noeuds de calcul. Nous comparons et analysons les stratégies de sélection dans différentes situations. Deux types d'environnement de calcul distribué synchrone sont abordés : le modèle en île et le modèle maître-esclave. Sur l'ensemble des noeuds de manière synchrone à chaque itération la stratégie de sélection adaptative choisit un algorithme selon l'état de la recherche de la solution. Dans une première partie, deux problèmes OneMax et NK, l'un unimodal et l'autre multimodal, sont utilisés comme banc d'essai de ces travaux. Ensuite, pour mieux saisir et améliorer la conception des stratégies de sélection adaptatives, nous proposons une modélisation du problème d'optimisation et de son opérateur de recherche locale. Dans cette modélisation, une caractéristique importante est le gain moyen d'un opérateur en fonction de la fitness de la solution candidate. Le modèle est utilisé dans le cadre synchrone du modèle maître-esclave. Une stratégie de sélection se décompose en trois composantes principales : l'agrégation des récompenses échangées, la technique d'apprentissage et la répartition des algorithmes sur les noeuds de calcul. Dans une dernière partie, nous étudions trois scénarios et nous donnons des clés de compréhension sur l'utilisation pertinente des stratégies de sélection adaptative par rapport aux stratégies naïves. Dans le cadre du modèle maître-esclave, nous étudions les différentes façons d'agréger les récompenses sur le noeud maître, la répartition des algorithmes d'optimisation sur les noeuds de calcul et le temps de communication. Cette thèse se termine par des perspectives pour le domaine de l'optimisation stochastique adaptative distribuée
To solve discrete optimization problems of black box type, many stochastic algorithms such as evolutionary algorithms or metaheuristics exist and prove to be particularly effective according to the problem to be solved. Depending on the observed properties of the problem, choosing the most relevant algorithm is a difficult problem. In the original framework of parallel and distributed computing environments, we propose and analyze different adaptive optimization algorithm selection strategies. These selection strategies are based on reinforcement learning methods automatic, from the field of artificial intelligence, and on information sharing between computing nodes. We compare and analyze selection strategies in different situations. Two types of synchronous distributed computing environment are discussed : the island model and the master-slave model. On the set of nodes synchronously at each iteration, the adaptive selection strategy chooses an algorithm according to the state of the search for the solution. In the first part, two problems OneMax and NK, one unimodal and the other multimodal, are used as benchmarks for this work. Then, to better understand and improve the design of adaptive selection strategies, we propose a modeling of the optimization problem and its local search operator. In this modeling, an important characteristic is the average gain of an operator according to the fitness of the candidate solution. The model is used in the synchronous framework of the master-slave model. A selection strategy is broken down into three main components : the aggregation of the rewards exchanged, the learning scheme and the distribution of the algorithms on the computing nodes. In the final part, we study three scenarios, and we give keys to understanding the relevant use of adaptive selection strategies over naïve strategies. In the framework of the master-slave model, we study the different ways of aggregating the rewards on the master node, the distribution of the optimization algorithms of the nodes of computation and the time of communication. This thesis ends with perspectives in the field of distributed adaptive stochastic optimization
APA, Harvard, Vancouver, ISO, and other styles
16

Bordeu, Weldt Felipe Eduardo. "Calcul à l'echelle méso avec interface non locale des composites stratifiés." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00975428.

Full text
Abstract:
L'industrie utilise de plus en plus les matériaux composites stratifiés à matrice organique (CMO) pour remplacer les alliages métalliques légers. Avec un rapport résistance/masse supérieur aux alliages métalliques, ces matériaux constituent une véritable alternative pour diminuer le poids des structures. Cependant, la certification des structures en composite est une procédure lourde et complexe. Le Virtual Testing consiste à remplacer une grande partie des essais réels par des simulations numériques en vue de diminuer la quantité d'essais physiques nécessaires pour la certification. Toutefois, les modèles ainsi que les méthodes de calcul utilisés pour les simulations doivent avoir la confiance des autorités de contrôle. On ce concentre ici sur le Méso-modèle Amélioré d'Endommagement des Composites Stratifiés qui, depuis un vingtaine d'années, a démontré être un modèle capable de prendre en compte la plupart de mécanismes de dégradation d'une structure composite. Ce modèle, non linéaire, non local et d'évolution, est défini à l'échelle du pli. La taille des problèmes résultants de la simulation de ce type de modèle est considérable. Dans ces travaux, un grand intérêt a été porté au traitement numérique du modèle. Dans un premier temps, l'intégration du modèle dans un code de calcul a permis d'y apporter des améliorations. En ce qui concerne la méthode de résolution, une méthode de décomposition de domaine permet l'utilisation du modèle pour la simulation de structures de taille moyenne. L'approche proposée permet de surmonter les difficultés liées à l'utilisation d'un modèle non local et non linéaire au sein d'une méthode de décomposition de domaine.
APA, Harvard, Vancouver, ISO, and other styles
17

Gouin, Florian. "Méthodologie de placement d'algorithmes de traitement d'images sur architecture massivement parallèle." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM075.

Full text
Abstract:
Dans le secteur industriel, la course à l’amélioration des définitions des capteurs vidéos se répercute directement dans le domaine du traitement d’images par une augmentation des quantités de données à traiter. Dans le cadre de l’embarqué, les mêmes algorithmes ont fréquemment pour contrainte supplémentaire de devoir supporter le temps réel. L’enjeu est alors de trouver une solution présentant une consommation énergétique modérée, une puissance calculatoire soutenue et une bande passante élevée pour l’acheminement des données.Le GPU est une architecture adaptée pour ce genre de tâches notamment grâce à sa conception basée sur le parallélisme massif. Cependant, le fait qu’un accélérateur tel que le GPU prenne place dans une architecture globale hétérogène, ou encore ait de multiples niveaux hiérarchiques, complexifient sa mise en œuvre. Ainsi, les transformations de code visant à placer un algorithme sur GPU tout en optimisant l’exploitation des capacités de ce dernier, ne sont pas des opérations triviales. Dans le cadre de cette thèse, nous avons développé une méthodologie permettant de porter des algorithmes sur GPU. Cette méthodologie est guidée par un ensemble de critères de transformations de programme. Certains d’entre-eux sont définis afin d’assurer la légalité du portage, tandis que d’autres sont utilisés pour améliorer les temps d’exécution sur cette architecture. En complément, nous avons étudié les performances des différentes mémoires ainsi que la gestion du parallélisme gros grain sur les architectures GPU Nvidia.Ces travaux sont une étape préalable à l’ajout de nouveaux critères dans notre méthodologie, visant à maximiser l’exploitation des capacités de ces GPUs. Les résultats expérimentaux obtenus montrent non seulement la fiabilité du placement mais aussi une accélération des temps d’exécution sur plusieurs applications industrielles de traitement d’images écrites en langage C ou C++
In industries, the curse of image sensors for higher definitions increases the amount of data to be processed in the image processing domain. The concerned algorithms, applied to embedded solutions, also have to frequently accept real-time constraints. So, the main issues are to moderate power consumption, to attain high performance computings and high memory bandwidth for data delivery.The massively parallel conception of GPUs is especially well adapted for this kind of tasks. However, this achitecture is complex to handle. Some reasons are its multiple memory and computation hierachical levels or the usage of this accelerator inside a global heterogeneous architecture. Therefore, mapping algorithms on GPUs, while exploiting high performance capacities of this architecture, aren’t trivial operations.In this thesis, we have developped a mapping methodology for sequential algorithms and designed it for GPUs. This methodology is made up of code analysis phases, mapping criteria verifications, code transformations and a final code generation phase. Part of the defined mapping criteria has been designed to assure the mapping legality, by considering GPU hardware specifities, whereas the other part are used to improve runtimes. In addition, we have studied GPU memories performances and the capacity of GPU to efficiently support coarse grain parallellism. This complementary work is a foundation for further improvments of GPU resources exploitation inside this mapping methodology.Last, the experimental results have revealed the functional reliability of the codes mapped on GPU and a speedup on the runtime of many C and C++ image processing applications used in industry
APA, Harvard, Vancouver, ISO, and other styles
18

Ben, Romdhanne Bilel. "Simulation des réseaux à grande échelle sur les architectures de calculs hétérogènes." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0088/document.

Full text
Abstract:
La simulation est une étape primordiale dans l'évolution des systèmes en réseaux. L’évolutivité et l’efficacité des outils de simulation est une clef principale de l’objectivité des résultats obtenue, étant donné la complexité croissante des nouveaux des réseaux sans-fils. La simulation a évènement discret est parfaitement adéquate au passage à l'échelle, cependant les architectures logiciel existantes ne profitent pas des avancées récente du matériel informatique comme les processeurs parallèle et les coprocesseurs graphique. Dans ce contexte, l'objectif de cette thèse est de proposer des mécanismes d'optimisation qui permettent de surpasser les limitations des approches actuelles en combinant l’utilisation des ressources de calcules hétérogène. Pour répondre à la problématique de l’efficacité, nous proposons de changer la représentation d'événement, d'une représentation bijective (évènement-descripteur) à une représentation injective (groupe d'évènements-descripteur). Cette approche permet de réduire la complexité de l'ordonnancement d'une part et de maximiser la capacité d'exécuter massivement des évènements en parallèle d'autre part. Dans ce sens, nous proposons une approche d'ordonnancement d'évènements hybride qui se base sur un enrichissement du descripteur pour maximiser le degré de parallélisme en combinons la capacité de calcule du CPU et du GPU dans une même simulation. Les résultats comparatives montre un gain en terme de temps de simulation de l’ordre de 100x en comparaison avec une exécution équivalente sur CPU uniquement. Pour répondre à la problématique d’évolutivité du système, nous proposons une nouvelle architecture distribuée basée sur trois acteurs
The simulation is a primary step on the evaluation process of modern networked systems. The scalability and efficiency of such a tool in view of increasing complexity of the emerging networks is a key to derive valuable results. The discrete event simulation is recognized as the most scalable model that copes with both parallel and distributed architecture. Nevertheless, the recent hardware provides new heterogeneous computing resources that can be exploited in parallel.The main scope of this thesis is to provide a new mechanisms and optimizations that enable efficient and scalable parallel simulation using heterogeneous computing node architecture including multicore CPU and GPU. To address the efficiency, we propose to describe the events that only differs in their data as a single entry to reduce the event management cost. At the run time, the proposed hybrid scheduler will dispatch and inject the events on the most appropriate computing target based on the event descriptor and the current load obtained through a feedback mechanisms such that the hardware usage rate is maximized. Results have shown a significant gain of 100 times compared to traditional CPU based approaches. In order to increase the scalability of the system, we propose a new simulation model, denoted as general purpose coordinator-master-worker, to address jointly the challenge of distributed and parallel simulation at different levels. The performance of a distributed simulation that relies on the GP-CMW architecture tends toward the maximal theoretical efficiency in a homogeneous deployment. The scalability of such a simulation model is validated on the largest European GPU-based supercomputer
APA, Harvard, Vancouver, ISO, and other styles
19

Marchand, Philippe. "Système de lecture parallèle de disques optiques : applications au calcul optoélectronique." Mulhouse, 1991. http://www.theses.fr/1991MULH0170.

Full text
Abstract:
Le système de lecture parallèle de disques optiques a l'avantage unique qu'aucun mouvement mécanique de la tête n'est nécessaire pour l'accès aux données, la focalisation ou le suivi de piste. Une image à deux dimensions est stockée sur le disque sous forme d'hologrammes de Fourier à une dimension distribués radialement et calculés pour reconstruire chacun une colonne de cette image. La méthode d'encodage des hologrammes est basée sur un algorithme itératif où chaque cellule de l'hologramme est quantifiée par l'intermédiaire d'un algorithme de modulation de densité. Grâce aux propriétés des hologrammes de Fourier, les asservissements de focalisation et de suivi de piste sont supprimés. De plus, tous les hologrammes d'une image 2D étant lus en parallèle, cette image est alors reconstruite sur le plan de sortie. Plusieurs approches à la réalisation d'un système de mémoire associative optoélectronique sont alors envisagées. La première est basée sur un algorithme de produit externe tandis que la seconde est basée sur un algorithme de produit interne. Ces approches sont comparées et il est montré que la méthode à produit interne page-parallèle, bit-série est la mieux adaptée à une réalisation avec le lecteur parallèle de disques optiques. Un système de mémoire associative utilisant le lecteur parallèle de disques optiques et un circuit intégré optoélectronique basé sur une structure arborescente est ensuite présenté. Finalement l'architecture de multiprocesseurs interconnectés optiquement dans l'espace pour une application de base de données. Une étude de réseaux d'interconnexions invariants dans l'espace est proposée et un nouveau réseau optoélectronique shuffle exchange à deux dimensions est introduit
APA, Harvard, Vancouver, ISO, and other styles
20

Brieu, Mathias. "Homogénéisation et endommagement de composites elastomères par techniques de calcul parallèle." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0005.

Full text
Abstract:
Le dimensionnement et la simulation numérique de la réponse de matériaux composites hyper élastiques, endommageables, sont rendus extrêmement difficiles du fait du nombre important d'hétérogénéités présentes au sein de la structure, du comportement fortement non linéaire des constituants et, dans le cas de structures endommageables, de la nature instationnaire des problèmes à traiter. Afin de s'affranchir de ces difficultés, on propose d'utiliser conjointement, une technique d'homogénéisation adaptée a la prose en compte de comportements hyper élastiques, une méthode de résolution non incrémentale de problèmes non linéaires et des techniques de calcul parallèle si la taille des problèmes à résoudre le nécessite. Nous consacrons ce mémoire à la mise en œuvre de ces différentes techniques, en l'illustrant par la simulation de la réponse de quelques matériaux composites à constituants de comportement hyper élastique ainsi que par la simulation de la propagation d'endommagements en leur sein. A cet effet, après avoir explicité la nature des problèmes à traiter, nous présentons la méthode d'homogénéisation et la technique de résolution développées et utilisées. A partir d'exemples relatifs aux composites unidirectionnels a fibres longues, nous mettons en évidence les potentialités de ces méthodes, vis-à-vis de l'analyse de susceptibilités locales a l'endommagement. Leur utilisation pour le développement d'une approche micro-macro permet ensuite de simuler la propagation d'endommagements au sein de milieux hyper élastiques et composites à constituants hyper élastiques. Enfin, dans le but de permettre à ces méthodes de réaliser pleinement leur potentialité, une résolution sur machines multiprocesseurs est proposée, grâce a l'utilisation de méthode de décomposition en sous-domaines.
APA, Harvard, Vancouver, ISO, and other styles
21

Gbikpi, benissan Tete guillaume. "Méthodes asynchrones de décomposition de domaine pour le calcul massivement parallèle." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC071/document.

Full text
Abstract:
Une large classe de méthodes numériques possède une propriété d’échelonnabilité connue comme étant la loi d’Amdahl. Elle constitue l’inconvénient majeur limitatif du calcul parallèle, en ce sens qu’elle établit une borne supérieure sur le nombre d’unités de traitement parallèles qui peuvent être utilisées pour accélérer un calcul. Des activités de recherche sont donc largement conduites à la fois sur les plans mathématiques et informatiques, pour repousser cette limite afin d’être en mesure de tirer le maximum des machines parallèles. Les méthodes de décomposition de domaine introduisent une approche naturelle et optimale pour résoudre de larges problèmes numériques de façon distribuée. Elles consistent en la division du domaine géométrique sur lequel une équation est définie, puis le traitement itératif de chaque sous-domaine, séparément, tout en assurant la continuité de la solution et de sa dérivée sur leur interface de jointure. Dans le présent travail, nous étudions la suppression de la limite d’accélération en appliquant des itérations asynchrones dans différents cadres de décomposition, à la fois de domaines spatiaux et temporels. Nous couvrons plusieurs aspects du développement d’algorithmes asynchrones, de l’analyse théorique de convergence à la mise en oeuvre effective. Nous aboutissons ainsi à des méthodes asynchrones efficaces pour la décomposition de domaine, ainsi qu’à une nouvelle bibliothèque de communication pour l’expérimentation asynchrone rapide d’applications scientifiques existantes
An important class of numerical methods features a scalability property well known as the Amdahl’s law, which constitutes the main limiting drawback of parallel computing, as it establishes an upper bound on the number of parallel processing units that can be used to speed a computation up. Extensive research activities are therefore conducted on both mathematical and computer science aspects to increase this bound, in order to be able to squeeze the most out of parallel machines. Domain decomposition methods introduce a natural and optimal approach to solve large numerical problems in a distributed way. They consist in dividing the geometrical domain on which an equation is defined, then iteratively processing each sub-domain separately, while ensuring the continuity of the solution and of its derivative across the junction interface between them. In the present work, we investigate the removal of the scalability bound by the application of the asynchronous iterations theory in various decomposition frameworks, both for space and time domains. We cover various aspects of the development of asynchronous iterative algorithms, from theoretical convergence analysis to effective parallel implementation. Efficient asynchronous domain decomposition methods are thus successfully designed, as well as a new communication library for the quick asynchronous experimentation of existing scientific applications
APA, Harvard, Vancouver, ISO, and other styles
22

Abbas-Turki, Lokman. "Calcul parallèle pour les problèmes linéaires, non-linéaires et linéaires inverses en finance." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1055/document.

Full text
Abstract:
De ce fait, le premier objectif de notre travail consiste à proposer des générateurs de nombres aléatoires appropriés pour des architectures parallèles et massivement parallèles de clusters de CPUs/GPUs. Nous testerons le gain en temps de calcul et l'énergie consommée lors de l'implémentation du cas linéaire du pricing européen. Le deuxième objectif est de reformuler le problème non-linéaire du pricing américain pour que l'on puisse avoir des gains de parallélisation semblables à ceux obtenus pour les problèmes linéaires. La méthode proposée fondée sur le calcul de Malliavin est aussi plus avantageuse du point de vue du praticien au delà même de l'intérêt intrinsèque lié à la possibilité d'une bonne parallélisation. Toujours dans l'objectif de proposer des algorithmes parallèles, le dernier point est l'étude de l'unicité de la solution de certains cas linéaires inverses en finance. Cette unicité aide en effet à avoir des algorithmes simples fondés sur Monte Carlo
Handling multidimensional parabolic linear, nonlinear and linear inverse problems is the main objective of this work. It is the multidimensional word that makes virtually inevitable the use of simulation methods based on Monte Carlo. This word also makes necessary the use of parallel architectures. Indeed, the problems dealing with a large number of assets are major resources consumers, and only parallelization is able to reduce their execution times. Consequently, the first goal of our work is to propose "appropriate" random number generators to parallel and massively parallel architecture implemented on CPUs/GPUs cluster. We quantify the speedup and the energy consumption of the parallel execution of a European pricing. The second objective is to reformulate the nonlinear problem of pricing American options in order to get the same parallelization gains as those obtained for linear problems. In addition to its parallelization suitability, the proposed method based on Malliavin calculus has other practical advantages. Continuing with parallel algorithms, the last point of this work is dedicated to the uniqueness of the solution of some linear inverse problems in finance. This theoretical study enables the use of simple methods based on Monte Carlo
APA, Harvard, Vancouver, ISO, and other styles
23

Léger, Laurent. "Calcul parallèle des racines d'un polynôme à l'aide de la méthode de Weyl." Rouen, 1998. http://www.theses.fr/1998ROUES032.

Full text
Abstract:
La résolution d'équations polynomiales, à coefficients réels ou complexes, est un problème qui se rencontre fréquemment en informatique numérique. Dans notre cas, nous avons étudié le comportement, sur machines parallèles, de la méthode de Weyl qui permet de localiser simultanément toutes les racines d'un polynôme. Premièrement, nous rappelons brièvement les propriétés permettant de comparer les diverses méthodes d'approximation (méthodes algébriques, analytiques et géométriques). Ensuite, nous donnons l'algorithme de Weyl en explicitant chacune des étapes qui le composent. Cette méthode repose sur l'application de tests d'exclusion à des carrés, dits suspects, pour localiser les racines. Nous avons donc réalisé une étude de complexité arithmétique pour chacun des tests que nous avons à notre disposition. Puis nous présentons les résultats obtenus avec les premières implémentations de l'algorithme effectuées sur une machine SIMD massivement parallèle Maspar et sur un supercalculateur octoprocesseur Alliant FX-80 à mémoire partagée. Suite à ces résultats, nous nous sommes tournés vers une machine MIMD Cray T3D sur laquelle nous avons travaillé en mode SPMD avec un contrôle des communications effectué par la bibliothèque PVM. Une étude théorique des ressources nécessaires démontre l'espace mémoire indispensable aux calculs. Nous avons également réalisé une étude théorique et pratique de la complexité arithmétique et du coût communication de la méthode ainsi qu'une comparaison avec la méthode de Durand Kerner. Enfin, nous donnons quelques applications de notre algorithme dans les domaines du traitement du signal, de la physique du solide et de la thermodynamique ainsi qu'une comparaison avec la bibliothèque numérique NAG et quelques tests réalisés sur une machine Cray T3E.
APA, Harvard, Vancouver, ISO, and other styles
24

Vialla, Bastien. "Contributions à l'algèbre linéaire exacte sur corps finis et au chiffrement homomorphe." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS112.

Full text
Abstract:
Cette thèse est composée de deux axes principaux, le premier portant sur le chiffrement homomorphe et le second sur l’algèbre linéaire creuse sur corps finis. Avec l’essor des technologies de communication et en particulier d’internet, de nouveaux protocoles de chiffrement sont développés. En particulier, le besoin de systèmes de chiffrement permettant de manipuler les données chiffrées tout en assurant leur sécurité. C’est dans ce contexte que des systèmes de chiffrement homomorphe sont développés, ces protocoles permettent d’effectuer des calculs avec des données chiffrées. La sécurité de ce type système repose sur l’ajout de bruit aux messages à chiffrer. Ce bruit augmente avec chaque opération effectuée, mais il ne doit pas dépasser un certain seuil. Pour contourner ce problème, une technique nommée bootstrapping est utilisée permettant de réduire le bruit d’un chiffré. Les bootstrappings sont le goulot d’étranglement lors des calculs sur des données chiffrées, il est important d’en faire le moins possible. Or la quantité de bootstrappings à faire est déterminée par la nature des calculs à effectuer ainsi que du protocole de chiffrement utilisé.C’est dans ce contexte que notre travail intervient, nous proposons une méthode effective pour réduire le nombre bootstrappings basé sur la programmation linéaire en nombre entier. Cette méthode s’adapte à un grand nombre de protocoles de chiffrement. De plus, nous effectuons une analyse de la complexité de ce problème en montrant qu’il est APX-complet et nous fournissons un algorithme d’approximation.La résolution de système linéaire sur corps finis est une brique de calcul essentielle dans de nombreux problèmes de calcul formel. En particulier, beaucoup de problèmes produisent des matrices comprenant un grand nombre de zéros, on dit qu’elles sont creuses. Les meilleurs algorithmes permettant de résoudre ce type de système linéaire creux sont des algorithmes dits itératifs. L’opération fondamentale de ces algorithmes itératifs est la multiplication de la matrice par un vecteur ou une matrice dense. Afin d’obtenir les meilleures performances, il est important de tenir compte des propriétés (SIMD, multicoeurs, hiérarchie des caches ....) des processus modernes .C’est dans ce contexte que notre travail intervient, nous étudions la meilleure façon d’implanter efficacement cette opération sur les processeurs récents.Nous proposons un nouveau format permettant de tenir compte du grand nombre de +- 1 présents dans une matrice.Nous proposons une implantation parallèle basée sur le paradigme du vol de tâche offrant un meilleur passage à l’échelle que le parallélisme par threads.Nous montrons comment exploiter au mieux les instructions SIMD des processeurs dans les différentes opérations.Finalement, nous proposons une méthode efficace permettant d’effectuer cette opération lorsque le corps finis est multiprécision (les éléments sont stockés sur plusieurs mots machine) en ayant recours au système de représentation RNS
This thesis is composed of two independent parts.The first one is related to homomorphic encryption and the second part deal with sparse linear algebra on finite fields.Homomorphic encryption extends traditional encryption in the sense that it becomes feasible to perform operations on ciphertexts, without the knowledge of the secret decryption key. As such, it enables someone to delegate heavy computations on his sensitive data to an untrusted third party, in a secure way. More precisely, with such a system, one user can encrypt his sensitive data such that the third party can evaluate a function on the encrypted data, without learning any information on the underlying plain data. Getting back the encrypted result, the user can use his secret key to decrypt it and obtain, in clear, the result of the evaluation of the function on his sensitive plain data. For a cloud user, the applications are numerous, and reconcile both a rich user experience and a strong privacy protection.The first fully homomorphic encryption (FHE) scheme, able to handle an arbitrary number of additions and multiplications on ciphertexts, has been proposed by Gentry in 2009.In homomorphic encryption schemes, the executed function is typically represented as an arithmetic circuit. In practice, any circuit can be described as a set of successive operation gates, each one being either a sum or a product performed over some ring.In Gentry’s construction, based on lattices, each ciphertext is associated with some noise, which grows at each operation (addition or multiplication) done throughout the evaluation of the function. When this noise reaches a certain limit, decryption is not possible anymore.To overcome this limitation, closely related to the number of operations that the HE.Eval procedure can handle, Gentry proposed in a technique of noise refreshment called“bootstrapping”.The main idea behind this bootstrapping procedure is to homomorphically run the decryptionprocedure of the scheme on the ciphertext, using an encrypted version of the secret key. In this context, our contribution is twofold. We first prove that the lmax-minimizing bootstrapping problem is APX-complete and NP-complete for lmax ≥ 3. We then propose a new method to determine the minimal number of bootstrappings needed for a given FHE scheme and a given circuit.We use linear programming to find the best outcome for our problem. The main advantage of our method over the previous one is that it is highly flexible and can be adapted for numerous types of homomorphic encryption schemes and circuits.Computing a kernel element of a matrix is a fundamental kernel in many computer algebra and cryptography algorithms. Especially, many applications produces matrices with many matrix elements equals to 0.Those matrices are named sparse matrices. Sparse linear algebra is fundamentally relying on iterative approaches such as Wiedemann or Lanczos. The main idea is to replace the direct manipulation of a sparse matrix with its Krylov subspace. In such approach, the cost is therefore dominated by the computation of the Krylov subspace, which is done by successive product of a matrix by a vector or a dense matrix.Modern processor unit characteristics (SIMD, multicores, caches hierarchy, ...) greatly influence algorithm design.In this context our work deal with the best approach to design efficient implementation of sparse matrix vector product for modern processors.We propose a new sparse matrix format dealing with the many +-1 matrix elements to improve performance.We propose a parallel implementation based on the work stealing paradigm that provide a good scaling on multicores architectures.We study the impact of SIMD instructions on sparse matrix operations.Finally, we provide a modular arithmetic implementation based on residue number system to deal with sparse matrix vector product over multiprecision finite fields
APA, Harvard, Vancouver, ISO, and other styles
25

Beniamine, David. "Analyzing the memory behavior of parallel scientific applications." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM088/document.

Full text
Abstract:
Depuis plusieurs décennies, afin de réduire la consommation énergétique des processeurs, les constructeurs fabriquent des ordinateurs de plus en plus parallèles.Dans le même temps, l'écart de fréquence entre les processeurs et la mémoire a significativement augmenté.Pour compenser cet écart, les processeurs modernes embarquent une hiérarchie de caches complexe.Développer un programme efficace sur de telles machines est une tâche complexe.Par conséquent, l'analyse de performance est devenue une étape majeure lors du développement d'applications requérant des performances.La plupart des outils d'analyse de performances se concentrent sur le point de vue du processeur.Ces outils voient la mémoire comme une entité monolithique et sont donc incapable de comprendre comment elle est accédée.Cependant, la mémoire est une ressource critique et les schémas d'accès à cette dernière peuvent impacter les performances de manière significative.Quelques outils permettant l'analyse de performances mémoire existent, cependant ils sont basé sur un échantillon age à large grain.Par conséquent, ces outils se concentrent sur une petite partie de l’Exécution et manquent le comportement global de l'application.De plus, l'échantillonnage à large granularité ne permet pas de collecter des schémas d'accès.Dans cette thèse, nous proposons deux outils différences pour analyser le comportement mémoire d'une application.Le premier outil est conçu spécifiquement pour pour les machines NUMA (Not Uniform Memory Accesses) et fournit plusieurs visualisations du schéma global de partage de chaque structure de données entre les flux d’ExécutionLe deuxième outil collecte des traces mémoires a grain fin avec information temporelles.Nous proposons de visualiser ces traces soit à l'aide d'un outil générique de gestion de traces soit en utilisant une approche programmatique basé sur R.De plus nous évaluons ces deux outils en les comparant a des outils existant de trace mémoire en terme de performances, précision et de complétude
Since a few decades, to reduce energy consumption, processor vendors builds more and more parallel computers.At the same time, the gap between processors and memory frequency increased significantly.To mitigate this gap, processors embed a complex hierarchical caches architectureWriting efficient code for such computers is a complex task.Therefore, performance analysis has became an important step of the development of applications seeking for performances.Most existing performance analysis tools focuses on the point of view of the processor.Theses tools see the main memory as a monolithic entity and thus are not able to understand how it is accessed.However, memory is a common bottleneck in High Performances Computing, and the pattern of memory accesses can impact significantly the performances.There are a few tools to analyze memory performances, however theses tools are based on a coarse grain sampling.Consequently, they focus on a small part of the execution missing the global memory behavior.Furthermore, these coarse grain sampling are not able to collect memory accesses patterns.In this thesis we propose two different tools to analyze the memory behavior of an application.The first tool is designed specifically for Not Uniform Memory Accesses machines and provides some visualizations of the global sharing pattern inside each data structure between the threads.The second one collects fine grain memory traces with temporal information.We can visualize theses traces either with a generic trace management framework or with a programmatic exploration using R.Furthermore we evaluate both of these tools, comparing them with state of the art memory analysis tools in terms of performances, precision and completeness
APA, Harvard, Vancouver, ISO, and other styles
26

Trystram, Denis. "Quelques résultats de complexité en algorithmique parallèle et systolique." Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00009202.

Full text
Abstract:
L'objet de cette thèse est l'étude de la parallélisation d'algorithmes du calcul scientifique et leur implémentation sur des ordinateurs parallèles à mémoire partagée et sur des réseaux systoliques. Un accent particulier est mis sur l'obtention de résultats de complexité. La thèse est organisée autour d'articles et textes de conférences qui sont analysés et discutés dans une première partie de façon à permettre de replacer les problèmes traités dans leur contexte. Dans le premier chapitre, nous présentons les principaux résultats théoriques concernant l'étude de complexité des algorithmes parallèles, ainsi qu'une description critique de l'architecture de référence, qui est une machine de type MIMD à mémoire partagée. Le chapitre suivant est dédie" à l'ensemble des résultats de complexité concernant les algorithmes de diagonalisation et l'élimination de Gauss, il a pour but d'illustrer la méthodologie. Il existe en tout dix écritures possibles de la méthode de Gauss, qui conduisent principalement à deux grandes classes de graphes de précédente, conceptuellement différents : les graphes de type "glouton" et ceux du type "2 pas". Ces types de graphes se rencontrent d'une manière plus générale dans d'autres problèmes d'algèbre linéaire et même dans certaines méthodes non numériques de la théorie des graphes. Nous développons les résultats de complexité concernant ces deux types de graphes sur les exemples les plus courant (versions kji et kij de Gauss en parallèle), puis nous montrons comment adapter l'étude en prenant en compte t'es temps de communication entre tes processeurs, ce qui rend le modèle théorique plus réaliste. Le chapitre 6 est consacré aux architectures systoliques. Le problème du chemin algébrique permet d'unifier plusieurs problèmes informatiques. Nous présentons un réseau résolvant ce problème en Sn-2 pas sur un réseau de taille n(n+l ). De plus, quelques modifications permettent de calculer des projections en filtrage adaptatif en vu d'obtenir une solution en temps réel pour le traitement numérique des signaux. Avant de conclure, nous présentons des résultats complémentaires de parallélisation effective sur d'autres types d'architectures : l'étude de l'algorithme du gradient conjugué sur des super calculateurs (CRAY-XMP et IBM 3090-VF).
APA, Harvard, Vancouver, ISO, and other styles
27

Rey, Christian. "Développement d'algorithmes parallèles de résolution en calcul non-linéaire de structures hétérogènes : application au cas d'une butée acier élastomère." Cachan, Ecole normale supérieure, 1994. http://www.theses.fr/1994DENS0025.

Full text
Abstract:
La simulation numérique de structures telles que les supports élastiques (structures multicouches acier élastomère) constitue une étape essentielle d'aide à la conception et à l'optimisation de pièces industrielles. Pour ce faire, nous avons envisagé deux familles de méthodes. La première, la plus classique, consiste à résoudre le problème issu d'une formulation variationnelle en déplacement par des techniques de type newton. La deuxième, peut-être la plus mécanique, résulte d'une formulation lagrangienne augmentée induite par un découplage déplacement/déformation dans la densité d'énergie de déformation (formulation mixte). Le problème est alors résolu par la technique d'Uzawa couplée à une relaxation par bloc. Mais la mise en oeuvre de ces méthodes sur calculateurs séquentiels se révèle souvent impossible en raison de capacités mémoire limitées et de temps de calcul excessifs. Nous étudions différentes mises en oeuvre numériques adaptées à l'architecture parallèle de la nouvelle génération des super-calculateurs scientifiques. Celles-ci reposent sur une utilisation, couplée à l'algorithme du gradient conjugué, de techniques de sous-structuration performantes. Nous avons ainsi également envisage un précautionneusement adapté et une reorthogonalisation totale des directions de descente. En outre, les algorithmes non linéaires envisagés nécessitent la résolution successive de systèmes linéaires, nous proposons une technique dite de correction Krylov permettant d'accélérer sensiblement la résolution d'un système linéaire à partir des informations obtenues a l'issue de la résolution des systèmes précédents. Afin d'illustrer la capacité de ces méthodes à traiter un problème concret, une étude du comportement en compression et en torsion d'une butée acier élastomère est menée. Nous comparons également nos résultats à ceux obtenus par un logiciel industriel
APA, Harvard, Vancouver, ISO, and other styles
28

Sultan, Ziad. "Algèbre linéaire exacte, parallèle, adaptative et générique." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM030/document.

Full text
Abstract:
Les décompositions en matrices triangulaires sont une brique de base fondamentale en calcul algébrique. Ils sont utilisés pour résoudre des systèmes linéaires et calculer le rang, le déterminant, l'espace nul ou les profiles de rang en ligne et en colonne d'une matrix. Le projet de cette thèse est de développer des implantations hautes performances parallèles de l'élimination de Gauss exact sur des machines à mémoire partagée.Dans le but d'abstraire le code de l'environnement de calcul parallèle utilisé, un langage dédié PALADIn (Parallel Algebraic Linear Algebra Dedicated Interface) a été implanté et est basé essentiellement sur des macros C/C++. Ce langage permet à l'utilisateur d'écrire un code C++ et tirer partie d’exécutions séquentielles et parallèles sur des architectures à mémoires partagées en utilisant le standard OpenMP et les environnements parallel KAAPI et TBB, ce qui lui permet de bénéficier d'un parallélisme de données et de taches.Plusieurs aspects de l'algèbre linéaire exacte parallèle ont été étudiés. Nous avons construit de façon incrémentale des noyaux parallèles efficaces pour les multiplication de matrice, la résolution de systèmes triangulaires au dessus duquel plusieurs variantes de l'algorithme de décomposition PLUQ sont construites. Nous étudions la parallélisation de ces noyaux en utilisant plusieurs variantes algorithmiques itératives ou récursives et en utilisant des stratégies de découpes variées.Nous proposons un nouvel algorithme récursive de l'élimination de Gauss qui peut calculer simultanément les profiles de rang en ligne et en colonne d'une matrice et de toutes ses sous-matrices principales, tout en étant un algorithme état de l'art de l'élimination de Gauss. Nous étudions aussi les conditions pour qu'un algorithme de l'élimination de Gauss révèle cette information en définissant un nouvel invariant matriciel, la matrice de profil de rang
Triangular matrix decompositions are fundamental building blocks in computational linear algebra. They are used to solve linear systems, compute the rank, the determinant, the null-space or the row and column rank profiles of a matrix. The project of my PhD thesis is to develop high performance shared memory parallel implementations of exact Gaussian elimination.In order to abstract the computational code from the parallel programming environment, we developed a domain specific language, PALADIn: Parallel Algebraic Linear Algebra Dedicated Interface, that is based on C/C + + macros. This domain specific language allows the user to write C + + code and benefit from sequential and parallel executions on shared memory architectures using the standard OpenMP, TBB and Kaapi parallel runtime systems and thus providing data and task parallelism.Several aspects of parallel exact linear algebra were studied. We incrementally build efficient parallel kernels, for matrix multiplication, triangular system solving, on top of which several variants of PLUQ decomposition algorithm are built. We study the parallelization of these kernels using several algorithmic variants: either iterative or recursive and using different splitting strategies.We propose a recursive Gaussian elimination that can compute simultaneously therow and column rank profiles of a matrix as well as those of all of its leading submatrices, in the same time as state of the art Gaussian elimination algorithms. We also study the conditions making a Gaussian elimination algorithm reveal this information by defining a new matrix invariant, the rank profile matrix
APA, Harvard, Vancouver, ISO, and other styles
29

Labbé, Valérie. "Modélisation numérique du chauffage par induction : approche éléments finis et calcul parallèle." Phd thesis, École Nationale Supérieure des Mines de Paris, 2002. http://tel.archives-ouvertes.fr/tel-00443740.

Full text
Abstract:
La première étape de ce travail a consisté à établir, développer et valider un modèle performant pour modéliser les procédés de chauffage par induction, que ce soit en préchauffe ou pour des traitements thermiques. Ce procédé est complexe de par sa nature multi-physique et nécessite le couplage entre des modèles :
- électromagnétique, - thermique, - éventuellement thermo-mécanique.
Le choix du modèle électromagnétique est primordial. De nombreuses approximations basées sur des hypothèses plus ou moins fortes existent.
Nous avons seulement utilisé l'approximation des régimes quasi-permanents. Nous avons vu que cette première approximation, qui revient à négliger le phénomène de propagation des ondes, est valable dans la gamme de fréquences utilisée lors des procédés de chauffage par induction, les plus hautes fréquences étant largement inférieures au mégahertz. La propagation des ondes est alors considérée comme instantanée, ce qui au vu de la taille caractéristique des installations (quelques mètres) par rapport à la célérité de la lumière (3.105 m/s) est tout à fait raisonnable.
En revanche, nous avons choisi d'écarter l'approximation harmonique des champs électromagnétiques. Cette approximation découple les évolutions spatiales et temporelles du champ et revient à calculer une amplitude complexe pour le champ électromagnétique à partir d'une équation stationnaire. L'avantage d'une telle approximation est le gain souvent important en temps de calcul. Seulement, on perd une précision importante sur l'évolution temporelle et sur la déformation des champs électromagnétiques lorsqu'il s'agit d'un matériau ferromagnétique. En effet, les harmoniques secondaires ne sont pas prises en compte. Afin de pouvoir représenter les phénomènes physiques le plus réellement possible, le modèle électromagnétique utilisé est dépendant du temps. Néanmoins, afin de n'être pas trop pénalisant en temps de calcul, des compromis entre la précision des calculs et le temps de calcul nécessaire ont été étudiés. Ils se situent au niveau :
- du nombre de calculs électromagnétiques nécessaires pour bien décrire l'évolution temporelle d'une période électromagnétique, du nombre de périodes électromagnétiques nécessaires pour arriver à une solution stable,
du nombre de calculs électromagnétiques complets nécessaires au cours de l'évolution du champ de température.
Ces points importants, ainsi que des échelles de temps caractéristiques électromagnétiques et thermiques présentant un rapport allant de 10-2 à 10-6 ont nécessité la mise en place d'un couplage faible, basé sur la stabilisation du terme de puissance Joule moyennée sur une période électromagnétique ainsi que sur la stabilisation des paramètres électromagnétiques au cours de la montée en température.
La méthode numérique employée, de type éléments finis, est fiable et robuste. Néanmoins, elle nécessite une bonne compréhension des phénomènes physiques électromagnétiques inhérents au procédé. En effet, modéliser un espace ouvert par une méthode éléments finis nécessite la fermeture du domaine et l'imposition de conditions aux limites artificielles. L'utilisateur doit estimer la taille du domaine étudié qui doit être assez grand pour ne pas venir tronquer les lignes du champ électromagnétique et ainsi les modifier. Son avantage par rapport à une méthode mixte est que la matrice du système est creuse et symétrique. La résolution du problème est facilitée et se prête mieux à des développements en calcul parallèle.
Enfin, une nouvelle stratégie a été développée pour simuler le déplacement de l'inducteur : ses propriétés se déplacent virtuellement dans l'air. Cette méthode a donné de très bons résultats et ne nécessite aucun remaillage.
Les perspectives de recherche sont multiples.
Au niveau des données, le modèle accepte actuellement une tension ou une densité de courant source uniforme dans l'inducteur. Suite à un calcul électromagnétique complet, la répartition de courants est connue dans l'inducteur et permet une évaluation de l'intensité réelle circulant dans les spires. Il serait intéressant de mettre au point un outil de transfert des données électrotechniques vers nos paramètres d'entrées.
Un autre point, plus académique, serait d'effectuer des comparaisons pour des matériaux ferromagnétiques entre un modèle harmonique et le nôtre, dépendant en temps. En effet nous avons vu que ces deux modèles donnent des solutions identiques pour des matériaux amagnétiques. Tout l'intérêt de notre modèle dépendant en temps apparaît par son analyse beaucoup plus riche des matériaux non linéaires. Nous avons vu que le signal périodique peut être grandement déformé et ne ressemble alors plus du tout à une sinusoïde. Néanmoins, il n'est pas forcément évident que la puissance Joule, issue du calcul électromagnétique et obtenue par intégration sur une période électromagnétique, soit très différente de celle obtenue par une analyse harmonique. Cette différence serait très intéressante à quantifier.
Enfin des comparaisons entre les méthodes numériques 'tout' éléments finis et mixtes permettraient de quantifier la précision des méthodes suivant les tailles des éléments finis, les tailles du domaine de fermeture, ainsi que les différences en temps de calculs.
Un autre axe de ce travail a consisté à étudier et à implémenter une stratégie de parallélisation du modèle direct et de la procédure d'optimisation. Nous avons commencé par tester des solveurs itératifs préconditionnés sur nos différents modèles de type parabolique. Ceux ci donnant des résultats satisfaisants par rapport notamment à un solveur direct, nous avons pu nous orienter vers une méthode de parallélisation SPMD de type partitionnement de domaine. Cette méthode, simple et efficace, donne de très bons résultats au niveau du modèle direct, avec une bonne efficacité et une bonne scalabilité.
La parallélisation de l'optimisation montre une efficacité convenable sur deux et quatre processeurs mais qui tend à chuter rapidement avec le nombre de processeurs: la scalabilité est relativement moyenne. Ce problème fait apparaître une thématique de recherche intéressante en calcul parallèle appliqué aux méthodes adjointes: améliorer la scalabilité de l'optimisation parallèle en développant une meilleure stratégie d'accès aux données, en rééquilibrant les données stockées et les données à recalculer.
Enfin les perspectives à plus long terme consisteraient à développer un modèle analogue tridimensionnel.
APA, Harvard, Vancouver, ISO, and other styles
30

Doreille, Mathias. "Athapascan-1 : vers un modèle de programmation parallèle adapté au calcul scientifique." Phd thesis, Grenoble INPG, 1999. http://tel.archives-ouvertes.fr/tel-00004825.

Full text
Abstract:
Les ordinateurs parallèles offrent une alternative intéressante pour les applications de calcul scientifique, grandes consommatrices de ressources de calcul et de mémoire. Cependant, la programmation efficace de ces machines est souvent difficile et les implantations obtenues sont généralement peu portables. Nous proposons dans cette thèse un modèle de programmation parallèle permettant une programmation simple, portable et efficace des applications parallèles. Ce modèle est basé sur une décomposition explicite de l'application en tâches de calculs qui communiquent entre elles par l'intermédiaire d'objets en mémoire partagée. La sémantique des accès aux données partagées est quasi séquentielle et les précédences entre les tâches sont implicitement définies pour respecter cette sémantique. Nous présentons dans une première partie la mise en oeuvre de ce modèle de programmation dans l'interface applicative C++ Athapascan-1. Une analyse à l'exécution des dépendances de données entre tâches permet d'extraire le flot de données et donc les précédences entre les tâches à exécuter. Des algorithmes d'ordonnancement adaptables à l'application et à la machine cible sont également utilisés. Nous montrons comment, sur architecture distribuée, la connaissance du flot de données entre les tâches peut être utilisée par le système pour réduire les communications et gérer efficacement la mémoire partagée distribuée. Ce modèle de programmation et sa mise en oeuvre dans l'interface applicative Athapascan-1 sont ensuite validés expérimentalement sur différentes architectures et différentes applications d'algèbre linéaire, notamment la factorisation creuse de Cholesky avec partitionnement bidimensionnel. La facilité de programmation de ces applications grâce à cette interface et les résultats obtenus (amélioration des performances par rapport au code de factorisation dense de Cholesky de la bibliothèque ScaLapak sur une machine à 60 processeurs par exemple) confirment l'intérêt du modèle de programmation proposé.
APA, Harvard, Vancouver, ISO, and other styles
31

Kuhn, Matthieu. "Calcul parallèle et méthodes numériques pour la simulation de plasmas de bords." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD023/document.

Full text
Abstract:
L'amélioration du code Emedge3D (code de bord électromagnétique) est abordée sous plusieurs axes. Premier axe, des innovations sur les méthodes numériques ont été mises en oeuvre. L'avantage des méthodes de type semi-implicite est décrit, leur stabilité inconditionnelle permet l'augmentation du pas de temps, et donc la diminution du nombre d'itérations temporelles requises pour une simulation. Les avantages de la montée en ordre en espace et en temps sont détaillés. Deuxième axe, des réponses sont proposées pour la parallélisation du code. Le cadre de cette étude est proche du problème général d'advection-diffusion non linéaire. Les parties coûteuses ont tout d'abord été optimisées séquentiellement puis fait l'objet d'une parallélisation OpenMP. Pour la partie du code la plus sensible aux contraintes de bande passante mémoire, une solution parallèle MPI sur machine à mémoire distribuée est décrite et analysée. Une bonne extensibilité est observée jusque 384 cœurs. Cette thèse s'inscrit dans le projet interdisciplinaire ANR E2T2 (CEA/IRFM, Université Aix-Marseille/PIIM, Université Strasbourg/Icube)
The main goal of this work is to significantly reduce the computational cost of the scientific application Emedge3D, simulating the edge of tokamaks. Improvements to this code are made on two axes. First, innovations on numerical methods have been implemented. The advantage of semi-implicit time schemes are described. Their inconditional stability allows to consider larger timestep values, and hence to lower the number of temporal iteration required for a simulation. The benefits of a high order (time and space) are also presented. Second, solutions to the parallelization of the code are proposed. This study addresses the more general non linear advection-diffusion problem. The hot spots of the application have been sequentially optimized and parallelized with OpenMP. Then, a hybrid MPI OpenMP parallel algorithm for the memory bound part of the code is described and analyzed. Good scalings are observed up to 384 cores. This Ph. D. thesis is part of the interdisciplinary project ANR E2T2 (CEA/IRFM, University of Aix-Marseille/PIIM, University of Strasbourg/ICube)
APA, Harvard, Vancouver, ISO, and other styles
32

Inal, A. Kaan. "Modélisation numérique de l'aluminium à grandes déformations plastiques, applications au calcul parallèle." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0001/MQ40592.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Inal, A. Kaan. "Modélisation numérique de l'aluminium à grandes déformations plastiques : applications au calcul parallèle." Mémoire, Université de Sherbrooke, 1998. http://savoirs.usherbrooke.ca/handle/11143/1046.

Full text
Abstract:
Ce travail, réalisé dans le cadre d'un projet de recherche qui implique le Centre de recherche et développement ALCAN à Kingston et notre groupe de mécanique des solides à l'Université de Sherbrooke, a pour objectif principal de modéliser numériquement le comportement de l'aluminium à grandes déformations plastiques. Les modélisations numériques des échantillons cruciformes, l'emboutissage profond et la courbe limite de formage sont réalisés en incorporant les algorithmes de calculs parallèles. Deux codes d'éléments finis sont développés; l'un basé sur les lois phénoménologiques de plasticité et l'autre basé sur la plasticité des cristaux. Les modèles de BARLAT (1989) et HILL (1948 et 1990) sont utilisés dans le modèle basé sur les lois phénoménologiques de plasticité pour tenir compte de l'anisotropie. Le modèle polycristallin qui tient compte du glissement dans certains plans atomiques et de l'anisotropie élastique de la maille cristalline est basé sur les hypothèses de TAYLOR (1923). Les algorithmes de calculs parallèles sont développés pour les applications mentionnées ci-dessus. Des gains de temps importants sont obtenus à l'exécution par la parallélisation de ces applications, en particulier les programmes basés sur la plasticité des cristaux. La modélisation de l'emboutissage profond avec le modèle polycristallin requiert un certain nombre de mégaoctets de mémoire pour traiter des problèmes de grandeurs représentatives. Il est par conséquent indispensable de se servir d'un ordinateur parallèle pour résoudre ce type de problèmes.
APA, Harvard, Vancouver, ISO, and other styles
34

Ast, Isabelle d'. "Calcul parallèle en mécanique des fluides et problèmes spécifiques au couplage magnétohydrodynamique." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT041H.

Full text
Abstract:
Dans ce travail, la mise en uvre optimale du parallelisme de donnees pour les problemes d'aerodynamique et du parallelisme de taches pour les problemes multiphysiques (particulierement en magnetohydrodynamique) est etudiee. La modelisation de ces phenomenes ainsi que les schemas numeriques de resolution employes sont detailles. Les performances et les limitations des calculateurs multiprocesseurs sont evaluees et les methodes de parallelisation (granularite fine) dans le cadre de la mecanique des fluides numeriques sont presentees. La parallelisation d'un code industriel de resolution des equations de navier-stokes compressibles tridimensionnelles demontre l'efficacite du parallelisme de donnees sur une large gamme de multiprocesseurs a memoire partagee et distribuee. Le parallelisme de taches (granularite forte) est ensuite mis en evidence dans un probleme d'arcjet electrothermique intervenant dans la propulsion electrique des satellites. Ce parallelisme est exploite grace a un coupleur. La modelisation choisie repose sur les equations de navier-stokes bidimensionnelles axisymetriques avec termes sources couplees avec les equations de maxwell stationnaires. L'implantation informatique du couplage est expliquee. Les resultats numeriques sont compares a ceux d'autres auteurs et des perspectives sont proposees en vue d'une amelioration des resultats physiques de ce couplage
APA, Harvard, Vancouver, ISO, and other styles
35

Feyel, Frédéric. "Application du calcul parallèle aux modèles à grand nombre de variables internes." ENSMP, 1998. http://www.theses.fr/1998ENMP0864.

Full text
Abstract:
Les années 1980 ont vu le développement de lois de comportement sophistiquées décrivant les relations contrainte/déformation pour des chargements complexes, en uniaxial comme en multiaxial. Ces lois sont basées sur une approche phénoménologique et sont calibrées grâce à des essais expérimentaux. Leur principal défaut est de ne pas être suffisamment prévisionnelles lorsque le matériau n'est pas stable en cours de sollicitation. C'est pour cela que les années 1990 voient le développement des approches micromécaniques. L'idée forte de ces approches est la prise en compte, à des échelles pertinentes, d'informations microstructurales pour modéliser les déformations inélastiques à l'aide de variables dont la signification physique est plus claire, de manière à augmenter leur pouvoir prévisionnel. Deux voies complémentaires peuvent être suivies : représentation de la microstructure par des approches autocohérentes : ces modèles s'appliquent aux matériaux présentant un désordre (ex : matériaux métalliques). Ce type d'approche conduit à des formulations à très grand nombre de variables internes représentation de la microstructure par des éléments finis : on constitue alors une cellule élementaire reproduite à l'infini donnant une bonne idée de la morphologie du matériau. Cette approche, baptisée ef 2, est encore plus lourde que la précédente car elle nécessite en chaque point d’intégration une résolution par éléments finis. Elle est bien adaptée à la modélisation du comportement de structures composites présentant un ordre parfait. L'avantage de ce type de modélisation est de donner accès aux états mécaniques macroscopiques ainsi qu'aux états microscopiques locaux conditionnant la tenue de la structure. Les données microscopiques. . .
APA, Harvard, Vancouver, ISO, and other styles
36

Romagnoli, Emmanuel. "Exploitation efficace de grappes dynamiques de PC indifférenciées pour le calcul parallèle." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0136.

Full text
Abstract:
La fin des années 90 a vu le développement de machines parallèles de type grappes de PC, dont l'utilisation est partagée entre plusieurs utilisateurs. Compte tenu de ce contexte, l'objectif de ce travail, qui s'est déroulée dans le cadre d'une convention CIFRE avec la société Hewlett Packard, était d'étudier l'ordonnancement de travaux parallèles et séquentiels pour ce type de machine. Ce travail s'est déroulé en plusieurs étapes : * implantation en java d'un système de gestion de ressources qui se distingue par l'intégration d'une base de données, d'un module de surveillance, d'un module d'analyse statistique et par un mécanisme d'ordonnancement modulaire qui gère les travaux moldables (des travaux pouvant fonctionner sur un nombre variable de processeurs) ; caractérisation des logs de la grappe I-Cluster et conception d'une procédure de construction de scénarii vraisemblables de soumissions de travaux moldables ; * développement d'un banc de test comprenant notamment un générateur de travaux implantant la procédure de construction précédente afin de valider dans des conditions proches de la réalité le comportement d'heuristiques d'ordonnancement. Cet ensemble logiciel nous a permis d'évaluer l'influence de la taille des lots de travaux sur les performances d'heuristiques d'ordonnancement mais il convient d'apporter des améliorations afin de passer d'un prototype de recherche à un système industriel : * gestion des sessions interactives;* mise en place d'un mécanisme de coopération entre les ordonnanceurs inter-travaux et inter-tâches (au sein des travaux parallèles); développement d'un système distribué de répartition de charge entre plusieurs grappes.
APA, Harvard, Vancouver, ISO, and other styles
37

Bazile, Alban. "Formulation éléments finis variationnelle adaptative et calcul massivement parallèle pour l’aérothermique industrielle." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM008/document.

Full text
Abstract:
Considérant les récents progrès dans le domaine du Calcul Haute Performance, le but ultime des constructeurs aéronautiques tels que Safran Aircraft Engines (SAE) sera de simuler un moteur d'avion complet, à l'échelle 1, utilisant la mécanique des fluides numérique d'ici 2030. Le but de cette thèse de doctorat est donc de donner une contribution scientifique à ce projet. En effet, ce travail est consacré au développement d'une méthode élément finis variationnelle adaptative visant à améliorer la simulation aérothermique du refroidissement des aubes de turbine. Plus précisément, notre objectif est de développer une nouvelle méthode d'adaptation de maillage multi-échelle adaptée à la résolution des transferts thermiques hautement convectifs dans les écoulements turbulents. Pour cela, nous proposons un contrôle hiérarchique des erreurs, basé sur des estimateurs d'erreur sous-échelle de type VMS. La première contribution de ce travail est de proposer une nouvelle méthode d'adaptation de maillage isotrope basée sur ces estimateurs d'erreur sous-échelle. La seconde contribution est de combiner (i) un indicateur d'erreur d'interpolation anisotrope avec (ii) un estimateur d'erreur sous-échelle pour l'adaptation anisotrope de maillage. Les résultats sur des cas analytiques 2D et 3D montrent que la méthode d'adaptation de maillage multi-échelle proposée nous permet d'obtenir des solutions hautement précises utilisant moins d'éléments, en comparaison avec les méthodes d'adaptation de maillage traditionnelles. Enfin, nous proposons dans cette thèse une description des méthodes de calcul parallèle dans Cimlib-CFD. Ensuite, nous présentons les deux systèmes de calcul utilisés pendant le doctorat. L'un d'eux est, en particulier, le super-calculateur GENCI Occigen II qui nous a permit de produire des résultats numériques sur un cas d'aube de turbine complète composé de 39 trous en utilisant des calculs massivement parallèles
By 2030, considering the progress of HPC, aerospace manufacturers like Safran Aircraft Engines (SAE), hope to be able to simulate a whole aircraft engine, at full scale, using Computational Fluid Dynamic (CFD). The goal of this PhD thesis is to bring a scientific contribution to this research framework. Indeed, the present work is devoted to the development of a variational adaptive finite element method allowing to improve the aerothermal simulations related to the turbine blade cooling. More precisely, our goal is to develop a new multiscale mesh adaptation technique, well suited to the resolution of highly convective heat transfers in turbulent flows. To do so, we propose a hierarchical control of errors based on recently developed subscales VMS error estimators. The first contribution of this work is then to propose a new isotropic mesh adaptation technique based on the previous error estimates. The second contribution is to combine both (i) the coarse scales interpolation error indicator and (ii) the subscales error estimator for anisotropic mesh adaptation. The results on analytic 2D and 3D benchmarks show that the proposed multiscale mesh adaptation technique allows obtaining highly precise solutions with much less elements in comparison with other mesh adaptation techniques. Finally, we propose in this thesis a description of the parallel software capabilities of Cimlib-CFD. Then, we present the two hardware systems used during this PhD thesis. The first one is the lab's cluster allowing the development of numerical methods. The second one however, is the GENCI Occigen II supercomputer which allows producing numerical results using massively parallel computations. In particular, we present a more realistic industrial concerning the cooling of a complete turbine vane composed by 39 holes
APA, Harvard, Vancouver, ISO, and other styles
38

Fouladgar, Javad. "Contribution à l'extension du calcul parallèle : Application à l'identification et à la commande des systèmes interconnectés." Nancy 1, 1988. http://www.theses.fr/1988NAN10133.

Full text
Abstract:
On utilise un graphe pour représenter les relations entre les différentes tâches constituant chaque algorithme d'identification et de commande. Ce graphe sert à l'ordonnancement et au calcul de la durée d'exécution grâce à la méthode CPM (critical path method)
APA, Harvard, Vancouver, ISO, and other styles
39

Ait, Mohamed Otmane. "La théorie du π-calcul dans le système HOL." Nancy 1, 1996. http://www.theses.fr/1996NAN10091.

Full text
Abstract:
Le π-calcul est un calcul de processus dont la théorie est assez proche de CCS d'une part et possédant une grande puissance d'expression d'autre part. On peut représenter une variété remarquable de notions qu'on retrouve dans les langages à haut niveau. Par exemple, le λ-calcul, la transmission de processus et la localité de processus. On peut, également, coder d'une façon raisonnable les structures de données. De ce fait le π-calcul est devenu l'exemple typique de calcul de processus mobile, ou la structure topologique entre les processus change dynamiquement au fur et à mesure que l'évolution du processus progresse. La mobilité dans ce calcul est dû au fait que les processus peuvent échanger des noms de canaux. L’objectif principal de la thèse est la réalisation d'un outil de preuve pour le π-calcul. La simplicité de sa théorie basée sur un nombre restreint d’opérations et offrant des techniques de preuves basées sur la bisimulation permettent un traitement formel. Or, la plus grande partie des problèmes propres au π-calcul porte sur des systèmes avec un nombre infini d'états sur lesquels les techniques de vérification automatiques échouent. C’est pourquoi, nous nous sommes orientés vers un système de preuve ouvert dans lequel on peut (1) formaliser les arguments mathématiques les plus sophistiques et (2) automatiser les parties répétitives d'une preuve. Notre choix s'est fait sur l'environnement de preuve HOL qui satisfait les deux conditions (1) et (2). En effet, HOL est basé sur une logique classique d'ordre supérieur et hérité du système LCF l'idée de tactics et tacticals ce qui permet une représentation directe et naturelle des arguments mathématiques et permet d'automatiser certaines parties de preuves. L’approche que nous avons adoptée pour représenter le π-calcul dans HOL est une approche définitionnelle. C’est-à-dire nous avons présenté la syntaxe et la sémantique du π-calcul dans la logique du système HOL. Dans ce cas les lois algébriques du π-calcul sont dérivées formellement. Bien que cette approche soit difficile à mettre en œuvre, elle a l'avantage d'assurer la cohérence du système de preuve résultant. Dans l'environnement de preuve, π-calcul-HOL, que nous baptisons PIC, on peut spécifier et prouver la correction des systèmes concurrents, soit par un raisonnement équationnel, soit par la technique de bisimulation. Cette approche nous permet de surmonter le problème de la vérification des systèmes à états infinis ou dont la structure est définie inductivement. Nous expérimentons le système sur la preuve de correction d'un protocole de communication, et sur l'étude du codage des entiers naturels dans le π-calcul.
APA, Harvard, Vancouver, ISO, and other styles
40

Szczepanski, Nicolas. "SAT en Parallèle." Thesis, Artois, 2017. http://www.theses.fr/2017ARTO0403/document.

Full text
Abstract:
La thèse porte sur la résolution des problèmes de satisfaisabilité booléenne (SAT) dans un cadre massivement parallèle. Le problème SAT est largement utilisé pour résoudre des problèmes combinatoires de première importance comme la vérification formelle de matériels et de logiciels, la bio-informatique, la cryptographie, la planification et l’ordonnancement de tâches. Plusieurs contributions sont apportées dans cette thèse. Elles vont de la conception d’algorithmes basés sur les approches « portfolio » et « diviser pour mieux régner », à l’adaptation de modèles de programmation parallèle, notamment hybride (destinés à des architectures à mémoire partagée et distribuée), à SAT, en passant par l’amélioration des stratégies de résolution. Ce travail de thèse a donné lieu à plusieurs contributions dans des conférences internationales du domaine ainsi qu’à plusieurs outils (open sources) de résolution des problèmes SAT, compétitifs au niveau international
This thesis deals with propositional satisfiability (SAT) in a massively parallel setting. The SAT problem is widely used for solving several combinatorial problems (e.g. formal verification of hardware and software, bioinformatics, cryptography, planning, scheduling, etc.). The first contribution of this thesis concerns the design of efficient algorithms based on the approaches « portfolio » and « divide and conquer ». Secondly, an adaptation of several parallel programming models including hybrid (parallel and distributed computing) to SAT is proposed. This work has led to several contributions to international conferences and highly competitive distributed SAT solvers
APA, Harvard, Vancouver, ISO, and other styles
41

Nguyen, Van-Hoa. "Traitement parallèle des comparaisons intensives de séquences génomiques." Rennes 1, 2009. https://tel.archives-ouvertes.fr/tel-00435792.

Full text
Abstract:
La comparaison de séquences est une des tâches fondamentales de la bioinformatique. Les nouvelles technologies de séquençage conduisent à une production accélérée des données génomiques et renforcent les besoins en outils rapides et efficaces pour effectuer cette tâche. Dans cette thèse, nous proposons un nouvel algorithme de comparaison intensive de séquences, explicitement conçu pour exploiter toutes les formes de parallélisme présentes dans les microprocesseurs de dernière génération (instruction SIMD, architecture multi-cœurs). Cet algorithme s’adapte également à un parallélisme massif que l’on peut trouver sur des accélérateurs de type FPGA ou GPU. Cet algorithme a été mis en œuvre à travers le logiciel PLAST (Parallel Local Alignment Search Tool). Différentes versions sont disponibles suivant les données à traiter (protéine et/ou ADN). Une version MPI a également été mise au point pour un déploiement sur un cluster de Pcs. En fonction de la nature des données et des technologies employées des accélérations de 3 à 20 ont été mesurées par rapport à la référence du domaine, le logiciel BLAST, pour un niveau de qualité équivalent
The sequence comparison process is one of the main bioinformatics task. The new sequencing technologies lead to a fast increasing of genomic data and strengthen the need of fast and efficient tools to perform this task. In this thesis, a new algorithm for intensive sequence comparison is proposed. It has been specifically designed to exploit all forms of parallelism of today microprocessors (SIMD instructions, multi-core architecture). This algorithm is also well suited for hardware accelerators such as FPGA or GPU boards. The algorithm has been implemented into the PLAST software (Parallel Local Alignment Search Tool). Different versions are available according to the data to process (protein and/or DNA). A MPI version has also been developed. According to the nature of the data and the type of technologies, speed-up from 3 to 20 has been measured compared with the reference software, BLAST, with the same level of quality
APA, Harvard, Vancouver, ISO, and other styles
42

Essaïdi, Mohamed. "Echange de données pour le parallélisme à gros grain." Nancy 1, 2004. http://www.theses.fr/2004NAN10007.

Full text
Abstract:
Nous discernons deux classes de modèles de programmation parallèles : les modèles à grain fin et ceux à gros grain. Les modèles gros grain disposent d'une multitude de bibliothèques facilitant l'implantation de leurs algorithmes respectifs. Cette thèse s'articule autour de la bibliothèque SSCRAP qui implantait initialement le modèle CGM. Nous l'avons étendu pour supporter les modèles PRO et BSP. Nous avons élaboré et intégré à SSCRAP un modèle d'échange, un modèle de synchronisation et un modèle d'exécution. En vue d'améliorer son rendement sur les architectures à mémoire partagée, nous avons également conçu et implanté une nouvelle interface de communication de bas niveau pour SSCRAP. Les études expérimentales que nous avons menées par la suite ont permis de mettre en évidence le très bon rendement de SSCRAP et d'étendre la preuve de validité aux algorithmes et aux modèles à gros grain
We can distinguish two classes of parallel models: models with fine grain and those with coarse grain. The coarse grain models have a multitude of dedicated libraries facilitating the implementation of their respective algorithms. This thesis focuses on the library SSCRAP which is initially designed for the CGM model. We extended the support of SSCRAP to the model BSP and PRO. Indeed, we proposed and integrated on SSCRAP a new exchange model, a new synchronization model and a new execution model. In order to improve the efficiency of SSCRAP on shared memory architecture, we also designed and implemented a new interface of low level communication. The experimental studies highlight the very good behaviour of SSCRAP and then extend the proof of validity as well to the algorithms as to the coarse grain models
APA, Harvard, Vancouver, ISO, and other styles
43

Thomin, Philippe. "Algorithmes parallèles pour la synthèse d'image par radiosité sur calculateur à mémoire distribuée." Valenciennes, 1993. https://ged.uphf.fr/nuxeo/site/esupversions/a9efdd76-820d-4008-ab0e-23f35d428cdf.

Full text
Abstract:
Pour répondre à la demande d'utilisateurs de plus en plus nombreux, l'image de synthèse doit concilier deux aspects souvent contradictoires : le réalisme et l'interactivité. En termes de réalisme, les algorithmes de radiosité permettent, à l'heure actuelle, d'obtenir des résultats spectaculaires. Toutefois, en dépit d'optimisations algorithmiques drastiques, la production d'une image est encore au mieux une affaire de minutes et les ressources mémoire mobilisées sont considérables. Les limites actuelles doivent donc être franchies en augmentant la puissance des moyens matériels utilisés. Le travail présenté dans ce mémoire porte sur l'étude des algorithmes parallèles de radiosité sur calculateurs à mémoire distribuée. Les solutions proposées privilégient l'utilisation optimale des ressources mémoire réparties, ce qui leur permet de traiter des scènes très complexes. La réduction des coûts de communication et le travail en synchronisme des différents processeurs permettent alors de concilier les comportements temporels et dimensionnels des algorithmes définis. Une maquette, réalisée sur un réseau de transputers, a permis de valider cette approche et de préciser ses limites d'utilisation. Deux directions peuvent alors être explorées, l'une concernant l'amélioration du comportement temporel, l'autre visant à étendre les algorithmes proposés au traitement des surfaces spéculaires.
APA, Harvard, Vancouver, ISO, and other styles
44

Denis, Christophe. "Equilibrage en volume de calcul de la méthode parallèle à fronts multiples : Application au logiciel SIC." Compiègne, 2003. http://www.theses.fr/2003COMP1489.

Full text
Abstract:
La méthode parallèle à fronts multiples est utilisée pour résoudre de grands systèmes linéaires issus de modélisation par éléments finis en mécanique numérique. Cette méthode directe est basée sur une décomposition de domaine sans recouvrement. Chaque sous-domaine est traité en parallèle ensuite un problème interface est résolu. La décomposition de domaine est usuellement construite en utilisant une approche de partitionnement de graphe qui n'est pas toujours bien adaptée. Pour la méthode parallèle à fronts multiples utilisée, l'approche de partitionnement de graphe fournit des sous-domaines dont les temps de traitement peuvent varier du simple au double. Le temps de résolution globale de la méthode parallèle peut diminuer en équilibrant mieux son volume de calcul. Cette thèse propose une méthode d'équilibrage en volume de calcul de la méthode parallèle. Elle est pilotée par des estimateurs en volume de calcul déterminés en étudiant le comportement algorithmique de la méthode parallèle
The parallel multiple front method is used to solve large sparse linear systems issued from the finite element modeling in mechanical engineering. This direct method is based on a nonoverlapping domain decomposition method. Each subdomain is treated in parallel with a frontal method and then a interface problem is solved. The decomposition is usually built with a graph partitioning approach which is not weIl suited for aIl parallel applications. The graph partitioning approach provides computing lime over the subdomains which can vary from simple to double for our parallel multiple method. However the global method computing time can be decreased by load balancing the subdomain computing time. This thesis proposes a load balancing method to correct in computational volume an initial decomposition issued from graph partitioning tools. The load balancing method is controled by our computation volume estimators of the parallel method
APA, Harvard, Vancouver, ISO, and other styles
45

Renouf, Mathieu. "Optimisation numérique et calcul parallèle pour l'étude de milieux divisés bi- et tridimensionnels." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2004. http://tel.archives-ouvertes.fr/tel-00007686.

Full text
Abstract:
Ce travail est dédié à la simulation numérique des milieux granulaires denses dont les interaction sont régies par des lois de contact frottant. L'approche utilisée est la méthode "Non Smooth Contact Dynamics" qui traite le contact sans régularisation numérique et utilise un algorithme de type Gauss-Seidel. Pour diminuer le temps nécessaire aux simulations, et mener des études paramétriques fines, nous avons procédé à plusieurs types d'optimisation numérique portant, dans un premier temps, sur la mise en oeuvre de différents types d'implémentation exploitant ou non le calcul parallèle (optimisation informatique) puis, dans un second temps, sur le développement d'un algorithme de type Gradient Conjugué (optimisation algorithmique). Ces différentes stratégies se révèlent très efficaces nous permettant de simuler plus rapidement des problèmes bi et tridimensionnels. Deux applications pointant sur la diversité de comportement des milieux granulaires (liquide/solide) ont été abordées: une étude numérique sur les écoulements en tambour tournant venant compléter des résultats expérimentaux et une étude de mouvements tectoniques par éléments discrets permettant de porter un nouveau regard sur les expériences analogiques en "boîtes à sable" effectuées en géophysique.
APA, Harvard, Vancouver, ISO, and other styles
46

Kechid, Mounir. "La programmation dynamique non-serial dans les modèles de calcul parallèle BSP/CGM." Amiens, 2009. http://www.theses.fr/2009AMIE0110.

Full text
Abstract:
Nous assistons cette décennie à une tendance (migration) du hardware parallèle vers les systèmes multiprocesseurs à gros-grain. Cependant, la majorité du logiciel parallèle traditionnel est conçue pour des systèmes grain-fin et pour des machines à mémoire partagée. L'un des principaux défis actuels des chercheurs en conception d'algorithmes parallèles est de réduire cette incompatibilité dite « écart logiciel-matériel ». Un grand intérêt est ainsi porté à la conception d'algorithmes parallèles efficaces pour les multiprocesseurs gros-grain. C'est dans ce cadre que s'inscrit cette thèse. Nous utilisons le modèle de calcul parallèle BSP/CGM (Bulk synchronous parallel Coarse Grained Multicomputers) pour concevoir des solutions pour des problèmes faisant appel à la technique de programmation dynamique. Nous nous intéressons à un échantillon typique de la programmation dynamique du type polyadique non-serial qui est caractérisée par une très forte dépendance de calculs. Il s'agit d'une importante classe de problèmes largement utilisés dans les applications à haute performance (tel que : le problème d'ordonnancement de produit de chaîne de matrices : OPCM, le problème de l'arbre binaire de recherche optimale : ABRO, le problème de triangulation de polygones convexe : TPC. . . ). Nous présentons tout d'abord une étude détaillée de l'outil de conception, i. E. Le modèle BSP/CGM, ainsi qu'une proposition de raffinement du modèle de coût BSP en vue d'améliorer son exactitude de prédiction. Nous présentons ensuite une solution BSP/CGM générique pour la classe de problèmes précitée. Enfin, après une étude des contraintes de l'accélération de cette solution générique dans le modèle BSP/CGM, pour les problèmes OPCM et ABRO, deux algorithmes BSP/CGM accélérés sont proposés
We attend this decade a trend (migration) of the parallel hardware towards coarse-grain multiprocessor systems. However, the majority of the traditional parallel software is designed for fine-grain system and for shared memory machines. One of the main current challenges of the researchers in design of parallel algorithms is to reduce this incompatibility said “software-hardware gap”. Big interest is so focused on the design of efficient parallel algorithms for coarse-grain multi-processors systems. It's in this context that this thesis contributes. We use the BSP/CGM parallel computing model (Bulk synchronous parallel Coarse Grained Multicomputer) to design solutions for problems using dynamic programming approach. We are interested in a typical sample of the dynamic programming polyadic non-serial which is characterized by a very strong dependence of calculations. It is about an important class of problems widely used in the high-performance applications (MCOP: the matrix chain ordering problem, OBST: the optimal binary search tree problem, CTP: the convex polygons triangulation). We firstly present a detailed study of the design tools, i. E. BSP/CGM model, as well as a proposition of refinement of the BSP cost model to improve its prediction accuracy. We present then a generic BSP/CGM solution for the aforesaid problems class. At the end, after a study of the constraints of the acceleration of this generic solution in BSP/CGM model for the problems MCOP and OBST, two accelerated BSP/CGM algorithms are proposed
APA, Harvard, Vancouver, ISO, and other styles
47

Renouf, Mathieu. "Optimisation numérique et calcul parallèle pour l'étude des milieux divisés bi- et tridimensionnels." Montpellier 2, 2004. http://www.theses.fr/2004MON20131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

PINCHEDEZ, KATIA. "Calcul parallèle pour les équations de diffusion et de transport homogènes en neutronique." Paris 11, 1999. http://www.theses.fr/1999PA112048.

Full text
Abstract:
Le calcul parallele permet de repondre aux besoins toujours croissants en precision et rapidite de la simulation en neutronique des reacteurs. Dans ce travail, deux approches distinctes ont ete envisagees. Tout d'abord, nous avons parallelise l'algorithme sequentiel utilise par le code de neutronique cronos du cea. L'algorithme calcule la valeur propre dominante pour les equations multigroupes pn simplifiees du transport grace a des elements finis mixtes. Plusieurs algorithmes paralleles ont ete developpes pour des machines a memoire distribuee. Nous avons etudie les performances des algorithmes paralleles, experimentalement, par implementation sur un cray t3d et, theoriquement, par des modeles de complexite. Une comparaison avec diverses strategies de parallelisation a confirme les choix d'implementation. Nous avons ensuite applique une technique de decomposition de domaines aux equations de la diffusion a deux groupes d'energie. La methode utilisee, basee sur la synthese modale, consiste a recuperer de l'information sur le spectre global a partir des spectres partiels associes aux sous-domaines. Pour cela, le probleme aux valeurs propres est developpe sur une famille composee, d'une part, de fonctions propres associes aux differents sous-domaines et, d'autre part, de fonctions correspondant a la contribution de l'interface entre les sous-domaines. Cette methode a ete validee pour un cur homogene 2d et sa precision mesuree.
APA, Harvard, Vancouver, ISO, and other styles
49

Kessy, Edgard. "Décomposition de domaine et calcul parallèle distribué : application à la mécanique des fluides." Rouen, 1997. http://www.theses.fr/1997ROUES052.

Full text
Abstract:
Ce travail concerne l'utilisation du parallélisme pour la résolution de certains problèmes de mécanique des fluides. La technique de décomposition de domaine a été appliquée pour résoudre en parallèle des problèmes basés aussi bien sur des schémas explicites qu'implicites. Elle a montré pour ce dernier cas la nécessité d'introduire un retard au niveau de la propagation de l'information lors de la gestion des interfaces entre sous-domaines. Deux exemples de problèmes couplés ont été résolus en parallèle. Le premier traite un problème de couplage fluide-structure appliqué au cas d'un propulseur de moteur fusée, le second exemple étant relatif à un couplage aérodynamique-chimie appliqué à une couche de mélange. La résolution parallèle a été faite sur différentes architectures MIMD à mémoire distribuée, avec l'utilisation des bibliothèques de communication PVM et MPI.
APA, Harvard, Vancouver, ISO, and other styles
50

Sénéchaud, Pascale. "Calcul formel et parallélisme : bases de Gröbner booléennes, méthodes de calcul : applications, parallélisation." Grenoble INPG, 1990. http://tel.archives-ouvertes.fr/tel-00337227.

Full text
Abstract:
Nous présentons les bases de Grobner, leur utilisation et la parallélisation des algorithmes qui les calculent dans le cas de polynômes booléens. Une première partie est consacrée à la présentation théorique des bases de Grobner dans le cas général. Cette présentation se veut accessible a des non-spécialistes. Une étude bibliographique de la complexité est faite. Une deuxième partie concerne les applications des bases de Grobner booléennes en calcul propositionnel et en preuve de circuits combinatoires. Nous proposons un algorithme de preuve formelle de circuits combinatoires hiérarchisés. Dans la troisième partie nous adaptons l'algorithme séquentiel au cas booléen et nous étudions plus en détail la normalisation. Nous proposons deux méthodes de parallélisation a granularité différentes. Nous analysons et comparons plusieurs implantations parallèles et présentons des résultats expérimentaux. Les algorithmes sont généralisables au cas des polynômes a coefficients rationnels. Nous soulignons l'influence de la répartition des données sur le temps d'exécution. Nous présentons une methode de répartition des polynômes basée sur la recherche de chemins de longueur donnée dans un graphe oriente. Cette répartition nous permet d'obtenir des résultats interpretables et de conclure sur les différents algorithmes
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography