Дисертації з теми "Equilibrage des charge"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Equilibrage des charge.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-48 дисертацій для дослідження на тему "Equilibrage des charge".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Quintin, Jean-noël. "Equilibrage de charge dynamique sur plates-formes hiérarchiques." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00661447.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La course à l'augmentation de la puissance de calcul qui se déroule depuis de nombreuses années entre les différents producteurs de matériel a depuis quelques années changé de visage: nous assistons en effet désormais à une véritable démocratisation des machines parallèles avec une complexification sans cesse croissante de la structure des processeurs. À terme, il est tout à fait envisageable de voir apparaître pour le grand public des architecture pleinement hétérogènes composées d'un ensemble de cœurs reliés par un réseau sur puce. La parallélisation et l'exécution parallèle d'applications sur les machines à venir soulèvent ainsi de nombreux problèmes. Parmi ceux-ci, nous nous intéressons ici au problème de l'ordonnancement d'un ensemble de tâches sur un ensemble de cœurs, c'est à dire le choix de l'affectation du travail à réaliser sur les ressources disponibles. Parmi les méthodes existantes, on distingue deux types d'algorithmes: en-ligne et hors-ligne. Les algorithmes en-ligne comme le vol de travail présentent l'avantage de fonctionner en l'absence d'informations sur le matériel ou la durée des tâches mais ne permettent généralement pas une gestion efficace des communications. Dans cette thèse, nous nous intéressons à l'ordonnancement de tâches en-ligne sur des plates-formes complexes pour lesquelles le réseau peut, par des problèmes de congestion, limiter les performances. Plus précisément, nous proposons de nouveaux algorithmes d'ordonnancement en-ligne, basés sur le vol de travail, ciblant deux configurations différentes. D'une part, nous considérons des applications pour lesquelles le graphe de dépendance est connu à priori. L'utilisation de cette information nous permet ainsi de limiter les quantités de données transférées et d'obtenir des performances supérieures aux meilleurs algorithmes hors-ligne connus. D'autre part, nous étudions les optimisations possibles lorsque l'algorithme d'ordonnancement connaît la topologie de la plate-forme. Encore une fois, nous montrons qu'il est possible de tirer parti de cette information pour réaliser un gain non-négligeable en performance. Nos travaux permettent ainsi d'étendre le champ d'application des algorithmes d'ordonnancement vers des architectures plus complexes et permettront peut-être une meilleure utilisation des machines de demain.
2

Quintin, Jean-Noël. "Equilibrage de charge dynamique sur plates-formes hiérarchiques." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM066/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La course à l'augmentation de la puissance de calcul qui se déroule depuis de nombreuses années entre les différents producteurs de matériel a depuis quelques années changé de visage: nous assistons en effet désormais à une véritable démocratisation des machines parallèles avec une complexification sans cesse croissante de la structure des processeurs. À terme, il est tout à fait envisageable de voir apparaître pour le grand public des architecture pleinement hétérogènes composées d'un ensemble de cœurs reliés par un réseau sur puce. La parallélisation et l'exécution parallèle d'applications sur les machines à venir soulèvent ainsi de nombreux problèmes. Parmi ceux-ci, nous nous intéressons ici au problème de l'ordonnancement d'un ensemble de tâches sur un ensemble de cœurs, c'est à dire le choix de l'affectation du travail à réaliser sur les ressources disponibles. Parmi les méthodes existantes, on distingue deux types d'algorithmes: en-ligne et hors-ligne. Les algorithmes en-ligne comme le vol de travail présentent l'avantage de fonctionner en l'absence d'informations sur le matériel ou la durée des tâches mais ne permettent généralement pas une gestion efficace des communications. Dans cette thèse, nous nous intéressons à l'ordonnancement de tâches en-ligne sur des plates-formes complexes pour lesquelles le réseau peut, par des problèmes de congestion, limiter les performances. Plus précisément, nous proposons de nouveaux algorithmes d'ordonnancement en-ligne, basés sur le vol de travail, ciblant deux configurations différentes. D'une part, nous considérons des applications pour lesquelles le graphe de dépendance est connu à priori. L'utilisation de cette information nous permet ainsi de limiter les quantités de données transférées et d'obtenir des performances supérieures aux meilleurs algorithmes hors-ligne connus. D'autre part, nous étudions les optimisations possibles lorsque l'algorithme d'ordonnancement connaît la topologie de la plate-forme. Encore une fois, nous montrons qu'il est possible de tirer parti de cette information pour réaliser un gain non-négligeable en performance. Nos travaux permettent ainsi d'étendre le champ d'application des algorithmes d'ordonnancement vers des architectures plus complexes et permettront peut-être une meilleure utilisation des machines de demain
The race towards more processing power between all different hardware manufacturers has in recent years faced deep changes. We see nowadays a huge development in the use of parallel machines with more and more cores and increasingly complex architectures. It seems now clear that we will witness in a near future the development of cheap Network On Chip computers. Executing parallel applications on such machines raises several problems. Amongst them we take in this work interest in the problem of scheduling a set of tasks on a set of computing resources. Between all existing methods we can generally distinguish on-line or off-line algorithms. On-line algorithms like work-stealing present the advantage to work without informations on hardware or tasks durations but do not generally achieve an efficient control of communications. In this book we take interest in on-line tasks scheduling on complex platforms where networking can impact (through congestion) performance. More precisely, we propose several new scheduling algorithms based on work-stealing targeting two different configurations. In a first study, we consider applications whose dependency graph is known in advance. By taking advantage of this information we manage to limit the amount of data transfered and thus to achieve high performance and even outperform the best known off-line algorithms. Concurrently to that, we also study possible optimisations in the case where knowledge of platform topology is available. We show again that it is possible to use this information to enhance performance. Our work allows therefore to extend the application field of scheduling algorithms towards more complex architectures and we hope will allow a better use of tomorrow's machine
3

Renard, Hélène. "Equilibrage de charge et redistribution de données sur plates-formes hétérogènes." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2005. http://tel.archives-ouvertes.fr/tel-00012133.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous sommes intéressée à la mise en oeuvre d'algorithmes itératifs sur des grappes hétérogènes. Ces algorithmes fonctionnent avec un volume important de données (calcul de matrices, traitement d'images, etc.), qui sera réparti sur l'ensemble des processeurs. À chaque itération, des calculs indépendants sont effectués en parallèle et certaines communications ont lieu. Il n'existe pas de raison a priori de réduire le partitionnement des données à une unique dimension et de ne l'appliquer que sur un anneau de processeurs unidimensionnel. Cependant, un tel partitionnement est très naturel et nous montrerons que trouver l'optimal est déjà très difficile. Après cette étude sur le placement et l'équilibrage de charge pour plates-formes hétérogènes, nous nous sommes intéressée à la redistribution de données sur ces mêmes plates-formes, lorsque que les caractéristiques de ces dernières changent. En ce qui concerne les anneaux de processeurs homogènes, nous avons totalement résolu le problème : nous avons obtenu des algorithmes optimaux et prouvé leur exactitude dans le cas homogène et dans le cas hétérogène. En ce qui concerne les anneaux hétérogènes, le cas unidirectionnel a été totalement résolu, alors que le cas bidirectionnel reste ouvert. Cependant, sous l'hypothèse de redistribution légère, nous sommes capable de résoudre le problème de manière optimale.
4

Juganaru, Mihaela. "Equilibrage et régulation de charge dans les machines parallèles à mémoire distribuée." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00822691.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La résolution du problème d'allocation de charge représente un enjeu important dans l'exploitation des machines parallèles. Nous faisons d'abord une étude bibliographique de ce problème dans le cadre des architectures à mémoire distribuée en mettant l'accent sur l'allocation dynamique, plus précisément sur l'équilibrage et la régulation de charges régulières. Une stratégie originale de régulation basée sur un calcul de préfixe généralisé est proposée. Elle s'avère à la fois correcte, exacte et indépendante du réseau d'interconnexion de processeurs. Un noyau de régulation de charge basé sur cette stratégie est développé. Nous poursuivons ensuite avec une analyse de son temps total d'exécution. Nous trouvons qu'une loi de probabilité de Gumbel modélise le temps maximal d'exécution. A partir de ce résultat nous inférons des politiques d'initiation et de décision pour la mise en oeuvre de là stratégie proposée. L'algorithme de régulation ainsi obtenu est donc efficace. Une application de simulation des phénomènes mécaniques, déformation-recristallisation à chaud des agrégats polycristallins, est développée. Pour cette application dynamique nous utilisons le noyau de régulation de charge avec les politiques d'initiation et décision proposés. L'algorithme complet s'avère en pratique correct, stable et efficace.
5

Phan, Hoang Anh. "Equilibrage de charge et diffusion multicast dans les systèmes pair-à-pair." Paris 7, 2010. http://www.theses.fr/2010PA077123.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes pair-à-pair (P2P: Peer-to-Peer) mettent en relation des utilisateurs afin de mutualiser des ressources dans un environnement dynamique. Plusieurs types de systèmes P2P décentralisés construisent un réseau logique basé sur un graphe de de Bruijn, et offrent un bon compromis entre la taille du réseau et le degré moyen d'un nœud, avec un algorithme de routage simple, ils ne permettent cependant pas d'équilibrer efficacement la charge du réseau et ne supportent pas certains types de flux qui prennent de plus en plus d'importance dans l'Internet, telle la diffusion multicast. Cette thèse propose des améliorations à ces systèmes, et un support efficace de la diffusion multicast. Une première contribution consiste à améliorer le protocole D2B d-dimensionnel. Il est d'abord décrit en détails, puis des solutions aux problèmes de cohérence du réseau (liées à sa dynamicité) et de tolérance de pannes sont proposées. Une deuxième contribution concerne l'équilibrage de charge dans de tels systèmes. Les principales méthodes d'équilibrage de charge existantes sont d'abord décrites, avant de présenter nos solutions d'équilibrage du degré des nœuds. Une troisième et dernière contribution est consacrée à la diffusion multicast dans un système P2P, au niveau application. Après une introduction aux principales méthodes existantes, notre concept de "tree-farm" est présenté. Il permet de construire des familles d'ensembles d'arbres intérieur-disjoints pour la diffusion multicast dans un système P2P basé sur un graphe de de Bruijn. Les trois contributions sont évaluées à l'aide de simulations et comparées avec les méthodes de référence de l'état de l'art
Within a Peer-to-Peer (P2P) Systems a large number of users interact ail together in order to gather ressources in a dynamic environnement. Several decentralized P2P Systems construct an overlay network based on a de Bruijn graph, and offer a good tradeoff between network diameter and node average degree, with a simple routing algorithm. However, they do not efficiently balance the network's load and do not support some more and more popular kinds of communications in the internet such as multicast. This thesis work proposes significant improvements to these Systems, and an efficient multicast algorithm. A first contribution is the improvement of the d-dimensional D2B protocol. First, we describe the protdcol in detail, and then we propose solutions to problems of network coherence (related to its dynamîcity) and to fault tolerance. A second contribution relates to load balancing in such Systems. After the description of the main existing load balancing methods, we present our solutions for balancing the nodes1 degrees. A third and final contribution is dedicated to multicast in a P2P System, at the application level. After a short state of the art of existing methods, we present our concept of "tree-farm". This solution allows for building families of sets of interior-noeud-disjoint trees for efficient multicast communications in P2P Systems based on de Bruijn graphs. The three contributions are evaluated by means of simulations and compared with existing methods of the state of the art
6

Pierson, Jean-Marc. "Equilibrage de charge dirige par les donnees. Applications a la synthese d'images." Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'equilibrage de charge est un point crucial dans l'utilisation des machines paralleles. Nous etudions dans cette these le partitionnement rectilineaire qui constitue une solution a l'equilibrage des charges quand les donnees sont soumises a des contraintes de localite (le calcul associe a une donnee fait intervenir des donnees voisines). Nous nous attachons en particulier a apprecier la qualite de l'equilibrage de deux heuristiques de partitionnement. Nous montrons egalement la pertinence de ces approches a un equilibrage dynamique de la charge. Des applications dans le domaine de la synthese d'images (systeme de particules, calculs d'animations) montrent l'adequation de notre approche aux problemes poses par des structures de donnees irregulieres. Nous exposons egalement le travail fourni dans le developpement d'une bibliotheque parallele portable et son extension a en environnement graphique distribue
7

Pérotin, Matthieu. "Calcul haute performance sur matériel générique." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un double constat motive ce travail: la demande en calcul haute performance des chercheurs et la faible utilisation moyenne de la puissance des ressources pédagogiques. Le problème a été de répondre à cette demande, tout en préservant les ressources pédagogiques pour les enseignements. Une solution simple et transparente pour les utilisateurs finaux a été recherchée. Les besoins des utilisateurs ont mené à un cahier des charges dont la plupart des contraintes sont satisfaites par l'utilisation d'une pile logicielle judicieuse. D'autres ne peuvent être résolues par la seule utilisation de solutions existantes et définissent un problème d'ordonnancement, où il faut répartir les processus soumis sur les ressources des salles de TPs. Plusieurs heuristiques ont été proposées pour le résoudre. Elles ont été comparées à l'aide d'un simulateur, puis implémentée sur une plateforme expérimentale
Two facts are motivating this work: the demand for High Performance Computing of researchers and the low usage of the computing power of the pedagogic ressources. This thesis aims at giving an answer to the demand for HPC, while preserving the pedagogic ressources for the teaching. This work looked for a solution that would be simple and straightforward for the final users. Their needs and wishes lead to the definition of some specifications, in which most of the constraints could be satisfied with the use of a well designed software stack. Some others, however, cannot be satisfied with the use of existing solutions only, they define a new scheduling problem, in which the goal is to schedule the processes on the available ressources. This problem was studied and solved with various heurisitcs, which performances were compared with a simulator before being implemented in an experimental setup
8

Renard, Hélène. "Équilibrage de charge et redistribution de données sur plates-formes hétérogènes." Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0344.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous sommes intéressée à la mise en oeuvre d'algorithmes itératifs sur des grappes hétérogènes. Ces algorithmes fonctionnent avec un volume important de données (calcul de matrices, traitement d'images, etc. ), qui sera réparti sur l'ensemble des processeurs. À chaque itération, des calculs indépendants sont effectués en parallèle et certaines communications ont lieu. Prenons l'exemple d'une matrice rectangulaire de données : l'algorithme itératif fonctionne répétitivement sur cette matrice, divisée en tranches verticales (ou horizontales) allouées aux processeurs. À chaque étape de l'algorithme, les tranches sont mises à jour localement et les informations frontières sont échangées entre tranches consécutives. Cette contrainte géométrique implique que les processeurs soient organisés en anneau virtuel. Chaque processeur communique seulement deux fois, une fois avec son prédécesseur (virtuel) dans l'anneau et une fois avec son successeur. Il n'existe pas de raison a priori de réduire le partitionnement des données à une unique dimension et de ne l'appliquer que sur un anneau de processeurs unidimensionnel. Cependant, un tel partitionnement est très naturel et nous montrerons que trouver l'optimal est déjà très difficile. Après cette étude sur le placement et l'équilibrage de charge pour plates-formes hétérogènes, nous nous sommes intéressée à la redistribution de données sur ces mêmes plates-formes, lorsque que les caractéristiques de ces dernières changent. En ce qui concerne les anneaux de processeurs homogènes, nous avons totalement résolu le problème : nous avons obtenu des algorithmes optimaux et prouvé leur exactitude dans le cas homogène et dans le cas hétérogène. En ce qui concerne les anneaux hétérogènes, le cas unidirectionnel a été totalement résolu, alors que le cas bidirectionnel reste ouvert. Cependant, sous l'hypothèse de redistribution légère, nous sommes capable de résoudre le problème de manière optimale
In this thesis, we study iterative algorithms onto heterogeneous platforms. These iterative algorithms operate on large data samples (recursive convolution, image processing algorithms, etc. ). At each iteration, independent calculations are carried out in parallel, and some communications take place. An abstract view of the problem is the following: the iterative algorithm repeatedly operates on a large rectangular matrix of data samples. This data matrix is split into vertical (or horizontal) slices that are allocated to the processors. At each step of the algorithm, the slices are updated locally, and then boundary information is exchanged between consecutive slices. This (virtual) geometrical constraint advocates that processors be organized as a virtual ring. Then each processor will only communicate twice, once with its (virtual) predecessor in the ring, and once with its successor. Note that there is no reason a priori to restrict to a uni-dimensional partitioning of the data, and to map it onto a uni-dimensional ring of processors. But uni-dimensional partitionings are very natural for most applications, and, as will be shown in this thesis, the problem to find the optimal one is already very difficult. After dealing with the problems of mapping and load-balancing onto heterogeneous platforms, we consider the problem of redistributing data onto these platforms, an operation induced by possible variations in the resource performances (CPU speed, communication bandwidth) or in the system/application requirements (completed tasks, new tasks, migrated tasks, etc. ). For homogeneous rings the problem has been completely solved. Indeed, we have designed optimal algorithms, and provided formal proofs of correctness, both for unidirectional and bidirectional rings. For heterogeneous rings there remains further research to be conducted. The unidirectional case was easily solved, but the bidirectional case remains open. Still, we have derived an optimal solution for light redistributions, an important case in practice
9

Haj, Mahmoud Yanal. "Modélisation et évaluation de performances des systèmes de distribution de charge en environnements répartis." Paris 6, 1999. http://www.theses.fr/1999PA066664.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Vuchener, Clement. "Equilibrage de charges dynamique avec un nombre variable de processeurs basé sur des méthodes de partitionnement de graphe." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0012/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'équilibrage de charge est une étape importante conditionnant les performances des applications parallèles. Dans le cas où la charge varie au cours de la simulation, il est important de redistribuer régulièrement la charge entre les différents processeurs. Dans ce contexte, il peut s'avérer pertinent d'adapter le nombre de processeurs au cours d'une simulation afin d'obtenir une meilleure efficacité, ou de continuer l'exécution quand toute la mémoire des ressources courantes est utilisée. Contrairement au cas où le nombre de processeurs ne varie pas, le rééquilibrage dynamique avec un nombre variable de processeurs est un problème peu étudié que nous abordons ici.Cette thèse propose différentes méthodes basées sur le repartitionnement de graphe pour rééquilibrer la charge tout en changeant le nombre de processeurs. Nous appelons ce problème « repartitionnement M x N ». Ces méthodes se décomposent en deux grandes étapes. Dans un premier temps, nous étudions la phase de migration et nous construisons une « bonne » matrice de migration minimisant plusieurs critères objectifs comme le volume total de migration et le nombre total de messages échangés. Puis, dans un second temps, nous utilisons des heuristiques de partitionnement de graphe pour calculer une nouvelle distribution optimisant la migration en s'appuyant sur les résultats de l'étape précédente. En outre, nous proposons un algorithme de partitionnement k-aire direct permettant d'améliorer le partitionnement biaisé. Finalement, nous validons cette thèse par une étude expérimentale en comparant nos méthodes aux partitionneursactuels
Load balancing is an important step conditioning the performance of parallel programs. If the workload varies drastically during the simulation, the load must be redistributed regularly among the processors. Dynamic load balancing is a well studied subject but most studies are limited to an initially fixed number of processors. Adjusting the number of processors at runtime allows to preserve the parallel code efficiency or to keep running the simulation when the memory of the current resources is exceeded.In this thesis, we propose some methods based on graph repartitioning in order to rebalance the load while changing the number of processors. We call this problem \M x N repartitioning". These methods are split in two main steps. Firstly, we study the migration phase and we build a \good" migration matrix minimizing several metrics like the migration volume or the number of exchanged messages. Secondly, we use graph partitioning heuristics to compute a new distribution optimizing the migration according to the previous step results. Besides, we propose a direct k-way partitioning algorithm that allows us to improve our biased partitioning. Finally, an experimental study validates our algorithms against state-of-the-art partitioning tools
11

Hoenen, Olivier. "Parallélisation de méthodes adaptatives semi-Lagrangiennes pour la résolution de l'équation de Vlasov." Université Louis Pasteur (Strasbourg) (1971-2008), 2008. http://www.theses.fr/2008STR13078.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La compréhension de phénomènes en physique des plasmas est un thème de recherche important, en relation avec plusieurs grands projets internationaux. Lorsque le modèle cinétique est utilisé pour simuler numériquement de tels phénomènes, l'évolution des particules chargées dans le plasma est alors décrite par l'équation de Vlasov. Il s'agit d'une équation aux dérivées partielles posée dans l'espace des phases, qui compte 6 dimensions dans le cas réel. La résolution numérique de cette équation représente par conséquent une énorme quantité de données et de calculs. Cette thèse s'intéresse à la mise en oeuvre informatique de méthodes de résolution basées sur des maillages adaptatifs. Nous nous sommes principalement concentrés sur la parallélisation de ces méthodes en visant des architectures à mémoire distribuée. A l'aide d'un premier solveur parallèle disposant de mécanismes d'une grande adaptativité, nous avons mis en évidence le surcoût lié à l'adaptation du maillage et au caractère imprévisible des communications. Nous avons ensuite utilisé une méthode d'adaptation du maillage qui nous a permis de proposer un nouveau solveur par bloc, dont la parallélisation est axée sur la régularisation de la structure de données et des communications. Le recouvrement des communications par les calculs et l'équilibrage dynamique de la charge nous permettent alors d'obtenir un code adaptatif et parallèle efficace pour un espace des phases à 4 dimensions, résultat qui n'a été obtenu jusqu'à présent que pour des architectures à mémoire partagée
Understanding phenomena in plasma physics is an important research area which is associated with several international projects. When numerical simulation of these phenomena is performed by using the kinetic model, charged particles evolution is given by the Vlasov equation. It is a partial differential equation that lies in phase space, which is a 6 dimensional space in the real case. Thus, the numerical resolution of such an equation represents a huge amount of data and computations. In this thesis, we are interested in the efficient implementation of numerical methods based on adaptative meshes. More precisely, we are concerned about their parallelization for distributed memory architectures. We have developped a first parallel solver which uses some highly adaptive mechanisms. We have shown that the overhead of such a solver is associated with the mesh adaptation mechanism and with non predictable communications. Then we have used another mesh adaptation mechanism in order to propose a new block-based solver. For the parallelization of this second solver, priority is given to regularization of both data structure and communications. We have used communication overlapping with computations and dynamic load balancing to make this adaptive solver efficient for a 4 dimensional phase space. Currently, such results were acheived only on shared memory architectures
12

Sridi, Marwa. "Un modèle de structure de données Cache-aware pour un parallélisme et un équilibrage dynamique de la charge." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM095.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les architectures parallèles actuelles intègrent des processeurs avec un nombre de cœurs à mémoire partagée de plus en plus important et répondant à des contraintes d'utilisation spécifiques, notamment en matière de gestion de la mémoire cache. Pour tirer parti de cette puissance, un parallélisme unique à mémoire distribuée, nécessaire pour gérer les communications inter-nœuds, présente le désavantage de ne pas s'adapter directement aux particularités des architectures multi-cœurs. De plus, les environnements de calcul à mémoire partagée proposent des techniques pour l'équilibrage de la charge entre les cœurs disponibles, qui se présentent de manière plus délicate dans un contexte de mémoire distribuée. Ainsi, des modèles de programmation tels qu’OpenMP et XKAAPI sont une réponse bien adaptée aux spécificités de ces architectures.Au regard de ces problématiques, nous nous sommes intéressés, à développer une approche Hardware-aware prenant en considération l'organisation hiérarchique des architectures parallèles à mémoire partagée. Notre approche offre un modèle d'optimisation de l'utilisation des espaces de stockage dans ce contexte de parallélisme. Pour démontrer la pertinence de cette approche, nous l'avons implémentée dans le logiciel de simulation en dynamique rapide des fluides et des structures EUROPLEXUS, en se concentrant sur le parallélisme à mémoire partagée, complémentaire d'une approche à mémoire distribuée développée par ailleurs. De par son large panel d'applications, EUR0PLEXUS est caractérisé par une structure de données très riche et des dépendances très complexes entre ses routines. Nous nous sommes concentrés sur l'accélération de la boucle principale itérant sur les éléments du maillage. L'hétérogénéité des formulations et des matériaux des éléments pouvant co-exister dans un même modèle simulé engendre une grande variabilité entre les coûts des itérations de cette boucle. Une première parallélisation de cette boucle avec la bibliothèque XKAAPI basée sur un ordonnancement dynamique par vol de tâches a été implémentée. Cependant, malgré l'accélération atteinte par cette implémentation parallèle, les performances ont été freinées par les coûts des accès fréquents et dispersés à une structure de données complexe rendant l'exécution du code délicate à optimiser. A cause de cette structuration, une grande partie du temps d'exécution est écoulée dans des défauts de cache.Ces travaux reposent sur l’implémentation d'un modèle de structure de données assurant une meilleure localité des accès. Il consiste majoritairement à passer de la structure de données globale dans laquelle les champs physiques sont stockés dans des tableaux séparés à une structure basée sur le stockage des données dans des structures indépendantes appelées groupes. Ces groupes contiennent les données relatives à un certain nombre d'éléments dans des tableaux locaux. Ce nombre est un paramètre réglable selon la taille des niveaux du cache. Concrètement, cette méthode revient à imbriquer la boucle élémentaire dans une boucle itérant sur les groupes. Les itérations sur les groupes sont distribuées sur les cœurs de l'architecture. L'exécution de la boucle interne est séquentielle par cœur. Les meilleurs résultats sont obtenus pour des groupes de la taille du cache L2 privé par cœur. Pour cette taille particulière, l'utilisation d'un équilibrage dynamique de charge sous XKAAPI nous a permis de doubler l'accélération de la boucle élémentaire par rapport à une parallélisation avec XKAAPI de la version de référence du code.La deuxième partie de cette thèse repose sur la parallélisation de la boucle élémentaire à l'intérieur de la boucle déjà parallélisée. Nous avons démontré que ce second niveau de parallélisme est moins performant que celui à un seul niveau. Cependant, ce parallélisme imbriqué pourrait être intéressant sur les architectures Xeon Phi de Intel intégrant des cœurs hyper-threadés au niveau de leurs unités de calcul
The current parallel architectures integrate processors with many cores to shared memory growing and responding to specific usage constraints, particularly in the cache management. To take advantage of this power, a unique distributed memory parallelism, to manage the inter-node communications is not directly adapted to the characteristics of multi-core architectures. In addition, the shared memory computing environments offer techniques for balancing the load among available cores more appropriate than those in a distributed memory context.Thus, programming models like OpenMP and KAAPI is a tailored response to the specific characteristics of these architectures.Given these issues, we are interested in developing a hardware-aware approach taking into consideration the hierarchical organization of parallel architectures with shared memory. Our approach provides an optimization model for the use of storage space in this context of parallelism.To prove the pertinence of this approach, we have implemented it in the fast dynamic simulation software EUROPLEXUS of fluids and structures, focusing on the shared memory parallelism complementary to the distributed memory approach developed elsewhere. Because of its wide range of applications, EUROPLEXUS is characterized by a very rich data structure and very complex dependencies among its routines. We focused on accelerating the main loop iterating over the mesh elements. The heterogeneity of the formulations and the materials of the elements that can co-exist in the same simulated model generates a large variability between the costs of the iterations of this loop. A first parallelization of the loop with the XKAAPI library based on a dynamic workstealing scheduling has been implemented. However, despite the acceleration achieved by the parallel implementation, performance has been restrained by frequent and dispersed access costs to a complex data structure. This makes the implementation of the code difficult to optimize. Because of this structure, much of the execution time has elapsed in cache misses. The work is based on the implementation of a model approximating the data structure that ensures a better access locality. It mainly consists in moving from the global data structure in which the physical fields are stored in separate tables to a structure based on the storage of data in independent structures called groups. These groups contain the data relating to a number of elements in the local tables. This number is an adjustable parameter depending on the size of the cache levels. Specifically, this method returns to the nest of the elementary loop in a loop iterating on groups. The iterations among the groups are distributed over the cores of the architecture.The execution of the inner loop is sequentially by core. The best results are obtained for groups of the L2 cache size. For this particular size, the use of a dynamic load balancing in XKAAPI allowed us to double the acceleration of the elementary loop compared to the reference version of the code. The second part of this thesis is based on the parallelization of elementary loop inside the already parallelized loop. We demonstrated that this second level of parallelism is less efficient than the single. However, this nested parallelism might be interesting on Intel Xeon Phi architectures incorporating hyper-threaded cores at their calculation units
13

Bamha, Mostafa. "Parallélisme et équilibrage de charges dans le traitement de la jointure et de la multi-jointure sur des architectures SN." Orléans, 2000. http://www.theses.fr/2000ORLE2001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'interet du traitement parallele devient tres fort dans les applications qui exigent des performances de plus en plus elevees et en particulier dans les applications de bases de donnees, des entrepots de donnees et d'aide a la decision. Le parallelisme peut considerablement augmenter les performances de telles applications. Toutefois il n'est utile qu'en presence d'algorithmes realisant des requetes complexes sur des donnees dynamiques, irregulieres et distribuees. De tels algorithmes doivent etre concus pour repartir de maniere equitable la charge des differents processeurs tout en reduisant au minimum les couts des calculs locaux et de communication inherents aux machines multi-processeurs. Les recherches ont montre que l'operation de jointure ne peut etre parallelisable avec une acceleration lineaire sur des architectures shared nothing que sous des conditions ideales d'equilibre des donnees. Le desequilibre des donnees peut avoir un effet devastateur sur la performance. Dans le cadre de cette these, nous nous interessons au probleme d'equilibre de charge pour le traitement de la jointure et de la multi-jointure sur des architecture shared nothing. Dans ce contexte, avons propose une variete d'algorithmes pour le traitement de la jointure et la multi-jointure permettant de reduire les couts de redistribution (et donc les couts de communication) tout en traitant de maniere tres efficace les problemes de desequilibre des valeurs de l'attribut de jointure et des resultats de jointures. Nous avons etendu notre etude aux applications d'entrepots de donnees par la proposition d'un algorithme efficace pour la maintenance des vues materialisees dans un environnement shared nothing. L'analyse de complexite des differents algorithmes
14

Le, Pape Cécile. "Contrôle de qualité des données répliquées dans un Cluster." Paris 6, 2005. http://www.theses.fr/2005PA066433.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Predari, Maria. "Load balancing for parallel coupled simulations." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0369/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte du calcul scientique, l'équilibrage de la charge est un problème crucial qui conditionne la performance des simulations numériques parallèles. L'objectif est de répartir la charge de travail entre un nombre de processeurs donné, afin de minimiser le temps global d'exécution. Une stratégie populaire pour résoudre ce problème consiste à modéliser la simulation à l'aide d'un graphe et à appliquer des algorithmes de partitionnement. En outre, les simulations numériques tendent à se complexifier, notamment en mixant plusieurs codes représentant des physiques différentes ou des échelles différentes. On parle alors de couplage de codes multi-physiques ou multi-échelles. Dans ce contexte, le problème de l'équilibrage de charge devient également plus difficile, car il ne s'agit plus d'équilibrer chacun des codes séparément, mais l'ensemble de ces codes pris dans leur globalité. Dans ce travail, on propose de resoudre ce problème en utilisant le modèle de partitionnement à sommets fixes qui pourrait représenter efficacement les contraintes supplémentaires imposées par les codes couplés (co-partitionnement). Nous avons donc développé un algorithme direct de partitionnement de graphe qui gère des sommets fixes. L'algorithme a été implémenté dans le partitionneur Scotch et une série d'expériences ont été menées sur la collection des graphes DIMACS. Ensuite nous avons proposé trois algorithmes de co-partitionnement qui respectent les contraintes issues des codes couplés respectifs. Nous avons egalement validé nos algorithmes par une étude expérimentale en comparant nos méthodes aux strategies actuelles sur des cas artificiels ainsi que sur des codes réels couplés
Load balancing is an important step conditioning the performance of parallel applications. The goal is to distribute roughly equal amounts of computational load across a number of processors, while minimising interprocessor communication. A common approach to model the problem is based on graph structures and graph partitioning algorithms. Moreover, new challenges involve the simulation of more complex physical phenomena, where different parts of the computational domain exhibit different physical behavior. Such simulations follow the paradigm of multi-physics or multi-scale modeling approaches. Combining such different models in massively parallel computations is still a challenge to reach high performance. Additionally, traditional load balancing algorithms are often inadequate, and more sophisticated solutions should be explored. In this thesis, we propose new graph partitioning algorithms that balance the load of such simulations, refered to as co-partitioning. We formulate this problem with the use of graph partitioning with initially fixed vertices which we believe represents efficiently the additional constraints of coupled simulations. We have therefore developed a direct algorithm for graph partitioning that manages successfully problems with fixed vertices. The algorithm is implemented inside Scotch partitioner and a series of experiments were carried out on the DIMACS graph collection. Moreover we proposed three copartitioning algorithms that respect the constraints of the respective coupled codes. We finally validated our algorithms by an experimental study comparing our methods with current strategies on artificial cases and on real-life coupled simulations
16

Li, Pei. "Unified system of code transformation and execution for heterogeneous multi-core architectures." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0441/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Architectures hétérogènes sont largement utilisées dans le domaine de calcul haute performance. Cependant, le développement d'applications sur des architectures hétérogènes est indéniablement fastidieuse et sujette à erreur pour un programmeur même expérimenté. Pour passer une application aux architectures multi-cœurs hétérogènes, les développeurs doivent décomposer les données de l'entrée, gérer les échanges de valeur intermédiaire au moment d’exécution et garantir l'équilibre de charge de système. L'objectif de cette thèse est de proposer une solution de programmation parallèle pour les programmeurs novices, qui permet de faciliter le processus de codage et garantir la qualité de code. Nous avons comparé et analysé les défauts de solutions existantes, puis nous proposons un nouvel outil de programmation STEPOCL avec un nouveau langage de domaine spécifique qui est conçu pour simplifier la programmation sur les architectures hétérogènes. Nous avons évalué la performance de STEPOCL sur trois cas d'application classiques : un stencil 2D, une multiplication de matrices et un problème à N corps. Le résultat montre que : (i) avec l'aide de STEPOCL, la performance d'application varie linéairement selon le nombre d'accélérateurs, (ii) la performance de code généré par STEPOCL est comparable à celle de la version manuscrite. (iii) les charges de travail, qui sont trop grandes pour la mémoire d'un seul accélérateur, peuvent être exécutées en utilisant plusieurs accélérateurs. (iv) grâce à STEPOCL, le nombre de lignes de code manuscrite est considérablement réduit
Heterogeneous architectures have been widely used in the domain of high performance computing. However developing applications on heterogeneous architectures is time consuming and error-prone because going from a single accelerator to multiple ones indeed requires to deal with potentially non-uniform domain decomposition, inter-accelerator data movements, and dynamic load balancing. The aim of this thesis is to propose a solution of parallel programming for novice developers, to ease the complex coding process and guarantee the quality of code. We lighted and analysed the shortcomings of existing solutions and proposed a new programming tool called STEPOCL along with a new domain specific language designed to simplify the development of an application for heterogeneous architectures. We evaluated both the performance and the usefulness of STEPOCL. The result show that: (i) the performance of an application written with STEPOCL scales linearly with the number of accelerators, (ii) the performance of an application written using STEPOCL competes with an handwritten version, (iii) larger workloads run on multiple devices that do not fit in the memory of a single device, (iv) thanks to STEPOCL, the number of lines of code required to write an application for multiple accelerators is roughly divided by ten
17

Benkrid, Soumia. "Le déploiement, une phase à part entière dans le cycle de vie des entrepôts de données : application aux plateformes parallèles." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0027/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d’un entrepôt de données parallèle consiste à choisir l’architecture matérielle,à fragmenter le schéma d’entrepôt de données, à allouer les fragments générés, à répliquer les fragments pour assurer une haute performance du système et à définir la stratégie de traitement et d’équilibrage de charges. L’inconvénient majeur de ce cycle de conception est son ignorance de l’interdépendance entre les sous-problèmes liés à la conception d’un EDP et l’utilisation des métriques hétérogènes pour atteindre le même objectif. Notre première proposition définie un modèle de coût analytique pour le traitement parallèle des requêtes OLAP dans un environnement cluster. Notre deuxième proposition prend en considération l’interdépendance existante entre la fragmentation et l’allocation. Dans ce contexte, nous avons proposé une nouvelle approche de conception d’un EDP sur un cluster de machine. Durant le processus de fragmentation, notre approche décide si le schéma de fragmentation généré est pertinent pour le processus d’allocation. Les résultats obtenus sont très encourageant et une validation est faite sur Teradata. Notre troisième proposition consiste à présenter une méthode de conception qui est une extension de notre travail. Dans cette phase, une méthode de réplication originale, basée sur la logique floue, est intégrée
Designing a parallel data warehouse consists of choosing the hardware architecture, fragmenting the data warehouse schema, allocating the generated fragments, replicating fragments to ensure high system performance and defining the treatment strategy and load balancing.The major drawback of this design cycle is its ignorance of the interdependence between subproblems related to the design of PDW and the use of heterogeneous metrics to achieve thesame goal. Our first proposal defines an analytical cost model for parallel processing of OLAP queries in a cluster environment. Our second takes into account the interdependence existing between fragmentation and allocation. In this context, we proposed a new approach to designa PDW on a cluster machine. During the fragmentation process, our approach determines whether the fragmentation pattern generated is relevant to the allocation process or not. The results are very encouraging and validation is done on Teradata. For our third proposition, we presented a design method which is an extension of our work. In this phase, an original method of replication, based on fuzzy logic is integrated
18

Epimakhov, Igor. "Allocation des ressources pour l'optimisation de requêtes dans les systèmes de grille de données." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2017/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de grille de données sont de plus en plus utilisés grâce à leur capacité de stockage et de calcul. L'un des problèmes importants de ces systèmes est l'allocation de ressources pour l'optimisation de requêtes SQL. Récemment, la communauté scientifique a publié plusieurs approches et méthodes d'allocation de ressources, en s'efforçant de tenir compte des différentes spécificités de systèmes de grille de données : l'hétérogénéité, l'instabilité du système et la grande échelle. La structure de gestion centralisée prédomine dans les méthodes proposées, malgré les risques encourus par cette solution dans les systèmes à grande échelle. Dans cette thèse nous proposons une méthode d'allocation de ressources hybride et décentralisée pour l'optimisation d'une requête. La partie statique de notre méthode constitue la stratégie d'allocation initiale de ressources par un 'broker' d'une requête. Quant à la partie dynamique, nous proposons une stratégie, qui utilise la coopération entre des opérations relationnelles mobiles autonomes et des coordinateurs stationnaires des nœuds pour décentraliser le processus de réallocation dynamique de ressources. Les éléments clés de notre méthode sont : (i) la limitation de l'espace de recherche pour résoudre les problèmes causés par la grande échelle, (ii) le principe de répartition des ressources entre les opérations d'une requête pour déterminer le degré de parallélisme des opérations et pour équilibrer la charge dynamiquement et (iii) la décentralisation du processus d'allocation dynamique. Les résultats de l'évaluation des performances de notre méthode montrent l'efficacité de nos propositions. Notre stratégie d'allocation initiale de ressources a donné des résultats supérieurs à la méthode de référence que nous avons utilisée pour la comparaison. La stratégie de réallocation dynamique de ressources réduit notablement le temps de réponse en présence de l'instabilité du système et du déséquilibre de charge
Data grid systems are utilized more and more due to their storage and computing capacities. One of the main problems of these systems is the resource allocation for SQL query optimization. Recently, the scientific community published numerous approaches and methods of resource allocation, striving to take into account different peculiarities of data grid systems: heterogeneity, instability and large scale. Centralized management structure predominates in the proposed methods, in spite of the risks incurred of the solution in the large scale systems. In the thesis we adopt the hybrid approach of resource allocation for query optimization, meaning that, we first make a static resource allocation during the query compile time, and then reallocate the resources dynamically during the query runtime. As opposed to the previously proposed methods, we use a decentralized management structure. The static part of our method consists of the strategy of initial resource allocation with a query 'broker'. As for the dynamic part, we propose a strategy that uses the cooperation between relational mobile operations and stationary coordinators of nodes in order to decentralize the process of dynamic resource reallocation. Key elements of our method are: (i) limitation of research space for resolve problems caused by the large scale, (ii) principle of resources distribution between query operations for determining the parallelism degree of operations and for balancing the load dynamically and (iii) decentralization of the dynamic allocation process. Results of performance evaluation show the efficiency of our propositions. Our initial resource allocation strategy gives results superior to the referenced method that we used for the comparison. The dynamic reallocation strategy decrease considerably the response time in the presence of the system instability and load misbalance
19

Yesse, Thierry. "Etude du parallélisme massif appliquée à la visualisation interactive de grandes bases de données scientifiques." Rouen, 1998. http://www.theses.fr/1998ROUES086.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un moyen de validation et d'interprétation des résultats de calcul numérique intensif est la visualisation graphique. Les exigences de plus grandes précisions conduisent à générer et à traiter des masses importantes de données de l'ordre de plusieurs centaines de millions à quelques dizaines de milliards d'informations et ce, dans des délais courts. Nous avons proposé différents moyens et méthodes permettant d'accélérer le processus de visualisation graphique sur machines à parallélisme massif. Cela va de l'acquisition des données sur disque, à leur traitement où le volume de données peut être bien supérieur à l'espace mémoire, jusqu'au moyen pratique d'appréhender les résultats affichés. Ainsi, nous avons étudié dans un premier temps les moyens de mieux exploiter le potentiel de la machine parallèle ; puis, dans un second temps nous avons complété la visualisation interactive par le traitement des grandes bases de données. C'est après avoir analysé et quantifié les performances des diverses possibilités de répartition en mémoire distribuée, en ayant pris connaissance des différents modèles de représentation visuelle de données scientifiques, que nous avons proposé le meilleur compromis pour placer les données en mémoire pour la visualisation graphique : la 7-views. La base de données est un ensemble d'objets ou DPO dans un espace topologique de processeurs virtuels. L'activité de ces processeurs est régie par l'évolution dynamique des DPO suite aux requêtes de l'utilisateur. L'introduction des processus d'équilibrage de charge à différents niveaux du traitement graphique, a permis de diviser jusqu'a 300 certains temps de traitement sur la MP-1 de 16 k processeurs. Nous avons proposé de nouveaux algorithmes principalement l'expansion-pixel et l'expansion-objet. Les modèles volumiques Maille et Voxelise présentent des qualités particulières en visualisation scientifique. Ils nécessitent néanmoins différents post-traitements pour répondre à l'interactivité des données de grandes tailles. Nous avons développé, dans cette seconde partie du document, un moyen de gérer les données dans une mémoire virtuelle partagée. Celui-ci s'articule autour d'une décomposition automatique des données à la fois en cellules et en niveaux de détails. Enfin, l'exploitation systématique d'un double fenêtrage, permet des investigations plus pratiques et plus conviviales de la masse d'information : il s'agit du concept de fenêtres duales.
20

Kacimi, Rahim. "Techniques de conservation d'énergie pour les réseaux de capteurs sans fil." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT035H/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès technologiques réalisés ces dernières années ont permis le développement de nouveaux types de capteurs dotés de moyens de communication sans fil, peu onéreux et pouvant être configurés pour former des réseaux autonomes. Les domaines d'application sont nombreux : domotique, santé, domaine militaire ou bien encore surveillance de phénomènes environnementaux. Les limites imposées sont la limitation des capacités de traitement, de stockage et surtout d'énergie. La liberté laissée à l'implantation est forte et impose de concevoir complètement l'infrastructure, les mécanismes et les protocoles en fonction de l'application visée. Dans cette thèse, nous nous sommes tout d'abord focalisés sur des réseaux de petites tailles. Nous avons conçu une solution protocolaire "Placide" pour le suivi de la chaîne du froid proposée dans le cadre du projet ANR-CAPTEURS. L'originalité première de la solution repose sur l'absence d'infrastructure et de Station de Base. Elle est composée de protocoles performants fondés sur la formation d'un anneau virtuel entre les noeuds, auto-organisants et très économes en énergie. Le second axe est dédié à une étude expérimentale de la qualité du lien.L'objectif est double. Nous souhaitions tout d'abord étayer certaines hypothèses effectuées dans la première partie du travail. Il s'agissait ensuite de proposer des protocoles et des algorithmes fondés sur la qualité du lien. Nous nous sommes focalisés sur la variation de la qualité du lien en fonction de la distance entre les noeuds et de la puissance de transmission. Par la suite, l'impact de la qualité du lien sur la topologie du réseau a été étudiée. Les retours d'expérience sont importants quant à la compréhension des facteurs affectant la durée de vie du réseau. La dernière contribution concerne l'exploitation de ces observations en proposant des stratégies de partage decharge. Notre idée est que des protocoles très réduits et des mécanismes simples peuvent être mis en oeuvre pour le routage. Nous illustrons ces principes au travers d'exemples pour lesquels nous montrons la supériorité de ces solutions par rapport à des routages de type plus court chemin
Technological advances during the last few years allowed the development of new and cheap sensors equiped with wireless communication which can be configured to form autonomous networks. The application areas for wireless sensor networks (WSN) are various: home automations, health care services, military domain, and environment monitoring. The imposed constraints are limited capacity of processing, storage, and especially energy. In addition, implementing WSN solutions is highly open and requires that the infrastructure, the mechanisms and the protocols should be completely designed based on each specific application.In this thesis, we first focused on small networks. We designed « Placide », a protocol stack solution for cold chain monitoring proposed within the ANR-CAPTEURS project. The first originality of this solution is based on the absence of infrastructure and base stations. « Placide » is composed of self-organizing and energy-efficient protocols based on a virtual ring construction between nodes. The second topic is devoted to an experimental study on Link Quality Indicator (LQI). There are two main objectives. Firstly, we want to endorse our precise assumptions of the first part of the work. Secondly, our poposed link quality based protocols and algorithms willbe described. We focused on LQI variations according to distance between nodes and transmission power.Thereafter, the impact of LQI on the network topology has been studied. Feedbacks are important to understand which factors affect the network lifetime. The last contribution relates to the use of these observations by proposing load balancing strategies. Our idea is that very reduced protocols and simple mechanisms can be used in routing protocols. We illustrate these principles through simple examples where we show the superiority of these solutions compared to standard routing like shortest path for example
21

Doghri, Inès. "Stratégies de routage multi-chemin dans les réseaux sans fil multi-sauts." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00828394.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un réseau sans fil multi-saut est un ensemble d'entités mobiles et/ou fixes formant un réseau dynamique temporaire avec ou sans l'aide de toute administration centralisée. Cette particularité rend le routage problématique en cas d'instabilité des éléments qui composent les communications non directes. Afin de palier ces problèmes, de nouvelles formes de routage sont utilisées comme le routage multi-chemin (MC). Le routage MC permet d'envoyer les données sur des chemins multiples et semble être une solution efficace pour ces réseaux. Le but de cette thèse est d'étudier les techniques de routage MC dans un contexte sans fil multi-saut en vue d'obtenir de meilleures performances. Nous avons choisi pour notre étude une extension MC du protocole OLSR, appelée MP-OLSR. Nous évaluons ses performances sous divers scénarios sous NS-2. Ces tests d'évaluation nous ont amenés à mettre en 'evidence deux problèmes dans MP-OLSR : la réactivité du protocole de routage MC suite à des ruptures de route et la stratégie de répartition des données sur les chemins multiples. Nous avons étudié la réactivité de tels mécanismes dans MP-OLSR. Nous avons proposé trois nouvelles techniques de réparation de pannes qui diminuent les temps de rétablissement d'une route et réduisent le taux de perte des flux transmis. Nous proposons aussi un mécanisme qui détecte la dégradation de la qualité des liens durant le transfert d'un trafic de données. Les informations déduites de ce mécanisme servent à adapter la proportion de trafic à affecter à chaque chemin selon les conditions réseaux. Cette nouvelle variante du protocole MP-OLSR est évaluée par simulation.
22

Meslmawy, Mahdi Abed Salman. "Efficient ressources management in a ditributed computer system, modeled as a dynamic complex system." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0007/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les grilles et les clouds sont deux types aujourd'hui largement répandus de systèmes informatiques distribués (en anglais DCS). Ces DCS sont des systèmes complexes au sens où leur comportement global émergent résulte de l'interaction décentralisée de ses composants, et n'est pas guidée directement de manière centralisée. Dans notre étude, nous présentons un modèle de système complexe qui gère de manière la plus efficace possible les ressources d'un DCS. Les entités d'un DCS réagissent à l'instabilité du système et s'ajustent aux conditions environnementales pour optimiser la performance du système. La structure des réseaux d'interaction qui permettent un accès rapide et sécurisé aux ressources disponibles est étudiée, et des améliorations proposées
Grids and clouds are types of currently widely known distributed computing systems or DCSs. DCSs are complex systems in the sense that their emergent global behavior results from decentralized interaction of its parts and is not guided directly from a central point. In our study, we present a complex system model that efficiently manages the ressources of a DCS. The entities of the DCS react to system instability and adjust their environmental condtions for optimizing system performance. The structure of the interaction networks that allow fast and reliable access to available resources is studied and improvements ar proposed
23

Aravinthan, Gopalasingham. "SDN based service oriented control approach for future radio access networks." Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le SDN (Software-Defined Networking) émerge comme une nouvelle architecture pour la programmation des réseaux. A l'origine, l'idée du SDN est de déplacer le plan de contrôle à l'extérieur des équipements, et de permettre ainsi un contrôle déporté de l'ensemble depuis une entité logicielle logique nommée "contrôleur". Le principal avantage d'une telle approche est de centraliser donc toute l'intelligence de gestion du réseau dans le contrôleur, qui s'appuie pour cela sur des protocoles standard et assure par ce biais la reprogrammation de la totalité de la partie du réseau sous son contrôle. L'évolution technologique vers le SDN est toujours en cours dans des scénarios de déploiement programmable et flexible des réseaux mobiles. Le NFV (Network Function Virtualization) est le processus de déplacement ou de migration des fonctions réseau d'un équipement dédié de réseau vers des serveurs génériques dans le Cloud. Les SDN et NFV sont deux technologies étroitement liées qui sont souvent utilisées ensemble. Le couplage fort entre les plans de contrôle et de données, ainsi que les limitations en matière de passage à l'échelle et de flexibilité, font que la virtualisation des réseaux mobiles actuels nécessite non seulement l'utilisation du Cloud Computing mais aussi les récentes innovations telles que SDN et NFV pour pouvoir permettre un déploiement à la demande des services réseaux (Network-as-a-Service) aux utilisateurs. Les lignes de recherche globales de cette thèse s'inscrivent dans deux principaux cas d'utilisation. Ces cas d'utilisation, bien qu'appelés de la "prochaine génération de réseaux mobiles", sont le "Telco" et le "Vertical", qui apparaissent ici couplés, les deux étant traditionnellement complètement séparés. Dans les cas d'utilisation de "télécommunications", nous exploitons les avantages de SDN pour avoir un cadre de contrôle flexible pour les réseaux d'auto-organisation (SON) et la division de traitement dynamique des utilisateurs. Dans le cas d'utilisation de "verticale", nous appliquons divers avantages du protocole SDN et OpenFlow pour utiliser efficacement les ressources radio du réseau de backhaul dans le système de communication train-sol. Notre cadre d'étude du SDN, en général, peut être une solution efficace et alternative pour la gestion RAN (Radio Access Network), c'est-à-dire pour des objectives comme l'optimisation des ressources radio, l'optimisation du réseau, la gestion de la mobilité et l'équilibrage de la charge, peuvent être atteint avec ce cadre. Grâce à l'analyse et l'expérimentation concrète des SDN et NFV pour le RAN, nous montrons que les solutions proposées dans ce travail peuvent apporter un faisceau d'avantages évidents aux réseaux mobiles tels que la flexibilité, la programmabilité, la gestion unifiée et la mise en œuvre de nouveaux services
Software-Defined Networking (SDN) has emerged as a new intelligent architecture for network programmability. The primary idea behind SDN is to move the control-plane outside the switches and enable external control of data-plane through a logical software entity called controller. Such approach benefits mobile network management by brining complete intelligence to the logically centralized controller. Network Function Virtualization (NFV) is the process of relocating or migrating network functions from dedicated hardware to generic servers. SDN and NFV are two closely related technologies that are often used together. The traditional mobile network architecture due to its strongest coupling between control and data planes along with limitations in scalability and flexibility requires the usage of cloud computing along with the recent revolutionary approaches in networking such as SDN and NFV to have an architecture that deploys on demand "Network-as-a-Service" for users. The global research focus of this thesis falls in to two main use cases of next generation mobile networks such as Telco and Vertical. In the telco use cases, we exploit the advantages of SDN to have flexible control framework for both Self-Organizing Networks (SON) and dynamic user processing split. In vertical use case, we apply various advantages of SDN and OpenFlow protocol to efficiently utilize the scare radio resources of wireless backhaul network in the train-to-ground communication system. Our SDN framework in general can be an efficient and alternative solution for RAN management i.e. Radio Optimization, Network Optimization, Mobility Management and Load Balancing can be achieved with such framework. Through analysis and experimentation of SDN frameworks for RAN, we shows that the proposed solutions can bring set of advantages to wireless networks such as flexibility, programmability, unified management, and enables new services
24

Hermann, Everton. "Simulations physiques interactives sur des architectures multi-core et multi-GPU." Grenoble, 2010. http://www.theses.fr/2010GRENM029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La simulation physique interactive est une composante clé pour les environnements virtuels. Toutefois, la quantité de calcul ainsi que la complexité du code augmente rapidement avec la variété, le nombre et la taille des objets simulés. Au cours de cette thèse nous avons étudié les différents moyens d'améliorer l'interactivité, et en même temps de minimiser l'impact sur le code de simulation. En premier lieu nous avons développé une nouvelle approche de détection de collisions pour les objets déformables qui est rapide et plus robuste que les approches traditionnelles de détection par proximité. Pour tirer profit des machines multi-core, nous proposons une approche de parallélisation qui repose sur un parallélisme des tâches. Avant l'éxecution d'un pas de temps nous extrayons un graphe de dépendance de tâche qui est partitionné pour définir la répartition des tâches entre les processeurs. Cette approche a un faible impact sur les algorithmes de simulation physique étant donné que le parallélisme est obtenu en changeant uniquement le code d'orchestration du lancement des tâches. Finalement, nous avons étendu nos travaux aux architectures multi-CPU et multi-GPU. L'utilisation de ces ressources de manière efficace et transparente est un enjeu de taille. Nous proposons un schéma de parallélisation pour l'équilibrage dynamique de charge entre plusieurs CPUs et GPUs. Nous nous appuyons sur une approche à deux niveaux associant un partitionement du graphe de tâches et l'équilibrage de charge par l'utilisation du vol de travail guidé par des critères d'affinité entre processeurs. Ces critères visent à limiter les migrations de taches entre les unités de calcul, et de favoriser l' association de petites tâches sur les processeurs et des grandes sur les GPU pour tirer parti de l'hétérogénéité
Interactive physical simulation is a key component of realistic virtual environments. However, the amount of computations as well as the code complexity grow quickly with the variety, number and size of the simulated objects. During this thesis we studied the different ways to improve interactivity, with the constraint of minimizing the impact in the simulation code. We started by developing a new approach to collision detection between deformable bodies that allows deep intersections. Experiments show that this approach is fast and more robust than traditional proximity-based collisions, allowing physical simulations to employ large time steps. To take profit of multi-core machines, we propose a parallelization approach that relies on a task parallelism. Prior to running a simulation step, we extract a task dependency graph that is partitioned to define the task distribution between processors. This approach has a low impact on physics algorithms as parallelism is mainly extracted from the coordination code. Finally we extended our works multi-CPU and multi-GPU architectures. Using these resources efficiently in a seamless way is a challenging issue. We propose a parallelization scheme for dynamically balancing work load between multiple CPUs and GPUs. We rely on a two level scheduling associating a traditional task graph partitioning and a work stealing guided by processor affinity and heterogeneity. These criteria are intended to limit inefficient task migrations between GPUs, the cost of memory transfers being high, and to favor mapping small tasks on CPUs and large ones on GPUs to take advantage of heterogeneity
25

Wion, Adrien. "Control plane in dynamic software networks." Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours de ces dernières années, les réseaux se sont transformés passant d'une infrastructure à base de matériel dédié implémentant des fonctions statiques à des solutions logicielles plus flexibles. D'un côté, le SDN (Software Defined Networks) permet de contrôler les opérations de transmission, alors que de l'autre le NFV (Network Function Virtualization) crée des fonctions élastiques qui peuvent s'adapter à la demande. Jusqu'à présent, ces solutions ont été utilisées pour simplifier la gestion et l'exploitation des réseaux mais elles laissent également envisager un réseau qui peut automatiquement réagir à des événements réseaux. Dans cette thèse, nous explorons dans quelle mesure ces nouveaux réseaux logiciels peuvent être utilisés pour s'adapter à la dynamique inhérentes aux réseaux. Notre première contribution s'intéresse au chaînage de service, c'est à dire la capacité de diriger des flux de données à travers un ensemble de points intermédiaires, qui hébergent des fonctions, avant d'atteindre leur destination. Nous montrons qu'un plan de contrôle distribué, qui s'appuie sur les protocoles de routage existants et qui est constitué par des noeuds autonomes, peut dynamiquement diriger le trafic à travers des chaines de services. Notre solution adapte sa décision au trafic sur le réseau et équilibre automatiquement la charge induite sur les fonctions présentes sur le réseau. De plus, notre proposition, au contraire des solutions existantes, peut être déployée progressivement dans les réseaux actuels. Dans notre seconde contribution, nous comparons deux types de décision de chaînage : une approche centralisée avec une vue de bout en bout de la chaîne et une approche distribuée qui dirige uniquement les flux d'une fonction à l'autre. Nous montrons que ces deux décisions sont proches dans des topologies réalistes. Ainsi, un chaînage saut par saut pourrait être utilisé sans affecter les performances du réseau.Finalement, nous explorons comment les réseaux logiciels peuvent réagir à la dynamique des réseaux dans les centres de données. Jusqu'à présent, des équilibreurs de charges utilisaient des politiques statiques afin de répartir le trafic sur les serveurs, ce qui amenait du déséquilibre et gâchait des ressources. Nous proposons d'asservir le système et d'adapter dynamiquement la politique à la variation de charge des serveurs. Notre approche MPC (Model Predictive Control) est efficace afin de réduire le déséquilibre de charge à une basse fréquence de contrôle améliorant ainsi le nombre de requêtes qu'un ensemble de serveur peut traiter
During the last years, network infrastructure has moved from dedicated-hardware solutions implementing fixed functions to more flexible software based ones. On one hand, SDN (Software Defined Network) can flexibly control forwarding operations, while on the other, NFV (Network Function Virtualization) creates elastic functions that can scale with the user demands. So far, these solutions have been used to simplify network management and operations, but they let envision a network that can automatically react to network events. In this thesis, we explore to what extent these new software networks can be used to react and adapt finely to the network dynamics.Our first contribution focuses on service chaining: the ability to steer flows through a set of waypoints hosting functions before they reach their destinations. We show that a distributed control plane that relies on existing routing protocols and is constituted by autonomous nodes can dynamically steer traffic through chains of services. Our solution finely adapts its decision to the network traffic and automatically balances the induced load on the functions present in the network. Moreover, our proposal, contrary to existing solutions, can be incrementally deployed in today's network.In our second contribution, we compare two types of chaining decisions: a centralized one with an end-to-end view of the chain and a distributed approach that solely routes flow from a function to another. We show that the two decisions are close in realistic topologies. Thus, hop-by-hop chaining could be used without affecting chaining performance. Finally, we explore how software networks can react to network dynamics in datacenters. So far, load balancers use static policies to spread incoming traffic on servers, which leads to imbalance and overprovisioning. We propose to close the loop and dynamically adapt the policy to the server load variation. Our MPC (Model Predictive Control) approach proved to be efficient to reduce load imbalance at a slow pace, thus improving the number of requests a cluster can process
26

Kamel, Mouna. "Equilibrage des charges : application a un environnement de bases d'objets." Toulouse 3, 1991. http://www.theses.fr/1991TOU30050.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour ameliorer les performances d'un systeme distribue, nous proposons deux algorithmes d'equilibrage des charges, l'un fournissant une solution optimale avec une complexite exponentielle, le second une solution sous-optimale en un temps polynomial. Nous appliquons ces algorithmes a un environnement de bases d'objets. En effet, les nouveaux besoins en bases de donnees necessitent beaucoup de ressources de par la complexite des applications. Nous utilisons la notion de parallelisme du modele acteur pour degager des unites de traitements qui pourront etre executees en parallele
27

Gou, Changjiang. "Task Mapping and Load-balancing for Performance, Memory, Reliability and Energy." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se concentre sur les problèmes d'optimisation multi-objectifs survenant lors de l'exécution d'applications scientifiques sur des plates-formes de calcul haute performance et des applications de streaming sur des systèmes embarqués. Ces problèmes d'optimisation se sont tous avérés NP-complets, c'est pourquoi nos efforts portent principalement sur la conception d'heuristiques efficaces pour des cas généraux et sur la proposition de solutions optimales pour des cas particuliers.Certaines applications scientifiques sont généralement modélisées comme des arbres enracinés. En raison de la taille des données temporaires, le traitement d'une telle arborescence peut dépasser la capacité de la mémoire locale. Une solution pratique sur un système multiprocesseur consiste à partitionner l'arborescence en plusieurs sous-arbres, et à exécuter chacun d'eux sur un processeur, qui est équipé d'une mémoire locale. Nous avons étudié comment partitionner l'arbre en plusieurs sous-arbres de sorte que chaque sous-arbre tienne dans la mémoire locale et que le makespan soit minimisé, lorsque les coûts de communication entre les processeurs sont pris en compte. Ensuite, un travail pratique d'ordonnancement d'arbres apparaissant dans un solveur de matrice clairsemée parallèle est examiné. L'objectif est de minimiser le temps de factorisation en présentant une bonne localisation des données et un équilibrage de charge. La technique de cartographie proportionnelle est une approche largement utilisée pour résoudre ce problème d'allocation des ressources. Il réalise une bonne localisation des données en affectant les mêmes processeurs à de grandes parties de l'arborescence des tâches. Cependant, cela peut limiter l'équilibrage de charge dans certains cas. Basé sur une cartographie proportionnelle, un algorithme d'ordonnancement dynamique est proposé. Il assouplit le critère de localisation des données pour améliorer l'équilibrage de charge. La performance de notre approche a été validée par de nombreuses expériences avec le solveur direct à matrice clairsemée parallèle PaStiX. Les applications de streaming apparaissent souvent dans les domaines vidéo et audio. Ils se caractérisent par une série d'opérations sur le streaming de données et un débit élevé. Le système multiprocesseur sur puce (MPSoC) est un système embarqué multi / plusieurs cœurs qui intègre de nombreux cœurs spécifiques via une interconnexion haute vitesse sur une seule puce. De tels systèmes sont largement utilisés pour les applications multimédias. De nombreux MPSoC fonctionnent sur piles. Un budget énergétique aussi serré nécessite intrinsèquement un calendrier efficace pour répondre aux demandes de calcul intensives. La mise à l'échelle dynamique de la tension et de la fréquence (DVFS) peut économiser de l'énergie en diminuant la fréquence et la tension au prix d'une augmentation des taux de défaillance. Une autre technique pour réduire le coût énergétique et atteindre l'objectif de fiabilité consiste à exécuter plusieurs copies de tâches. Nous modélisons d'abord les applications sous forme de chaînes linéaires et étudions comment minimiser la consommation d'énergie sous des contraintes de débit et de fiabilité, en utilisant DVFS et la technique de duplication sur les plates-formes MPSoC.Ensuite, dans une étude suivante, avec le même objectif d'optimisation, nous modélisons les applications de streaming sous forme de graphes série-parallèle, plus complexes que de simples chaînes et plus réalistes. La plate-forme cible dispose d'un système de communication hiérarchique à deux niveaux, ce qui est courant dans les systèmes embarqués et les plates-formes informatiques hautes performances. La fiabilité est garantie par l'exécution des tâches à la vitesse maximale ou par la triplication des tâches. Plusieurs heuristiques efficaces sont proposées pour résoudre ce problème d'optimisation NP-complet
This thesis focuses on multi-objective optimization problems arising when running scientific applications on high performance computing platforms and streaming applications on embedded systems. These optimization problems are all proven to be NP-complete, hence our efforts are mainly on designing efficient heuristics for general cases, and proposing optimal solutions for special cases.Some scientific applications are commonly modeled as rooted trees. Due to the size of temporary data, processing such a tree may exceed the local memory capacity. A practical solution on a multiprocessor system is to partition the tree into many subtrees, and run each on a processor, which is equipped with a local memory. We studied how to partition the tree into several subtrees such that each subtree fits in local memory and the makespan is minimized, when communication costs between processors are accounted for.Then, a practical work of tree scheduling arising in parallel sparse matrix solver is examined. The objective is to minimize the factorization time by exhibiting good data locality and load balancing. The proportional mapping technique is a widely used approach to solve this resource-allocation problem. It achieves good data locality by assigning the same processors to large parts of the task tree. However, it may limit load balancing in some cases. Based on proportional mapping, a dynamic scheduling algorithm is proposed. It relaxes the data locality criterion to improve load balancing. The performance of our approach has been validated by extensive experiments with the parallel sparse matrix direct solver PaStiX.Streaming applications often appear in video and audio domains. They are characterized by a series of operations on streaming data, and a high throughput. Multi-Processor System on Chip (MPSoC) is a multi/many-core embedded system that integrates many specific cores through a high speed interconnect on a single die. Such systems are widely used for multimedia applications. Lots of MPSoCs are batteries-operated. Such a tight energy budget intrinsically calls for an efficient schedule to meet the intensive computation demands. Dynamic Voltage and Frequency Scaling (DVFS) can save energy by decreasing the frequency and voltage at the price of increasing failure rates. Another technique to reduce the energy cost and meet the reliability target consists in running multiple copies of tasks. We first model applications as linear chains and study how to minimize the energy consumption under throughput and reliability constraints, using DVFS and duplication technique on MPSoC platforms.Then, in a following study, with the same optimization goal, we model streaming applications as series-parallel graphs, which are more complex than simple chains and more realistic. The target platform has a hierarchical communication system with two levels, which is common in embedded systems and high performance computing platforms. The reliability is guaranteed through either running tasks at the maximum speed or triplication of tasks. Several efficient heuristics are proposed to tackle this NP-complete optimization problem
28

Kyeongja, Lee. "Modèle global pour la Qualité de Service dans les réseaux de FAI : intégration de DiffServ et de l’ingénierie de trafic basée sur MPLS." Ecole Centrale de Lille, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Kyeongja.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le routage multi-chemins est une technique qui permet l’équilibrage de la charge en multiplexant les flux vers une destination sur plusieurs chemins. L’approche de routage multi-chemins peut être schématisée en deux étapes : l’étape de choix des chemins candidats et l’étape de distribution du trafic sur un sous-ensemble de ces chemins. Dans ce travail, nous avons commencé par effectuer une étude comparative d’un point scalabilité et stabilité, de plusieurs algorithmes de routage multi-chemins, basés sur MPLS. PER est proposé comme un algorithme qui est une amélioration de l’algorithme de distribution de LDM. Ces différents algorithmes nous ont permis de réaliser plusieurs algorithmes « hybrides » dont LBWDP(Load Balancing over Widest Disjoint Paths) qui, par simulation, a été prouvé comme étant un algorithme plus performant que des autres modèles. Pour une meilleure garantie de QdS nous avons cherché à intégrer la différenciation de service (DiffServ) avec notre technique d’ingénierie de trafic (DiffServ-aware MPLS Traffic Engineering :DS-TE). Nous proposons PEMS (PEriodic Multi-Step algorithm for DS-TE network) pour différencier la qualité du service selon la classe du trafic. Dans ce cadre, nous proposons un nouvel algorithme de sélection de chemins candidats en fonction des critères préférentiels de chaque classe de trafic. L’utilisation de PER permet ensuite de distribuer en fonction de critères dynamiques les demandes reçues sur les meilleurs chemins de chaque classe. Par simulation à l’aide de ns-2, nous avons montré que PEMS répartie moins bien la charge que LBWDP mais que les classes EF et AF ont une qualité de service meilleure que dans le cas de LBWDP
Multipath routing is a mechanism for load balancing in which the total load is spatially distributed over several paths. It can reduce congestion probability given by routing into the shortest path in the current Internet. LSPs of MPLS provide path controllability by explicit route in the connectionless IP network. Multipath routing scheme is composed of two steps, the selection of multiple candidate paths and the traffic splitting among these selected paths. We compare some recent multipath routing algorithms based on MPLS on the point of scalability and stability. Among them, we pick up WDP and LDM for our hybrid approach which combines cross-steps of different algorithms. PER algorithm is proposed in the improvement of LDM’s traffic splitting step. Using LDM, WDP and PER, three hybrid QoS algorithms are made. Their performances are proved by simulation that they, especially LBWDP (Load Balancing over Widest Disjoint Paths), are more effective than LDM or MATE. For better QoS guarantee, we integrate DiffServ with our traffic engineering technique (DiffServ-aware MPLS Traffic Engineering : DS-TE). PEMS (PEriodic Multi-Step algorithm in DS-TE network) is proposed as one DS-TE model to differentiate the quality of service according to the class. For PEMS algorithm, we propose a new algorithm to select candidate paths by proper metric of each traffic class. PER algorithm distributes the traffic among its own candidate paths by dynamic metric of requested class. Simulation results using ns-2 showed that PEMS can balance the load less than LBWDP but EF and AF classes can be ensured of the better quality of service than LBWDP
29

Moulahi, Tarek. "Algorithmes de diffusion dans les réseaux dynamiques de capteurs sans fil." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2021/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s’intéresse à la tâche de diffusion dans les réseaux de capteurs sans fils dynamiques RCSF. C'est une tache essentielle et primordiale puisqu'elle est nécessaire pour réaliser la découverte de voisinage, le routage, la distribution d’informations dans tout le réseau, la localisation des nœuds et la synchronisation du temps.[...]
In this thesis, we are interested in the task of diffusion in networks of dynamic wireless sensors RCSF. This is an essential and primordial task, since it is necessary for neighbor discovery, routing, information distribution throughout the network, node location and time synchronization.[...]
30

Guittenit, Christophe. "Placement d'objets multimédias sur un groupe hétérogène de dispositifs de stockage." Toulouse 3, 2002. http://www.theses.fr/2002TOU30098.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'administration d'un système de stockage de données consiste à fournir à chaque application un espace de stockage ayant une qualité de service appropriée aux besoins de cette application : qualité exprimée en terme de capacité de stockage, de fiabilité et disponibilité du stockage, et de performances en temps d'accès et en débit (bande passante). Cette thèse se propose de faire l'étude de l'administration automatique d'un système de stockage hétérogène dédié au service d'objets multimédias. Après avoir étudié et effectué la classification des différentes politiques de placement conçus pour exploiter ce type de système de stockage, nous proposons un nouveau placement, l'EFLEX (Entrelacement FLEXible) qui permet d'exploiter conjointement la bande passante et la capacité de stockage du système. .
The data administration of storage system consists in providing to each application a storage space having a quality of service appropriate to the needs for this application: quality expressed in term of storage capacity, reliability and availability of storage, and of performances in access time and throughput (bandwidth). This thesis proposes to make the study of the automatic administration of a heterogeneous storage system dedicated to the service of multimedia objects. After having studied and having carried out the classification of the various policies of placement designed to exploit this type of storage system, we propose a new data placement, the EFLEX (Entrelacement FLEXible - that is "flexible interleaving") that makes it possible to jointly exploit the bandwidth and the storage capacity of the system. .
31

Ait, Chellouche Soraya. "Délivrance de services média suivant le contexte au sein d'environnements hétérogènes pour les réseaux médias du futur." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14415/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La généralisation de l’usage de l’Internet, ces dernières années, a été marquée par deux tendances importantes. Nous citerons en premier, l’enthousiasme de plus en plus grand des utilisateurs pour les services médias. Cette tendance est particulièrement accentuée par l’avènement des contenus générés par les utilisateurs qui amènent dans les catalogues des fournisseurs de services un choix illimité de contenus. L’autre tendance est la diversification et l’hétérogénéité en ressources des terminaux et réseaux d’accès. Seule la valeur du service lui-même compte aujourd’hui pour les utilisateurs et non le moyen d’y accéder. Cependant, offrir aux utilisateurs un accès ubiquitaire à de plus en plus de services Internet, impose des exigences très rigoureuses sur l’infrastructure actuelle de l’Internet. En effet, L’évolution de l’Internet devient aujourd’hui une évidence et cette évolution est d’autant plus nécessaire dans un contexte de services multimédias qui sont connus pour leur sensibilité au contexte dans lequel ils sont consommés et pour générer d’énormes quantités de trafic. Dans le cadre de cette thèse, nous nous focalisons sur deux enjeux importants dans l’évolution de l’Internet. A savoir, faciliter le déploiement de services médias personnalisés et adaptatifs et améliorer les plateformes de distribution de ces derniers afin de permettre leur passage à l’échelle tout en gardant la qualité de service à un niveau satisfaisant pour les utilisateurs finaux. Afin de permettre ceci, nous introduisons en premier, une nouvelle architecture multi environnements et multi couches permettant un environnement collaboratif pour le partage et la consommation des services médias dans un cadre des réseaux média du futur. Puis, nous proposons deux contributions majeures que nous déployons sur la couche virtuelle formés par les Home-Boxes (passerelles résidentielles évoluées) introduite dans l’architecture précédente. Dans notre première contribution, nous proposons un environnement permettant le déploiement à grande échelle de services sensibles au contexte. Deux approches ont été considérées dans la modélisation et la gestion du contexte. La première approche est basée sur les langages de balisage afin de permettre un traitement du contexte plus léger et par conséquent des temps de réponse très petits. La seconde approche, quant à elle est basée sur les ontologies et les règles afin de permettre plus d’expressivité et un meilleur partage et réutilisation des informations de contexte. Les ontologies étant connues pour leur complexité, le but de cette proposition et de prouver la faisabilité d’une telle approche dans un contexte de services multimédias par des moyen de distribution de la gestion du contexte. Concernant notre deuxième contribution, l’idée et de tirer profit des ressources (disque et connectivité) des Home-Boxes déjà déployées, afin d’améliorer les plateformes de distribution des services médias et d’améliorer ainsi le passage à l’échelle, la performance et la fiabilité de ces derniers et ce, à moindre coût. Pour cela, nous proposons deux solutions pour deux problèmes communément traités dans la réplication des contenus : (1) la redirection de requêtes pour laquelle nous proposons un algorithme de sélection à deux niveaux de filtrage, un premier filtrage basé sur les règles afin de personnaliser les services en fonction du contexte de leur consommation suivi d’un filtrage basé sur des métriques réseaux (charges des serveurs et délais entre les serveurs et les clients) ; et (2) le placement et la distribution des contenus sur les caches pour lesquels on a proposé une stratégie de mise en cache online, basée sur la popularité des contenus
Users’ willingness to consume media services along with the compelling proliferation of mobile devices interconnected via multiple wired and wireless networking technologies place high requirements on the Future Internet. It is a common belief today that Internet should evolve towards providing end users with ubiquitous and high quality media services and this, in a scalable, reliable, efficient and interoperable way. However, enabling such a seamless media delivery raises a number of challenges. On one hand, services should be more context-aware to enable their delivery to a large and disparate computational context. On another hand, current Internet media delivery infrastructures need to scale in order to meet the continuously growing number of users while keeping quality at a satisfying level. In this context, we introduce a novel architecture, enabling a novel collaborative framework for sharing and consuming Media Services within Future Internet (FI). The introduced architecture comprises a number of environments and layers aiming to improve today’s media delivery networks and systems towards a better user experience. In this thesis, we are particulary interested in enabling context-aware multimedia services provisioning that meets on one hand, the users expectations and needs and on another hand, the exponentially growing users’ demand experienced by these services. Two major and demanding challenges are then faced in this thesis (1) the design of a context-awareness framework that allows adaptive multimedia services provisioning and, (2) the enhancement of the media delivery platform to support large-scale media services. The proposed solutions are built on the newly introduced virtual Home-Box layer in the latter proposed architecture.First, in order to achieve context-awareness, two types of frameworks are proposed based on the two main models for context representation. The markup schemes-based framework aims to achieve light weight context management to ensure performance in term of responsiveness. The second framework uses ontology and rules to model and manage context. The aim is to allow higher formality and better expressiveness and sharing. However, ontology is known to be complex and thus difficult to scale. The aim of our work is then to prove the feasibility of such a solution in the field of multimedia services provisioning when the context management is distributed among the Home-Box layer. Concerning the media services delivery enhancement, the idea is to leverage the participating and already deployed Home-Boxes disk storage and uploading capabilities to achieve service performance, scalability and reliability. Towards this, we have addressed two issues that are commonly induced by the content replication: (1) the server selection for which we have proposed a two-level anycast-based request redirection strategy that consists in a preliminary filtering based on the clients’ contexts and in a second stage provides accurate network distance information, using not only the end-to-end delay metric but also the servers’ load one and, (2) the content placement and replacement in cache for which we have designed an adaptive online popularity-based video caching strategy among the introduced HB overlay
32

Bineau, Yannick. "Equilibre des paiements extérieurs, intégration des marchés des capitaux et influence du change : Réflexion sur le thème de la contrainte extérieure." Lille 1, 1997. http://www.theses.fr/1997LIL12001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La contrainte exterieure, objet principal de cette etude, est particulierement delicate a definir, car elle est multiforme. Il est possible, de notre point de vue analytique, de dissocier le desequilibre de la position exterieure, l'integration financiere, la mobilite internationale du capital et la politique economique, afin d'en apprecier la signification et les implications respectives. La complexite demeure, et la majorite des etudes theoriques et empiriques conduites l'elude en ne se preoccupant la plupart du temps que d'une seule facette de la contrainte exterieure. Cela minimise l'influence effective des autres aspects, et suppose que les determinants evites s'ajustent passivement en n'exercant d'influence que ceux qui ne sont retenus qu'a long, voire tres long terme. Un tel choix semble des lors particulierement limitatif. C'est pourquoi il semble preferable, dans cette reflexion sur le theme de la contrainte exterieure de proceder a une large analyse de cette notion afin d'en clarifier la definition, et de developper simultanement les differentes facettes envisageables. Devant la complexite des relations a mettre en avant et la multiplicite des correspondances, nous devons considerer cette analyse de la contrainte exterieure selon trois grands axes. Le premier relie la contrainte exterieure a l'equilibre de la balance des paiements et insiste sur les effets reels. Le deuxieme lie la contrainte exterieure a l'integration des marches des capitaux qui initie la mobilite internationale du capital, et se preoccupe des determinants financiers. Le dernier l'associe a la politique economique dans un cadre ou structures productives et integration financiere sont donnees.
33

Jabri, Issam. "Gestion dynamique des topologies sans fils." Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00342847.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La problématique de la qualité de service dans les réseaux locaux sans fils IEEE 802.11 demeure l'un des défis délicats à surmonter par la communauté scientifique. L'étude et l'évaluation des approches apportés pour le support de QoS dans ce type de réseaux que ce soit par des simulations, des modèles analytiques ou des mesures réelles montre que ces approches sont toujours insuffisantes pour apporter des vraies garanties de qualité de services aux utilisateurs sans fils. Suite à des travaux effectués au CRAN qui ont porté sur l'équilibrage des charges dans les réseaux Ethernet industriels nous avons opté pour une méthode d'équilibrage de charges dans le contexte des réseaux hotspots 802.11. L'objectif de cette approche étant d'équilibrer les charges des points d'accès pour satisfaire aux besoins en termes de qualité de service de l'ensemble des applications sans fils. Ces besoins sont exprimés en termes de disponibilité, de délais, de bande passante...Nous avons alors définis un algorithme d'équilibrage de charges pouvant établir dynamiquement des associations optimales entre les utilisateurs présents dans un hotspot et les points d'accès en service. Un protocole d'échanges entre les stations sans fils et les points d'accès et entre ces derniers et le serveur d'équilibrage de charges a été établi. Le fonctionnement de ce protocole a été vérifié et simulé en utilisant les outils SDL et MSC. Pour l'évaluation de la performance de l'approche d'équilibrage par rapport à la méthode d'accès de base du protocole, un ensemble de simulations ont été effectués. Ces simulations effectuées sur OPNET montrent que cette approche permet d'améliorer un ensemble de paramètres de qualité de service perçue par les utilisateurs d'un réseau Hotspot.
34

Krajecki, Michaël Gardan Yvon. "EQUILIBRE DE CHARGE DYNAMIQUE : ETUDE ET MISE EN UVRE DANS LE CADRE DES APPLICATIONS A NOMBRE FINI DE TACHES INDEPENDANTES ET IRREGULIERES /." [S.l.] : [s.n.], 1998. ftp://ftp.scd.univ-metz.fr/pub/Theses/1998/Krajecki.Michael.SMZ9818.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Krajecki, Michaël. "Equilibre de charge dynamique : étude et mise en œuvre dans le cadre des applications à nombre fini de tâches indépendantes et irrégulières." Metz, 1998. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1998/Krajecki.Michael.SMZ9818.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le parallélisme permet l'utilisation simultanée de plusieurs processeurs pour résoudre plus rapidement un problème. Cependant, multiplier la puissance de la machine par le nombre de processeurs est un idéal qui est en général très difficile à atteindre, car si la répartition des taches n'est pas optimisée, les performances du programme seront réduites. Le placement de ces tâches est un des problèmes principaux du parallélisme. Dans ce travail, nous étudions un environnement d'aide à la parallélisation pour les applications FTII (applications à nombre Fini de Tâches Indépendantes et Irrégulières). Cet environnement propose une première solution parallèle qui résout dynamiquement le problème d'équilibre de charge. L'environnement FTII met à la disposition de l'utilisateur différents outils dont : cinq algorithmes MIMD d'équilibre de charge dynamique, un modèle mathématique basé sur les matrices pour valider les algorithmes théoriquement et un environnement de programmation sur une machine parallèle virtuelle. Pour illustrer l'environnement FTII, nous considérons le lancer de rayons comme étude de cas. Nous avons montré le caractère irrégulier du lancer de rayons. En particulier, nous avons mis en évidence la dépendance existante entre le comportement de l'application et la scène à visualiser. A l'aide de l'environnement FTII, nous avons parallélisé le lancer de rayons et une analyse expérimentale sur CM-5 a été menée. L'environnement FTII, nous a permis de paralléliser efficacement le lancer de rayons sans se soucier de la machine cible ni de la stratégie d'équilibre de charge dynamique appliquée
Parallelism allows the use of several processors simultaneously to solve a given problem more quickly. However, to increase the power of the machine by the number of processors is an ideal which is in general very difficult to reach, because if the task allocation is not optimized, the performances of the program will be reduced. The placement of these tasks is one of the principal problems of parallelism. In this work, we study a toolkit helping the parallelization of the FIIT applications (applications with a finite number of independent and irregular tasks). The result of this toolkit is a first parallel solution which dynamically solves the problem of load balancing. The FIIT toolkit proposes various tools to the user such as : five MIMD load balancing strategies, a mathematical model based on matrix to validate the algorithms theoretically and an environment of programming on a virtual parallel machine. To illustrate the FIIT toolkit, we consider the ray tracing as case study. We showed the irregular character of the ray tracing. In particular, we highlighted that the behaviour of the application is strongly dependent on the scene to visualize. Using the FIIT environment, we parallelized it and an experimental analysis on a CM-5 was carried out. The FIIT toolkit enabled us to parallelize the ray tracing application efficiently without worrying about the target machine nor the dynamic load balancing strategy applied
36

Rowshannahad, Mehdi. "Qualification Management and Closed-Loop Production Planning in Semiconductor Manufacturing." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0784/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse est composée de deux parties. La première partie traite de la gestion des qualifications dans l'industrie des semi-conducteurs. La contrainte de qualification définit l'éligibilité d'une machine à processer un produit. La gestion des qualifications nécessite de résoudre un problème d'allocation et d'équilibrage des charges sur des machines parallèles non-identiques et partiellement reconfigurables. Nous avons défini et introduit des indicateurs pour la gestion des qualifications en tenant compte de la capacité des équipements ainsi que la contrainte de regroupements de lots (batching). Plusieurs algorithmes d'équilibrage de charge sont proposés et validés pour le calcul de la charge optimale sur un parc d'équipements. Ce concept est industrialisé au sein de l'entreprise Soitec et fait partie du processus de prise de décision.La deuxième partie de la thèse porte sur la planification de production en boucle fermée. Le processus de fabrication des plaques SOI à Soitec s'appuie sur la Technologie Smart-Cut. En utilisant cette technologie, une des deux matières premières peut être réutilisée à plusieurs reprises pour la fabrication des produits finis. Le couplage de deux lignes de production crée un système manufacturier en boucle fermée. Nous avons proposé un modèle de dimensionnement de lots original pour la planification de production de ce système manufacturier, que nous avons validé avec des données industrielles. En se basant sur le problème industriel, un problème mono-produit et sans contrainte de capacité est défini, analysé et résolu pour une version simplifiée du problème
In the first part, we take a binding restriction, called qualification, present in semiconductor manufacturing as a lever for increasing flexibility and optimizing capacity utilization. A qualification determines the processing authorization of a product on a machine (like an eligibility constraint). In order to define the best qualification, the production volume should be allocated to parallel non-identical machines which are partially reconfigurable. Capacitated flexibility measures are introduced to define the best qualification which increases machine capacity utilization at most. Batching is another industrial constraint encountered in semiconductor industry. It influences workload balancing and qualification management. Several workload balancing algorithms are proposed to find the optimal workload balance of a workcenter. Variability measures are also proposed to evaluate the workload variability of a workcenter. The second part deals with closed-loop production planning. Soitec uses Smart-Cut Technology to fabricate SOI wafers. Using this technology, one of the two raw materials used to fabricate SOI wafers can be reused several times to make other SOI wafers. However, before coming back to the SOI fabrication line, the used raw material (by-product) must be reworked in another production line. An original closed-loop production planning model adapted to the supply chain specificities of Soitec is proposed, and is validated using industrial data. Based on this industrial model, a single-item uncapacitated closed-loop lot-sizing model is defined, analyzed, and a dynamic programming algorithm is proposed for a simplified version of the problem
37

Girardin, Eric. "Les effets de la politique budgetaire sur l'equilibre externe dans des economies interdependantes." Rennes 1, 1987. http://www.theses.fr/1987REN11014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Sébastien, Nicolas. "Distribution et Parallélisation de Simulations Orientées Agents." Phd thesis, Université de la Réunion, 2010. http://tel.archives-ouvertes.fr/tel-00474213.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La simulation de systèmes complexes a pour objectif d'offrir une observation de la dynamique des systèmes étudiés dans un temps adapté à une interprétation scientifique. La simulation orientée agent permet de plus une observation multi-échelle du système considéré car elle s'appuie sur la description des entités granulaires composant celui-ci et leurs interactions. Le grand nombre d'entités nécessaires à la modélisation de systèmes large-échelle grêve cependant les performances en simulation. Ces travaux de recherche visent l'exécution de telles simulations en proposant de les appuyer sur un réseau de plates-formes de simulation. Après avoir identifié les exigences d'une telle approche, nous proposons une architecture agent pour la gestion de la cohérence de la simulation distribuée sur une infrastructure d'exécution flexible. Le système multi-agent formé par les agents répartis sur les plates-formes établit une plate-forme virtuelle exécutant la simulation sans adaptation du modèle simulé. Pour optimiser les performances, nous considérons la représentation du temps dans les simulations et les mécanismes agents d'interaction, notamment le modèle perception/influence sur l'environnement, afin d'établir un ordonnancement parallèle de la simulation. Nous complétons cette exécution parallèle en considérant l'équilibrage de charges dynamique. Ce dernier s'appuie lui aussi sur les informations incluent dans le modèle simulé et vise autant à maximiser l'exploitation de chacune des plates-formes qu'à assurer la flexibilité de la simulation vis à vis de la dynamique de l'infrastructure d'exécution. Ces concepts et algorithmes sont mis en œuvre dans la plate-forme GEAMAS-NG.
39

Al, Hajj Hassan Mohamad. "Parallélisme et équilibrage de charges dans le traitement de la jointure sur des architectures distribuées." Phd thesis, Université d'Orléans, 2009. http://tel.archives-ouvertes.fr/tel-00465073.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'émergence des applications de bases de données dans les domaines tels que le data warehousing, le data mining et l'aide à la décision qui font généralement appel à de très grands volumes de données rend la parallélisation des algorithmes des jointures nécessaire pour avoir un temps de réponse acceptable. Une accélération linéaire est l'objectif principal des algorithmes parallèles, cependant dans les applications réelles, elle est difficilement atteignable : ceci est dû généralement d'une part aux coûts de communications inhérents aux systèmes multi-processeur et d'autre part au déséquilibre des charges des différents processeurs. En plus, dans un environnement hétérogène multi-utilisateur, la charge des différents processeurs peut varier de manière dynamique et imprévisible. Dans le cadre de cette thèse, nous nous intéressons au traitement de la jointure et de la multi-jointure sur les architectures distribuées hétérogènes, les grilles de calcul et les systèmes de fichiers distribués. Nous avons proposé une variété d'algorithmes, basés sur l'utilisation des histogrammes distribués, pour traiter de manière efficace le déséquilibre des données, tout en garantissant un équilibrage presque parfait de la charge des différents processeurs même dans un environnement hétérogène et multi-utilisateur. Ces algorithmes sont basés sur une approche dynamique de redistribution des données permettant de réduire les coûts de communication à un minimum tout en traitant de manière très efficace le problème de déséquilibre des valeurs de l'attribut de jointure. L'analyse de complexité de nos algorithmes et les résultats expérimentaux obtenus montrent que ces algorithmes possèdent une accélération presque linéaire.
40

Lebel, Guilhem. "Prévision des charges aéromécaniques des rotors d'hélicoptère : Application aux pales à double flèche." Thesis, Lyon, INSA, 2012. http://www.theses.fr/2012ISAL0025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les récentes recherches sur les rotors d'hélicoptère conduisent au développement de pales de nouvelle génération présentant des géométries courbes. La double flèche de la pale BlueEdgeTM proposée par Eurocopter impose de reconsidérer les outils de calcul des charges rotors pour déterminer le torseur des efforts appliqués aux pales et aux éléments constitutifs du moyeu rotor afin de satisfaire aux exigences de conception et de certification. Les charges rotors se décomposent en contributions aéro- et élasto-dynamiques prises en compte par des modélisations distinctes. La thèse vise à définir une méthodologie de calcul de charges applicable aux pales à double flèche. Ainsi sont présentés les modèles aérodynamiques bi-dimensionnels pour calculer les vitesses induites du rotor et déterminer la répartition des efforts aérodynamiques sur le rotor. Le calcul des charges rotor nécessite de recourir à des modèles élasto-dynamiques. En résolvant les équations de la dynamique des solides pour un système mécanique, le code de mécanique du vol HOST considère une modélisation élastique de pale pour déterminer le torseur des efforts, les efforts de commande étant fournis par l'ensemble bielle de pas et plateaux cycliques. Le comportement non linéaire des adaptateurs de traînée interpales est décrit par des modèles de force de restitution. Ces travaux ont utilisé des caractérisations expérimentales sur des machines de traction de laboratoire ainsi que des essais en vol afin d'évaluer le niveau de représentativité des outils et méthodes proposés. La mise en oeuvre de l'ensemble de ces modèles détermine avec satisfaction les charges dynamiques du rotor pour des vols stabilisés
New generation blades have led to new load computation problems due to the evolution of the general shape, with forward and backward sweep. The BlueEdgeTM blade pattented by Eurocopter imposes to reconsider the development methodology and thus it is no longer possible to speak of straight blades and the models used for load computation have to be evaluated. The objective of this thesis is to determine what has to be modified and improved in current load computation methodology in order to reach an acceptable predictive level. This work considers both aerodynamic and dynamic models implemented in the HOST multi-body computer code. The aerodynamics models are based on the hypothesis of a two dimensional flow. The use of the CFD software \emph{elsA} is evaluated. Attention is given to rotor dynamics models that have an impact on loads, such as lead-lag damper models, blade element models and hub models. This thesis presents the different models and gives orientations relating to efficient load computation methodology. The aerodynamics models are compared to windtunnels experiments from the literature. This study leads also to perform flight tests and to investigate the dampers behavior on test benches in order to confront the computed loads to the reality of the helicopter operation. The proposed methodology is able to compute with a good accuracy rotor loads for stabilized flight cases
41

Zouabi, Oussama. "L'impact du changement climatique la production agricole et la croissance économique : Cas de la Tunisie." Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL2008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le présent travail de recherche, nous proposons d’analyser principalement l’effet direct et indirect du changement climatique sur la production agricole et la croissance économique. Pour ce faire, la voie méthodologique retenue dans cette thèse est une voie empirique, s’appuyant à la fois sur l’économétrie spatiale, la technique de cointégration sur données de panel ainsi que le modèle d’équilibre général dynamique multisectoriel
The aim of this research is to analysis both direct and indirect effect of the climate change on the agricultural production and the economic growth. This PhD research we will be based on an empirical methodology, through applying a spacial econometrics and the cointegration technique of a panel data as well as a multisectoral general equilibrium growth model. The first part is devoted to find the effect of the climate change on the agricultural production in a macro spatial level during the period 1980-2012. The main gaol of this first chapter of this PhD is to determine the direct and indirect effect of the weather forecast and the temperature changes in one region compared to the neighbouring regions. The originality of this spacial modelisation is to give an effective spacial effect. The second part of this research is aimed to use a micro spacial analysis to find out the effect of the climate change on the agricultural production in the long term way and for each region rather then all of them together as in the first chapter. In the last part of this PhD research we developed a general and dynamic equilibrium model for the Tunisian economy taking in a count eventual climate change forcast from 2015 to 2030. Aiming to calculate the effect of this change on the agricultural production and the economic aggregate in Tunisa. The resulats show that the climate change forecast in the futur will affect the agricultural production in Tunisia in both the short run and the long term and this is because of the irrigated and non irrigated plantations. The decrease of the production will affect the food industry which will decrease the level of the investment, the employment in this sector as well as the consumption
42

García, Martinez Marta. "Development and validation of the Euler-Lagrange formulation on a parallel and unstructured solver for large-eddy simulation." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT006H/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses applications industrielles mettent en jeu des écoulements gaz-particules, comme les turbines aéronautiques et les réacteurs a lit fluidisé de l'industrie chimique. La prédiction des propriétés de la phase dispersée, est essentielle à l'amélioration et la conception des dispositifs conformément aux nouvelles normes européennes des émissions polluantes. L'objectif de cette these est de développer le formalisme Euler- Lagrange dans un solveur parallèle et non-structuré pour la simulation aux grandes échelles pour ce type d'écoulements. Ce travail est motivé par l'augmentation rapide de la puissance de calcul des machines massivement parallèles qui ouvre une nouvelle voie pour des simulations qui étaient prohibitives il y a une décennie. Une attention particulière a été portée aux structures de données afin de conserver une certaine simplicité et la portabilité du code sur des differentes! architectures. Les développements sont validés pour deux configurations : un cas académique de turbulence homogène isotrope décroissante et un calcul polydisperse d'un jet turbulent recirculant chargé en particules. L'équilibrage de charges de particules est mis en évidence comme une solution prometteuse pour les simulations diphasiques Lagrangiennes afin d'améliorer les performances des calculs lorsque le déséquilibrage est trop important
Particle-laden flows occur in industrial applications ranging from droplets in gas turbines tofluidized bed in chemical industry. Prediction of the dispersed phase properties such as concentration and dynamics are crucial for the design of more efficient devices that meet the new pollutant regulations of the European community. The objective of this thesis is to develop an Euler-Lagrange formulation on a parallel and unstructured solver for large- eddy simulation. This work is motivated by the rapid increase in computing power which opens a new way for simulations that were prohibitive one decade ago. Special attention is taken to keep data structure simplicity and code portability. Developments are validated in two configurations : an academic test of a decaying homogeneous isotropic turbulence and a polydisperse two-phase flow of a confined bluff body. The use of load-balancing capabilities is highlighted as a promising solut! ion in Lagrangian two-phase flow simulations to improve performance when strong imbalance of the dispersed phase is present
43

Jmila, Houda. "Dynamic resource allocation and management in virtual networks and Clouds." Thesis, Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0023/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’informatique en nuage (Cloud computing) est une technologie prometteuse facilitant la réservation et de l'utilisation des ressources d’une manière flexible et dynamique. En plus des ressources informatiques traditionnelles, les utilisateurs du Cloud attendent à ce que des ressources réseaux leurs soient dédiées afin de faciliter le déploiement des fonctions et services réseau. Ils souhaitent pouvoir gérer l'ensemble d'un réseau virtuel (VN) ou infrastructure. Ainsi, les fournisseurs du Cloud doivent déployer des solutions de provisionnement des ressources dynamiques et adaptatives afin d’allouer des réseaux virtuels qui reflètent les besoins variables dans le temps des applications hébergés dans le Cloud. L’état de l’art sur l’allocation des réseaux virtuels s’est uniquement intéressé au problème de mapping des nœuds et liens virtuels composant une demande de réseau virtuel dans les nœuds et chemins du réseau de physique (infrastructure Cloud), connu sous le nom du problème de virtual network embedding (VNE). Peu d'attention a été accordée à la gestion des ressources allouées pour répondre en permanence aux besoins variables des réseaux virtuels hébergés dans le réseau physique et afin d'assurer une utilisation efficace des ressources. L'objectif de cette thèse est de permettre l'allocation des réseaux virtuels d’une manière dynamique et préventive pour faire face aux fluctuations de la demande au cours de la durée de vie du réseau virtuel, et pour améliorer l'utilisation des ressources du substrat. Pour atteindre ces objectifs, la thèse propose d'adaptation des algorithmes d'allocation des ressources pour répondre à l’évolution des demandes du réseau virtuel. Premièrement, nous allons étudier en profondeur l'extension d'un nœud virtuel, à savoir le cas où un nœud virtuel hébergé nécessite plus de ressources alors le nœud physique qui l’héberge n'a pas assez de ressources disponibles. Deuxièmement, nous allons améliorer la proposition précédente afin de considérer la rentabilité du réseau de substrat. Et enfin, nous allons gérer la variation de la demande en bande passante dans les liens virtuels. Par conséquent, la première partie de cette thèse fournit un algorithme heuristique qui traite la fluctuation de la demande dans les nœuds virtuels. L'idée principale de l'algorithme est de réallouer un ou plusieurs nœuds virtuels co-localisés dans du nœud de substrat, qui héberge le nœud en évolution pour libérer des ressources (ou faire de la place) pour le nœud en évolution. En plus de réduire le coût de réaffectation, notre proposition prend en compte et réduit l'interruption de service pendant la migration. L'algorithme précédent a été étendu pour concevoir un algorithme de reconfiguration préventif pour améliorer la rentabilité du réseau physique. En fait, notre proposition profite de la perturbation de la demande de ressources pour ranger le réseau physique à un coût minimal et sans perturbations. Lors de la réaffectation des nœuds virtuels pour faire place pour le nœud en extension, nous réaffectant les liens virtuels les plus congestionnées dans des ressources physiques moins saturées afin d’équilibrer la charge sur le réseau. Notre proposition offre le meilleur compromis entre le coût de réaffectation et l'équilibrage des charges. Enfin, un framework distribué, parallèle et à vue locale a été mis au point pour traiter toutes les formes de fluctuations de la demande en bande passante dans les liens virtuels. Elle se compose d'un contrôleur et trois algorithmes exécutés dans chaque nœud du substrat d'une manière distribuée et parallèle. Le framework est basé sur l'auto-stabilisation, et peut gérer de nombreuses et différentes formes de variations de la demande de bande passante simultanément
Cloud computing is a promising technology enabling IT resources reservation and utilization on a pay-as-you-go manner. In addition to the traditional computing resources, cloud tenants expect compete networking of their dedicated resources to easily deploy network functions and services. They need to manage an entire Virtual Network (VN) or infrastructure. Thus, Cloud providers should deploy dynamic and adaptive resource provisioning solutions to allocate virtual networks that reflect the time-varying needs of Cloud-hosted applications. Prior work on virtual network resource provisioning only focused on the problem of mapping the virtual nodes and links composing a virtual network request to the substrate network nodes and paths, known as the Virtual network embedding (VNE) problem. Little attention was paid to the resource management of the allocated resources to continuously meet the varying demands of embedded virtual networks and to ensure efficient substrate resource utilization. The aim of this thesis is to enable dynamic and preventive virtual network resources provisioning to deal with demand fluctuation during the virtual network lifetime, and to enhance the substrate resources usage. To reach these goals, the thesis proposes adaptive resource allocation algorithms for evolving virtual network requests. We adress the extension of an embedded virtual node requiring more resources and consider the substrate network profitability. We also deal with the bandwidth demand variation in embedded virtual links. We first provide a heuristic algorithm to deal with virtual nodes demand fluctuation. The work is extended by designing a preventive re-configuration scheme to enhance substrate network profitability. Finally, a distributed, local-view and parallel framework was devised to handle embedded virtual links bandwidth fluctuations. The approach is composed of a controller and three algorithms running in each substrate node in a distributed and parallel manner. The framework is based on the self-stabilization approach, and can manage various forms of bandwidth demand variations simultaneously
44

Ramos, Sara Isabel Pulga. "Os planos para a igualdade nas empresas do setor empresarial do estado : do cumprimento legal ao potencial transformador." Master's thesis, Instituto Superior de Economia e Gestão, 2020. http://hdl.handle.net/10400.5/20772.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Mestrado em Ciências Empresariais
Apesar dos alicerces legais existentes em matéria de igualdade de género, as assimetrias entre mulheres e homens, em particular nas organizações, tendem a subsistir. A literatura sobre género e mudança organizacional tem defendido a integração de uma perspetiva de género, através de um diagnóstico interno e da adoção de uma estratégia para a igualdade consubstanciada plano de ação de modo a reduzir os efeitos dessas assimetrias. Para que a mudança seja efetiva, os planos devem permitir alcançar uma efetiva igualdade entre mulheres e homens nas respetivas organizações. O presente estudo foi impulsionado pelo atual quadro normativo, que determina que as empresas cotadas em bolsa e as empresas do setor público empresarial (setor empresarial do Estado e setor empresarial local) estão obrigadas a divulgar anualmente os seus planos para a igualdade. A investigação realizada incide exclusivamente sobre o setor empresarial do Estado e propõe-se verificar se as empresas cumprem com este requisito legal e se os planos divulgados se revestem de potencial de mudança. Pretende-se ainda relacionar a divulgação desses documentos com o nível de equilíbrio entre mulheres e homens nos órgãos de governo das empresas do segmento em estudo. Conclui-se que a grande maioria das empresas não cumpre com os dispostos legais em vigor, além de a generalidade dos planos se revestir de um potencial transformador reduzido a moderado. Concluímos ainda não existir relação entre a sua elaboração/divulgação e o nível de equilíbrio entre mulheres e homens nos órgãos de governo das empresas.
Despite the current legal foundation in the field of gender equality, the gap between women and men within organizations seems to persist. The literature on gender and organizational change have been advocating the presence of a gender perspective which should begin by an internal diagnosis followed by the adoption of an equality driven strategy which is to be backed by an action plan. To achieve the effective equality between women and men, this plan needs to be able to enable actual change. The present study was driven by the current legal framework, which dictates that all listed companies and public companies in the business sector (state and local) are to share their plans for equality on an annual basis. The research was solely carried out on the state's business sector, and it intended to ascertain if companies are following these legal requirements, as well as to assess the potential for change of these strategic documents. It was also our goal to check for a correlation between the development and disclosure of these strategic documents and the gender balance within the governance bodies of these companies. We have come to the conclusion that the vast majority of companies do not comply with the legal requirements, and that most of the plans for equality have a moderate to low potential for change. In addition, it is possible to confirm that there is no correlation between the creation/disclosure of the plan and the gender balance in the governance bodies of the researched companies.
info:eu-repo/semantics/publishedVersion
45

Tacheix, Thierry. "L'influence des variables financières sur l'emploi : France 1970-1988." Clermont-Ferrand 1, 1991. http://www.theses.fr/1991CLF10007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude appréhende le rôle de trois variables financières réelles (le taux d’intérêt, le taux de croissance du cours des actions et le taux de change) sur l’emploi. L’analyse est menée à travers leur influence sur l’offre et sur la demande, et fait appel aux théories micro et macroéconomiques, ainsi qu’à celles de la croissance. Nous développons de nouvelles formes d’intégration de ces variables dans les modèles existants. Une étude économétrique appliquée à la France sur la période 1970-1988 étudie le bien-fondé des théories en vigueur, et l’apport de nos modèles.
46

Ramdane, Yassine. "Big Data Warehouse : model de distribution des cubes de données à la volée." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE2099.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le partitionnement et la distribution des données ont été largement utilisés dans les systèmes "shared nothing systems", plus particulièrement dans les systèmes distribués qui utilisent le paradigme MapReduce, tels que Hadoop et Spark. Ils ont été utilisés pour l’équilibrage des charges de données, pour éviter le chargement des partitions inutiles et pour guider laconception physique des bases de données et des entrepôts de données distribuées. Pour effectuer des analyses sur les données entreposées, nous utilisons généralement des requêtes OLAP. Une requête OLAP est une requête complexe contenant plusieurs opérations coûteuses, telles que la jointure en étoile, la projection, le filtrage et les opérations d’agrégats. Dans cette thèse, nous proposons différentes approches statiques et dynamiques de partitionnement et d’équilibrage des charges des données sur un cluster Hadoop, afin d’améliorer les performances des entrepôts de données distribuées.Nous avons proposé différents schémas statiques et dynamiques d’un entrepôt de données volumineux distribué sur un cluster de noeuds homogènes ; ce qui peut aider le système distribué à améliorer le temps d’exécution des opérations d’une requête OLAP. Nous avons proposé quatre approches : la première est une nouvelle stratégie de placement de données, pour permettre à un système de traitement des requêtes d’exécuter la jointure en étoile en un seul cycle MapReduce, sans la phase de shuffle. Dans la deuxième contribution, nous proposons différentes techniques de partitionnement et de bucketing pour éviter le chargement inutile de certains blocs de données HDFS et pour améliorer le traitement parallèle, en utilisant un modèle piloté par une charge de requêtes. Dans la troisième approche, nous proposons une nouvelle conception physique d’un entrepôt de données volumineux distribué sur un cluster Hadoop, en combinant la première approche basée sur les données et la seconde solution qui repose sur une charge de requêtes. La quatrième contribution a été développée pour améliorer les fonctions de groupement (Group-By) et d’agrégation en utilisant une approche dynamique capable de définir à la volée le meilleur schéma de partitionnement des reducers. Pour évaluer nos approches, nous avons fait des expérimentations avec différentes tailles de clusters, en utilisant différents volumes d’entrepôts de données, et où la table des faits contient plus de 28 milliards d’enregistrements. Nous avons utilisé le benchmark TPCDS, la plate-forme Hadoop-YARN, le moteur d’exécution Spark, le système Ray et Hive. Les résultats expérimentaux obtenus montrent que nos méthodes sont plus performantes que les approches existantes sur plusieurs aspects, notamment en terme du temps d’exécution des requêtes OLAP
Partitioning and distributing of the data have been widely used in sharing nothing systems, more particularly in the distributed systems that used the MapReduce paradigm, such as Hadoop ecosystem and Spark. They have been used for many purposes, such as load balancing, skipping to load unnecessary data partitions and for guiding the physical design ofdistributed databases or data warehouses. To do analysis with data warehouses, usually, we used OLAP queries. An OLAP query is a complex query that contains several cost operations, such as the star join, the projection, filtering, and aggregate functions. In this thesis, we propose different static and dynamic approaches of partitioning and load balancing of the data, to improve the performances of distributed big data warehouses over Hadoop cluster. We have proposed different static and dynamic schemes of a big data warehouse over a cluster of homogeneous nodes, which can help the distributed system to enhance the executing time of OLAP query operations, such as star join operation, scanning tables, and Group-By operation.We have proposed four approaches: The first approach, is a new data placement strategy which able to help a query processing system to perform a star join operation in only one MapReduce cycle, without a shuffle phase; In the second contribution, we propose different partitioning and bucketing techniques to skip loading some HDFS blocks and to enhance the parallel treatment of the distributed system, based on a workload-driven model; In the third approach, we propose a novel physical design of distributed big data warehouse over Hadoop cluster, such as we combine between our first data-driven approach and the second workloaddriven solution; The fourth contribution has been developed to improve Group-by and aggregate functions, by using a dynamic method, which able to define on the fly the best partitioning scheme of the reducer inputs. To evaluate our approaches, we have conducted some experiments on different cluster sizes, using different data warehouses volumes where the fact table has more than 28 billions of records. We have used the TPC-DS benchmark, a Hadoop-YARN platform, a Spark engine, and Ray and Hive system. Our experiments show that our methods outperform the state-of-the-art approaches in many aspects, especially on the OLAP query execution time
47

Prelle, Thomas. "Gestion optimisée d'un modèle d'agrégation de flexibilités diffuses." Thesis, Nantes, Ecole des Mines, 2014. http://www.theses.fr/2014EMNA0177/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le souhait d’augmenter la part des énergies renouvelables dans le mix énergétique entraine une augmentation des parts des énergies volatiles et non pilotables, et rend donc l’équilibre offre-demande difficile à satisfaire. Une façon d’intégrer ces énergies dans le réseau électrique actuel est d’utiliser de petits moyens de production, de consommation et de stockage répartis sur tout le territoire pour compenser les sous ou sur productions. Afin que ces procédés puissent être intégrés dans le processus d’équilibre offre-demande, ils sont regroupés au sein d’une centrale virtuelle d’agrégation de flexibilité, qui est vue alors comme une centrale virtuelle. Comme pour tout autre moyen de production du réseau, il est nécessaire de déterminer son plan de production. Nous proposons dans un premier temps dans cette thèse une architecture et un mode de gestion pour une centrale d’agrégation composée de n’importe quel type de procédés. Dans un second temps, nous présentons des algorithmes permettant de calculer le plan de production des différents types de procédés respectant toutes leurs contraintes de fonctionnement. Et enfin, nous proposons des approches pour calculer le plan de production de la centrale d’agrégation dans le but de maximiser son gain financier en respectant les contraintes réseau
The desire to increase the share of renewable energies in the energy mix leads to an increase inshare of volatile and non-controllable energy and makes it difficult to meet the supply-demand balance. A solution to manage anyway theses energies in the current electrical grid is to deploy new energy storage and demand response systems across the country to counter balance under or over production. In order to integrate all these energies systems to the supply and demand balance process, there are gathered together within a virtual flexibility aggregation power plant which is then seen as a virtual power plant. As for any other power plant, it is necessary to compute its production plan. Firstly, we propose in this PhD thesis an architecture and management method for an aggregation power plant composed of any type of energies systems. Then, we propose algorithms to compute the production plan of any types of energy systems satisfying all theirs constraints. Finally, we propose an approach to compute the production plan of the aggregation power plant in order to maximize its financial profit while complying with all the constraints of the grid
48

Steffen, Jean-Sébastien. "Modélisation tridimensionnelle globale du squelette pour l'aide au diagnostic et à la prise en charge thérapeutique des pathologies rachidiennes affectant l'équilibre postural." Phd thesis, 2011. http://pastel.archives-ouvertes.fr/pastel-00649423.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prise en compte de l'équilibre postural global lors de la prise en charge de certaines pathologies rachidiennes peut permettre d'éviter certaines complications biomécaniques. D'autre part, le système EOS™ (EOS™ imaging, Paris) permet l'analyse globale personnalisée de la géométrie du squelette en trois dimensions. L'objectif de cette thèse est d'améliorer la prise en charge des pathologies rachidiennes en tirant parti des fonctionnalités de cette nouvelle modalité. Dans un premier temps, les outils, méthodes et protocoles nécessaires à une telle évaluation ont été mis en place et validés. Ce dispositif a ainsi permis d'évaluer de manière quantitative la posture par rapport à la ligne de gravité sur 93 patients en routine clinique et de la comparer à celle de 23 sujets sains. Cette première approche a ainsi permis de définir de nouveaux critères pour l'analyse de l'équilibre postural tridimensionnel en routine clinique. L'analyse de l'équilibre chez 25 patients souffrant de sévères troubles posturaux a ensuite permis de proposer un modèle estimant la version pelvienne postopératoire suite à la correction de la courbure rachidienne au moyen d'ostéotomies vertébrales. Une assistance à la décision a été enfin proposée sous la forme d'une méthode de planification chirurgicale de ces interventions. Cette méthode utilise ce modèle de stratégie posturale pour prédire le résultat postopératoire de l'intervention à partir de la configuration géométrique préopératoire du patient et des gestes prévus. Ces travaux ont ainsi confirmé l'intérêt de l'analyse tridimensionnelle globale et proposé des méthodes permettant la prise en compte de ces aspects en routine clinique tout au long de la prise en charge thérapeutique des patients.

До бібліографії