Academic literature on the topic 'Programmation parallèle (informatique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Programmation parallèle (informatique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Programmation parallèle (informatique)"

1

Devin, Florent. "Gaspard : un environnement de programmation parallèle visuel." Lille 1, 2002. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2002/50376-2002-281.pdf.

Full text
Abstract:
La programmation parallèle requiert de multiples compétences. Il faut à la fois posséder les méthodes de programmation, mais aussi les méthodes du domaine pour lequel le programme est destiné. La programmation visuelle permet une programmation plus intuitive, et donc plus facile. C'est dans ce cadre que nous avons choisi de développer GASPARD. GASPARD est un environnement de programmation parallèle visuel dédié dans un premier temps au traitement du signal. Dans une première partie, nous décrivons l'intérêt des langages visuels, ainsi que l'interaction qui peut être mis en œuvre entre composant et langage visuel. Ensuite, nous décrivons notre interface graphique, le soin apporté pour une utilisation intuitive, ainsi que les choix effectués. Enfin, nous étudions les mécanismes nécessaires pour étendre GASPARD à un traitement moins systématique, et en déduisons les conséquences pour notre modèle. Nous portons aussi notre étude sur l'utilisation de composants génériques au sein de GASPARD.
APA, Harvard, Vancouver, ISO, and other styles
2

Marre, Daniel. "La programmation fonctionnelle parallèle : application à MaRS̱Lisp." Toulouse, INSA, 1992. http://www.theses.fr/1992ISAT0014.

Full text
Abstract:
Cette these traite de la programmation fonctionnelle parallele explicite et de son application a l'aide de mars-lips, le langage applicatif paresseux et non type de mars, la machine a reduction parallele de graphe a memoiree partagee, concue et realisee au cert-onera. L'objectif de ce travail est la presentation et l'experimentation de methodes d'ecriture ou de parallelisation de programmes fonctionnels paralleles en mars-lips. Une premiere partie definit le cadre du travail et les outils utilises. Le premier chapitre presente les caracteristiques d'un langage fonctionnel pour son implementation sur une machine parallele et decrit les projets les plus significatifs du domaine. Le deuxieme chapitre detaille les caracteristiques de mars-lisp et de l'interprete parallele utilise. La deuxieme partie (chap. Iii) traite de la conception d'algorithmes paralleles et de la mise en uvre de trois paradigmes tres utilises: l'effet pipeline, diviser-pour-regner et l'usage des fonctions d'ordre superieur. Pour chaque paradigme, des exemples simples permettent d'analyser finement le comportement du programme. La troisieme partie (chap. Iv) developpe une methode manuelle de parallelisation de programme. Une modelisation des contextes par les projections permet une analyse de stricticite plus fine et une meilleure mise en uvre des heuristiques de parallelisation. Des outils simples d'optimisation et de transformation de programmes sont ensuite presentes. La derniere partie (chap. V) applique ces methodes sur des programmes consequents
APA, Harvard, Vancouver, ISO, and other styles
3

Nekkache, Mabrouk. "Système de programmation parallèle OCCAM / ADA." Lyon, INSA, 1987. http://www.theses.fr/1987ISAL0063.

Full text
Abstract:
La conception d'algorithmes parallèles pose des problèmes délicats, tels que la décomposition d'un système en sous-système parallèles, la synchronisation entre ces sous-systèmes, et l'exclusion mutuelle pour les données partageables, problèmes dus essentiellement à une vue de la programmation différente de celle de la programmation séquentielle. Pour se familiariser avec le parallélisme, la théorie et le matériel ne suffisent pas. Il est nécessaire de pratiquer et donc de disposer tout d'abord d'outils de familiarisation, de conception et de développement d'algorithmes parallèles, ensuite d'exécutif et éventuellement de vérificateur. En ce qui concerne l'expression du parallélisme, le langage OCCAM semble être adéquat; quant à l'exécutif nous avons exploré différentes solutions y compris celle offerte par ADA. Le système que nous avons développé autour de ces langages peut être considéré comme une aide à la spécification et au développement d'application temps réel en Ada<br>Designing parallel algorithms involves tricky features, as spitting systems in smaller parallel systems, synchronizing of the components, mutual exclusion on shared variables, all problems due to a view on programming as a scheduling activity rather than a sequencing one. Beyond hardware and theory, parallelism must be a know-how. So we need tools to study and practice. Occam seems a good basis, Ad a a most frequent one. So we have developed a translator from Occam to Ada, written in Ada, and the corresponding running environment. More than being a tool for study and practice parallel algorithms, first experiences suggest using tool as a practical mean of specify in Occam real-time later produced in Ada
APA, Harvard, Vancouver, ISO, and other styles
4

Gransart, Christophe. "Box : un modèle et un langage à objets pour la programmation parallèle et distribuée." Lille 1, 1995. http://www.theses.fr/1995LIL10006.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du projet pvc/BOX dont le but est le développement d'un environnement orienté objet pour l'exploitation des machines parallèles distribuées. Le concepteur d'applications réparties est devant un double problème de conception. Il doit représenter les données manipulées par son application (ainsi que les procédures qui les manipulent), mais il doit aussi représenter les activités qui vont coopérer à la réalisation de l'application. Pour répondre à ce besoin, nous introduisons un modèle prenant en charge de manière uniforme ces deux aspects de la conception d'applications réparties. Ce modèle introduit explicitement des entités qualifiées de passives et appelées simplement objets et des entités qualifiées d'actives et appelées fragments. Les premières correspondent aux objets traditionnels des langages séquentiels à objets, mais elles pourront être ici utilisées en présence de flots d'exécution concurrents. Les deuxièmes correspondent à une approche objet de la représentation des activités d'une application répartie. Le modèle introduit aussi des possibilités multiples de coopération entre objets et fragments. Le langage BOX est un langage à objets pour applications distribuées. Il inclut des caractéristiques nouvelles, spécifiques pour ce type d'applications, mais reste un langage pleinement objet. Le langage implante le modèle précédent. L'environnement BOX offre un certain nombre d'outils permettant au concepteur de produire une application répartie à partir des classes du langage. Ces applications s'appuient sur la couche système pvc qui est un support d'exécution permettant l'utilisation des systèmes d'exploitation répartis existants. Face au problème de conception des applications réparties, nous présentons donc dans cette thèse un système complet facilitant cette conception.
APA, Harvard, Vancouver, ISO, and other styles
5

Lavoie, Gabriel, and Gabriel Lavoie. "Programmation distribuée et migration de processus." Master's thesis, Université Laval, 2011. http://hdl.handle.net/20.500.11794/22502.

Full text
Abstract:
Ce mémoire propose un modèle de programmation distribuée basé sur la migration de processus pouvant communiquer à l’aide de canaux de communication. Ce travail cadre bien avec le contexte actuel où l’augmentation de la puissance de traitement passe par les processeurs multicoeurs et les systèmes distribués, qui permettent l’exécution de plusieurs processus en parallèle. L’étude de différentes algèbres de processus et langages de programmation permettant le parallélisme a tout d’abord permis de comparer leurs différentes caractéristiques. Suite à cette étude, nous présentons différents concepts nécessaires à la mise en place de notre modèle distribué par migration de processus, dans le cadre des langages objets qui imposent certaines contraintes. Finalement, l’implé- mentation de notre modèle à l’aide des fonctionnalités de Stackless Python permet de voir comment chacun des concepts a été mis en place. Cette implémentation se présente sous la forme d’une extension qui permet la transformation de programmes existants en programmes distribués.<br>Ce mémoire propose un modèle de programmation distribuée basé sur la migration de processus pouvant communiquer à l’aide de canaux de communication. Ce travail cadre bien avec le contexte actuel où l’augmentation de la puissance de traitement passe par les processeurs multicoeurs et les systèmes distribués, qui permettent l’exécution de plusieurs processus en parallèle. L’étude de différentes algèbres de processus et langages de programmation permettant le parallélisme a tout d’abord permis de comparer leurs différentes caractéristiques. Suite à cette étude, nous présentons différents concepts nécessaires à la mise en place de notre modèle distribué par migration de processus, dans le cadre des langages objets qui imposent certaines contraintes. Finalement, l’implé- mentation de notre modèle à l’aide des fonctionnalités de Stackless Python permet de voir comment chacun des concepts a été mis en place. Cette implémentation se présente sous la forme d’une extension qui permet la transformation de programmes existants en programmes distribués.
APA, Harvard, Vancouver, ISO, and other styles
6

Féraud, Louis. "Etude d'une représentation des objets partagés : définition, implantation, méthodes de preuve." Toulouse 3, 1991. http://www.theses.fr/1991TOU30029.

Full text
Abstract:
Cette thèse traite d'une construction linguistique, le module contrôle par priorité (en abrégé mcp) destinée à représenter les objets partages par des processus dans un environnement de parallélisme. Le mcp est un constructeur de types abstraits dote d'un contrôleur local appelé synchroniseur. Le synchroniseur a été conçu selon l'idée qu'il existe deux sortes de contrôles pour accéder a un objet partage: les contrôles lies a l'état intrinseque de l'objet et ceux définis par ordonnancement. Ces deux types de contrôle sont sépares dans un mcp, une notion de priorité globale permettant d'exprimer avec concision l'ordonnancement des opérations. Deux implantations sont présentées dans la thèse: l'une validée en terme de sémaphores destinée a un monoprocesseur, l'autre utilisant un langage d'acteurs visant des environnements distribues. La suite de ce travail concerne deux approches de la validation de solutions utilisant des mcp. Dans la première approche, une sémantique du synchroniseur a été définie dans une logique temporelle linéaire. Le système de preuve offre au programmeur des spécifications en logique temporelle utilisant des constructions du synchroniseur; ces spécifications sont des conditions suffisantes pour garantir des propriétés relatives à l'état intrinseque de l'objet ou à un ordonnancement. Dans la seconde approche, le mcp est modélisé au moyen de machines abstraites. Une machine abstraite est un système de transitions incluant des variations et des messages dont les transitions sont régies par des affectations vectorielles gardées appelées actions. La sémantique d'un synchroniseur est obtenue comme la solution d'un système d'équations au point fixe sur les actions. Les preuves utilisent la même démarche
APA, Harvard, Vancouver, ISO, and other styles
7

Benalia, Akram Djellal. "HELPDraw : un environnement visuel pour la génération automatique de programmes à parallélisme de données." Lille 1, 1995. http://www.theses.fr/1995LIL10095.

Full text
Abstract:
Le parallélisme de données consiste à appliquer simultanément le même traitement sur un ensemble de données homogènes. De part la conservation d'un unique flux d'instructions, il est devenu de fait un modèle de programmation largement répandu et qui autorise facilement l'accès à la puissance théorique des machines parallèles pour le calcul scientifique. L'objectif de cette thèse est de montrer qu'il est possible de programmer dans ce modèle sans contrainte de syntaxe ou d'architecture, tout en gardant le maximum de performances. Nous proposons un environnement de programmation visuelle : HELPDraw. Il permet de traduire la pensée et la conception du programmeur en un code data-parallèle source. HELPDraw se base sur un modèle de programmation géométrique. Les structures de données définies par l'utilisateur sont regroupées et alignées au sein d'un hyper-espace (machine virtuelle), référentiel de toute manipulation. Le modèle géométrique offre deux vues clairement distinctes : la vue microscopique permet l'expression du parallélisme de calcul ; la vue macroscopique permet les communications parallèles à travers l'hyper-espace par une modélisation à base de primitives géométriques. Le modèle géométrique offre un support naturel pour la programmation visuelle. Le programmeur développe son algorithme data-parallèle en interagissant avec les éditeurs graphiques de HELPDraw. Les objets data-parallèles représentés par des formes géométriques sont manipulés à travers des migrations et des changements de formes à l'intérieur de l'hyper-espace. Le programmeur construit graphiquement et interactivement ses instructions ou blocs d'instructions. HELPDraw les traduit au fur et à mesure dans le langage data-parallèle cible. Nous étudions dans cette thèse la génération automatique des codes C-HELP (un langage mis en oeuvre dans notre équipe) et HPF le nouveau fortran data-parallèle. Pour C-HELP qui se base lui-même sur le modèle géométrique, cette génération est assez naturelle. Pour HPF elle est cependant plus complexe, nous proposons une solution permettant de compiler une description géométrique vers une description par les indices.
APA, Harvard, Vancouver, ISO, and other styles
8

Alliot, Jean-Marc. "TARSKI, une machine parallèle pour implanter des extensions de PROLOG." Toulouse 3, 1992. http://www.theses.fr/1992TOU30106.

Full text
Abstract:
Prolog est parfaitement adapte au traitement des clauses de horn mais ne permet pas de traiter naturellement les problemes lies a la deduction pour les logiques non-classiques, les theories equationnelles, les predicats flous. Tous ces differents cas reclament des moyens differents de calculer un nouveau but a partir du but courant. Nous definissons dans cette these un mecanisme general permettant de developper des extensions de prolog: reecriture complete des mecanismes d'ingerences et developpement d'un nouveau formalisme permettant de traiter des clauses de horn generalisees; developpement d'une machine abstraite pour implanter des regles de resolution parametrables; etude et implantation du parallelisme
APA, Harvard, Vancouver, ISO, and other styles
9

Delignieres-Hannequin, Isabelle. "Proposition d'un modèle d'évaluation parallèle de prolog." Lille 1, 1991. http://www.theses.fr/1991LIL10060.

Full text
Abstract:
L'accroissement des performances nécessaires au développement des applications en intelligence artificielle qui utilisent notamment la programmation logique, nécessite de recourir à l'exploitation du parallélisme. La programmation logique utilise deux formes de parallélisme: d'une part, le parallélisme explicite exploité par les langages gardes, tels CP, GHC et Prolog, d'autre part le parallélisme implicite exploitant les possibilités intrinsèques présentes dans un langage tel Prolog. L'exploitation du parallélisme implicite conduit généralement à s'éloigner de la sémantique opérationnelle classique, à générer des solutions dans un ordre non usuel rendant difficile l'introduction des prédicats à effet de bord. Le schéma d'évaluation parallèle de Prolog proposé dans le cadre du projet LOG-ARCH respecte la sémantique opérationnelle traditionnelle sans nécessiter d'annotations de la part d'un programmeur. Il exploite un parallélisme OU qui se développe par le bas de l'arbre ET/OU, et un parallélisme ET sous forme de pipeline. Un mécanisme de verrouillage est utilisé pour contrôler la production et la consommation des solutions, facilitant ainsi la prise en compte des prédicats à effet de bord. L'évaluation du modèle parallèle a été réalisée d'une part à l'aide d'un simulateur, d'autre part à partir de l'exécution véritable de programmes dont l'évaluation parallèle est reconstituée. Cette évaluation a permis de vérifier la validité du modèle et de mesurer le taux de parallélisme obtenu, dont l'ordre de grandeur est similaire à celui développé lors d'une exécution OU parallèle
APA, Harvard, Vancouver, ISO, and other styles
10

Coti, Camille. "Environnements d’exécution pour applications parallèles communiquant par passage de messages pour les systèmes à grande échelle et les grilles de calcul." Paris 11, 2009. http://www.theses.fr/2009PA112233.

Full text
Abstract:
L'environnement d'exécution est un composant clé de l'environnement de programmation et d'exécution d'applications parallèles. Il fournit des services aux processus de l'application parallèle. Parmi ces services, les plus fondamentaux sont la mise en relation des processus entre eux et la transmission des signaux et des entrées-sorties. Cette thèse porte sur l'étude des environnements d'exécution à grande échelle et les services rendus à l'application sur des systèmes de grande taille. La première partie étudie les performances de l'environnement d'exécution à grande échelle et propose une approche centrée sur les topologies pour supporter l'application de manière efficace. La seconde partie étudie un rôle supplémentaire rempli par l'environnement d'exécution dans des systèmes constitué d'un grand nombre de composants avec le support de la tolérance aux défaillances. La troisième et la quatrième partie concernent un type particulier de systèmes à grande échelle avec les grilles de calcul. Ces systèmes présentent des particularités spécifiques à l'utilisation de ressources géographiquement distantes et à l'hétérogénéité de ces ressources. Les problématiques de connectivité sur les grilles de calcul et une extension de l'environnement d'exécution conçue pour y faire face sont présentées dans la troisième partie de cette thèse. La quatrième partie présente une méthode de conception d'applications destinées aux grilles de calcul et des exemples d'applications typiques présentant de bonnes performances<br>The run-time environment is a key component of a parallel programming and execution environment. It features some services to the processes of parallel applications. The most fundamental of these services is to allow processes to communicate with one another and forwarding IOs and signals. In this thesis, I present results concerning run-time environments for large-scale systems and the services provided to large-scale applications. The first part studies the run-time environment's performance for large-scale systems and proposes an approach centered on topologies to support applications efficiently. The second part studies an additional feature provided by the run-time environment on systems made of a large number of components: fault tolerance. The third and the fourth part concern a specific kind of large-scale systems: computational grids. These systems present particularities that are specific to the usage of remote, heterogeneous resources. Problematic related to connectivity throughout computational grids are presented in the third part of this thesis, as well as an extension of the run-time environment designed to face them. The fourth part presents a method to design and program applications for computational grids and examples of typical applications that achieve a good performance
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Programmation parallèle (informatique)"

1

Ben-Ari, M. Processus concurrents: Introduction à la programmation parallèle. Masson, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Alan, Gibbons. Efficient parallel algorithms. Cambridge University Press, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Thorin, Marc. Parallélisme: Génie logiciel, temps réel. Dunod, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Perrott, Ronald H. Parallel programming. Addison-Wesley Pub. Co., 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

1947-, Gehani Narain, and McGettrick Andrew D. 1944-, eds. Concurrent programming. Addison-Wesley, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ewing, Lusk, Thakur Rajeev, NetLibrary Inc, and Massachusetts Institute of Technology, eds. Using MPI-2: Advanced features of the message-passing interface. MIT Press, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

A, Sanders Beverly, and Massingill Berna, eds. Patterns for parallel programming. Addison-Wesley, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Lewis, T. G. Introduction to parallel computing. Prentice Hall, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Lewis, T. G. Introduction to parallel computing. Prentice-Hall International, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Lewis, T. G. Introduction to parallel computing. Prentice Hall, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!