Academic literature on the topic 'Tâches de performance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Tâches de performance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Tâches de performance"

1

Ross, Margaret M., Carolyn J. Rosenthal, and Pamela G. Dawson. "Spousal Caregiving in the Institutional Setting: Task Performance." Canadian Journal on Aging / La Revue canadienne du vieillissement 16, no. 1 (1997): 51–69. http://dx.doi.org/10.1017/s071498080001415x.

Full text
Abstract:
RÉSUMÉCette étude examine le phénomène des soins donnés par l'épouse à la suite du placement en établissement de son conjoint âgé. En théorie, l'étude puise dans la perspective d'interprétation sociologique et dans le concept de carriére. Son aspect méthodologique repose sur un cadre longitudinal et prospectif et réunit les approches quantitatives et qualitatives. Les données sont tirées d'une etude plus vaste qui explorait la transition vers un état de quasi-veuvage. L'article traite d'un aspect des soins suivant l'admission de l'époux en centre de soins à long terme, soit de l'accomplissement des tâches. Aux termes de l'etude, les épouses effectuent un nombre substantiel et varié de tâches reliées aux soins personnels, instrumentaux, relationnels et récréatifs. Elles considêrent les visites comme la plus importante de leur tâche mais accordent également une valeur importante à la présence, á l'amour et à l'appui, aux petites choses qu'elles font pour leur mari et à la surveillance de leur santé et de leur bien-être. Généralement, elles exécutent des tâches qu'elles jugent du ressort de leurs responsabilités. La réalisation des tâches se place dans un contexte servant à expliquer, en partie, leur engagement continu dans la fourniture des soins apràs l'admission de leur époux en établissement de soins de longue durée. La portée de cette étude souligne le besoin de collaboration entre les épouses soignantes et le personnel dans une perspective de maintien et d'augmentation de la qualityé des soins accorded par les épouses aînées dont le conjoint est placé en établissement.
APA, Harvard, Vancouver, ISO, and other styles
2

Lelard, T., A. Temfemo, L. Bastide, C. Assaiante, and S. Ahmaidi. "Performance posturale et doubles tâches : les différences enfants adultes." Neurophysiologie Clinique/Clinical Neurophysiology 42, no. 6 (December 2012): 396. http://dx.doi.org/10.1016/j.neucli.2012.09.034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ermine, Jean-Louis, Mahmoud Moradi, and Stéphane Brunel. "Une chaîne de valeur de la connaissance." Management international 16 (September 20, 2012): 29–40. http://dx.doi.org/10.7202/1012391ar.

Full text
Abstract:
Cet article définit ce qu’est une chaîne de valeur de la connaissance (KVC pour « Knowledge Value Chain »), permettant de gérer les processus de transformation impliquant la connaissance dans une entreprise, afin d’en obtenir la meilleure performance possible. Il propose une définition basée sur la célèbre hiérarchie DIKW (Data, Information, Knowledge, Wisdom), composée de tâches intellectuelles de base. La valeur ajoutée par chaque tâche est expliquée et discutée. La KVC est ainsi interprétée comme un continuum de processus cognitifs à mettre en oeuvre pour enrichir progressivement le capital de connaissances de l’entreprise et générer de la valeur ajoutée.
APA, Harvard, Vancouver, ISO, and other styles
4

Rousseau, Jacqueline, Élisabeth Dutil, and Jean Lambert. "Fidélité inter-examinateurs du “Profil des AVQ-Mise en situation” chez la personne traumatisée cranio-encéphalique Partie 2: Étude sur la cote des opérations." Canadian Journal of Occupational Therapy 61, no. 3 (August 1994): 159–67. http://dx.doi.org/10.1177/000841749406100305.

Full text
Abstract:
Cet article présente la suite d'une recherche concernant la fidélité inter-examinateurs du “Profil des AVQ-Mise en situation”. L'ouvrage précédent, en partie 1, s'attardait à la cote globale de chacune des 21 tâches de l'instrument. L'objectif de l‘étude actuelle est de vérifier la fidélité interexaminateurs des opérations (processus de réalisation d'une tâche) de ce nouvel instrument. Dix-neuf personnes traumatisées cranio-encéphaliques ont participé â l’étude. Trois ergothérapeutes ont testé l'instrument. La statistique kappa (k), démontre que k varie entre: 1) 0,10 et 0,59 pour Formuler des objectifs 2) 0,03 et 0,53 pour Planifier la tâche 3) 0,03 et 0,64 pour Régler la performance et 4) 0,01 et 0,62 pour S'assurer de la qualité de la performance. L'opération Formuler des objectifs démontre des coefficients plus élevés pour l'environnement personnel tandis que S'assurer de la qualité de la performance présente cette tendance pour l'environnement communautaire. Cette étude a permis d'identifier et de proposer des solutions aux biais possibles lors de l'utilisation de l'instrument afin d'en améliorer la précision.
APA, Harvard, Vancouver, ISO, and other styles
5

Koppel, Sjaan, Judith L. Charlton, Jim Langford, Marilyn Di Stefano, Wendy MacDonald, Zafiroula Vlahodimitrakou, Barbara L. Mazer, et al. "Driving Task: How Older Drivers’ On-Road Driving Performance Relates to Abilities, Perceptions, and Restrictions." Canadian Journal on Aging / La Revue canadienne du vieillissement 35, S1 (March 29, 2016): 15–31. http://dx.doi.org/10.1017/s0714980816000015.

Full text
Abstract:
RÉSUMÉCette étude a examiné une cohorte de 227 conducteurs âgés et a étudié la relation entre leur performance sur la grille d’observation e-DOS pour manœuvres de conduite et (1) les caractéristiques des conducteurs; (2) les capacités fonctionnelles; (3) les perceptions des capacités et le confort pendant la conduite, ainsi que (4) les restrictions auto-déclarées de la conduite. Les participants (hommes: 70%; âge: M = 81.53 ans, É-T = 3,37 ans) a achevé une série de mesures de la capacité fonctionnelle et d’écailles sur le confort, les capacités et les restrictions aperçut du Candrive / Ozcandrive protocole d’évaluation Année 2, avec une tâche de conduite e-DOS. Les observations des comportements de conduite des participants au cours de la tâche de conduite ont été enregistrées pour : la négociation au carrefour, le changement de voie, la fusion, les manœuvres à basse vitesse, et la conduite sans manoeuvres. Les scores de conduite e-DOS étaient élevés (M = 94,74; É-T = 5,70) et étaient liés d’une façon significative aux capacité de conduite perçu des participants, la fréquence rapporté de la conduite dans des situations difficiles, et le nombre de restrictions de la conduite. Les analyses futures exploreront les changements potentiels dans les scores de tâches de conduite au fil du temps.
APA, Harvard, Vancouver, ISO, and other styles
6

Taktek, Khaled. "Hypothèse de la variabilité de la pratique physique mise en perspective : recension des écrits et discussions méthodologiques." Revue des sciences de l'éducation 35, no. 2 (December 16, 2009): 177–97. http://dx.doi.org/10.7202/038734ar.

Full text
Abstract:
Résumé Cet article porte sur les résultats de recherches traitant de l’hypothèse de la variabilité de la pratique physique. De plus, il décrit les principaux facteurs pouvant influencer l’apprentissage moteur et la performance motrice. Finalement, des stratégies d’organisation de la pratique physique sont proposées pour les enseignants d’éducation physique ainsi que pour les entraîneurs sportifs. Plus particulièrement, la pratique physique spécifique est suggérée quand il s’agit d’adultes, de garçons, d’experts, ainsi que de tâches simples et lentes de positionnement linéaire. En revanche, la pratique physique variable est recommandée quand il s’agit d’enfants, de novices, de filles, ainsi que de tâches balistiques rapides et complexes faisant appel à un processus de formation de schéma moteur.
APA, Harvard, Vancouver, ISO, and other styles
7

Karpińska-Szaj, Katarzyna, and Bernadeta Wojciechowska. "LA PERFORMANCE MORPHOSYNTAXIQUE DANS LES TÂCHES DE REFORMULATION ÉCRITE. CAS D’ÉTUDIANTS DÉBUTANTS DE FLE." Neofilolog, no. 44/1 (July 4, 2019): 73–89. http://dx.doi.org/10.14746/n.2015.44.1.06.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Demers, Diane L., and Karen Messing. "Les tests de sélection : une course à obstacles vers l’égalité économique des femmes." Articles 14, no. 1 (April 12, 2005): 15–48. http://dx.doi.org/10.7202/058123ar.

Full text
Abstract:
Dans le marché du travail, nombreux sont les emplois bien rémunérés auxquels les femmes ne peuvent accéder. Elles font face à plusieurs obstacles dans la reconnaissance de leur capacité à occuper ces emplois ou à exécuter ces tâches, traditionnellement dévolus à des hommes. L'un des plus significatifs provient des tests de sélection qui favorisent le maintien du statu quo en fait de main-d’œuvre, ils reproduisent généralement les caractéristiques des personnes qui occupent le poste, le plus souvent des hommes, la fonction telle qu'elle est exécutée par celles-ci et requièrent des normes de performance fixées par l'employeur. Les auteures ont étudié ce phénomène à travers les décisions des tribunaux des droits de la personne et des arbitres de grief portant sur la contestation des résultats aux tests. En ce qui concerne les droits de la personne, la situation a passablement évolué. Les employeurs sont forcés d'expliquer tant les modalités d'exécution de la tâche que la nécessité des tests requis ou des performances recherchées. En matière d'arbitrage de grief, les mêmes règles s'appliquent. Toutefois, rares sont les contestations qui portent sur les tests eux-mêmes. Les féministes devraient mettre en question non seulement les applications des tests mais aussi la nature, la pertinence et l'importance des capacités évaluées.
APA, Harvard, Vancouver, ISO, and other styles
9

Gosselin, Jérémie, and Isabelle Blanchette. "L’INFLUENCE DES ÉMOTIONS INTÉGRALES POSITIVES SUR LE RAISONNEMENT DÉDUCTIF ET INDUCTIF." ARTICLES LIBRES 39, no. 2 (September 10, 2018): 245–68. http://dx.doi.org/10.7202/1051230ar.

Full text
Abstract:
Nous avons évalué la façon dont des participants raisonnent sur un contenu positif lié à leur historique affectif. Deux groupes (parent; non parent) effectuaient des tâches de déduction et d’induction dont les contenus étaient neutre, émotif-général et émotif-lié à la parentalité. Les participants évaluaient le niveau d’émotivité des contenus. Le groupe parent avait une performance équivalente pour la déduction au groupe non parent sur le contenu émotif-lié à la parentalité, malgré un niveau d’émotivité plus élevé. Les résultats appuient partiellement la conclusion que le raisonnement est influencé différemment selon que les émotions soient liées ou non aux expériences personnelles.
APA, Harvard, Vancouver, ISO, and other styles
10

Gagné, Andréanne, and Martha Crago. "Étude corrélationnelle de la production narrative chez des enfants du primaire pour mieux intervenir au préscolaire." Revue des sciences de l’éducation 38, no. 3 (February 18, 2014): 509–32. http://dx.doi.org/10.7202/1022710ar.

Full text
Abstract:
La production narrative est une variable prédictive de la réussite scolaire et un bon indice du développement langagier et cognitif. Cette étude identifie les corrélats de la performance narrative à l’âge scolaire. Trente-six enfants âgés entre 7 et 9 ans ont effectué des tâches de fonctions exécutives, d’habiletés linguistiques et de narration. Les résultats des analyses corrélationnelles et des régressions multiples montrent que les fonctions exécutives de planification et les expressions déictiques sont des variables prédictives significatives en macrostructure de narration, et que les fonctions exécutives sont reliées à l’utilisation de structures de phrases complexes sur le plan de la microstructure.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Tâches de performance"

1

Carastan, dos Santos Danilo. "Apprentissage sur heuristiques simples pour l'ordonnancement online de tâches parallèles." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM052.

Full text
Abstract:
Les plate-formes de Calcul Haute Performance (High Performance Computing, HPC) augmentent en taille et en complexité. De manière contradictoire, la demande en énergie de telles plates-formes a également rapidement augmenté. Les supercalculateurs actuels ont besoin d’une puissance équivalente à celle de toute une centrale d’énergie. Dans le but de faire un usage plus responsable de ce puissance de calcul, les chercheurs consacrent beaucoup d’efforts à la conception d’algorithmes et de techniques permettant d’améliorer différents aspects de performance, tels que l’ordonnancement et la gestion des ressources. Cependent, les responsables des plate-formes HPC hésitent encore à déployer des méthodes d’ordonnancement à la fine pointe de la technologie et la plupart d’entre eux recourent à des méthodes heuristiques simples, telles que l’EASY Backfilling, qui repose sur un tri naïf premier arrivé, premier servi. Les nouvelles méthodes sont souvent complexes et obscures, et la simplicité et la transparence de l’EASY Backfilling sont trop importantes pour être sacrifiées.Dans un premier temps, nous explorons les techniques d’Apprentissage Automatique (Machine Learning, ML) pour apprendre des méthodes heuristiques d’ordonnancement online de tâches parallèles. À l’aide de simulations et d’un modèle de génération de charge de travail, nous avons pu déterminer les caractéristiques des applications HPC (tâches) qui contribuent pour une réduction du ralentissement moyen des tâches dans une file d’attente d’exécution. La modélisation de ces caractéristiques par une fonction non linéaire et l’application de cette fonction pour sélectionner la prochaine tâche à exécuter dans une file d’attente ont amélioré le ralentissement moyen des tâches dans les charges de travail synthétiques. Appliquées à des traces de charges de travail réelles de plate-formes HPC très différents, ces fonctions ont néanmoins permis d’améliorer les performances, attestant de la capacité de généralisation des heuristiques obtenues.Dans un deuxième temps, à l’aide de simulations et de traces de charge de travail de plusieurs plates-formes HPC réelles, nous avons effectué une analyse approfondie des résultats cumulés de quatre heuristiques simples d’ordonnancement (y compris l’EASY Backfilling). Nous avons également évalué des outres effets tels que la relation entre la taille des tâches et leur ralentissement, la distribution des valeurs de ralentissement et le nombre de tâches mises en calcul par backfilling, par chaque plate-forme HPC et politique d’ordonnancement. Nous démontrons de manière expérimentale que l’on ne peut que gagner en remplaçant l’EASY Backfilling par la stratégie SAF (Smallest estimated Area First) aidée par backfilling, car elle offre une amélioration des performances allant jusqu’à 80% dans la métrique de ralentissement, tout en maintenant la simplicité et la transparence d’EASY Backfilling. La SAF réduit le nombre de tâches à hautes valeurs de ralentissement et, par l’inclusion d’un mécanisme de seuillage simple, nous garantonts l’absence d’inanition de tâches.Dans l’ensemble, nous avons obtenu les remarques suivantes : (i) des heuristiques simples et efficaces sous la forme d’une fonction non linéaire des caractéristiques des tâches peuvent être apprises automatiquement, bien qu’il soit subjectif de conclure si le raisonnement qui sous-tend les décisions d’ordonnancement de ces heuristiques est clair ou non. (ii) La zone (l’estimation du temps d’exécution multipliée par le nombre de processeurs) des tâches semble être une propriété assez importante pour une bonne heuristique d’ordonnancement des tâches parallèles, car un bon nombre d’heuristiques (notamment la SAF) qui ont obtenu de bonnes performances ont la zone de la tâche comme entrée (iii) Le mécanisme de backfilling semble toujours contribuer à améliorer les performances, bien que cela ne remédie pas à un meilleur tri de la file d’attente de tâches, tel que celui effectué par SAF
High-Performance Computing (HPC) platforms are growing in size and complexity. In an adversarial manner, the power demand of such platforms has rapidly grown as well, and current top supercomputers require power at the scale of an entire power plant. In an effort to make a more responsible usage of such power, researchers are devoting a great amount of effort to devise algorithms and techniques to improve different aspects of performance such as scheduling and resource management. But HPC platform maintainers are still reluctant to deploy state of the art scheduling methods and most of them revert to simple heuristics such as EASY Backfilling, which is based in a naive First-Come-First-Served (FCFS) ordering. Newer methods are often complex and obscure, and the simplicity and transparency of EASY Backfilling are too important to sacrifice.At a first moment we explored Machine Learning (ML) techniques to learn on-line parallel job scheduling heuristics. Using simulations and a workload generation model, we could determine the characteristics of HPC applications (jobs) that lead to a reduction in the mean slowdown of jobs in an execution queue. Modeling these characteristics using a nonlinear function and applying this function to select the next job to execute in a queue improved the mean task slowdown in synthetic workloads. When applied to real workload traces from highly different machines, these functions still resulted in performance improvements, attesting the generalization capability of the obtained heuristics.At a second moment, using simulations and workload traces from several real HPC platforms, we performed a thorough analysis of the cumulative results of four simple scheduling heuristics (including EASY Backfilling). We also evaluated effects such as the relationship between job size and slowdown, the distribution of slowdown values, and the number of backfilled jobs, for each HPC platform and scheduling policy. We show experimental evidence that one can only gain by replacing EASY Backfilling with the Smallest estimated Area First (SAF) policy with backfilling, as it offers improvements in performance by up to 80% in the slowdown metric while maintaining the simplicity and the transparency of EASY. SAF reduces the number of jobs with large slowdowns and the inclusion of a simple thresholding mechanism guarantees that no starvation occurs.Overall we achieved the following remarks: (i) simple and efficient scheduling heuristics in the form of a nonlinear function of the jobs characteristics can be learned automatically, though whether the reasoning behind their scheduling decisions is clear or not can be up to argument. (ii) The area (processing time estimate multiplied by the number of processors) of the jobs seems to be a quite important property for good parallel job scheduling heuristics, since many of the heuristics (notably SAF) that achieved good performances have the job's area as input. (iii) The backfilling mechanism seems to always help in increasing performance, though it does not outperform a better sorting of the jobs waiting queue, such as the sorting performed by SAF
APA, Harvard, Vancouver, ISO, and other styles
2

Garcia, Pinto Vinicius. "Stratégies d'analyse de performance pour les applications basées sur tâches sur plates-formes hybrides." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM058/document.

Full text
Abstract:
Les techniques de programmations pour le calcul de haute performanceont adopté les modèles basés sur parallélisme de tâche qui sontcapables de s’adapter plus facilement à des superordinateurs avec desarchitectures hybrides. La performance des applications basées surtâches dépende fortement des heuristiques d'ordonnancement dynamiqueset de sa capacité à exploiter les ressources de calcul et decommunication.Malheureusement, les stratégies d'analyse de performancetraditionnelles ne sont pas convenables pour comprendre les supportsd'exécution dynamiques et les applications basées sur tâches. Cesstratégies prévoient un comportement régulier avec des phases decalcul et de communication, par contre, des applications basées surtâches ne manifestent pas de phases précises. Par ailleurs, la granularitéplus fine des applications basées sur tâches typiquement provoque descomportements stochastiques qui donnent lieu aux structuresirrégulières qui sont difficiles à analyser.Dans cette thèse, nous proposons des stratégies d'analyse deperformance qui exploitent la combinaison de la structure del'application, d'ordonnancement et des informations de laplate-forme. Nous présentons comment nos stratégies peuvent aider àcomprendre des problèmes de performance dans des applications baséesur tâches qui exécutent dans des plates-formes hybrides. Nosstratégies d'analyse de performance sont construites avec des outilsmodernes pour l'analyse de données, ce que permettre la création despanneaux de visualisation personnalisés. Ces panneaux permettent lacompréhension et l'identification de problèmes de performancesoccasionnés par de mauvaises décisions d'ordonnancement etconfiguration incorrect du support d'exécution et de laplate-forme. Grâce à combinaison de simulation et débogage nouspouvons aussi construire une représentation visuelle de l'état interneet des estimations calculées par l'ordonnancer durant l'ordonnancementd'une nouvelle tâche.Nous validons notre proposition parmi de l'analyse de tracesd'exécutions d'une factorisation de Cholesky implémenté avec lesupport d'exécution StarPU et exécutée dans une plate-forme hybride(CPU/GPU). Nos études de cas montrent comment améliorer la partitiondes tâches entre le multi-(GPU, coeur) pour s'approcher des bornesinférieures théoriques, comment améliorer le pipeline des opérationsMPI entre le multi-(noeud, coeur, GPU) pour réduire le démarrage lentedans les noeuds distribués et comment optimiser le support d'exécutionpour augmenter la bande passante MPI. Avec l'emploi des stratégies desimulation et débogage, nous fournissons un workflow pourl'examiner, en détail, les décisions d'ordonnancement. Cela permet deproposer des changements pour améliorer les mécanismes d'ordonnancementet prefetch du support d'exécution
Programming paradigms in High-Performance Computing have been shiftingtoward task-based models that are capable of adapting readily toheterogeneous and scalable supercomputers. The performance oftask-based applications heavily depends on the runtime schedulingheuristics and on its ability to exploit computing and communicationresources.Unfortunately, the traditional performance analysis strategies areunfit to fully understand task-based runtime systems and applications:they expect a regular behavior with communication and computationphases, while task-based applications demonstrate no clearphases. Moreover, the finer granularity of task-based applicationstypically induces a stochastic behavior that leads to irregularstructures that are difficult to analyze.In this thesis, we propose performance analysis strategies thatexploit the combination of application structure, scheduler, andhardware information. We show how our strategies can help tounderstand performance issues of task-based applications running onhybrid platforms. Our performance analysis strategies are built on topof modern data analysis tools, enabling the creation of customvisualization panels that allow understanding and pinpointingperformance problems incurred by bad scheduling decisions andincorrect runtime system and platform configuration.By combining simulation and debugging we are also able to build a visualrepresentation of the internal state and the estimations computed bythe scheduler when scheduling a new task.We validate our proposal by analyzing traces from a Choleskydecomposition implemented with the StarPU task-based runtime systemand running on hybrid (CPU/GPU) platforms. Our case studies show howto enhance the task partitioning among the multi-(GPU, core) to getcloser to theoretical lower bounds, how to improve MPI pipelining inmulti-(node, core, GPU) to reduce the slow start in distributed nodesand how to upgrade the runtime system to increase MPI bandwidth. Byemploying simulation and debugging strategies, we also provide aworkflow to investigate, in depth, assumptions concerning the schedulerdecisions. This allows us to suggest changes to improve the runtimesystem scheduling and prefetch mechanisms
APA, Harvard, Vancouver, ISO, and other styles
3

Bouda, Florence. "Ecarts de performance dans des tâches spatiales de verticale et d'horizontale : Approche développementale." Montpellier 3, 1997. http://www.theses.fr/1997MON30007.

Full text
Abstract:
Nous analysons l'influence des facteurs perceptifs, representatifs et moteurs dans l'organisation et le controle de la performance dans des taches spatiales d'horizontale et de verticale. La coordination entre ces facteurs depend de la nature du dispositif et de l'age des sujets et peut etre a l'origine d'ecarts de performances. On sait que lorsqu'on change certains caracteristiques d'une tache, par exemple la consigne ou l'habillage, on peut faire varie les performances. A partir des travaux de piaget et inhelder (1947) sur l'horizontale et la verticale, nous avons realise des experiences avec deux types de dispositif : concret (bocaux reels et maquette de montagne) et graphique (dessins correspondants aux bocaux reels et a la maquette de montagne). En faisant varier les conditions d'execution (conditions visuelle et aveugle. . . ), nous avons analyse le role joue par certains facteurs sur la performance des sujets. Dans notre analyse nous faisons jouer un role important a la representation de la tache. Les resultats montrent que la nature du dispositif et les conditions d'execution influent sur la representation de la tache et entrainent des ecarts de performances. Globalement les performances sont meilleures sur le dispositif concret que sur le dispositif graphique. Les ecarts de performances sont plus importants a 7-8 ans. L'analyse des proprietes des ecarts de performances nous permet de distinguer ceux qui dependent essentiellement des proprietes du dispositif (les sujets parviennent a les annuler) et les "vrais" ecarts que les sujets ne peuvent pas annuler. Les resultats montrent aussi l'importance des donnees visuelles dans le controle de la performance : lorsqu'on les supprime (condition aveugle) les performances ont tendance a s'ameliorer. En conclusion, ces resultats sont discutes en considerant les contraintes qui pesent sur l'execution dans les differentes conditions et celles de la representation que le sujet met au point pour executer les taches. Mots-cles : ecart de performance, perception, representation, espace, developpement
We have analysed the influence of perceptive, representative and moteur factors in the evaluation of performances in horizontal and vertical spacial tasks (organising and monitoring). The coordination between these factors depends on the type of experimental device and on the children's age. This coordination may originate differences in performance. It is known that the fact of changing a number of characteristics in a task, such as the instructions given to the children or the materials tends to alter the results (performances) of the children. Based on the previous studies of piaget and inhelder (1947) on the horizontal and vertical tasks, we have carried out experiences with two types of devices : a "concrete" device, with real bowls and a mountain model : and a graphic one (drawing representing the real bowls and the mountain model). By changing the conditions in which these exercices took place (with and without a blinfold), we have analysed the part played by some factors in the children's performance. In our analysis, we concentrated on the representation of the task (in the determination of the performance). Results show that both the type of device and the conditions in which these exercises took place have an effect on the representation of the representation of the task and entail difference in performance. The performances from the concrete experience are globally better than those of drawing one. Differences in performance are more significant with children aged 7 to 8. An analysis of the properties of these differences allows to distinguish differences due to the characteristics of the structure - children manage to forget about these effects - and "real" differences - children cannot avoid these effects. These results show the significance of visual datas for the monotoring of the results. Without visual datas, ie. With a blindfold, the children's performances improve. As a conclusion, the results are discussed considering the different conditions and factors (perceptive, representative and motor) which influence the execution of the tasks. Key words : differences in performance, perception, representation, space, development
APA, Harvard, Vancouver, ISO, and other styles
4

Cojean, Terry. "Programmation des architectures hétérogènes à l'aide de tâches divisibles ou modulables." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0041/document.

Full text
Abstract:
Les ordinateurs équipés d'accélérateurs sont omniprésents parmi les machines de calcul haute performance. Cette évolution a entraîné des efforts de recherche pour concevoir des outils permettant de programmer facilement des applications capables d'utiliser toutes les unités de calcul de ces machines. Le support d'exécution StarPU développé dans l'équipe STORM de INRIA Bordeaux, a été conçu pour servir de cible à des compilateurs de langages parallèles et des bibliothèques spécialisées (algèbre linéaire, développements de Fourier, etc.). Pour proposer la portabilité des codes et des performances aux applications, StarPU ordonnance des graphes dynamiques de tâches de manière efficace sur l’ensemble des ressources hétérogènes de la machine. L’un des aspects les plus difficiles, lors du découpage d’une application en graphe de tâches, est de choisir la granularité de ce découpage, qui va typiquement de pair avec la taille des blocs utilisés pour partitionner les données du problème. Les granularités trop petites ne permettent pas d’exploiter efficacement les accélérateurs de type GPU, qui ont besoin de peu de tâches possédant un parallélisme interne de données massif pour « tourner à plein régime ». À l’inverse, les processeurs traditionnels exhibent souvent des performances optimales à des granularités beaucoup plus fines. Le choix du grain d’un tâche dépend non seulement du type de l'unité de calcul sur lequel elle s’exécutera, mais il a en outre une influence sur la quantité de parallélisme disponible dans le système : trop de petites tâches risque d’inonder le système en introduisant un surcoût inutile, alors que peu de grosses tâches risque d’aboutir à un déficit de parallélisme. Actuellement, la plupart des approches pour solutionner ce problème dépendent de l'utilisation d'une granularité des tâches intermédiaire qui ne permet pas un usage optimal des ressources aussi bien du processeur que des accélérateurs. L'objectif de cette thèse est d'appréhender ce problème de granularité en agrégeant des ressources afin de ne plus considérer de nombreuses ressources séparées mais quelques grosses ressources collaborant à l'exécution de la même tâche. Un modèle théorique existe depuis plusieurs dizaines d'années pour représenter ce procédé : les tâches parallèles. Le travail de cette thèse consiste alors en l'utilisation pratique de ce modèle via l'implantation de mécanismes de gestion de tâches parallèles dans StarPU et l'implantation ainsi que l'évaluation d'ordonnanceurs de tâches parallèles de la littérature. La validation du modèle se fait dans le cadre de l'amélioration de la programmation et de l'optimisation de l'exécution d'applications numériques au dessus de machines de calcul modernes
Hybrid computing platforms equipped with accelerators are now commonplace in high performance computing platforms. Due to this evolution, researchers concentrated their efforts on conceiving tools aiming to ease the programmation of applications able to use all computing units of such machines. The StarPU runtime system developed in the STORM team at INRIA Bordeaux was conceived to be a target for parallel language compilers and specialized libraries (linear algebra, Fourier transforms,...). To provide the portability of codes and performances to applications, StarPU schedules dynamic task graphs efficiently on all heterogeneous computing units of the machine. One of the most difficult aspects when expressing an application into a graph of task is to choose the granularity of the tasks, which typically goes hand in hand with the size of blocs used to partition the problem's data. Small granularity do not allow to efficiently use accelerators such as GPUs which require a small amount of task with massive inner data-parallelism in order to obtain peak performance. Inversely, processors typically exhibit optimal performances with a big amount of tasks possessing smaller granularities. The choice of the task granularity not only depends on the type of computing units on which it will be executed, but in addition it will influence the quantity of parallelism available in the system: too many small tasks may flood the runtime system by introducing overhead, whereas too many small tasks may create a parallelism deficiency. Currently, most approaches rely on finding a compromise granularity of tasks which does not make optimal use of both CPU and accelerator resources. The objective of this thesis is to solve this granularity problem by aggregating resources in order to view them not as many small resources but fewer larger ones collaborating to the execution of the same task. One theoretical machine and scheduling model allowing to represent this process exists since several decades: the parallel tasks. The main contributions of this thesis are to make practical use of this model by implementing a parallel task mechanism inside StarPU and to implement and study parallel task schedulers of the literature. The validation of the model is made by improving the programmation and optimizing the execution of numerical applications on top of modern computing machines
APA, Harvard, Vancouver, ISO, and other styles
5

Garlet, Milani Luís Felipe. "Autotuning assisté par apprentissage automatique de tâches OpenMP." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM022.

Full text
Abstract:
Les architectures informatiques modernes sont très complexes, nécessitant un grand effort de programmation pour obtenir toute la performance que le matériel est capable de fournir. En effet, alors que les développeurs connaissent les optimisations potentielles, la seule façon possible de dire laquelle est le plus rapide pour une plate-forme est de le tester. En outre, les nombreuses différences entre deux plates-formes informatiques, dans le nombre de cœurs, les tailles de cache, l'interconnexion, les fréquences de processeur et de mémoire, etc, rendent très difficile la bonne exécution du même code sur plusieurs systèmes. Pour extraire le plus de performances, il est souvent nécessaire d'affiner le code pour chaque système. Par conséquent, les développeurs adoptent l'autotuning pour atteindre un certain degré de performance portable. De cette façon, les optimisations potentielles peuvent être spécifiées une seule fois et, après avoir testé chaque possibilité sur une plate-forme, obtenir une version haute performance du code pour cette plate-forme particulière. Toutefois, cette technique nécessite de régler chaque application pour chaque plate-forme quelle cible. Non seulement cela prend du temps, mais l'autotuning et l'exécution réelle de l'application diffèrent. Des différences dans les données peuvent déclencher un comportement différent, ou il peut y avoir différentes interactions entre les fils dans l'autotuning et l'exécution réelle. Cela peut conduire à des décisions sous-optimales si l'autotuner choisit une version qui est optimale pour la formation, mais pas pour l'exécution réelle de l'application. Nous proposons l'utilisation d'autotuning pour sélectionner les versions du code pertinentes pour une gamme de plates-formes et, lors de l'exécution de l'application, le système de temps d'exécution identifie la meilleure version à utiliser à l'aide de l'une des trois politiques que nous proposons: Mean, Upper Confidence Bound et Gradient Bandit. De cette façon, l'effort de formation est diminué et il permet l'utilisation du même ensemble de versions avec différentes plates-formes sans sacrifier les performances. Nous concluons que les politiques proposées peuvent identifier la version à utiliser sans subir de pertes de performance substantielles. De plus, lorsque l'utilisateur ne connaît pas suffisamment de détails de l'application pour configurer de manière optimale la politique d'exploration puis de validation utilisée par d'autres systèmes de temps d'exécution, la politique UCB plus adaptable peut être utilisée à sa place
Modern computer architectures are highly complex, requiring great programming effort to obtain all the performance the hardware is capable of delivering. Indeed, while developers know potential optimizations, the only feasible way to tell which of them is faster for some platform is to test it. Furthermore, the many differences between two computer platforms, in the number of cores, cache sizes, interconnect, processor and memory frequencies, etc, makes it very challenging to have the same code perform well over several systems. To extract the most performance, it is often necessary to fine-tune the code for each system. Consequently, developers adopt autotuning to achieve some degree of portable performance. This way, the potential optimizations can be specified once, and, after testing each possibility on a platform, obtain a high-performance version of the code for that particular platform. However, this technique requires tuning each application for each platform it targets. This is not only time consuming but the autotuning and the real execution of the application differ. Differences in the data may trigger different behaviour, or there may be different interactions between the threads in the autotuning and the actual execution. This can lead to suboptimal decisions if the autotuner chooses a version that is optimal for the training but not for the real execution of the application. We propose the use of autotuning for selecting versions of the code relevant for a range of platforms and, during the execution of the application, the runtime system identifies the best version to use using one of three policies we propose: Mean, Upper Confidence Bound, and Gradient Bandit. This way, training effort is decreased and it enables the use of the same set of versions with different platforms without sacrificing performance. We conclude that the proposed policies can identify the version to use without incurring substantial performance losses. Furthermore, when the user does not know enough details of the application to configure optimally the explore-then-commit policy usedy by other runtime systems, the more adaptable UCB policy can be used in its place
APA, Harvard, Vancouver, ISO, and other styles
6

Navet, Nicolas. "Évaluation de performances temporelles et optimisation de l'ordonnancement de tâches et messages." Vandoeuvre-les-Nancy, INPL, 1999. http://docnum.univ-lorraine.fr/public/INPL_T_1999_NAVET_N.pdf.

Full text
Abstract:
Notre premier objectif est de proposer des méthodes et des outils de vérification du respect des contraintes temporelles d'une application temps réel. Le principal cadre d'application de nos travaux est celui des applications embarquées dans l'automobile distribuées autour d'un réseau CAN. La validation est menée en couplant les techniques de vérification : simulation, analyse et observation sur prototypes. L’apport principal de cette thèse réside en la conception de modèles analytiques qui fournissent des bornes sur les métriques de performance considérées (temps de réponse, probabilité de non-respect des échéances) ou permettant d'évaluer l'occurrence d'événements rares (temps d'atteinte de l'état bus-off d'une station CAN). Nous proposons également une analyse d'ordonnancabilité des applications s'exécutant sur des systèmes d'exploitation se conformant au standard posix1003. 1b. Ensuite, considérant qu'il existe généralement plusieurs solutions d'ordonnancement faisables à un même problème, nous avons défini des critères de choix et avons expérimenté une approche, utilisant un algorithme génétique, pour parcourir l'espace des solutions. Notre second objectif est d'étudier des mécanismes d'ordonnancement qui garantissent le respect des échéances du trafic a contraintes strictes tout en minimisant les temps de réponse du trafic a contraintes souples. Nous évaluons les performances de la politique dual-priority pour l'ordonnancement de messages. Pour son utilisation dans des environnements bruites, nous proposons un mécanisme simple donnant des garanties sur la qualité de service exprimée en termes de probabilité de respect des échéances et s'adaptant en-ligne a des conditions de perturbations variables. Nous proposons également une politique concurrente, basée sur une technique de lissage de flux, qui est d'une mise en oeuvre plus aisée. Cette politique préserve la faisabilité du système et sa faible complexité algorithmique permet son utilisation en-ligne.
APA, Harvard, Vancouver, ISO, and other styles
7

Moreaud, Stéphanie. "Mouvement de données et placement des tâches pour les communications haute performance sur machines hiérarchiques." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00635651.

Full text
Abstract:
Les architectures des machines de calcul sont de plus en plus complexes et hiérarchiques, avec des processeurs multicœurs, des bancs mémoire distribués, et de multiples bus d'entrées-sorties. Dans le cadre du calcul haute performance, l'efficacité de l'exécution des applications parallèles dépend du coût de communication entre les tâches participantes qui est impacté par l'organisation des ressources, en particulier par les effets NUMA ou de cache. Les travaux de cette thèse visent à l'étude et à l'optimisation des communications haute performance sur les architectures hiérarchiques modernes. Ils consistent tout d'abord en l'évaluation de l'impact de la topologie matérielle sur les performances des mouvements de données, internes aux calculateurs ou au travers de réseaux rapides, et pour différentes stratégies de transfert, types de matériel et plateformes. Dans une optique d'amélioration et de portabilité des performances, nous proposons ensuite de prendre en compte les affinités entre les communications et le matériel au sein des bibliothèques de communication. Ces recherches s'articulent autour de l'adaptation du placement des tâches en fonction des schémas de transfert et de la topologie des calculateurs, ou au contraire autour de l'adaptation des stratégies de mouvement de données à une répartition définie des tâches. Ce travail, intégré aux principales bibliothèques MPI, permet de réduire de façon significative le coût des communications et d'améliorer ainsi les performances applicatives. Les résultats obtenus témoignent de la nécessité de prendre en compte les caractéristiques matérielles des machines modernes pour en exploiter la quintessence.
APA, Harvard, Vancouver, ISO, and other styles
8

Tyndiuk, Florence. "Référentiels Spatiaux des Tâches d'Interaction et Caractéristiques de l'Utilisateur influençant la Performance en Réalité Virtuelle." Phd thesis, Université Victor Segalen - Bordeaux II, 2005. http://tel.archives-ouvertes.fr/tel-00162297.

Full text
Abstract:
En réalité virtuelle, pour adapter les interfaces aux utilisateurs, deux dimensions doivent être étudiées : la tâche et l'utilisateur.
La première concerne les tâches d'interaction en réalité virtuelle, plus particulièrement la manipulation et la locomotion. L'étude et la comparaison des propriétés spatiales des environnements réels et virtuels nous permettent de proposer des modèles hiérarchiques de ces tâches, spécifiant les configurations d'interaction problématiques pour un utilisateur. En fonction de ces configurations problématiques, un concepteur devra contraindre le déplacement ou aider l'interaction. La principale difficulté que nous avons identifiée est l'adaptation de l'interface aux référentiels spatiaux de l'utilisateur (égocentrique, exocentrique).
La seconde dimension concerne l'identification des caractéristiques de l'utilisateur influençant la performance en fonction de la tâche (locomotion vs. manipulation) et de l'interface (immersive visuellement vs. peu immersive visuellement). Pour la configuration n'induisant que peu d'immersion visuelle, un écran d'ordinateur et un grand écran sont utilisés, l'angle de vue de l'utilisateur est conservé constant. Cette étude montre l'impact sur la performance d'interaction des capacités spatiales, de la dépendance-indépendance à l'égard du champ et de l'expérience en jeu vidéo, pour différentes interfaces et tâches. Nous montrons notamment qu'un grand écran peut soutenir la performance et minimiser l'influence des capacités spatiales sur celle-ci.
APA, Harvard, Vancouver, ISO, and other styles
9

Gagné, Marie-Ève. "Performance à des tâches locomotrices et cognitives simultanées à la suite de traumatismes craniocérébraux légers." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/36743.

Full text
Abstract:
Le traumatisme craniocérébral léger (TCCL) peut entraîner des altérations cognitives, sensorimotrices et neurophysiologiques, qui perdurent quelques jours et à des mois suivant l’impact. Actuellement, les évaluations traditionnelles évaluent ces difficultés de façon isolée, en s’intéressant à la motricité et la cognition séparément. Cela est peu représentatif du fonctionnement de l’individu au quotidien, où les demandes cognitives et sensorimotrices sont souvent simultanées. Des études en laboratoire ont suggéré que les doubles-tâches locomotrices-cognitives sont prometteuses afin de détecter les différences entre des participants contrôles et les individus avec TCCL. Cependant, les études demeurent hétérogènes en termes de tâches utilisées, peu d'entre elles s’intéressent aux variables personnelles influençant la performance aux doubles-tâches et plusieurs proposent des protocoles qui ne sont pas transférables en clinique. Cette thèse vise donc à investiguer la sensibilité des doubles-tâches à la fois en laboratoire (étude 1) et dans un contexte clinique (étude 2). La première étude, menée en laboratoire de marche, avait comme objectifs de (1) comparer la performance motrice et cognitive chez des participants TCCL et contrôles en utilisant différentes combinaisons de doubles-tâches et (2) corréler l’historique d’impacts subis avec la performance en double-tâche. De façon exploratoire, les liens entre la performance neuropsychologique avec la performance en double-tâche ont été étudiés. Dixhuit participants avec TCCL (13 femmes; âge 21.89 ±3.76, 59.56 jours post-TCCL ±24.12) et quinze participants contrôles en santé (9 femmes; âge 22.20 ±4.33) ont été recrutés. Le système d’analyse de capture du mouvement (Vicon) a été utilisé pour mesurer les paramètres de marche. Une batterie neuropsychologique a évalué la fluidité verbale, les fonctions exécutives, la mémoire et l’attention des participants. L’évaluation physiologique comprenait la force de préhension, la coordination, ainsi que l’équilibre statique et dynamique. Les symptômes subjectifs ont également été évalués. Dans un corridor de marche de 6 mètres, les participants effectuaient 3 conditions locomotrices; (1) marche à niveau, (2) marche à niveau et enjamber un obstacle profond (15 cm x 15 cm); (3) marche à niveau et enjamber un obstacle mince (15 cm x 3 cm), et 3 conditions cognitives; 1) compte à rebours par deux, (2) fluidité verbale et (3) tâche de Stroop. Ces tâches étaient effectuées en simples et doubles-tâches. En moyenne deux mois post-TCCL, aucune différence significative n’a été trouvée entre les groupes sur les résultats neuropsychologiques. L’évaluation physiologique a révélé que les participants TCCL avaient une vitesse de marche plus lente et plus instable que le groupe contrôle. L’expérimentation en doubletâche a démontré que le groupe TCCL avait une vitesse de marche plus lente, autant en tâche simple qu’en double-tâche, ainsi que des temps de réponse plus lents. Aucune combinaison de tâches ne s’est révélée plus sensible pour distinguer les groupes. La deuxième étude avait comme objectif de comparer des participants avec TCCL à un groupe contrôle en utilisant des technologies de base dans un contexte clinique. Vingt participants avec TCCL (10 femmes; âge 22.10 ±2.97, évalués en moyenne 70.9 jours post- TCCL ±22.31) et vingt participants contrôles (10 femmes; âge 22.55 ±2.72) ont été recrutés. Les symptômes subjectifs, l’historique d’impacts subis à la tête, une courte batterie neuropsychologique et des échelles de fatigue et de concentration pendant l’expérimentation ont été utilisées. L’expérimentation se déroulait dans un corridor de 10 m où les participants effectuaient deux allers-retours. Trois tâches locomotrices ont été employées : (1) marche à niveau, (2) marche à niveau et enjamber trois obstacles, (3) et marche en tandem. Deux tâches cognitives ont été employées : (1) un compte à rebours par 7, (2) et une tâche de fluidité verbale. Ces tâches étaient effectuées en simple et doubletâche. Un chronomètre et une grille d’observation servaient à colliger les mesures. Les résultats indiquent que le groupe TCCL démontrait des plus grands coûts de la double-tâche pour la vitesse de marche comparativement aux participants contrôles. De plus, les participants du groupe TCCL rapportaient être moins concentrés pendant les doublestâches. Cette thèse souligne la pertinence des protocoles en doubles-tâches, qui représenteraient une façon simple et sensible de révéler des altérations résiduelles potentielles après un TCCL. Plus de travail est nécessaire pour identifier les caractéristiques personnelles ayant une influence sur la performance en double-tâche. Une réflexion sur la façon d’élaborer des protocoles en considérant les restrictions et besoins de la clinique est nécessaire en vue de poursuivre la recherche sur les doubles-tâches.
Mild traumatic brain injury (mTBI), also known as concussion, can cause cognitive, sensorimotor and neurophysiological alterations which can be observed days and even months post-injury. Presently, mTBI clinical assessments are often focused on either cognitive deficits or physical function separately. Evaluating these spheres of function in isolation, however, is not always ecological enough to capture how an individual will function in day-to-day life where cognitive and sensorimotor demands are often simultaneous. Recent laboratory-based studies have suggested that dual-tasks combining motor and cognitive tasks are a promising way to detect differences between healthy participants and individuals having sustained mTBI. However, studies are very heterogeneous in terms of tasks used and variables measured, few of them focus on variables that could influence dual-task performance and many are not readily transferable to a clinical setting. This doctoral thesis aimed at identifying a sensitive, ecologically valid dual-task protocol combining locomotor and cognitive demands to evaluate the residual effects of mTBI both in a laboratory environment (Study 1) and a clinical setting (Study 2). Using gait laboratory measures, the first study’s objectives were (1) to compare performance on cognitive and gait parameters using different dual-tasks in healthy controls and young adults with mTBI, and (2) to examine the effect of number of mTBIs sustained on dual-task performance. Exploratory correlations to investigate relationships between neuropsychological testing and dual-task performance were also calculated. Eighteen participants with mTBI (13 women; age 21.89 ±3.76, on average 59.56 days post-injury ±24.12) and fifteen control participants (9 women; age 22.20 ±4.33) were recruited. A battery of neuropsychological tests was used to assess verbal fluency, executive function, memory and attention. A physiological examination comprised assessment of grip strength, upper-limb coordination, as well as static and dynamic balance. Subjective symptoms were also assessed. A 9-camera motion analysis system (Vicon) was used to characterize gait. Participants were asked to walk along a 6-meter walkway during three conditions of locomotion: (1) level-walking, (2) walking and stepping over a deep obstacle (15 cm high x 15 cm deep), and (3) walking and stepping over a narrow obstacle (15 cm high x 3 cm deep) and three cognitive conditions: (1) Counting backwards by 2s, (2) Verbal fluency, and (3) Stroop task. These tasks were performed in combination and as single tasks. No significant differences were found between groups on neuropsychological tests, but the physiological examination revealed that the mTBI group had slower gait speed and were more unstable than the control group. The dual-task experimentation showed that mTBI had slower gait speed, in both single and dual-tasks, and slower response time during dualtasks. No combination of dual-task was revealed to be more sensitive to distinguish groups. In a clinical-like setting, the second study’s objective was to compare mTBI individuals with healthy controls, using accessible technology to assess performance. Twenty participants with mTBI (10 women; age 22.10 ±2.97, 70.9 days post-injury ±22.31) and 20 control participants (10 women; age 22.55 ±2.72) were recruited. Subjective symptoms, history of impacts, a short neuropsychological battery and subjective fatigue and concentration symptoms during experimentation were used to characterized groups. Participants walked back and forth two times along a 10 m long corridor, during two locomotor conditions: (1) level-walking or (2) walking and stepping over three obstacles and two cognitive conditions; (1) Counting backwards by 7s, and (2) Verbal fluency. These tasks were performed in combination and as single-tasks. Only a stopwatch and an observation grid were used to assess performance. Participants reported being significantly less concentrated during dual-task experimentation. Significantly greater dual-task cost for gait speed in the mTBI group were observed, which demonstrated increased difficulty in dual-task, even more than two months following the injury. This thesis highlights that dual-task protocols combining locomotor and cognitive tasks could represent a simple, practical and sensitive way for clinicians to detect residual alterations even months following mTBI. More work is needed to identify personal characteristics, such as mTBI history, that could influence performance. A reflection on how protocols could be developed according to clinical restrictions and needs is much required in order to pursue research of dual-tasks.
APA, Harvard, Vancouver, ISO, and other styles
10

Bouvry, Pascal. "Placement de tâches sur ordinateurs parallèles à mémoire distribuée." Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00005081.

Full text
Abstract:
La demande croissante de puissance de calcul est telle que des ordinateurs de plus en plus performants sont fabriqués. Afin que ces machines puissent être facilement exploitées, les lacunes actuelles en terme d'environnements de programmation doivent être comblées. Le but à atteindre est de trouver un compromis entre recherche de performances et portabilité. Cette thèse s'intéresse plus particulièrement au placement statique de graphes de taches sur architectures parallèles a mémoire distribuée. Ce travail s'inscrit dans le cadre du projet INRIA-IMAG APACHE et du projet européen SEPP-COPERNICUS (Software Engineering for Parallel Processing). Le graphe de taches sans précédence est le modèle de représentation de programmes parallèles utilise dans cette thèse. Un tour d'horizon des solutions apportées dans la littérature au problème de l'ordonnancement et du placement est fourni. La possibilité d'utilisation des algorithmes de placement sur des graphes de précédence, après une phase de regroupement, est soulignée. Une solution originale est proposée, cette solution est interfacée avec un environnement de programmation complet. Trois types d'algorithmes (gloutons, iteratifs et exacts) ont été conçus et implémentes. Parmi ceux-ci, on retrouve plus particulièrement un recuit simule et une recherche tabu. Ces algorithmes optimisent différentes fonctions objectives (des plus simples et universelles aux plus complexes et ciblées). Les différents paramètres caractérisant le graphe de taches peuvent être affinés suite à un relevé de traces. Des outils de prise de traces permettent de valider les différentes fonctions de cout et les différents algorithmes d'optimisation. Un jeu de tests est défini et utilise. Les tests sont effectué sur le Mégapode (machine a 128 transputers), en utilisant comme routeur VCR de l'université de Southampton, les outils de génération de graphes synthétiques ANDES du projet ALPES (développé par l'équipe d'évaluation de performances du LGI-IMAG) et l'algorithme de regroupement DSC (Dominant Sequence Clustering) de PYRROS (développé par Tao Yang et Apostolos Gerasoulis). Mapping task graphs on distributed memory parallel computers
The growing needs in computing performance imply more complex computer architectures. The lack of good programming environments for these machines must be filled. The goal to be reached is to find a compromise solution between portability and performance. The subject of this thesis is studying the problem of static allocation of task graphs onto distributed memory parallel computers. This work takes part of the project INRIA-IMAG APACHE and of the european one SEPP-COPERNICUS (Software Engineering for Parallel Processing). The undirected task graph is the chosen programming model. A survey of the existing solutions for scheduling and for mapping problems is given. The possibility of using directed task graphs after a clustering phase is underlined. An original solution is designed and implemented ; this solution is implemented within a working programming environment. Three kinds of mapping algorithms are used: greedy, iterative and exact ones. Most developments have been done for tabu search and simulated annealing. These algorithms improve various objective functions (from most simple and portable to the most complex and architecturaly dependant). The weigths of the task graphs can be tuned using a post-mortem analysis of traces. The use of tracing tools leads to a validation of the cost function and of the mapping algorithms. A benchmark protocol is defined and used. The tests are runned on the Meganode (a 128 transputer machine) using VCR from the university of Southampton as a router, synthetic task graphs generation with ANDES of the ALPES project (developped by the performance evaluation team of the LGI-IMAG) and the Dominant Sequence Clustering of PYRROS (developped by Tao Yang and Apostolos Gerasoulis)
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Tâches de performance"

1

Corbeil, Paul. Les effets de rétroaction sur la satisfaction, la compétence perçue et la performance dans une tâche cognitive: Y a-t-il des différences entre les hommes et les femmes? Sudbury, Ont: Département de psychologie, Université Laurentienne, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Tâches de performance"

1

Lacaze, Xavier, Philippe Palanque, and David Navarre. "Analyse de performance et mod?les de Tâches comme support à la conception rationnelle des syst?mes interactifs." In the 14th French-speaking conference. New York, New York, USA: ACM Press, 2002. http://dx.doi.org/10.1145/777005.777009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Fourcade, A. "Apprentissage profond : un troisième oeil pour les praticiens." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601014.

Full text
Abstract:
« L’intelligence artificielle connaît un essor fulgurant depuis ces dernières années. Lapprentissage automatique et plus précisément lapprentissage profond grâce aux réseaux de neurones convolutifs ont permis des avancées majeures dans le domaine de la reconnaissance des formes. Cette présentation fait suite à mon travail de thèse. La première partie retrace lhistorique et décrit les principes de fonctionnement de ces réseaux. La seconde présente une revue de la littérature de leurs applications dans la pratique médicale de plusieurs spécialités, pour des tâches diagnostiques nécessitant une démarche visuelle (classification dimages et détection de lésions). Quinze articles, évaluant les performances de ces solutions dautomatisation, ont été analysés. La troisième partie est une discussion à propos des perspectives et des limites présentées par les réseaux de neurones convolutifs, ainsi que leurs possibles applications en chirurgie orale. »
APA, Harvard, Vancouver, ISO, and other styles
3

Bayssié, Laurent, and Laurent Chaudron. "Evaluation de la performance d'un opérateur en fonction de sa tâche. application aux IHM." In the 14th French-speaking conference. New York, New York, USA: ACM Press, 2002. http://dx.doi.org/10.1145/777005.777039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography