To see the other types of publications on this topic, follow the link: Tâches de performance.

Dissertations / Theses on the topic 'Tâches de performance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Tâches de performance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Carastan, dos Santos Danilo. "Apprentissage sur heuristiques simples pour l'ordonnancement online de tâches parallèles." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM052.

Full text
Abstract:
Les plate-formes de Calcul Haute Performance (High Performance Computing, HPC) augmentent en taille et en complexité. De manière contradictoire, la demande en énergie de telles plates-formes a également rapidement augmenté. Les supercalculateurs actuels ont besoin d’une puissance équivalente à celle de toute une centrale d’énergie. Dans le but de faire un usage plus responsable de ce puissance de calcul, les chercheurs consacrent beaucoup d’efforts à la conception d’algorithmes et de techniques permettant d’améliorer différents aspects de performance, tels que l’ordonnancement et la gestion des ressources. Cependent, les responsables des plate-formes HPC hésitent encore à déployer des méthodes d’ordonnancement à la fine pointe de la technologie et la plupart d’entre eux recourent à des méthodes heuristiques simples, telles que l’EASY Backfilling, qui repose sur un tri naïf premier arrivé, premier servi. Les nouvelles méthodes sont souvent complexes et obscures, et la simplicité et la transparence de l’EASY Backfilling sont trop importantes pour être sacrifiées.Dans un premier temps, nous explorons les techniques d’Apprentissage Automatique (Machine Learning, ML) pour apprendre des méthodes heuristiques d’ordonnancement online de tâches parallèles. À l’aide de simulations et d’un modèle de génération de charge de travail, nous avons pu déterminer les caractéristiques des applications HPC (tâches) qui contribuent pour une réduction du ralentissement moyen des tâches dans une file d’attente d’exécution. La modélisation de ces caractéristiques par une fonction non linéaire et l’application de cette fonction pour sélectionner la prochaine tâche à exécuter dans une file d’attente ont amélioré le ralentissement moyen des tâches dans les charges de travail synthétiques. Appliquées à des traces de charges de travail réelles de plate-formes HPC très différents, ces fonctions ont néanmoins permis d’améliorer les performances, attestant de la capacité de généralisation des heuristiques obtenues.Dans un deuxième temps, à l’aide de simulations et de traces de charge de travail de plusieurs plates-formes HPC réelles, nous avons effectué une analyse approfondie des résultats cumulés de quatre heuristiques simples d’ordonnancement (y compris l’EASY Backfilling). Nous avons également évalué des outres effets tels que la relation entre la taille des tâches et leur ralentissement, la distribution des valeurs de ralentissement et le nombre de tâches mises en calcul par backfilling, par chaque plate-forme HPC et politique d’ordonnancement. Nous démontrons de manière expérimentale que l’on ne peut que gagner en remplaçant l’EASY Backfilling par la stratégie SAF (Smallest estimated Area First) aidée par backfilling, car elle offre une amélioration des performances allant jusqu’à 80% dans la métrique de ralentissement, tout en maintenant la simplicité et la transparence d’EASY Backfilling. La SAF réduit le nombre de tâches à hautes valeurs de ralentissement et, par l’inclusion d’un mécanisme de seuillage simple, nous garantonts l’absence d’inanition de tâches.Dans l’ensemble, nous avons obtenu les remarques suivantes : (i) des heuristiques simples et efficaces sous la forme d’une fonction non linéaire des caractéristiques des tâches peuvent être apprises automatiquement, bien qu’il soit subjectif de conclure si le raisonnement qui sous-tend les décisions d’ordonnancement de ces heuristiques est clair ou non. (ii) La zone (l’estimation du temps d’exécution multipliée par le nombre de processeurs) des tâches semble être une propriété assez importante pour une bonne heuristique d’ordonnancement des tâches parallèles, car un bon nombre d’heuristiques (notamment la SAF) qui ont obtenu de bonnes performances ont la zone de la tâche comme entrée (iii) Le mécanisme de backfilling semble toujours contribuer à améliorer les performances, bien que cela ne remédie pas à un meilleur tri de la file d’attente de tâches, tel que celui effectué par SAF
High-Performance Computing (HPC) platforms are growing in size and complexity. In an adversarial manner, the power demand of such platforms has rapidly grown as well, and current top supercomputers require power at the scale of an entire power plant. In an effort to make a more responsible usage of such power, researchers are devoting a great amount of effort to devise algorithms and techniques to improve different aspects of performance such as scheduling and resource management. But HPC platform maintainers are still reluctant to deploy state of the art scheduling methods and most of them revert to simple heuristics such as EASY Backfilling, which is based in a naive First-Come-First-Served (FCFS) ordering. Newer methods are often complex and obscure, and the simplicity and transparency of EASY Backfilling are too important to sacrifice.At a first moment we explored Machine Learning (ML) techniques to learn on-line parallel job scheduling heuristics. Using simulations and a workload generation model, we could determine the characteristics of HPC applications (jobs) that lead to a reduction in the mean slowdown of jobs in an execution queue. Modeling these characteristics using a nonlinear function and applying this function to select the next job to execute in a queue improved the mean task slowdown in synthetic workloads. When applied to real workload traces from highly different machines, these functions still resulted in performance improvements, attesting the generalization capability of the obtained heuristics.At a second moment, using simulations and workload traces from several real HPC platforms, we performed a thorough analysis of the cumulative results of four simple scheduling heuristics (including EASY Backfilling). We also evaluated effects such as the relationship between job size and slowdown, the distribution of slowdown values, and the number of backfilled jobs, for each HPC platform and scheduling policy. We show experimental evidence that one can only gain by replacing EASY Backfilling with the Smallest estimated Area First (SAF) policy with backfilling, as it offers improvements in performance by up to 80% in the slowdown metric while maintaining the simplicity and the transparency of EASY. SAF reduces the number of jobs with large slowdowns and the inclusion of a simple thresholding mechanism guarantees that no starvation occurs.Overall we achieved the following remarks: (i) simple and efficient scheduling heuristics in the form of a nonlinear function of the jobs characteristics can be learned automatically, though whether the reasoning behind their scheduling decisions is clear or not can be up to argument. (ii) The area (processing time estimate multiplied by the number of processors) of the jobs seems to be a quite important property for good parallel job scheduling heuristics, since many of the heuristics (notably SAF) that achieved good performances have the job's area as input. (iii) The backfilling mechanism seems to always help in increasing performance, though it does not outperform a better sorting of the jobs waiting queue, such as the sorting performed by SAF
APA, Harvard, Vancouver, ISO, and other styles
2

Garcia, Pinto Vinicius. "Stratégies d'analyse de performance pour les applications basées sur tâches sur plates-formes hybrides." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM058/document.

Full text
Abstract:
Les techniques de programmations pour le calcul de haute performanceont adopté les modèles basés sur parallélisme de tâche qui sontcapables de s’adapter plus facilement à des superordinateurs avec desarchitectures hybrides. La performance des applications basées surtâches dépende fortement des heuristiques d'ordonnancement dynamiqueset de sa capacité à exploiter les ressources de calcul et decommunication.Malheureusement, les stratégies d'analyse de performancetraditionnelles ne sont pas convenables pour comprendre les supportsd'exécution dynamiques et les applications basées sur tâches. Cesstratégies prévoient un comportement régulier avec des phases decalcul et de communication, par contre, des applications basées surtâches ne manifestent pas de phases précises. Par ailleurs, la granularitéplus fine des applications basées sur tâches typiquement provoque descomportements stochastiques qui donnent lieu aux structuresirrégulières qui sont difficiles à analyser.Dans cette thèse, nous proposons des stratégies d'analyse deperformance qui exploitent la combinaison de la structure del'application, d'ordonnancement et des informations de laplate-forme. Nous présentons comment nos stratégies peuvent aider àcomprendre des problèmes de performance dans des applications baséesur tâches qui exécutent dans des plates-formes hybrides. Nosstratégies d'analyse de performance sont construites avec des outilsmodernes pour l'analyse de données, ce que permettre la création despanneaux de visualisation personnalisés. Ces panneaux permettent lacompréhension et l'identification de problèmes de performancesoccasionnés par de mauvaises décisions d'ordonnancement etconfiguration incorrect du support d'exécution et de laplate-forme. Grâce à combinaison de simulation et débogage nouspouvons aussi construire une représentation visuelle de l'état interneet des estimations calculées par l'ordonnancer durant l'ordonnancementd'une nouvelle tâche.Nous validons notre proposition parmi de l'analyse de tracesd'exécutions d'une factorisation de Cholesky implémenté avec lesupport d'exécution StarPU et exécutée dans une plate-forme hybride(CPU/GPU). Nos études de cas montrent comment améliorer la partitiondes tâches entre le multi-(GPU, coeur) pour s'approcher des bornesinférieures théoriques, comment améliorer le pipeline des opérationsMPI entre le multi-(noeud, coeur, GPU) pour réduire le démarrage lentedans les noeuds distribués et comment optimiser le support d'exécutionpour augmenter la bande passante MPI. Avec l'emploi des stratégies desimulation et débogage, nous fournissons un workflow pourl'examiner, en détail, les décisions d'ordonnancement. Cela permet deproposer des changements pour améliorer les mécanismes d'ordonnancementet prefetch du support d'exécution
Programming paradigms in High-Performance Computing have been shiftingtoward task-based models that are capable of adapting readily toheterogeneous and scalable supercomputers. The performance oftask-based applications heavily depends on the runtime schedulingheuristics and on its ability to exploit computing and communicationresources.Unfortunately, the traditional performance analysis strategies areunfit to fully understand task-based runtime systems and applications:they expect a regular behavior with communication and computationphases, while task-based applications demonstrate no clearphases. Moreover, the finer granularity of task-based applicationstypically induces a stochastic behavior that leads to irregularstructures that are difficult to analyze.In this thesis, we propose performance analysis strategies thatexploit the combination of application structure, scheduler, andhardware information. We show how our strategies can help tounderstand performance issues of task-based applications running onhybrid platforms. Our performance analysis strategies are built on topof modern data analysis tools, enabling the creation of customvisualization panels that allow understanding and pinpointingperformance problems incurred by bad scheduling decisions andincorrect runtime system and platform configuration.By combining simulation and debugging we are also able to build a visualrepresentation of the internal state and the estimations computed bythe scheduler when scheduling a new task.We validate our proposal by analyzing traces from a Choleskydecomposition implemented with the StarPU task-based runtime systemand running on hybrid (CPU/GPU) platforms. Our case studies show howto enhance the task partitioning among the multi-(GPU, core) to getcloser to theoretical lower bounds, how to improve MPI pipelining inmulti-(node, core, GPU) to reduce the slow start in distributed nodesand how to upgrade the runtime system to increase MPI bandwidth. Byemploying simulation and debugging strategies, we also provide aworkflow to investigate, in depth, assumptions concerning the schedulerdecisions. This allows us to suggest changes to improve the runtimesystem scheduling and prefetch mechanisms
APA, Harvard, Vancouver, ISO, and other styles
3

Bouda, Florence. "Ecarts de performance dans des tâches spatiales de verticale et d'horizontale : Approche développementale." Montpellier 3, 1997. http://www.theses.fr/1997MON30007.

Full text
Abstract:
Nous analysons l'influence des facteurs perceptifs, representatifs et moteurs dans l'organisation et le controle de la performance dans des taches spatiales d'horizontale et de verticale. La coordination entre ces facteurs depend de la nature du dispositif et de l'age des sujets et peut etre a l'origine d'ecarts de performances. On sait que lorsqu'on change certains caracteristiques d'une tache, par exemple la consigne ou l'habillage, on peut faire varie les performances. A partir des travaux de piaget et inhelder (1947) sur l'horizontale et la verticale, nous avons realise des experiences avec deux types de dispositif : concret (bocaux reels et maquette de montagne) et graphique (dessins correspondants aux bocaux reels et a la maquette de montagne). En faisant varier les conditions d'execution (conditions visuelle et aveugle. . . ), nous avons analyse le role joue par certains facteurs sur la performance des sujets. Dans notre analyse nous faisons jouer un role important a la representation de la tache. Les resultats montrent que la nature du dispositif et les conditions d'execution influent sur la representation de la tache et entrainent des ecarts de performances. Globalement les performances sont meilleures sur le dispositif concret que sur le dispositif graphique. Les ecarts de performances sont plus importants a 7-8 ans. L'analyse des proprietes des ecarts de performances nous permet de distinguer ceux qui dependent essentiellement des proprietes du dispositif (les sujets parviennent a les annuler) et les "vrais" ecarts que les sujets ne peuvent pas annuler. Les resultats montrent aussi l'importance des donnees visuelles dans le controle de la performance : lorsqu'on les supprime (condition aveugle) les performances ont tendance a s'ameliorer. En conclusion, ces resultats sont discutes en considerant les contraintes qui pesent sur l'execution dans les differentes conditions et celles de la representation que le sujet met au point pour executer les taches. Mots-cles : ecart de performance, perception, representation, espace, developpement
We have analysed the influence of perceptive, representative and moteur factors in the evaluation of performances in horizontal and vertical spacial tasks (organising and monitoring). The coordination between these factors depends on the type of experimental device and on the children's age. This coordination may originate differences in performance. It is known that the fact of changing a number of characteristics in a task, such as the instructions given to the children or the materials tends to alter the results (performances) of the children. Based on the previous studies of piaget and inhelder (1947) on the horizontal and vertical tasks, we have carried out experiences with two types of devices : a "concrete" device, with real bowls and a mountain model : and a graphic one (drawing representing the real bowls and the mountain model). By changing the conditions in which these exercices took place (with and without a blinfold), we have analysed the part played by some factors in the children's performance. In our analysis, we concentrated on the representation of the task (in the determination of the performance). Results show that both the type of device and the conditions in which these exercises took place have an effect on the representation of the representation of the task and entail difference in performance. The performances from the concrete experience are globally better than those of drawing one. Differences in performance are more significant with children aged 7 to 8. An analysis of the properties of these differences allows to distinguish differences due to the characteristics of the structure - children manage to forget about these effects - and "real" differences - children cannot avoid these effects. These results show the significance of visual datas for the monotoring of the results. Without visual datas, ie. With a blindfold, the children's performances improve. As a conclusion, the results are discussed considering the different conditions and factors (perceptive, representative and motor) which influence the execution of the tasks. Key words : differences in performance, perception, representation, space, development
APA, Harvard, Vancouver, ISO, and other styles
4

Cojean, Terry. "Programmation des architectures hétérogènes à l'aide de tâches divisibles ou modulables." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0041/document.

Full text
Abstract:
Les ordinateurs équipés d'accélérateurs sont omniprésents parmi les machines de calcul haute performance. Cette évolution a entraîné des efforts de recherche pour concevoir des outils permettant de programmer facilement des applications capables d'utiliser toutes les unités de calcul de ces machines. Le support d'exécution StarPU développé dans l'équipe STORM de INRIA Bordeaux, a été conçu pour servir de cible à des compilateurs de langages parallèles et des bibliothèques spécialisées (algèbre linéaire, développements de Fourier, etc.). Pour proposer la portabilité des codes et des performances aux applications, StarPU ordonnance des graphes dynamiques de tâches de manière efficace sur l’ensemble des ressources hétérogènes de la machine. L’un des aspects les plus difficiles, lors du découpage d’une application en graphe de tâches, est de choisir la granularité de ce découpage, qui va typiquement de pair avec la taille des blocs utilisés pour partitionner les données du problème. Les granularités trop petites ne permettent pas d’exploiter efficacement les accélérateurs de type GPU, qui ont besoin de peu de tâches possédant un parallélisme interne de données massif pour « tourner à plein régime ». À l’inverse, les processeurs traditionnels exhibent souvent des performances optimales à des granularités beaucoup plus fines. Le choix du grain d’un tâche dépend non seulement du type de l'unité de calcul sur lequel elle s’exécutera, mais il a en outre une influence sur la quantité de parallélisme disponible dans le système : trop de petites tâches risque d’inonder le système en introduisant un surcoût inutile, alors que peu de grosses tâches risque d’aboutir à un déficit de parallélisme. Actuellement, la plupart des approches pour solutionner ce problème dépendent de l'utilisation d'une granularité des tâches intermédiaire qui ne permet pas un usage optimal des ressources aussi bien du processeur que des accélérateurs. L'objectif de cette thèse est d'appréhender ce problème de granularité en agrégeant des ressources afin de ne plus considérer de nombreuses ressources séparées mais quelques grosses ressources collaborant à l'exécution de la même tâche. Un modèle théorique existe depuis plusieurs dizaines d'années pour représenter ce procédé : les tâches parallèles. Le travail de cette thèse consiste alors en l'utilisation pratique de ce modèle via l'implantation de mécanismes de gestion de tâches parallèles dans StarPU et l'implantation ainsi que l'évaluation d'ordonnanceurs de tâches parallèles de la littérature. La validation du modèle se fait dans le cadre de l'amélioration de la programmation et de l'optimisation de l'exécution d'applications numériques au dessus de machines de calcul modernes
Hybrid computing platforms equipped with accelerators are now commonplace in high performance computing platforms. Due to this evolution, researchers concentrated their efforts on conceiving tools aiming to ease the programmation of applications able to use all computing units of such machines. The StarPU runtime system developed in the STORM team at INRIA Bordeaux was conceived to be a target for parallel language compilers and specialized libraries (linear algebra, Fourier transforms,...). To provide the portability of codes and performances to applications, StarPU schedules dynamic task graphs efficiently on all heterogeneous computing units of the machine. One of the most difficult aspects when expressing an application into a graph of task is to choose the granularity of the tasks, which typically goes hand in hand with the size of blocs used to partition the problem's data. Small granularity do not allow to efficiently use accelerators such as GPUs which require a small amount of task with massive inner data-parallelism in order to obtain peak performance. Inversely, processors typically exhibit optimal performances with a big amount of tasks possessing smaller granularities. The choice of the task granularity not only depends on the type of computing units on which it will be executed, but in addition it will influence the quantity of parallelism available in the system: too many small tasks may flood the runtime system by introducing overhead, whereas too many small tasks may create a parallelism deficiency. Currently, most approaches rely on finding a compromise granularity of tasks which does not make optimal use of both CPU and accelerator resources. The objective of this thesis is to solve this granularity problem by aggregating resources in order to view them not as many small resources but fewer larger ones collaborating to the execution of the same task. One theoretical machine and scheduling model allowing to represent this process exists since several decades: the parallel tasks. The main contributions of this thesis are to make practical use of this model by implementing a parallel task mechanism inside StarPU and to implement and study parallel task schedulers of the literature. The validation of the model is made by improving the programmation and optimizing the execution of numerical applications on top of modern computing machines
APA, Harvard, Vancouver, ISO, and other styles
5

Garlet, Milani Luís Felipe. "Autotuning assisté par apprentissage automatique de tâches OpenMP." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM022.

Full text
Abstract:
Les architectures informatiques modernes sont très complexes, nécessitant un grand effort de programmation pour obtenir toute la performance que le matériel est capable de fournir. En effet, alors que les développeurs connaissent les optimisations potentielles, la seule façon possible de dire laquelle est le plus rapide pour une plate-forme est de le tester. En outre, les nombreuses différences entre deux plates-formes informatiques, dans le nombre de cœurs, les tailles de cache, l'interconnexion, les fréquences de processeur et de mémoire, etc, rendent très difficile la bonne exécution du même code sur plusieurs systèmes. Pour extraire le plus de performances, il est souvent nécessaire d'affiner le code pour chaque système. Par conséquent, les développeurs adoptent l'autotuning pour atteindre un certain degré de performance portable. De cette façon, les optimisations potentielles peuvent être spécifiées une seule fois et, après avoir testé chaque possibilité sur une plate-forme, obtenir une version haute performance du code pour cette plate-forme particulière. Toutefois, cette technique nécessite de régler chaque application pour chaque plate-forme quelle cible. Non seulement cela prend du temps, mais l'autotuning et l'exécution réelle de l'application diffèrent. Des différences dans les données peuvent déclencher un comportement différent, ou il peut y avoir différentes interactions entre les fils dans l'autotuning et l'exécution réelle. Cela peut conduire à des décisions sous-optimales si l'autotuner choisit une version qui est optimale pour la formation, mais pas pour l'exécution réelle de l'application. Nous proposons l'utilisation d'autotuning pour sélectionner les versions du code pertinentes pour une gamme de plates-formes et, lors de l'exécution de l'application, le système de temps d'exécution identifie la meilleure version à utiliser à l'aide de l'une des trois politiques que nous proposons: Mean, Upper Confidence Bound et Gradient Bandit. De cette façon, l'effort de formation est diminué et il permet l'utilisation du même ensemble de versions avec différentes plates-formes sans sacrifier les performances. Nous concluons que les politiques proposées peuvent identifier la version à utiliser sans subir de pertes de performance substantielles. De plus, lorsque l'utilisateur ne connaît pas suffisamment de détails de l'application pour configurer de manière optimale la politique d'exploration puis de validation utilisée par d'autres systèmes de temps d'exécution, la politique UCB plus adaptable peut être utilisée à sa place
Modern computer architectures are highly complex, requiring great programming effort to obtain all the performance the hardware is capable of delivering. Indeed, while developers know potential optimizations, the only feasible way to tell which of them is faster for some platform is to test it. Furthermore, the many differences between two computer platforms, in the number of cores, cache sizes, interconnect, processor and memory frequencies, etc, makes it very challenging to have the same code perform well over several systems. To extract the most performance, it is often necessary to fine-tune the code for each system. Consequently, developers adopt autotuning to achieve some degree of portable performance. This way, the potential optimizations can be specified once, and, after testing each possibility on a platform, obtain a high-performance version of the code for that particular platform. However, this technique requires tuning each application for each platform it targets. This is not only time consuming but the autotuning and the real execution of the application differ. Differences in the data may trigger different behaviour, or there may be different interactions between the threads in the autotuning and the actual execution. This can lead to suboptimal decisions if the autotuner chooses a version that is optimal for the training but not for the real execution of the application. We propose the use of autotuning for selecting versions of the code relevant for a range of platforms and, during the execution of the application, the runtime system identifies the best version to use using one of three policies we propose: Mean, Upper Confidence Bound, and Gradient Bandit. This way, training effort is decreased and it enables the use of the same set of versions with different platforms without sacrificing performance. We conclude that the proposed policies can identify the version to use without incurring substantial performance losses. Furthermore, when the user does not know enough details of the application to configure optimally the explore-then-commit policy usedy by other runtime systems, the more adaptable UCB policy can be used in its place
APA, Harvard, Vancouver, ISO, and other styles
6

Navet, Nicolas. "Évaluation de performances temporelles et optimisation de l'ordonnancement de tâches et messages." Vandoeuvre-les-Nancy, INPL, 1999. http://docnum.univ-lorraine.fr/public/INPL_T_1999_NAVET_N.pdf.

Full text
Abstract:
Notre premier objectif est de proposer des méthodes et des outils de vérification du respect des contraintes temporelles d'une application temps réel. Le principal cadre d'application de nos travaux est celui des applications embarquées dans l'automobile distribuées autour d'un réseau CAN. La validation est menée en couplant les techniques de vérification : simulation, analyse et observation sur prototypes. L’apport principal de cette thèse réside en la conception de modèles analytiques qui fournissent des bornes sur les métriques de performance considérées (temps de réponse, probabilité de non-respect des échéances) ou permettant d'évaluer l'occurrence d'événements rares (temps d'atteinte de l'état bus-off d'une station CAN). Nous proposons également une analyse d'ordonnancabilité des applications s'exécutant sur des systèmes d'exploitation se conformant au standard posix1003. 1b. Ensuite, considérant qu'il existe généralement plusieurs solutions d'ordonnancement faisables à un même problème, nous avons défini des critères de choix et avons expérimenté une approche, utilisant un algorithme génétique, pour parcourir l'espace des solutions. Notre second objectif est d'étudier des mécanismes d'ordonnancement qui garantissent le respect des échéances du trafic a contraintes strictes tout en minimisant les temps de réponse du trafic a contraintes souples. Nous évaluons les performances de la politique dual-priority pour l'ordonnancement de messages. Pour son utilisation dans des environnements bruites, nous proposons un mécanisme simple donnant des garanties sur la qualité de service exprimée en termes de probabilité de respect des échéances et s'adaptant en-ligne a des conditions de perturbations variables. Nous proposons également une politique concurrente, basée sur une technique de lissage de flux, qui est d'une mise en oeuvre plus aisée. Cette politique préserve la faisabilité du système et sa faible complexité algorithmique permet son utilisation en-ligne.
APA, Harvard, Vancouver, ISO, and other styles
7

Moreaud, Stéphanie. "Mouvement de données et placement des tâches pour les communications haute performance sur machines hiérarchiques." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00635651.

Full text
Abstract:
Les architectures des machines de calcul sont de plus en plus complexes et hiérarchiques, avec des processeurs multicœurs, des bancs mémoire distribués, et de multiples bus d'entrées-sorties. Dans le cadre du calcul haute performance, l'efficacité de l'exécution des applications parallèles dépend du coût de communication entre les tâches participantes qui est impacté par l'organisation des ressources, en particulier par les effets NUMA ou de cache. Les travaux de cette thèse visent à l'étude et à l'optimisation des communications haute performance sur les architectures hiérarchiques modernes. Ils consistent tout d'abord en l'évaluation de l'impact de la topologie matérielle sur les performances des mouvements de données, internes aux calculateurs ou au travers de réseaux rapides, et pour différentes stratégies de transfert, types de matériel et plateformes. Dans une optique d'amélioration et de portabilité des performances, nous proposons ensuite de prendre en compte les affinités entre les communications et le matériel au sein des bibliothèques de communication. Ces recherches s'articulent autour de l'adaptation du placement des tâches en fonction des schémas de transfert et de la topologie des calculateurs, ou au contraire autour de l'adaptation des stratégies de mouvement de données à une répartition définie des tâches. Ce travail, intégré aux principales bibliothèques MPI, permet de réduire de façon significative le coût des communications et d'améliorer ainsi les performances applicatives. Les résultats obtenus témoignent de la nécessité de prendre en compte les caractéristiques matérielles des machines modernes pour en exploiter la quintessence.
APA, Harvard, Vancouver, ISO, and other styles
8

Tyndiuk, Florence. "Référentiels Spatiaux des Tâches d'Interaction et Caractéristiques de l'Utilisateur influençant la Performance en Réalité Virtuelle." Phd thesis, Université Victor Segalen - Bordeaux II, 2005. http://tel.archives-ouvertes.fr/tel-00162297.

Full text
Abstract:
En réalité virtuelle, pour adapter les interfaces aux utilisateurs, deux dimensions doivent être étudiées : la tâche et l'utilisateur.
La première concerne les tâches d'interaction en réalité virtuelle, plus particulièrement la manipulation et la locomotion. L'étude et la comparaison des propriétés spatiales des environnements réels et virtuels nous permettent de proposer des modèles hiérarchiques de ces tâches, spécifiant les configurations d'interaction problématiques pour un utilisateur. En fonction de ces configurations problématiques, un concepteur devra contraindre le déplacement ou aider l'interaction. La principale difficulté que nous avons identifiée est l'adaptation de l'interface aux référentiels spatiaux de l'utilisateur (égocentrique, exocentrique).
La seconde dimension concerne l'identification des caractéristiques de l'utilisateur influençant la performance en fonction de la tâche (locomotion vs. manipulation) et de l'interface (immersive visuellement vs. peu immersive visuellement). Pour la configuration n'induisant que peu d'immersion visuelle, un écran d'ordinateur et un grand écran sont utilisés, l'angle de vue de l'utilisateur est conservé constant. Cette étude montre l'impact sur la performance d'interaction des capacités spatiales, de la dépendance-indépendance à l'égard du champ et de l'expérience en jeu vidéo, pour différentes interfaces et tâches. Nous montrons notamment qu'un grand écran peut soutenir la performance et minimiser l'influence des capacités spatiales sur celle-ci.
APA, Harvard, Vancouver, ISO, and other styles
9

Gagné, Marie-Ève. "Performance à des tâches locomotrices et cognitives simultanées à la suite de traumatismes craniocérébraux légers." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/36743.

Full text
Abstract:
Le traumatisme craniocérébral léger (TCCL) peut entraîner des altérations cognitives, sensorimotrices et neurophysiologiques, qui perdurent quelques jours et à des mois suivant l’impact. Actuellement, les évaluations traditionnelles évaluent ces difficultés de façon isolée, en s’intéressant à la motricité et la cognition séparément. Cela est peu représentatif du fonctionnement de l’individu au quotidien, où les demandes cognitives et sensorimotrices sont souvent simultanées. Des études en laboratoire ont suggéré que les doubles-tâches locomotrices-cognitives sont prometteuses afin de détecter les différences entre des participants contrôles et les individus avec TCCL. Cependant, les études demeurent hétérogènes en termes de tâches utilisées, peu d'entre elles s’intéressent aux variables personnelles influençant la performance aux doubles-tâches et plusieurs proposent des protocoles qui ne sont pas transférables en clinique. Cette thèse vise donc à investiguer la sensibilité des doubles-tâches à la fois en laboratoire (étude 1) et dans un contexte clinique (étude 2). La première étude, menée en laboratoire de marche, avait comme objectifs de (1) comparer la performance motrice et cognitive chez des participants TCCL et contrôles en utilisant différentes combinaisons de doubles-tâches et (2) corréler l’historique d’impacts subis avec la performance en double-tâche. De façon exploratoire, les liens entre la performance neuropsychologique avec la performance en double-tâche ont été étudiés. Dixhuit participants avec TCCL (13 femmes; âge 21.89 ±3.76, 59.56 jours post-TCCL ±24.12) et quinze participants contrôles en santé (9 femmes; âge 22.20 ±4.33) ont été recrutés. Le système d’analyse de capture du mouvement (Vicon) a été utilisé pour mesurer les paramètres de marche. Une batterie neuropsychologique a évalué la fluidité verbale, les fonctions exécutives, la mémoire et l’attention des participants. L’évaluation physiologique comprenait la force de préhension, la coordination, ainsi que l’équilibre statique et dynamique. Les symptômes subjectifs ont également été évalués. Dans un corridor de marche de 6 mètres, les participants effectuaient 3 conditions locomotrices; (1) marche à niveau, (2) marche à niveau et enjamber un obstacle profond (15 cm x 15 cm); (3) marche à niveau et enjamber un obstacle mince (15 cm x 3 cm), et 3 conditions cognitives; 1) compte à rebours par deux, (2) fluidité verbale et (3) tâche de Stroop. Ces tâches étaient effectuées en simples et doubles-tâches. En moyenne deux mois post-TCCL, aucune différence significative n’a été trouvée entre les groupes sur les résultats neuropsychologiques. L’évaluation physiologique a révélé que les participants TCCL avaient une vitesse de marche plus lente et plus instable que le groupe contrôle. L’expérimentation en doubletâche a démontré que le groupe TCCL avait une vitesse de marche plus lente, autant en tâche simple qu’en double-tâche, ainsi que des temps de réponse plus lents. Aucune combinaison de tâches ne s’est révélée plus sensible pour distinguer les groupes. La deuxième étude avait comme objectif de comparer des participants avec TCCL à un groupe contrôle en utilisant des technologies de base dans un contexte clinique. Vingt participants avec TCCL (10 femmes; âge 22.10 ±2.97, évalués en moyenne 70.9 jours post- TCCL ±22.31) et vingt participants contrôles (10 femmes; âge 22.55 ±2.72) ont été recrutés. Les symptômes subjectifs, l’historique d’impacts subis à la tête, une courte batterie neuropsychologique et des échelles de fatigue et de concentration pendant l’expérimentation ont été utilisées. L’expérimentation se déroulait dans un corridor de 10 m où les participants effectuaient deux allers-retours. Trois tâches locomotrices ont été employées : (1) marche à niveau, (2) marche à niveau et enjamber trois obstacles, (3) et marche en tandem. Deux tâches cognitives ont été employées : (1) un compte à rebours par 7, (2) et une tâche de fluidité verbale. Ces tâches étaient effectuées en simple et doubletâche. Un chronomètre et une grille d’observation servaient à colliger les mesures. Les résultats indiquent que le groupe TCCL démontrait des plus grands coûts de la double-tâche pour la vitesse de marche comparativement aux participants contrôles. De plus, les participants du groupe TCCL rapportaient être moins concentrés pendant les doublestâches. Cette thèse souligne la pertinence des protocoles en doubles-tâches, qui représenteraient une façon simple et sensible de révéler des altérations résiduelles potentielles après un TCCL. Plus de travail est nécessaire pour identifier les caractéristiques personnelles ayant une influence sur la performance en double-tâche. Une réflexion sur la façon d’élaborer des protocoles en considérant les restrictions et besoins de la clinique est nécessaire en vue de poursuivre la recherche sur les doubles-tâches.
Mild traumatic brain injury (mTBI), also known as concussion, can cause cognitive, sensorimotor and neurophysiological alterations which can be observed days and even months post-injury. Presently, mTBI clinical assessments are often focused on either cognitive deficits or physical function separately. Evaluating these spheres of function in isolation, however, is not always ecological enough to capture how an individual will function in day-to-day life where cognitive and sensorimotor demands are often simultaneous. Recent laboratory-based studies have suggested that dual-tasks combining motor and cognitive tasks are a promising way to detect differences between healthy participants and individuals having sustained mTBI. However, studies are very heterogeneous in terms of tasks used and variables measured, few of them focus on variables that could influence dual-task performance and many are not readily transferable to a clinical setting. This doctoral thesis aimed at identifying a sensitive, ecologically valid dual-task protocol combining locomotor and cognitive demands to evaluate the residual effects of mTBI both in a laboratory environment (Study 1) and a clinical setting (Study 2). Using gait laboratory measures, the first study’s objectives were (1) to compare performance on cognitive and gait parameters using different dual-tasks in healthy controls and young adults with mTBI, and (2) to examine the effect of number of mTBIs sustained on dual-task performance. Exploratory correlations to investigate relationships between neuropsychological testing and dual-task performance were also calculated. Eighteen participants with mTBI (13 women; age 21.89 ±3.76, on average 59.56 days post-injury ±24.12) and fifteen control participants (9 women; age 22.20 ±4.33) were recruited. A battery of neuropsychological tests was used to assess verbal fluency, executive function, memory and attention. A physiological examination comprised assessment of grip strength, upper-limb coordination, as well as static and dynamic balance. Subjective symptoms were also assessed. A 9-camera motion analysis system (Vicon) was used to characterize gait. Participants were asked to walk along a 6-meter walkway during three conditions of locomotion: (1) level-walking, (2) walking and stepping over a deep obstacle (15 cm high x 15 cm deep), and (3) walking and stepping over a narrow obstacle (15 cm high x 3 cm deep) and three cognitive conditions: (1) Counting backwards by 2s, (2) Verbal fluency, and (3) Stroop task. These tasks were performed in combination and as single tasks. No significant differences were found between groups on neuropsychological tests, but the physiological examination revealed that the mTBI group had slower gait speed and were more unstable than the control group. The dual-task experimentation showed that mTBI had slower gait speed, in both single and dual-tasks, and slower response time during dualtasks. No combination of dual-task was revealed to be more sensitive to distinguish groups. In a clinical-like setting, the second study’s objective was to compare mTBI individuals with healthy controls, using accessible technology to assess performance. Twenty participants with mTBI (10 women; age 22.10 ±2.97, 70.9 days post-injury ±22.31) and 20 control participants (10 women; age 22.55 ±2.72) were recruited. Subjective symptoms, history of impacts, a short neuropsychological battery and subjective fatigue and concentration symptoms during experimentation were used to characterized groups. Participants walked back and forth two times along a 10 m long corridor, during two locomotor conditions: (1) level-walking or (2) walking and stepping over three obstacles and two cognitive conditions; (1) Counting backwards by 7s, and (2) Verbal fluency. These tasks were performed in combination and as single-tasks. Only a stopwatch and an observation grid were used to assess performance. Participants reported being significantly less concentrated during dual-task experimentation. Significantly greater dual-task cost for gait speed in the mTBI group were observed, which demonstrated increased difficulty in dual-task, even more than two months following the injury. This thesis highlights that dual-task protocols combining locomotor and cognitive tasks could represent a simple, practical and sensitive way for clinicians to detect residual alterations even months following mTBI. More work is needed to identify personal characteristics, such as mTBI history, that could influence performance. A reflection on how protocols could be developed according to clinical restrictions and needs is much required in order to pursue research of dual-tasks.
APA, Harvard, Vancouver, ISO, and other styles
10

Bouvry, Pascal. "Placement de tâches sur ordinateurs parallèles à mémoire distribuée." Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00005081.

Full text
Abstract:
La demande croissante de puissance de calcul est telle que des ordinateurs de plus en plus performants sont fabriqués. Afin que ces machines puissent être facilement exploitées, les lacunes actuelles en terme d'environnements de programmation doivent être comblées. Le but à atteindre est de trouver un compromis entre recherche de performances et portabilité. Cette thèse s'intéresse plus particulièrement au placement statique de graphes de taches sur architectures parallèles a mémoire distribuée. Ce travail s'inscrit dans le cadre du projet INRIA-IMAG APACHE et du projet européen SEPP-COPERNICUS (Software Engineering for Parallel Processing). Le graphe de taches sans précédence est le modèle de représentation de programmes parallèles utilise dans cette thèse. Un tour d'horizon des solutions apportées dans la littérature au problème de l'ordonnancement et du placement est fourni. La possibilité d'utilisation des algorithmes de placement sur des graphes de précédence, après une phase de regroupement, est soulignée. Une solution originale est proposée, cette solution est interfacée avec un environnement de programmation complet. Trois types d'algorithmes (gloutons, iteratifs et exacts) ont été conçus et implémentes. Parmi ceux-ci, on retrouve plus particulièrement un recuit simule et une recherche tabu. Ces algorithmes optimisent différentes fonctions objectives (des plus simples et universelles aux plus complexes et ciblées). Les différents paramètres caractérisant le graphe de taches peuvent être affinés suite à un relevé de traces. Des outils de prise de traces permettent de valider les différentes fonctions de cout et les différents algorithmes d'optimisation. Un jeu de tests est défini et utilise. Les tests sont effectué sur le Mégapode (machine a 128 transputers), en utilisant comme routeur VCR de l'université de Southampton, les outils de génération de graphes synthétiques ANDES du projet ALPES (développé par l'équipe d'évaluation de performances du LGI-IMAG) et l'algorithme de regroupement DSC (Dominant Sequence Clustering) de PYRROS (développé par Tao Yang et Apostolos Gerasoulis). Mapping task graphs on distributed memory parallel computers
The growing needs in computing performance imply more complex computer architectures. The lack of good programming environments for these machines must be filled. The goal to be reached is to find a compromise solution between portability and performance. The subject of this thesis is studying the problem of static allocation of task graphs onto distributed memory parallel computers. This work takes part of the project INRIA-IMAG APACHE and of the european one SEPP-COPERNICUS (Software Engineering for Parallel Processing). The undirected task graph is the chosen programming model. A survey of the existing solutions for scheduling and for mapping problems is given. The possibility of using directed task graphs after a clustering phase is underlined. An original solution is designed and implemented ; this solution is implemented within a working programming environment. Three kinds of mapping algorithms are used: greedy, iterative and exact ones. Most developments have been done for tabu search and simulated annealing. These algorithms improve various objective functions (from most simple and portable to the most complex and architecturaly dependant). The weigths of the task graphs can be tuned using a post-mortem analysis of traces. The use of tracing tools leads to a validation of the cost function and of the mapping algorithms. A benchmark protocol is defined and used. The tests are runned on the Meganode (a 128 transputer machine) using VCR from the university of Southampton as a router, synthetic task graphs generation with ANDES of the ALPES project (developped by the performance evaluation team of the LGI-IMAG) and the Dominant Sequence Clustering of PYRROS (developped by Tao Yang and Apostolos Gerasoulis)
APA, Harvard, Vancouver, ISO, and other styles
11

Sergent, Marc. "Passage à l'echelle d'un support d'exécution à base de tâches pour l'algèbre linéaire dense." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0372/document.

Full text
Abstract:
La complexification des architectures matérielles pousse vers l’utilisation de paradigmes de programmation de haut niveau pour concevoir des applications scientifiques efficaces, portables et qui passent à l’échelle. Parmi ces paradigmes, la programmation par tâches permet d’abstraire la complexité des machines en représentant les applications comme des graphes de tâches orientés acycliques (DAG). En particulier, le modèle de programmation par tâches soumises séquentiellement (STF) permet de découpler la phase de soumission des tâches, séquentielle, de la phase d’exécution parallèle des tâches. Même si ce modèle permet des optimisations supplémentaires sur le graphe de tâches au moment de la soumission, il y a une préoccupation majeure sur la limite que la soumission séquentielle des tâches peut imposer aux performances de l’application lors du passage à l’échelle. Cette thèse se concentre sur l’étude du passage à l’échelle du support d’exécution StarPU (développé à Inria Bordeaux dans l’équipe STORM), qui implémente le modèle STF, dans le but d’optimiser les performances d’un solveur d’algèbre linéaire dense utilisé par le CEA pour faire de grandes simulations 3D. Nous avons collaboré avec l’équipe HiePACS d’Inria Bordeaux sur le logiciel Chameleon, qui est une collection de solveurs d’algèbre linéaire portés sur supports d’exécution à base de tâches, afin de produire un solveur d’algèbre linéaire dense sur StarPU efficace et qui passe à l’échelle jusqu’à 3 000 coeurs de calcul et 288 accélérateurs de type GPU du supercalculateur TERA-100 du CEA-DAM
The ever-increasing supercomputer architectural complexity emphasizes the need for high-level parallel programming paradigms to design efficient, scalable and portable scientific applications. Among such paradigms, the task-based programming model abstracts away much of the architecture complexity by representing an application as a Directed Acyclic Graph (DAG) of tasks. Among them, the Sequential-Task-Flow (STF) model decouples the task submission step, sequential, from the parallel task execution step. While this model allows for further optimizations on the DAG of tasks at submission time, there is a key concern about the performance hindrance of sequential task submission when scaling. This thesis’ work focuses on studying the scalability of the STF-based StarPU runtime system (developed at Inria Bordeaux in the STORM team) for large scale 3D simulations of the CEA which uses dense linear algebra solvers. To that end, we collaborated with the HiePACS team of Inria Bordeaux on the Chameleon software, which is a collection of linear algebra solvers on top of task-based runtime systems, to produce an efficient and scalable dense linear algebra solver on top of StarPU up to 3,000 cores and 288 GPUs of CEA-DAM’s TERA-100 cluster
APA, Harvard, Vancouver, ISO, and other styles
12

Nesi, Xavier. "Prédiction de la performance et de son amélioration en cyclisme sur route." Lille 2, 2004. http://www.theses.fr/2004LIL2S036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Constant, Olivier. "Une approche dirigée par les modèles pour l'intégration de la simulation de performance dans la conception de systèmes à base de composants." Pau, 2006. http://www.theses.fr/2006PAUU3013.

Full text
Abstract:
Pour être maîtrisée, la performance d'un système distribué doit être prise en compte tout au long du cycle de conception et développement du système, particulièrement si ce dernier est construit à base de composants réutilisés car il est alors plus difficilement prévisible. Mais l'évaluation de performance en conception nécessite des techniques spécifiques et des compétences peu courantes. Une solution consiste à étendre les langages de conception fonctionnelle de manière à transformer les modèles fonctionnels en modèles de performance du système. Cette thèse propose une approche rigoureuse, basée sur des techniques d'ingénierie des modèles ou MDE (Model-Driven Engineering), pour des transformations automatiques de modèles UML 2. 0 de systèmes à base de composants vers des modèles de simulation de performance à files d'attente. Un cadre conceptuel précis est d'abord défini par métamodélisation pour des modèles conçus à base de composants, exécutables et exploitant la puissance de la simulation. Le métamodèle, appelé CPM (Component Performance Metamodel), sert ensuite de support à la définition d'un profil pour UML 2. 0. Le profil est structuré en couches regroupant des fonctions et contraintes OCL (Object Constraint Language) ainsi que des extensions. Pour résoudre les ambiguïtés sémantiques d'UML 2. 0, le métamodèle des Diagrammes de Séquence est restreint à un sous-ensemble cohérent proche du langage MSC (Message Sequence Charts) puis muni de la sémantique formelle des MSC. L'exécutabilité est alors traitée par des restrictions qui permettent de définir des fonctions OCL de pilotage des transformations en fonction de la sémantique des modèles. Les modèles de performance générés sont exécutables par un simulateur de performance industriel
Predicting the performance of distributed systems is an issue that must be taken into account during the whole design and development process. This is especially true for systems that are built out of reused components since these systems are more difficult to predict. Nevertheless, evaluating the performance of a system at the design phase requires specific techniques and skills. A solution consists in extending classical design languages to allow transformation of design models into specific performance models. This thesis proposes a rigorous approach, based on MDE (Model-Driven Engineering) techniques, for the automatic transformation of UML 2. 0 models of component-based systems into queueing network models for performance simulation. A metamodel is first defined to provide a precise conceptual framework for component-based executable models exploiting the expressivity of simulation languages. The metamodel, called CPM (Component Performance Metamodel), is then used to define a profile for UML 2. 0. The profile is structured into several layers that group extensions and OCL (Object Constraint Language) queries and constraints. In order to solve the semantic ambiguities of UML, the metamodel of UML 2. 0 Sequence Diagrams is restricted to a subset close to the MSC (Message Sequence Charts) language. Using the formal semantics of MSC, the problem of model executability is tackled by additional constraints allowing to define OCL queries that can drive transformations on the basis of the semantics of the models. The generated performance models can be executed by an industrial performance simulator
APA, Harvard, Vancouver, ISO, and other styles
14

Giguère, Kathleen. "Utilisation du temps de latence de réponse comme mesure de performance à des tâches de raisonnement inductif." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ61344.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Tyndiuk, Florence. "Référentiels spatiaux des tâches d'interaction et caractéristiques de l'utilisateur influençant la performance en réalité virtuelle : Florence Tyndiuk." Bordeaux 2, 2005. http://www.theses.fr/2005BOR21269.

Full text
Abstract:
En réalité virtuelle, pour adapter les interfaces aux utilisateurs, deux dimensions doivent être étudiées : la tâche et l'utilisateur. La première concerne les tâches d'interaction en réalité virtuelle, plus particulièrement la manipulation et la locomotion. L'étude et la comparaison des propriétés spatiales des environnements réels et virtuels nous permettent de proposer des modèles hiérarchiques de ces tâches, spécifiant les configurations d'interaction problématiques pour un utilisateur. En fonction de ces configurations problématiques, un concepteur devra contraindre le déplacement ou aider l'interaction. La principale difficulté que nous avons identifiée, est l'adaptation de l'interface aux référentiels spatiaux de l'utilisateur (égocentrique, exocentrique). La seconde dimension concerne l'identification des caractéristiques de l'utitlisateur influençant la performance en fonction de la tâche (locomotion vs. Manipulation) et de l'interface (immersive visuellement vs. Peu immersive visuellement). Pour la configuration n'induisant que peu d'immersion visuelle, un écran d'ordinateur et un grand écran sont utilisés, l'angle de vue de l'utilisateur est conservé constant. Cette étude montre l'impact sur la performance d'interaction des capacités spatiales, de la dépendance-indépendance à l'égard du champ et de l'expérience en jeu vidéo, pour différentes interfaces et tâches. Nous montrons notamment qu'un grand écran peut soutenir la performance et minimiser l'influence des capacités spatiales sur celle-ci
In virtual reality, to adapt interfaces to users, two dimensions must be studied : the task and the user. The first dimension deals with interaction tasks in virtual reality, more precisely manipulation and locomotion. The study and the comparison of spatial properties of virtual and real environments allow us to propose tasks hierarchical models which show problematical interaction situations for users. Depending on these problematical situations, a designer should be forced movement or help interaction. The main identified difficulty is to adapt the interface to spatial user's frame of reference (egocentric, exocentric). The second dimension concerns the identification of user's characteristics, which have an influence on performance depending on the task (locomotion, manipulation) and the interface (immersive in visual way and partial-immersive in a visual way). Concerning the partial-immersive situation, the interface is used with two displays : a desktop monitor or a large display. The field of view is kept constant. This study shows the impact on performance of spatial capacities, field dependence and video game experience, in different tasks and with different interfaces. We show also that a large display can help to have a high level of performance and decrease the impact of spatial capacities impact
APA, Harvard, Vancouver, ISO, and other styles
16

Dirand, Estelle. "Développement d'un système in situ à base de tâches pour un code de dynamique moléculaire classique adapté aux machines exaflopiques." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM065/document.

Full text
Abstract:
L’ère de l’exascale creusera encore plus l’écart entre la vitesse de génération des données de simulations et la vitesse d’écriture et de lecture pour analyser ces données en post-traitement. Le temps jusqu’à la découverte scientifique sera donc grandement impacté et de nouvelles techniques de traitement des données doivent être mises en place. Les méthodes in situ réduisent le besoin d’écrire des données en les analysant directement là où elles sont produites. Il existe plusieurs techniques, en exécutant les analyses sur les mêmes nœuds de calcul que la simulation (in situ), en utilisant des nœuds dédiés (in transit) ou en combinant les deux approches (hybride). La plupart des méthodes in situ traditionnelles ciblent les simulations qui ne sont pas capables de tirer profit du nombre croissant de cœurs par processeur mais elles n’ont pas été conçues pour les architectures many-cœurs qui émergent actuellement. La programmation à base de tâches est quant à elle en train de devenir un standard pour ces architectures mais peu de techniques in situ à base de tâches ont été développées.Cette thèse propose d’étudier l’intégration d’un système in situ à base de tâches pour un code de dynamique moléculaire conçu pour les supercalculateurs exaflopiques. Nous tirons profit des propriétés de composabilité de la programmation à base de tâches pour implanter l’architecture hybride TINS. Les workflows d’analyses sont représentés par des graphes de tâches qui peuvent à leur tour générer des tâches pour une exécution in situ ou in transit. L’exécution in situ est rendue possible grâce à une méthode innovante de helper core dynamique qui s’appuie sur le concept de vol de tâches pour entrelacer efficacement tâches de simulation et d’analyse avec un faible impact sur le temps de la simulation.TINS utilise l’ordonnanceur de vol de tâches d’Intel® TBB et est intégré dans ExaStamp, un code de dynamique moléculaire. De nombreuses expériences ont montrées que TINS est jusqu’à 40% plus rapide que des méthodes existantes de l’état de l’art. Des simulations de dynamique moléculaire sur des système de 2 milliards de particles sur 14,336 cœurs ont montré que TINS est capable d’exécuter des analyses complexes à haute fréquence avec un surcoût inférieur à 10%
The exascale era will widen the gap between data generation rate and the time to manage their output and analysis in a post-processing way, dramatically increasing the end-to-end time to scientific discovery and calling for a shift toward new data processing methods. The in situ paradigm proposes to analyze data while still resident in the supercomputer memory to reduce the need for data storage. Several techniques already exist, by executing simulation and analytics on the same nodes (in situ), by using dedicated nodes (in transit) or by combining the two approaches (hybrid). Most of the in situ techniques target simulations that are not able to fully benefit from the ever growing number of cores per processor but they are not designed for the emerging manycore processors.Task-based programming models on the other side are expected to become a standard for these architectures but few task-based in situ techniques have been developed so far. This thesis proposes to study the design and integration of a novel task-based in situ framework inside a task-based molecular dynamics code designed for exascale supercomputers. We take benefit from the composability properties of the task-based programming model to implement the TINS hybrid framework. Analytics workflows are expressed as graphs of tasks that can in turn generate children tasks to be executed in transit or interleaved with simulation tasks in situ. The in situ execution is performed thanks to an innovative dynamic helper core strategy that uses the work stealing concept to finely interleave simulation and analytics tasks inside a compute node with a low overhead on the simulation execution time.TINS uses the Intel® TBB work stealing scheduler and is integrated into ExaStamp, a task-based molecular dynamics code. Various experiments have shown that TINS is up to 40% faster than state-of-the-art in situ libraries. Molecular dynamics simulations of up to 2 billions particles on up to 14,336 cores have shown that TINS is able to execute complex analytics workflows at a high frequency with an overhead smaller than 10%
APA, Harvard, Vancouver, ISO, and other styles
17

Jamet, Mallaury. "Place du traitement cognitif des informations sensorielles dans la performance de la fonction d'équilibration en situation multi-tâches." Nancy 1, 2004. http://www.theses.fr/2004NAN10173.

Full text
Abstract:
Le vieillissement normal ou sénescence affecte les trois fonctions principales utilisées pour le contrôle de l'équilibre et de la posture, la réception des informations sensorielles, l'intégration des ces informations et l'effection motrice de ces commandes par le système musculaire. Ce travail a eu pour objet d'évaluer la place du traitement cognitif des informations sensorielles dans la réalisation de l'équilibration. Les résultats sont discutés en termes d'évolution avec l'âge des places relatives des traitements automatique et cognitif des informations dans la performance d'équilibration, en particulier pour leur validation de l'hypothèse que le vieillissement s'accompagne d'une nécessaire augmentation relative de la charge cognitive par une mobilisation plus forte des ressources attentionnelles et des processus cognitifs opératoires qui, par ailleurs et dans le même temps, voient leur disponibilité et leur potentiel se réduire
Normal ageing or senescence is known to affect these three functions and incidentally balance control, reception of sensory information, integration of information destined to the construction and the programming by the nervous system of a set of instructions and motor execution of these orders by the muscular system. This work aimed to assess the place of cognitive sensorial information processing in balance performance. These results were discussed in terms of age-dependent evolution of the relative places of automatic and cognitive processings in balance performance, particularly for the validation of the assumption that ageing induces a requisite increase of cognitive load with expression in a large mobilisation of attentional resources and cognitive operative processes which, in the same time, decreased in availability and potentiality
APA, Harvard, Vancouver, ISO, and other styles
18

Cursan, Anthony. "Impact de l'ostracisme au sein d'un groupe d'individus de même sexe ou de sexe opposé sur les performances à plusieurs tâches stéréotypées selon le genre." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0249/document.

Full text
Abstract:
Avec cette recherche, nous étudions l’impact de l’ostracisme (sentiment d’exclusion sociale)sur la performance à plusieurs tâches stéréotypées selon si celui-ci provient de personnes demême sexe ou de personnes de sexe opposé. Plusieurs travaux ont pu montrer quel’ostracisme pouvait altérer la performance cognitive (Baumeister, Twenge & Nuss, 2002).Des recherches ont pu également montrer que le fait de réaliser une tâche en même temps queplusieurs personnes de sexe opposé pouvait entraîner une diminution de performance si cettetâche était négativement stéréotypée pour le sexe de la personne c ible (Inzlicht & Ben-Zeev,2000). En référence à ces travaux, nous nous attendions à ce que l’ostracisme entraîne unediminution de performance et à ce que cet effet, pour une tâche négativement stéréotypée, soitd’autant plus fort que celui-ci provient de personnes de sexe opposé plutôt que de personnesde même sexe. Nous avons testé cette hypothèse à partir de 4 expériences : trois réalisées surdes échantillons féminin (avec une tâche numérique) et une sur un échantillon masculin (avecune tâche affective). Une analyse cumulée des expériences réalisées sur un échantillonféminin a également été proposée. Nous ne sommes finalement pas parvenus à valider notrehypothèse. Au contraire, nous avons pu constater que seul l’ostracisme de la part depersonnes de même sexe que soi entraînait une diminution de performances sur une tâchenégativement stéréotypée. Plusieurs pistes sont proposées pour interpréter ce résultat que nousavons pu mettre en évidence à plusieurs reprises
With this research, we study the impact of ostracism (the feeling of social exclusion) onperformance on several stereotyped tasks, depending on the sex of the ostracism's source.Many researches showed that ostracism could lead to cognitive performance decrease(Baumeister, Twenge & Nuss, 2002). Some studies also pointed out that executing a task atthe same time as members of the opposite sex may cause a decrease in performance, if thetask is negatively stereotyped toward the targeted person (Inzlicht & Ben-Zeev, 2000).According to those studies, we were expecting ostracism would lead to performance decrease,and also that this effect (for a negatively stereotyped task) would be more pronounced,coming from members of the opposite sex. We tested this hypothesis with 4 experiments: 3 onfemale samples (using numeric task) and one on male sample (using an affective task). Wealso proposed a cumulated analysis of experiments conducted on female samples. Eventually,we didn't validate our hypothesis. On the contrary, we observed that only ostracism fromsame-sex persons led to performance decrease on a negatively stereotyped task. We proposeda number of leads to interpret the result we repeatedly highlighted
APA, Harvard, Vancouver, ISO, and other styles
19

Lai, Jau-Shyuam. "The interactive effects of formal and informal information exchanges on team performance and team satisfaction." Thesis, Cergy-Pontoise, Ecole supérieure des sciences économiques et commerciales, 2012. http://www.theses.fr/2012ESEC0004.

Full text
Abstract:
Cette thèse constitue un modèle multi-niveau pour rechercher comment les responsables commerciaux peuvent augmenter la performance et la satisfaction de leurs équipes en influençant leurs façons de communiquer. J’ai mis en pratique la théorie de la communication organisationnelle, la théorie d’échange social en parallèle avec la théorie du réseau social sur un ensemble de données multi-niveau (comprenant 37 équipes de commerciaux dans une entreprise faisant partie de Fortune 500). Deux phases d’interviews et une enquête par internet ont été menées à bien pour tester ce modèle. Ce projet a apporté une contribution importante en offrant une vision profonde des taches spécifiques et des caractéristiques des réseaux sociaux (i.e. centrality, tie strength) sur les échanges formels et informels. Cette étude démontre que les échanges d’informations formels mènent à une performance positive quand la diversité de l’expérience professionnelle de l’équipe est réduite, alors que les échanges d’informations informels mènent à une performance positive quand la diversité de l’expérience professionnelle de l’équipe est grande. Les informations informelles mènent aussi à la satisfaction de l’équipe. Cette étude explique aussi comment les managers exercent leurs influences sur le mode individuel de communication en modelant l’environnement de travail
This study establishes a multilevel model to investigate how managers can increase team performance and team satisfaction by influencing team members’ communications. I applied organizational communication theory, social exchange theory along with social network theory to a multilevel data set (consisting 37 frontline sales teams in a Fortune 500 company). Two-step interviews and a survey study were completed to test this model. This project made a substantive contribution by providing an in-depth look at the effects of task characteristics and network features (i.e. centrality, tie strength) on formal and informal information exchanges. It showed that formal information exchange led to positive team performance when team diversity in work tenure was low; while informal information exchange led to positive team performance when team diversity in work tenure was high. Informal information exchange also had direct impact on team satisfaction. This study also provided an insightful explanation of how managerial influences (such as clan control and competitive climate) shifted individual formal and informal communications by molding work environment
APA, Harvard, Vancouver, ISO, and other styles
20

Sun, Huichao. "L'amélioration de la performance du produit par l'intégration des tâches d'utilisation dès la phase de conception : une approche de conception comportementale." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00712072.

Full text
Abstract:
Les processus de conception d'ingénierie mécanique sont souvent centrés sur la technologie et ont des difficultés à intégrer de façon adéquate les comportements des utilisateurs lors des utilisations du futur produit. Ce problème existe tout au long du cycle de vie du projet de développement du produit et est particulièrement visible lors des phases préliminaires de conception. Bien que les industries et les universités conviennent que les aspects humains sont importants pour le succès du produit, il existe peu de méthodes qui soutiennent les créateurs/concepteurs pour la prise encompte de ces facteurs lors des travaux de conception. Afin d'améliorer la performance du produit, notre recherche vise à apporter ou complémenter la conception technique fonctionnelle par une approche plus intégrée. Elle vise en particulier une meilleure intégration du comportement du couple produit/utilisateur dès la phase de conception. En effet, les concepteurs ont été obligés de mettre de côté l'objectif d'une machine entièrement automatisée et doit continuer à faire appel à l'utilisateur pour effectuer certaines tâches. Même si pour améliorer la productivité de la machine l'automatisation des systèmes de production est une voix intéressante, l'intervention humaine sur ces systèmes reste un besoin critique, or elle reste mal définie au stade de la conception. Dans notre cas, le système mécanique pourrait être un système de production, une machine, un produit ou tout autre outil manipulé par un utilisateur. Les conditions d'utilisation sont directement influencées par les travaux de conception, qui constituent également le principal facteur d'amélioration des performances du système. L'objectif de cette recherche est le développement d'une évaluation technique " top-down " et d'une conception d'ingénierie socio-technique pour intégrer les diverses bases de connaissances et en particulier le modèle de tâche. L'objectif est donc de développer une approche de conception comportementale non pas uniquement centrée sur la technologie mais aussi sur une approche socio-technique, afin d'aider les concepteurs à optimiser la performance du produit globalement dès les premières phases de conception. Ainsi, nous proposons une approche qui intègre lesdonnées comportementales système technique, utilisateur et utilisateur/technique. Ce travail porte sur la conception d'ingénierie multi-métiers et traite de l'élaboration d'une approche de conception comportementale pour aider les concepteurs à optimiser la performance du produit globalement dès la phase de conception grâce à la prise en compte des conditions d'utilisation et de la présence de l'utilisateur. Pour expérimenter ces travaux, un logiciel est en développement pour soutenir et permettre une utilisation systématique de cette "approche de conception comportementale" en l'intégrant dans le travail au quotidien du concepteur.
APA, Harvard, Vancouver, ISO, and other styles
21

Caillou, Nicolas. "Effet des instructions sur l'apprentissage d'une habileté de coordination bimanuelle." Montpellier 1, 2003. http://www.theses.fr/2003MON14001.

Full text
Abstract:
Le but de ce travail etait de tester la pertinence d'un nouveau cadre d'analyse pour les informations donnees avant la pratique. Nous avons emis l'hypothese que pour favoriser le depassement des coordinations spontanees, l'information fondamentale a prodiguer represente le mouvement relatif des oscillateurs. Les sujets ont eu a apprendre une coordination bimanuelle a 270° de phase relative. Notre premiere etude s'est efforcee d'analyser l'effet differencie d'instructions renseignant sur la position relative des oscillateurs et d'instructions definissant le mouvement relatif de ces oscillateurs, instruction de haut niveau de description de la tache a realiser. Les resultats decevants de cette premiere etude nous ont pousses a augmenter le pouvoir attractif des informations comportementales evoquees au moyen d'une analogie. Dans cette deuxieme experimentation, l'utilisation d'une analogie specifiant le mouvement relatif des oscillateurs a permis la stabilisation precoce de patrons de coordination. Ce resultat est confirme dans une troisieme experimentation lors de l'apprentissage d'un patron de coordination sans retour d'information. L'analogie de haut niveau de description de la tache est une instruction permettant immediatement l'evocation d'une information comportementale puissante.
APA, Harvard, Vancouver, ISO, and other styles
22

Deschênes, Annie. "Modèle animal des dysfonctions schizophréniques du cortex préfrontal : performance de rats avec injections systémiques de phencyclidine (PCP) dans deux tâches axées sur des changements de règles." Master's thesis, Université Laval, 2003. http://hdl.handle.net/20.500.11794/44341.

Full text
Abstract:
Selon un point de vue très répandu, l’injection quotidienne et répétée de phencyclidine (PCP)reproduit chez ranimai des symptômes négatifs similaires à ceux observés dans la schizophrénie humaine en créant une hypodopaminergie corticale, notamment dans le cortex préfrontai. Le présent mémoire s’insère dans un programme de recherche qui vise à tester ce point de vue qui, dans les faits, repose sur peu de données empiriques publiées. Plus spécifiquement, l’expérience rapportée dans le mémoire compare la performance de rats traités avec du PCP de façon sous chronique et répétée à celle de rats contrôles injectés avec une solution saline, dans deux tâches introduisant des changements de règles et requérant l’intégrité du cortex préfrontal: une tâche de localisation spatiale à buts variables dans un labyrinthe radial et une variante du test de tri decartes du Wisconsin (WCST) adaptée aux rats. L’absence de différence significative entre les groupes exposé et non exposé à la drogue dans les deux tâches examinées met en doute la capacité réelle de cette drogue à reproduire, chez le rat, un syndrome fronto-cognitif déficitaire apparenté à la schizophrénie.
APA, Harvard, Vancouver, ISO, and other styles
23

Gama, Pinheiro Vinicius. "The management of multiple submissions in parallel systems : the fair scheduling approach." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM042/document.

Full text
Abstract:
Le problème étudié est celui de l'ordonnancement d'applications dans lessystèmes parallèles et distribués avec plusieurs utilisateurs. Les nouvellesplates-formes de calcul parallèle et distribué offrent des puissances trèsgrandes qui permettent d'envisager la résolution d'applications complexesinteractives. Aujourd'hui, il reste encore difficile d'utiliser efficacementcette puissance par manque d'outils de gestion de ressources. Le travaileffectué dans cette thèse se place dans cette perspective d'analyser etdévelopper des algorithmes efficaces pour gérer efficacement des ressources decalcul partagées entre plusieurs utilisateurs. On analyse les scénarios avecplusieurs soumissions lancées par multiples utilisateurs au cours du temps. Cessoumissions ont un ou plus de processus et l'ensemble de soumissions estorganisé en successifs campagnes. Les processus d'une seule campagnesont séquentiels et indépendants, mais les processus d'une campagne ne peuventpas commencer leur exécution avant que tous les processus provenant de ladernière campagne sont completés. Chaque utilisateur est intéressé à minimiserla somme des temps de réponses des campagnes. On définit un modèle théorique pour l'ordonnancement des campagnes et on montreque, dans le cas général, c'est NP-difficile. Pour le cas avec un utilisateur,on démontre qu'un algorithme d'ordonnancement $ho$-approximation pour le(classique) problème d'ordonnancement de tâches parallèles est aussi un$ho$-approximation pour le problème d'ordonnancement de campagnes. Pour lecas général avec $k$ utilisateurs, on établis un critère de emph{fairness}inspiré par partage de temps. On propose FairCamp, un algorithmed'ordonnancement qu'utilise dates limite pour réaliser emph{fairness} parmiles utilisateurs entre consécutifes campagnes. On prouve que FairCamp augmentele temps de réponse de chaque utilisateur par a facteur maximum de $kho$ parrapport un processeur dédiée à l'utilisateur. On prouve aussi que FairCamp estun algorithme $ho$-approximation pour le maximum emph{stretch}.On compare FairCamp contre emph{First-Come-First-Served} (FCFS) parsimulation. On démontre que, comparativement à FCFS, FairCamp réduit le maximal{em stretch} a la limite de $3.4$ fois. La différence est significative dansles systèmes utilisé pour plusieurs ($k>5$) utilisateurs.Les résultats montrent que, plutôt que juste des tâches individuelle etindépendants, campagnes de tâches peuvent être manipulées d'une manièreefficace et équitable
We study the problem of scheduling in parallel and distributedsystems with multiple users. New platforms for parallel and distributedcomputing offers very large power which allows to contemplate the resolution ofcomplex interactive applications. Nowadays, it is still difficult to use thispower efficiently due to lack of resource management tools. The work done inthis thesis lies in this context: to analyse and develop efficient algorithmsfor manage computing resources shared among multiple users. We analyzescenarios with many submissions issued from multiple users over time. Thesesubmissions contain one or more jobs and the set of submissions are organizedin successive campaigns. Any job from a campaign can not start until allthe jobs from the previous campaign are completed. Each user is interested inminimizing the sum of flow times of the campaigns.In the first part of this work, we define a theoretical model for Campaign Scheduling under restrictive assumptions andwe show that, in the general case, it is NP-hard. For the single-user case, we show that an$ho$-approximation scheduling algorithm for the (classic) parallel jobscheduling problem is also an $ho$-approximation for the Campaign Schedulingproblem. For the general case with $k$ users, we establish a fairness criteriainspired by time sharing. Then, we propose FairCamp, a scheduling algorithm whichuses campaign deadlines to achieve fairness among users between consecutivecampaigns. We prove that FairCamp increases the flow time of each user by afactor of at most $kho$ compared with a machine dedicated to the user. Wealso prove that FairCamp is an $ho$-approximation algorithm for the maximumstretch.We compare FairCamp to {em First-Come-First-Served} (FCFS) by simulation. We showthat, compared with FCFS, FairCamp reduces the maximum stretch by up to $3.4$times. The difference is significant in systems used by many ($k>5$) users.Our results show that, rather than just individual, independent jobs, campaignsof jobs can be handled by the scheduler efficiently and fairly
APA, Harvard, Vancouver, ISO, and other styles
24

Lanctôt, Myriam. "Étude de l'influence des antécédents psychologiques, neurologiques et scolaires sur la performance à des tâches de l'attention et d'inhibition cognitive chez des adultes atteints d'un traumatisme craniocérébral léger." Thèse, Université du Québec à Trois-Rivières, 2004. http://depot-e.uqtr.ca/4701/1/000111853.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Delaplace-Reisser, Chantal. "Contribution à l'analyse du crawl du nageur non expert : étude des paramètres spacio-temporels, des parties nagées et non nagées et de la coordination de nage en fonction du niveau d'expertise, de la distance et du genre." Montpellier 1, 2004. http://www.theses.fr/2004MON14005.

Full text
Abstract:
L'OBJECTIF CENTRAL DE CES DIFFERENTES ETUDES EST DE MIEUX APPREHENDER LE COMPORTEMENT DE NAGEURS NON EXPERTS CONFRONTES A DES EPREUVES EN CRAWL. LES ETUDES 1 ET 2 RELATIVES A L'ANALYSE DU 100m CHEZ DES NAGEURS NON EXPERTS (ETUDE 1) ET LEUR COMPARAISON AVEC DES NAGEURS EXPERTS (ETUDE 2) ONT MIS EN EVIDENCE QUE LE MEILLEUR PREDICTEUR DE LA PERFORMANCE EST, COMME POUR DES NAGEURS EXPERTS, LA DISTANCE PAR CYCLE. A L'INTERIEUR D'UN 100m NL, LES DIMINUTIONS DE VITESSE ENTRE LES DEUX PARCOURS DE 50m ACCENTUENT L'ASPECT DISCRIMINANT DE LA DISTANCE PAR CYCLE EN FONCTION DU NIVEAU DES NAGEURS. PLUS LE NIVEAU EST BAS, PLUS LE DECALAGE EST GRAND, PASSANT DE 19. 4% POUR LE GROUPE LE PLUS FAIBLE A 1. 7% POUR DES NAGEURS EXPERTS. L'ETUDE 3 A MIS EN AVANT LES DIFFERENTES FACONS D'APPREHENDER LES COURSES DE LONGUES DISTANCES (800m) EN FONCTION DU NIVEAU D'EXPERTISE ET DU SEXE. PARADOXALEMENT, LE GROUPE LE PLUS FAIBLE A UNE PLUS GRANDE STABILITE DE VITESSE, DE DISTANCE PAR CYCLE ET DE FREQUENCE ENTRE LES DEUX PARCOURS COMPOSANT LE 800m. CE GROUPE N'A PAS D'OBJECTIF DE PERFORMANCE, IL S'ECONOMISE POUR TERMINER L'EPREUVE. LES DEUX AUTRES GROUPES, INTERMEDIARE ET FORT, ONT PLUS UNE STRATEGIE DE PERFORMANCE, ALORS, UNE DIMINUTION IMPORTANTE DE LA VITESSE ET DE LA DISTANCE PAR CYCLE CARACTERISE LA DEUXIEME PARTIE DU PARCOURS. LA VITESSE ET LA DISTANCE PAR CYCLE ACCROISSENT LES DIFFERENCES SEXUELLES. L'ETUDE 4 A MONTRE QUE LES CARACTERISTIQUES ANTHROPOMETRIQUES VARIENT SUIVANT LE SEXE. LES GARCONS LES PLUS PERFORMANTS SONT CARACTERISES PAR UN PLUS FAIBLE POIDS. UN MEME NIVEAU DE PERFORMANCE PEUT ETRE OBTENU PAR DES NAGEURS AYANT DES MORPHOLOGIES DIFFERENTES. LES RESULTATS LES PLUS INTERESSANTS DE L'ETUDE 5 ONT DEMONTRE QUE SUR 800m NL, UN TIERS DE LA COURSE EST CONSACRE AUX PARTIES NON NAGEES (34. 8%). POUR TOUTES LES VITESSES NON NAGEES (DEPART, VIRAGE, ARRIVEE), LES GARCONS VONT PLUS VITE QUE LES FILLES. ILS EXERCENT PLUS DE FORCE LORS DES DEPARTS ET DES VIRAGES. LA VITESSE DES VIRAGES DIMINUE LORSQUE LA DISTANCE DE L'EPREUVE AUGMENTE. L'ETUDE 6 A FAIT APPARAITRE QUE LA COORDINATION DE NAGE EVOLUE EN FONCTION DE LA DISTANCE NAGEE. LES DEUX GROUPES, FAIBLE ET FORT, ONT UN INDEX DE COORDINATION NEGATIF, ILS NAGENT EN RATTRAPE, AVEC UN TEMPS MORT ENTRE LES DEUX BRAS. LES NAGEURS NON EXPERTS, POUR S'ADAPTER A L'EFFORT DEMANDE PENDANT LE 800m NL, AUGMENTENT LE TEMPS D'INSPIRATION, CE QUI A POUR CONSEQUENCE UNE AUGMENTATION DE LEUR PHASE NON PROPULSIVE.
APA, Harvard, Vancouver, ISO, and other styles
26

Felicioni, Flavia. "Stabilité et performance des systèmes distribués de contrôle-commande." Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL013N/document.

Full text
Abstract:
L’objectif principal de cette thèse est l’étude de propriétés dynamiques et de méthodes de conception et synthèse des algorithmes de contrôle-commande des systèmes dans le cas où les fonctions de mesures, actionnements et contrôles sont distribuées sur des organes de calcul pouvant être partagés avec d’autres applications et connectés sur un réseau de communication numérique. En conséquence, les boucles de contrôle sont en compétition avec d’autres applications pour accéder aux ressources de calcul et de communication de capacité limitée et gérées par des politiques spécifiques. Ceci provoque l’apparition de délais et de perte d’informations transmises entre les différents nœuds qui peuvent dégrader les performances des systèmes et conduire à leur instabilité.Dans une première partie de la thèse, nous avons étudié l’analyse des performances de certains systèmes ainsi que la conception de contrôleurs robustes en fonction de la qualité de service fournie par le réseau. Cette étude a permis de spécifier les règles de conception de contrôleurs.Dans la deuxième partie, nous avons présenté une approche de conception conjointe intégrant les résultats obtenus dans les deux domaines: la synthèse et la conception des algorithmes de contrôle et l’ordonnancement de tâches temps réel qui partagent des ressources limitées. La technique proposée repose sur le changement de la période d’activation de l’algorithme de contrôle, et en conséquence le modèle du système devient un modèle échantillonné à taux variable. Les résultats proposés, en considérant l’algèbre de Lie des matrices d’évolution, permettent de calculer des contrôleurs adaptifs aux périodes qui stabilisent tous le système
The main contributions of this thesis are related to the analysis, synthesis and design of control systems sharing communication and computational resources. The research focuses on control systems where the feedback loops are closed over communication networks which transmit the information provided to its nodes by sensors, actuators and controllers. The shared resource in this scenario is the network. Some of the results are valid when the resource is a processor locally placed respect to several controller executing their algorithms on it. In any of the preceding scenarios, the control loops must contend for the shared resource. The limited capacity of the resource can cause delays and packet losses when information is transmitted. These effects can degrade the control system performance and even destabilize it.The first part of this thesis contributes to the performance analysis of specific classes of systems and to the design of robust controllers for network characteristics modeled by Quality of Service parameters. A series of methods to assist the control systems engineer are provided.In the second part, a contribution to the CoDesign approach is made via the integration of control system synthesis and design techniques with rules allowing to define the communication policy to manage real-time tasks sharing a limited resource. Putting in correspondence a scheduling of instances of the controller tasks with their sampling periods, the proposed policy results in discrete-time varying systems. The stabilization problem of these systems is solved with methods based on the solvability of Lie-algebras. Specifically, the proposed methodology provides adaptive controllers
APA, Harvard, Vancouver, ISO, and other styles
27

Roels, Belle. "Systemic and muscular adaptations to different hypoxic training methods." Montpellier 1, 2005. http://www.theses.fr/2005MON14002.

Full text
Abstract:
Cette thèse a étudié les effets de l'hypoxie sur plusieurs paramètres physiologiques, hématologiques et musculaires. Nous avons observé que vivre et s'entraîner pendant 13 jours à une altitude de 1200 m (basse altitude) induit une plus grande amélioration à court terme de la performance en natation, comparée au même type d'entraînement, pendant une durée identique à 1850 m (altitude modérée) (étude 1 : haut-haut). En outre (étude 4 : haut-haut), au niveau de l'unité contractile musculaire, une période d'entraînement en endurance en condition hypoxique sur les muscles soleus de rats montrait que l'hypoxie chronique a eu un effet négatif sur l'activité ATPasique de la myosine et l'hypoxie semblait supprimer les effets positifs de l'entraînement en endurance. L'activité ATPasique semblait être dissociée des modifications d'expression de MHC après une exposition hypoxique chronique. L'entraînement intermittent en hypoxie (IHT, études 2 et 3) s'accompagnait de peu de modifications des performances aérobies ou anaérobies au niveau de la mer ainsi que des variables hématologiques, comparés à un entraînement similaire en normoxie. L'activité des protéines de transports du lactate (MCT1 et MCT4) n'a pas été significativement modifiée (étude 3). Les seuls changements significatifs observés après IHT étaient une augmentation de la puissance maximale aérobie mesurée en hypoxie (étude 3) et la modification dans la préférence des substrats oxydés, avec une diminution de l'oxydation des graisses dans le muscle vastus lateralis humain (étude 3). En résumé, les effets additifs du stimulus hypoxique dans différentes stratégies d'entraînement en hypoxie sont très faibles sur la performance d'endurance. Ceci peut-être expliqué par un équilibre entre les adaptations positives et négatives induites par l'hypoxie.
APA, Harvard, Vancouver, ISO, and other styles
28

Gaud, Fabien. "Étude et amélioration de la performance des serveurs de données pour les architectures multi-cœurs." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00563868.

Full text
Abstract:
Cette thèse s'intéresse à la performance des serveurs de données sur les architectures multi-cœurs. Nous avons choisi d'étudier ce problème sous deux aspects différents. Premièrement, nous étudions un support d'exécution événementiel. Nous montrons notamment que le mécanisme de vol de tâches, utilisé pour équilibrer la charge entre les cœurs, peut pénaliser la performance d'un serveur Web. Nous proposons donc diverses optimisations pour améliorer les performances de ce mécanisme sur les processeurs multi-cœurs. Deuxièmement, nous étudions la performance du serveur Web Apache, exploitant à la fois un ensemble de threads et de processus, sur une architecture multi-cœurs NUMA. Nous montrons notamment que, sous une charge réaliste, ce serveur Web ne passe pas idéalement à l'échelle. Grâce à une analyse détaillée des coûts, nous déterminons les raisons de ce manque de passage à l'échelle et présentons un ensemble de propositions visant à améliorer la performance de ce serveur sur une architecture NUMA.
APA, Harvard, Vancouver, ISO, and other styles
29

Belen, Lucien. "Les pédaliers expérimentaux : effets sur la demande métabolique, sur les réponses cardio-ventilatoires et sur la performance de deux prototypes au cours d'épreuves d'effort." Montpellier 1, 2006. http://www.theses.fr/2006MON14004.

Full text
Abstract:
L'objectif de notre travail était d'étudier deux pédaliers expérimentaux dans des situations d'épreuves d'effort et de les comparer avec le pédalier traditionnel, en termes de réponse métabolique, d'adaptation cardio-ventilatoire et de performance. Dans un premier travail, nous avons étudié le pédalier Pro Race réalisé en fibres de carbone, au cours d'une épreuve d'effort à charge croissante. Ce pédalier prototype présente la particularité d'augmenter le couple moteur du pédalage par un allongement de la longueur des manivelles en phase active de poussée. Les paramètres cardio-ventilatoires enregistrés au cours de l'épreuve se sont révélés significativement plus élevés avec le pédalier prototype (P<0,05). Dans un deuxième travail, nous avons étudié le pédalier Barjon-Brière au cours d'une épreuve d'effort à charge croissante. Ce pédalier présente la particularité d'associer la diminution des points morts haut et bas par un désalignement des manivelles lors du passage de ces points, avec une variation de la longueur des manivelles en phases de poussée et de tirage. Les paramètres cardio-ventilatoires enregistrés au cours de l'épreuve d'effort se sont révélés identiques avec ceux du pédalier traditionnel. Par contre, le taux de lactate sanguin observé en fin d'épreuve était significativement plus élevé (P<0,05). Dans un troisième travail, nous avons étudié le pédalier Barjon-Brière au cours d'un "all-out" test de 1 km départ arrêté. La performance réalisée au cours de ce test s'est révélée identique avec les deux pédaliers. Par contre, le pédalier Barjon-Brière a permis d'atteindre la vitesse maximale en un temps significativement plus court, correspondant à une accélération significativement plus importante (P<0,05). La performance au test s'est accompagnée en outre d'un indice de fatigue significativement plus faible (P<0,05). Nous avons conclu 1) que la réalisation du pédalier Pro Race en fibres de carbone ne s'accompagnait pas d'effet bénéfique par rapport au pédalier traditionnel, et 2) que le pédalier Barjon-Brière paraissait présenter des caractéristiques susceptibles d'améliorer la performance dans des épreuves d'effort supramaximale et de courte durée.
APA, Harvard, Vancouver, ISO, and other styles
30

Möller, Nathalie. "Adaptation de codes industriels de simulation en Calcul Haute Performance aux architectures modernes de supercalculateurs." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV088.

Full text
Abstract:
Durant de longues années, la stabilité dans le paradigme d'architecture a facilité la portabilité de performance des grands codes en Calcul de Haute Performance d'une génération à l'autre de supercalculateurs.L'effondrement programmé de la loi de Moore - qui règle les progrès en gravure des micro-processeurs - bouscule ce modèle et requiert un effort nouveau du côté logiciel.Une modernisation des codes basée sur une algorithmique adaptée aux futurs systèmes est ainsi nécessaire.Cette modernisation repose sur des principes de base connus tels que la concurrence des calculs et la localité des données.Cependant, la mise en œuvre de ces principes dans le cadre d'applications réelles en milieu industriel – lesquelles applications sont souvent le fruit d’années d’efforts de développement - s’avère bien plus compliquée que ne le laissait prévoir leur simplicité apparente.Les contributions de cette thèse sont les suivantes :D’une part, nous explorons une méthodologie de modernisation de codes basée sur l’utilisation de proto-applications et la confrontons à une approche directe, en optimisant deux codes de simulation dévéloppés dans un contexte similaire.D’autre part, nous nous concentrons sur l’identification des principaux défis concernant l’adéquation entre applications, modèles de programmation et architectures.Les deux domaines d'application choisis sont la dynamique des fluides et l'électromagnétisme
For many years, the stability of the architecture paradigm has facilitated the performance portability of large HPC codes from one generation of supercomputers to another.The announced breakdown of the Moore's Law, which rules the progress of microprocessor engraving, ends this model and requires new efforts on the software's side.Code modernization, based on an algorithmic which is well adapted to the future systems, is mandatory.This modernization is based on well-known principles as the computation concurrency, or degree of parallelism, and the data locality.However, the implementation of these principles in large industrial applications, which often are the result of years of development efforts, turns out to be way more difficult than expected.This thesis contributions are twofold :On the one hand, we explore a methodology of software modernization based on the concept of proto-applications and compare it with the direct approach, while optimizing two simulation codes developed in a similar context.On the other hand, we focus on the identification of the main challenges for the architecture, the programming models and the applications.The two chosen application fields are the Computational Fluid Dynamics and Computational Electro Magnetics
APA, Harvard, Vancouver, ISO, and other styles
31

Durny, Annick. "Contribution du domaine psychomoteur à la compréhension de la performance sportive : différences inter-individuelles dans des tâches mettant en jeu les aptitudes psychomotrices chez des sportifs d'âges, de disciplines et de niveaux de spécialisation différents." Paris 10, 1996. http://www.theses.fr/1996PA100001.

Full text
Abstract:
Notre travail s'intéresse a la contribution du domaine des aptitudes psychomotrices a la performance sportive. Il s'inscrit dans la perspective du modèle de la performance motrice de Fleishman. Nous étudions les différences interindividuelles dans les taches mettant en jeu les aptitudes psychomotrices chez des sportifs d'ages, de disciplines et de niveaux de spécialisation différents. L'analyse factorielle en composantes principales permet de caractériser les domaines d'aptitudes mécaniques et psychomotrices. Elle montre que pour un échantillon de population hétérogène, les performances aux épreuves expérimentales dépendent principalement de facteurs généraux communs a toutes les épreuves. Lorsque l'échantillon de population devient plus homogène, nous voyons alors émerger des facteurs plus spécifiques, communs a certaines épreuves. Notre discussion porte sur la relation entre les aptitudes psychomotrices et la performance sportive et en particulier de leur intérêt pour la prédiction de la performance et la détection de futurs "talents" en sport
Our work concerns the contribution of psychomotor abilities to sport performance. It is about the view of the motor performance presented by Fleishman. We study the inter-individual differences in tasks who request psychomotor abilities by sportsmen who have different ages and practice sports in different level of expertise. The factorial analysis helps to particularize the mechanical and psychomotor abilities. It shows that for heterogeneous people, the experimental tasks performance depend principally on general factors, common to all tests. When groups are more homogeneous, we can see appear more specific factors, common to fewer tests. Our discussion concerns the relationships between psychomotor abilities and sport performance and particularly about its interest for the performance prediction and the "talent" choice in sports
APA, Harvard, Vancouver, ISO, and other styles
32

Gueunet, Charles. "Calcul haute performance pour l'analyse topologique de données par ensembles de niveaux." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS120.

Full text
Abstract:
L'analyse de données topologique nécessite des algorithmes de plus en plus efficaces pour être capable de traiter des jeux de données dont la taille et le niveau de détail augmente continûment. Dans cette thèse, nous nous concentrons sur trois abstractions topologiques fondamentales dérivées des ensembles de niveaux : l'arbre de jointure, l'arbre de contour et le graphe de Reeb. Nous proposons trois nouveaux algorithmes parallèles efficaces pour leur calcul sur des stations de travail composées de processeurs multi-cœur en mémoire partagée. Le premier algorithme élaboré durant cette thèse se base sur du parallélisme multi-thread pour le calcul de l'arbre de contour. Une seconde approche revisite l'algorithme séquentiel de référence pour le calcul de cette structure et se base sur des propagations locales exprimables en tâches parallèles. Ce nouvel algorithme est en pratique deux fois plus rapide en séquentiel que l'algorithme de référence élaboré en 2000 et offre une accélération d'un ordre de grandeur en parallèle. Un dernier algorithme basé sur une approche locale par tâches est également présenté pour une abstraction plus générique : le graphe de Reeb. Contrairement aux approches concurrentes, nos algorithmes construisent les versions augmentées de ces structures, permettant de supporter l'ensemble des applications pour l'analyse de données par ensembles de niveaux. Les méthodes présentées dans ce manuscrit ont donné lieu à des implémentations qui sont les plus rapides parmi celles disponibles pour le calcul de ces abstractions. Ce travail a été intégré à la bibliothèque libre : Topology Toolkit (TTK)
Topological Data Analysis requires efficient algorithms to deal with the continuously increasing size and level of details of data sets. In this manuscript, we focus on three fundamental topological abstractions based on level sets: merge trees, contour trees and Reeb graphs. We propose three new efficient parallel algorithms for the computation of these abstractions on multi-core shared memory workstations. The first algorithm developed in the context of this thesis is based on multi-thread parallelism for the contour tree computation. A second algorithm revisits the reference sequential algorithm to compute this abstraction and is based on local propagations expressible as parallel tasks. This new algorithm is in practice twice faster in sequential than the reference algorithm designed in 2000 and offers one order of magnitude speedups in parallel. A last algorithm also relying on task-based local propagations is presented, computing a more generic abstraction: the Reeb graph. Contrary to concurrent approaches, these methods provide the augmented version of these structures, hence enabling the full extend of level-set based analysis. Algorithms presented in this manuscript result today in the fastest implementations available to compute these abstractions. This work has been integrated into the open-source platform: the Topology Toolkit (TTK)
APA, Harvard, Vancouver, ISO, and other styles
33

Martsinkevich, Tatiana V. "Improving message logging protocols towards extreme-scale HPC systems." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112215.

Full text
Abstract:
Les machines pétascale qui existent aujourd'hui ont un temps moyen entre pannes de plusieurs heures. Il est prévu que dans les futurs systèmes ce temps diminuera. Pour cette raison, les applications qui fonctionneront sur ces systèmes doivent être capables de tolérer des défaillances fréquentes. Aujourd'hui, le moyen le plus commun de le faire est d'utiliser le mécanisme de retour arrière global où l'application fait des sauvegardes périodiques à partir d’un point de reprise. Si un processus s'arrête à cause d'une défaillance, tous les processus reviennent en arrière et se relancent à partir du dernier point de reprise. Cependant, cette solution deviendra infaisable à grande échelle en raison des coûts de l'énergie et de l'utilisation inefficace des ressources. Dans le contexte des applications MPI, les protocoles de journalisation des messages offrent un meilleur confinement des défaillances car ils ne demandent que le redémarrage du processus qui a échoué, ou parfois d’un groupe de processus limité. Par contre, les protocoles existants ont souvent un surcoût important en l’absence de défaillances qui empêchent leur utilisation à grande échelle. Ce surcoût provient de la nécessité de sauvegarder de façon fiable tous les événements non-déterministes afin de pouvoir correctement restaurer l'état du processus en cas de défaillance. Ensuite, comme les journaux de messages sont généralement stockés dans la mémoire volatile, la journalisation risque de nécessiter une large utilisation de la mémoire. Une autre tendance importante dans le domaine des HPC est le passage des applications MPI simples aux nouveaux modèles de programmation hybrides tels que MPI + threads ou MPI + tâches en réponse au nombre croissant de cœurs par noeud. Cela offre l’opportunité de gérer les défaillances au niveau du thread / de la tâche contrairement à l'approche conventionnelle qui traite les défaillances au niveau du processus. Par conséquent, le travail de cette thèse se compose de trois parties. Tout d'abord, nous présentons un protocole de journalisation hiérarchique pour atténuer une défaillance de processus. Le protocole s'appelle Scalable Pattern-Based Checkpointing et il exploite un nouveau modèle déterministe appelé channel-determinism ainsi qu’une nouvelle relation always-happens-before utilisée pour mettre partiellement en ordre les événements de l'application. Le protocole est évolutif, son surcoût pendant l'exécution sans défaillance est limité, il n'exige l'enregistrement d'aucun évènement et, enfin, il a une reprise entièrement distribuée. Deuxièmement, afin de résoudre le problème de la limitation de la mémoire sur les nœuds de calcul, nous proposons d'utiliser des ressources dédiées supplémentaires, appelées logger nodes. Tous les messages qui ne rentrent pas dans la mémoire du nœud de calcul sont envoyés aux logger nodes et sauvegardés dans leur mémoire. À travers de nos expériences nous montrons que cette approche est réalisable et, associée avec un protocole de journalisation hiérarchique comme le SPBC, les logger nodes peuvent être une solution ultime au problème de mémoire limitée sur les nœuds de calcul. Troisièmement, nous présentons un protocole de tolérance aux défaillances pour des applications hybrides qui adoptent le modèle de programmation MPI + tâches. Ce protocole s'utilise pour tolérer des erreurs détectées non corrigées qui se produisent lors de l'exécution d'une tâche. Normalement, une telle erreur provoque une exception du système ce qui provoque un arrêt brutal de l'application. Dans ce cas, l'application doit redémarrer à partir du dernier point de reprise. Nous combinons la sauvegarde des données de la tâche avec une journalisation des messages afin d’aider à la reprise de la tâche qui a subi une défaillance. Ainsi, nous évitons le redémarrage au niveau du processus, plus coûteux. Nous démontrons les avantages de ce protocole avec l'exemple des applications hybrides MPI + OmpSs
Existing petascale machines have a Mean Time Between Failures (MTBF) in the order of several hours. It is predicted that in the future systems the MTBF will decrease. Therefore, applications that will run on these systems need to be able to tolerate frequent failures. Currently, the most common way to do this is to use global application checkpoint/restart scheme: if some process fails the whole application rolls back the its last checkpointed state and re-executes from that point. This solution will become infeasible at large scale, due to its energy costs and inefficient resource usage. Therefore fine-grained failure containment is a strongly required feature for the fault tolerance techniques that target large-scale executions. In the context of message passing MPI applications, message logging fault tolerance protocols provide good failure containment as they require restart of only one process or, in some cases, a bounded number of processes. However, existing logging protocols experience a number of issues which prevent their usage at large scale. In particular, they tend to have high failure-free overhead because they usually need to store reliably any nondeterministic events happening during the execution of a process in order to correctly restore its state in recovery. Next, as message logs are usually stored in the volatile memory, logging may incur large memory footprint, especially in communication-intensive applications. This is particularly important because the future exascale systems expect to have less memory available per core. Another important trend in HPC is switching from MPI-only applications to hybrid programming models like MPI+threads and MPI+tasks in response to the increasing number of cores per node. This gives opportunities for employing fault tolerance solutions that handle faults on the level of threads/tasks. Such approach has even better failure containment compared to message logging protocols which handle failures on the level of processes. Thus, the work in these dissertation consists of three parts. First, we present a hierarchical log-based fault tolerance solution, called Scalable Pattern-Based Checkpointing (SPBC) for mitigating process fail-stop failures. The protocol leverages a new deterministic model called channel-determinism and a new always-happens-before relation for partial ordering of events in the application. The protocol is scalable, has low overhead in failure-free execution and does not require logging any events, provides perfect failure containment and has a fully distributed recovery. Second, to address the memory limitation problem on compute nodes, we propose to use additional dedicated resources, or logger nodes. All the logs that do not fit in the memory of compute nodes are sent to the logger nodes and kept in their memory. In a series of experiments we show that not only this approach is feasible, but, combined with a hierarchical logging scheme like the SPBC, logger nodes can be an ultimate solution to the problem of memory limitation for logging protocols. Third, we present a log-based fault tolerance protocol for hybrid applications adopting MPI+tasks programming model. The protocol is used to tolerate detected uncorrected errors (DUEs) that happen during execution of a task. Normally, a DUE caused the system to raise an exception which lead to an application crash. Then, the application has to restart from a checkpoint. In the proposed solution, we combine task checkpointing with message logging in order to support task re-execution. Such task-level failure containment can be beneficial in large-scale executions because it avoids the more expensive process-level restart. We demonstrate the advantages of this protocol on the example of hybrid MPI+OmpSs applications
APA, Harvard, Vancouver, ISO, and other styles
34

Tremblay, Marc-André. "Caractérisation des effets des immobilisations orthopédiques sur les performances de conduite automobile lors de tâches simulées." Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/3954.

Full text
Abstract:
Problématique : L'utilisation des immobilisations orthopédiques au membre inférieur est bien reconnue pour permettre au corps de prendre le temps de guérir et cela dans la meilleure position possible. Toutefois, l'impact de ces mécanismes de soutien conçu aussi pour permettre la mise en charge est peu connu, en autre, sur la conduite automobile. Il est donc délicat pour les cliniciens et les législateurs d'éclairer adéquatement les patients bénéficiant de ce type de traitement sur leur aptitude à conduire et d'émettre des recommandations appropriées sur la sécurité routière. Méthodologie. Une étude expérimentale visant à déterminer l'effet des immobilisations orthopédiques au membre inférieur droit a été effectuée au Centre de recherche sur le Vieillissement de l'Université de Sherbrooke. Les forces et les temps de freinage ont été mesurés chez quarante-huit sujets sains (25-60 ans) évalués selon trois conditions, soit en portant leurs chaussures de sport habituelles, une botte de marche plâtrée (Delta-Cast Confoiniable, BSN Medical, Leuven, Belgique) et une botte de marche amovible (Foam pneumatic walker, Aircast, Vista, CA États-Unis). La force et les temps de freinage ont été mesurés à l'aide simulateur de conduite. De plus, un questionnaire sur les variables sociodémographiques, un examen physique sommaire et l'exécution de tests cliniques de"stepping" et de"standing" complétaient l'étude. Chaque sujet accomplissait chacune des évaluations avec les deux types d'immobilisation et ses chaussures habituelles, selon un ordre de passage aléatoire. Résultats. La moyenne de la force maximale exercée sur la pédale de frein par les sujets avec la botte de marche est inférieure aux moyennes obtenues avec la botte de marche amovible et la chaussure de sport (respectivement 275,4 lb, 287,2 lb et 293,8 lb, p = 0,001). Deux différences significatives sont présentes, soit entre la botte de marche et la chaussure de sport (18,4 lb ; p < 0,001) et entre la botte de marche et le Aircast (11,8 lb ; p < 0,001). Les temps de réaction de freinage mesurés sont, en ordre décroissant, de 619 ms, 609 ms et 580 ms pour le Aircast, la botte de marche et la chaussure de sport respectivement. Deux différences significatives sont présentes, soit entre la chaussure de sport et le Aircast (39 ms, p < 0,001) et entre la chaussure de sport et la botte de marche (29 ms, p < 0,001). L'étude confirme aussi une corrélation de faible à modérée entre les tests cliniques de"stepping" et de"standing" et le temps de réaction (p < 0,05). Conclusion. Malgré une différence statistiquement significative entre la force de freinage et le temps de réaction avec le port ou non d'une immobilisation orthopédique, cette différence est jugée cliniquement négligeable chez les sujets sains.
APA, Harvard, Vancouver, ISO, and other styles
35

Boillot, Lionel. "Contributions à la modélisation mathématique et à l'algorithmique parallèle pour l'optimisation d'un propagateur d'ondes élastiques en milieu anisotrope." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3043/document.

Full text
Abstract:
La méthode d’imagerie la plus répandue dans l’industrie pétrolière est la RTM (Reverse Time Migration) qui repose sur la simulation de la propagation des ondes dans le sous-sol. Nous nous sommes concentrés sur un propagateur d'ondes élastiques 3D en milieu anisotrope de type TTI (Tilted Transverse Isotropic). Nous avons directement travaillé dans le code de recherche de Total DIVA (Depth Imaging Velocity Analysis), basé sur une discrétisation par la méthode de Galerkin Discontinue et le schéma Leap-Frog, et développé pour le calcul parallèle intensif – HPC (High Performance Computing). Nous avons ciblé plus particulièrement deux contributions possibles qui, si elles supposent des compétences très différentes, ont la même finalité : réduire les coûts de calculs requis pour la simulation. D'une part, les conditions aux limites classiques de type PML (Perfectly Matched Layers) ne sont pas stables dans des milieux TTI. Nous avons proposé de formuler une CLA (Conditions aux Limites Absorbantes) stable dans des milieux anisotropes. La méthode de construction repose sur les propriétés des courbes de lenteur, ce qui donne à notre approche un caractère original. D'autre part, le parallélisme initial, basé sur une décomposition de domaine et des communications par passage de messages à l'aide de la bibliothèque MPI, conduit à un déséquilibrage de charge qui détériore son efficacité parallèle. Nous avons corrigé cela en remplaçant le paradigme parallélisme par l'utilisation de la programmation à base de tâches sur support d'exécution. Cette thèse a été réalisée dans le cadre de l'action de recherche DIP (Depth Imaging Partnership) qui lie la compagnie pétrolière Total et Inria
The most common method of Seismic Imaging is the RTM (Reverse Time Migration) which depends on wave propagation simulations in the subsurface. We focused on a 3D elastic wave propagator in anisotropic media, more precisely TTI (Tilted Transverse Isotropic). We directly worked in the Total code DIVA (Depth Imaging Velocity Analysis) which is based on a discretization by the Discontinuous Galerkin method and the Leap-Frog scheme, and developed for intensive parallel computing – HPC (High Performance Computing). We choose to especially target two contributions. Although they required very different skills, they share the same goal: to reduce the computational cost of the simulation. On one hand, classical boundary conditions like PML (Perfectly Matched Layers) are unstable in TTI media. We have proposed a formulation of a stable ABC (Absorbing Boundary Condition) in anisotropic media. The technique is based on slowness curve properties, giving to our approach an original side. On the other hand, the initial parallelism, which is based on a domain decomposition and communications by message passing through the MPI library, leads to load-imbalance and so poor parallel efficiency. We have fixed this issue by replacing the paradigm for parallelism by the use of task-based programming through runtime system. This PhD thesis have been done in the framework of the research action DIP (Depth Imaging Partnership) between the Total oil company and Inria
APA, Harvard, Vancouver, ISO, and other styles
36

Albinet, Cédric. "Vieillessement, activité physique et apprentissage moteur : effets de la complexité de la tâche." Toulouse 3, 2004. http://www.theses.fr/2004TOU30161.

Full text
Abstract:
Le vieillissement de l'individu se caractérise par une diminution de l'efficacité et de la rapidité des processus cognitifs et sensori-moteurs. Cependant, la dynamique du vieillissement n'est pas identique pour tous les individus et certains facteurs liés au mode de vie, notamment la pratique régulière d'activités physiques, sont susceptibles de moduler ses effets. L'objectif général de cette thèse est d'examiner dans quelles conditions le maintien d'un style de vie physiquement actif permet de contrebalancer le déclin des capacités d'apprentissage d'une nouvelle habileté motrice au cours du vieillissement. En particulier, les effets de la complexité de l'apprentissage et des conditions dans lesquelles cet apprentissage doit se manifester ont été étudiés. Trois expériences ont examiné les effets croisés de l'âge et de la pratique régulière d'activités physiques sur l'apprentissage de coordinations visuo-motrices fines impliquant des mouvements de pointage sur une cible en déplacement. Les régularités plus ou moins complexes de déplacement de la cible étaient régies par des règles probabilistes et différentes tailles de cible requerraient une précision des mouvements plus ou moins importante. L'apprentissage a été évalué dans une tâche réactive où la vitesse des réponses des participants était exigée (expériences 1 et 2) et dans une tâche de prédiction sans contrainte temporelle (expérience 3). Les principaux résultats ont fait ressortir un effet bénéfique de l'activité physique sur l'apprentissage de cette habileté, sélectif aux personnes âgées et aux conditions de fortes contraintes liées à la production des réponses. Le déclin des capacités d'apprentissage avec l'âge serait principalement dû à la pression temporelle de la tâche et à la complexité des mouvements à réaliser. L'influence bénéfique de l'activité physique sur le vieillissement des fonctions cognitives serait médiatisée par une amélioration de l'efficience motrice
Human aging is characterized by a decrease in both efficiency and speed of cognitive and sensory-motor processes. However, the dynamic of ageing is not the same for all the individuals. Some factors, linked to the way of life such as regular physical exercise, could modulate the aging effects. The aim of this dissertation is to examine under which conditions maintaining a physically active life-style could compensate for the age-related declines in the learning of a new motor-skill. More precisely, the effects of task complexity and the conditions under which the learning must be expressed were studied. Three experiments studied the interactive effects of age and regular physical exercise on the learning of visual-motor pointing-movements on a moving target. The target displacements were governed by probabilistic rules and different target sizes implied different accuracy constraints. Learning was assessed in a reactive task where participants' response speed was stressed (experiment 1 and 2), and in a prediction task without any temporal constraint (experiment 3). The main results revealed a beneficial effect of physical exercise on this skill learning, selective to the elderly and to conditions of high constraints on response execution. The age-related effect would be due to speed-stress conditions and to response complexity. The positive effects of physical exercise on the cognitive function of older adults would be related to motor efficiency improvement
APA, Harvard, Vancouver, ISO, and other styles
37

Reggoug, Khalil. "Biais de sous-estimation de la catégorie "autres causes" : effet de la structure de la tâche et pertinence du modèle normatif pour l'évaluation de la performance des sujets." Aix-Marseille 1, 2000. http://www.theses.fr/2000AIX10042.

Full text
Abstract:
Le "biais de sous-estimation de la categorie autres causes" a ete revele par fischhoff, slovic et lichtenstein en 1978. Ces auteurs ont montre que des variations dans la description d'un probleme peuvent etre a l'origine d'une sous-estimation de l'evaluation probabiliste de la categorie dite "autres causes". Dans le cas de la presentation de configurations ou certaines categories causales d'un evenement ne sont pas explicitement mentionnees, une majorite de sujets n'a pas ajuste les probabilites selon la "procedure normative" qui exige un transfert des probabilites des categories omises a la categorie "autres causes". Depuis l'etude de fischhoff et al (1978), quelques recherches seulement ont porte sur l'explication de ce biais de jugement (dube-rioux & russo, 1988; hirt & castellan, 1988; russo & kolzow, 1994; bonini & caverni, 1995). Ces recherches n'offrent pas une explication claire et precise de ce phenomene. Bien qu'il soit empiriquement tres robuste, plusieurs hypotheses s'affrontent a son propos. Bonini et cavemi (1995) ont suggere qu'une explication possible de ce biais de jugement serait liee a une perception de la categorie "autres causes" comme un "residu" qui ne peut avoir une contribution causale importante a tout evenement donne. Cette categorie serait en fait "victime" d'une representation a priori "reduisant" son contenu causal et l'empechant ainsi "d'absorber" completement les causes omises. Nos resultats experimentaux ne soutiennent pas cette interpretation. Ils montrent, cependant que la presentation de configurations ne presentant que des causes a contenus non connus reduit ce phenomene de sous-estimation de la categorie dite "autres causes". Ceci nous permet de remettre en question la pertinence du modele normatif dans l'evaluation de la performance des sujets et par consequent la declaration de ce phenomene comme etant un biais robuste.
APA, Harvard, Vancouver, ISO, and other styles
38

Gontier, Emilie. "Analyse de la spécificité temporelle des indices électrophysiologiques corticaux rapportés aux performances comportementales dans des tâches de discrimination de durées." Rouen, 2008. http://www.theses.fr/2008ROUEL609.

Full text
Abstract:
Nos recherches s'intéressent à la participation des structures corticales dans le traitement des durées et tentent de répondre aux interrogations suivantes : L'implication du cortex préfrontal dans les mécanismes décisionnels est-elle spécifique de la discrimination des durées ? La participation du réseau fronto-pariétal dépend-elle de la charge cognitive et de la nature du stimulus à discriminer ? Existe-t-il une asymétrie hémisphérique dans le traitement des durées ? Nos données ont permis de démontrer que 1) La participation des structures préfrontales dans les mécanismes décisionnels n'est pas spécifique du traitement temporel 2) l'encodage et la comparaison des durées reposent sur une boucle fonctionnelle pariéto-frontale, laquelle détermine les performances temporelles des sujets 3) Le réseau pariéto-frontal témoigne d'une plasticité face à la charge cognitive 4) La discrimination des durées dépend de l'intégrité des fonctions assurées par l'hémisphère droit
Our research focuses on the participation of cortical structures in temporal processing and try to answer to the following questions: Does the prefrontal cortex involvement in decision-making is specific to temporal discrimination? Does the involvement of fronto-parietal network depends on the cognitive load and the nature of the stimulus to discriminate? Is there a hemispheric asymmetry in the temporal treatment? Our data have shown that 1) The involvement of prefrontal structures in the decision-making is not specific to temporal processing 2) Encoding and comparison of temporal information are based on a parieto-frontal functional loop, which determines the temporal performances of subjects 3)The parieto-frontal network reflects plasticity toward the cognitive load 4) Temporal discrimination periods depends on the integrity of the functions assured by the right hemisphere
APA, Harvard, Vancouver, ISO, and other styles
39

Perret, Patrick. "Etude développementale de la variabilité des performances dans des tâches de raisonnement inclusif : rôle des niveaux de connaissance et de l'inhibition." Aix-Marseille 1, 2001. http://www.theses.fr/2001AIX10073.

Full text
Abstract:
La psychologie développementale est depuis de nombreuses années, engagée dans un mouvement de recherche orienté ves la mise à jour de compétences ignorées du modèle épistémologique piagétien. Les évolutions méthodologiques successives ont conduit à créditer les jeunes enfants d'une connaissance précoce de la plupart des concepts physiques ou logico-mathématiques dont lé́cole genevoise avait entrepris l'étude. Ces découvertes imposent toutefois aux chercheurs de rendre également compte, par des cadres théoriques renouvelés, des incompétences tardives révélées par les épreuves piagétiennes. La problématique qui en résulte est celle de la variabilité intra-individuelle des performances (en fonction des contextes d'évaluation de la compétence) et de la réduction de cette variabilité eau cours du développement. Cette problématique est ici abordée dans le cadre des travaux menés sur le développement du raisonnement inclusif chez l'enfant. Une revue critique de ces travaux révèle que deux alternatives théoriques principales se dégagent. L'une d'elle rend compte de la variabilité inter-tâche et de son dépassement par l'émergence tardive de la compétence logique sous-jacente, l'autre par les progrès du contrôle exécutif inhibiteur autorisant une résistance croissante aux schèmes dangereux activés dans les situations pièges. Après avoir discuté les avantages et les limites respectifs de ces deux cadres théoriques, nous suggérons leur coordination au sein d'une conception intégrative, fondé sur une approche en termes de "niveaux de connaissances" ́Cinq expériences ont été conduites, permettant de mettre à l'épreuve les principales hypothèses dérivées de cette conception, notamment au moyen d'un dispositif d'amorçage négatif adapté à l'épreuve de quantification de l'inclusion.
APA, Harvard, Vancouver, ISO, and other styles
40

Galvaing, Marie-Pierre. "Effets d'audience et de coaction dans la tâche de Stroop : une explication attentionnelle de la facilitation sociale." Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF20020.

Full text
Abstract:
Contrairement à l'hypothèse classique en matière de facilitation et d'inhibition sociales (Zajonc, 1965), les études présentées ici montrent que certaines conditions de présence d'autrui (présence d'une audience relativement imprévisible, comparaison forcée avec un coacteur légèrement supérieur à soi) facilitent la performance à la tâche de Stroop via une inhibition du processus de lecture automatique. En accord avec une hypothèse attentionnelle alternative, jusqu'ici ignorée dans la littérature spécialisée, nos résultats -1- révèlent que la présence d'autrui contribue parfois à inhiber la réponse dominante ; 2-attestent l'impact de situations sociales rudimentaires sur un processus généralement considéré comme automatique et incontrolâble. Comme tels, ces résultats, qui s'inscrivent en rupture avec une idée récurrente dans plus de 500 articles sur l'effet Stroop au cours des 60 dernières années, suggèrent d'intégrer plus fondamentalement la dimension sociale de l'individu à l'étude de ses élaborations et productions cognitives
APA, Harvard, Vancouver, ISO, and other styles
41

Georges, Fanny. "L'effet des compliments de capacité et d'effort sur la motivation et la performance des élèves à une tâche cognitive." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENH003.

Full text
Abstract:
Ce travail de thèse s'inscrit dans lignée des travaux de Mueller et Dweck (1998) et visait à étudier l'effet des compliments (ou feedback attributionnels) de capacité et d'effort sur les buts, l'implication, les attributions causales et les performances des élèves. Au-delà de l'aspect réplication, notre objectif était d'examiner l'effet d'interaction entre les compliments et les attributions d'échec sur les performances. Dans une série de quatre études, des élèves de cinquième année de primaire recevaient un compliment de capacité ou d'effort pour leur réussite à une première série d'exercices de difficulté moyenne puis indiquait leur préférence pour un but. Après une deuxième série d'exercices très difficile, les élèves recevaient un feedback négatif et devaient communiquer leur implication dans la tâche et les causes de leur échec. Enfin, une troisième série d'exercices de difficulté moyenne permettait d'évaluer à nouveau leurs performances. Nous ne retrouvons aucun des résultats observés par Mueller et Dweck (1998). En revanche, les résultats pointent le rôle des attributions dans la relation entre le compliment et les performances. L'une des études, conduite parallèlement en France et en Chine, révèle des effets distincts du compliment selon les cultures. Deux études supplémentaires nous ont permis de tester nos hypothèses en regard de la non-réplication des résultats. La première se pose en termes de développement différencié de la compréhension des notions d'effort et de capacité. La seconde est d'ordre méthodologique et concerne l'effet du feedback positif simple donné conjointement au compliment. Les résultats vont dans le sens de la première hypothèse
In line with Mueller and Dweck (1998) framework, this thesis work aimed at studying the effects of praise (or attributional feedback) for effort or ability on pupils' goals, implication, causal attributions and academic performances. Beyond replication aspect, our goal was to examine the interaction effect between praise and failure attributions on performances. In a series of four studies, fifth graders received ability or effort praise for their success on a first set of exercises of moderate difficulty and pointed out their goal preference. After a second difficult set of exercises, pupils received negative feedback and were asked about their task implication and their failure attributions. Finally, a third set of exercises of middle difficulty allowed us to reevaluate their performances. None of the results observed by Mueller and Dweck (1998) appeared. However, results pointed out the role of causal attributions in the relation between praise and performances. One of these studies realized in the same time in France and China revealed different effects of praise according to the cultures. Two additional studies allowed us to test our hypotheses about the nonreplication of the results. The first one dealt with the differentiated development of the understanding of effort and ability notions. The second one was of methodological order and concerned the effect of simple positive feedback jointly given with praise. The results support the first hypothesis
APA, Harvard, Vancouver, ISO, and other styles
42

Reboul, Lucie. "La construction de parcours de travail en santé et en compétences : le rôle des régulateurs dans la médiation des parcours de travail des personnels au sol d'une compagnie aérienne." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC016.

Full text
Abstract:
Cette recherche se déroule auprès des personnels au sol et de leur encadrant dans une compagnie aérienne. Elle vise à rendre compte, dans une approche ergonomique, des processus de fragilisation ou de construction des parcours de travail de ces salariés dans un contexte de transformations multiples et continues (digitalisation de la relation de service des agents de service au client, flexibilités interne et externe des équipes de bagagistes, vieillissement démographique d’ensemble, etc.). Cette thèse poursuit l’hypothèse que le travail des régulateurs (encadrant de premier niveau en charge de l’affectation des tâches sur les plannings des personnels au sol) est médiateur dans la construction des relations santé/travail des personnels au sol en étant vecteur de parcours-usure ou de parcours-construction. Elle mobilise des outils méthodologiques propres à la démographie du travail et à l’ergonomie de l’activité, en combinant des approches diachronique (mise au jour de temporalités multiples ayant des dimensions individuelle, collective et gestionnaire) et synchronique (articulation ou tension entre ces temporalités dans l’activité). Les résultats révèlent la multiplicité des indicateurs de santé et leurs temporalités que mobilisent les régulateurs pour organiser le travail, les stratégies de prévention individuelles et collectives élaborées au fil de leur expérience et le rôle des contraintes temporelles dans les possibilités de les mettre en œuvre
This research is carried out with ground staff and their supervisors in an airline company. It aims to report, from an ergonomic approach, on weakening or construction’s processes of these employees’ work paths in a context of multiple and continuous transformations (digitalization of the service relationship of customer service agents, internal and external flexibility of baggage handler teams, overall demographic ageing, etc.). This thesis pursues the hypothesis that the work of regulators (firstlevel managers in charge of assigning tasks to ground staff schedules) mediates the construction of health/work relations between ground staff by being a vector of the path wear and tear or path construction. It mobilizes methodological tools specific to the demography of work and the ergonomics of the activity, by combining diachronic (revealing multiple temporalities with individual, collective and managerial dimensions) and synchronic (articulation or tension between these temporalities in the activity) approaches. The results reveal the multiplicity of health indicators and their temporalities mobilized by regulators to organize work, the individual and collective prevention strategies developed in the course of their experience and the role of temporal constraints in the possibilities of implementing them
APA, Harvard, Vancouver, ISO, and other styles
43

Diego, Maza William David. "Contrôle de trafic et gestion de la qualité de service basée sur les mécanismes IP pour les réseaux LTE." Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0406/document.

Full text
Abstract:
Depuis quelques années le trafic de l'internet mobile ne cesse d'augmenter. Cette croissance soutenue est liée à plusieurs facteurs, parmi lesquels l'évolution des terminaux, la grande diversité des services et des applications disponibles et le déploiement des nouvelles technologies d'accès radio mobile (3G/4G). À cet égard, le standard 3GPP pour les réseaux LTE propose une architecture offrant une gestion fine de la QoS (par flux). Ce modèle, hérité des réseaux mobiles traditionnels orientés connexion, soulève des problèmes en termes de scalabilité, efficacité et performances. Les travaux entrepris dans cette thèse ont pour objectif principal de proposer des solutions plus simples et moins coûteuses pour la gestion de la QoS dans les réseaux mobiles. À cette fin, à l'issue d'une étude et de l'évaluation de l'impact de la signalisation associée au modèle de QoS standard, deux modèles alternatifs ont été proposés. Nous proposons tout d'abord un modèle basée sur les mécanismes IP inspiré de l'approche DiffServ (par agrégat) largement étudié dans les réseaux IP fixes. Ce modèle fournit une gestion de la QoS simple, efficiente et rentable, tout en garantissant des performances équivalentes au modèle standard. Cependant, elle nécessite une remise à niveau de tous les eNB, et donc une longue phase de transition. En conséquence, nous proposons SloMo qui vise à améliorer l'expérience des clients mobiles, mais avec un objectif de déploiement plus rapide. SloMo est une solution de gestion implicite de la QoS depuis un point unique situé sur le chemin des communications. SloMo exploite la dynamique instaurée par le mécanisme de contrôle de flux de TCP. Il vise à recréer un goulot d'étranglement dynamique dans un équipement contrôlé par l'opérateur lorsque les points de congestion réels ne sont pas accessibles. Une fois ce goulot d'étranglement déporté, il est alors aisé d'effectuer une gestion de la qualité IP classique dans l'équipement supportant Slo-Mo
The mobile data landscape is changing rapidly and mobile operators are today facing the daunting challenge of providing cheap and valuable services to ever more demanding customers. As a consequence, cost reduction is actively sought by operators as well as Quality of Service (QoS) preservation. Current 3GPP standards for LTE/EPC networks offer a fine tuning QoS (per-flow level), which inherits many characteristics of legacy telco networks. In spite of its good performance, such a QoS model reveals costly and cumbersome and finally, it remains very rarely deployed, thereby giving way to basic best-effort hegemony. This thesis aims at improving QoS in mobile networks through cost-effective solutions; To this end, after an evaluation of the impact and cost of signaling associated with the standard QoS model, alternative schemes are proposed, such as the IP-centric QoS model (per aggregate) inspired from the DiffServ approach widely used in fixed IP networks. This model provides a simple, efficient and cost-effective IP level QoS management with a performance level similar to standardized solutions. However, as it requires enhancements in the eNB, this scheme cannot be expected in mobile networks before a rather long time.Thus, we introduce Slo-Mo, which is a lightweight implicit mechanism for managing QoS from a distant point when the congestion point (e.g. eNB) is not able to do it. Slo-Mo creates a self-adaptive bottleneck which adjusts dynamically to the available resources taking advantage of TCP native flow control. Straightforward QoS management at IP level is then performed in the Slo-Mo node, leading to enhanced customer experience at a marginal cost and short term
APA, Harvard, Vancouver, ISO, and other styles
44

Bendib, Zébida. "Tâche d'assemblage d'un objet technique et aides au travail : analyse des difficultés et de l'organisation de l'action d'élèves de lycées d'enseignement professionnel." Paris 10, 1986. http://www.theses.fr/1986PA100055.

Full text
Abstract:
Par ce présent travail, nous avons procédé à une analyse des différentes modalités d'exécution d'une tâche de montage (le vérificateur d'équerrage) à l'aide de documents de travail (dessin technique et gamme de montage) afin de caractériser les différents modes de fonctionnement cognitifs sous-jacents. Pour notre analyse, nous nous sommes fondés sur le modèle de compétence cognitive (P. Vermersch, 1983) basé sur la pluralité des registres de fonctionnement, en nous appuyant sur l'hypothèse que les comportements observés sont le symptôme de différentes formes de connaissances de contenu et de diverses modalités d'organisation de l'action. L'analyse des résultats a permis d'observer par rapport: a) au contenu de la conduite : quatre groupes de connaissance prenant plus ou moins en compte les propriétés de la tâche et se caractérisant par des modalités de fonctionnement cognitifs différents. B) à l'organisation de la conduite: quatre types de procédures caractérisant différentes modalités d'organisation de l'action sur la dimension champ temporel, et allant de la possibilité d'anticipation a une organisation par tâtonnements successifs. Leur croisement avec les niveaux de connaissance précédemment définis ont mis en évidence un décalage qui s'est confirmé par l'analyse des modalités d'utilisation des documents de travail. La confrontation de ces résultats a permis d'observer 8 stratégies rendant compte des différentes formes de l'interaction entre connaissances technologiques, utilisation des documents, planification du montage et les obstacles rencontres. Ces stratégies vont du tâtonnement à une procédure plus systématique. C) aux aides: celles-ci, en particulier la gamme, n'ont pas été d'un bon apport. Les consultations ont eu lieu surtout lors des obstacles. Les coordinations entre documents ou avec les pièces réelles ont été rarement systematiques. Elles ont plutôt pose des difficultés aux sujets. D) au délai: l'orientation du délai semble avoir restreint le champ du sujet. Cependant, l'utilisation du dessin en tant que guide d'action et l'écriture de la gamme ont permis une planification de l'action, même si elle reste limitée
In the present research, an analysis has been conducted about the different performance modalities of a setting up task (checker of measure) with the assistance of work documents (technical drawing and setting up range), in order to characterize the different underlying cognitive functioning modes. The analysis has been founded upon the cognitive competence pattern (Vermersch, 1983) based on the plurality of the functioning registers and on the following hypothesis: the observed behaviors are the symptom of different forms of knowledge of the content and of varied modalities of acting organization. The results analysis allowed to observe with regard to: a) the behavior content: four groups of knowledge taking more or less into account the task properties and characterized by different modalities of cognitive functioning. B) The behavior organization: four types of proceeding characterizing different modalities of the acting on the temporal field dimension and going from the anticipation possibility to an organization by successive "groupings". Their "crossing" with the groups of knowledge defined above shows no convergence, which has been corroborated by the analysis of the utilization modalities of the work documents. The confrontation of these results has allowed observing 8 strategies in connection with the different forms of "interact" between technological knowledge, documents utilization, setting up planification and problems met by the subjects. These strategies go from "groping" to a more systematic proceeding. C) The aids: these, in particular the range, haven't been of great help. They have been consulted mainly when there were problems. Coordinations have seldom been made systematically, between the documents and between the documents and the real parts. These coordinations were rather a problem for the subjects. D) The delay: the orientation of the delay seems to have restricted the subjects’ fields. However, the acting planification if limited has been made possible through the use of the drawing and of the writing of the setting up range
APA, Harvard, Vancouver, ISO, and other styles
45

Delafontaine, Arnaud. "Contrainte biomécanique unilatérale versus contrainte biomécanique bilatérale : rééquilibrage des acapacités fonctionnelles et amélioration de la performance dans une tâche locomotrice." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA113008.

Full text
Abstract:
Dans la littérature, les résultats, dans le domaine de la rééducation neurologique des patients hémiplégiques, montraient que la performance motrice du membre atteint était améliorée lorsque les deux membres homolatéraux étaient mobilisés dans des mouvements symétriques. Il a alors été suggéré que le système nerveux avait plus de facilité à adapter une commande bilatérale symétrique, qu’une commande bilatérale asymétrique.L’objet des travaux dans cette thèse est de tester la généralité de ces résultats dans le cas du processus d’initiation de la marche (IM). Le handicap est simulé par une hypomobilité de la cheville, induite avec strapping et orthèse unilatéralement ou bilatéralement. Les résultats montrent que, dès la présence d’une contrainte, la biomécanique et les activités électromyographiques, des phases de préparation posturale et d’exécution du processus d’IM, sont modifiées. De plus, la performance motrice est également perturbée. Toutefois, il apparaît des différences « locales » selon où s'applique la contrainte. Un résultat est à souligner tout particulièrement : comme pour les patients hémi-handicapés, la performance motrice (i.e. vitesse du centre des masses à la fin du premier pas) est supérieure dans la condition « contrainte bilatérale i.e. hypomobilité des deux chevilles » versus « contrainte unilatérale i.e. hypomobilité du pied d’appui ». L’ensemble des résultats est discuté dans le cadre des processus d’adaptation de la commande motrice face aux contraintes biomécaniques unilatérales et bilatérales induites sur les appuis. En d'autres termes, tout se passe comme si un rééquilibrage des capacités fonctionnelles s’opère, permettant ainsi de générer une meilleure performance motrice. Enfin, les résultats permettent d’envisager des perspectives dans le domaine de la rééducation fonctionnelle
In the literature, the rehabilitation of hemiplegic patients showed that motor performance of the affected limb is improved when both limbs are mobilised in a symmetrical movement. It has been suggested that it was easier for the nervous system to adapt to symmetrical bilateral command. The aim of this dissertation is to test the validity of these results in gait initiation (GI). Handicap was simulated by means of blocking the ankle unilaterally or bilaterally with a strap or orthosis.Results showed that in the presence of a constraint, electromyographic activity and the kinematics of both postural preparation and step execution phase of GI declined. Furthermore, the motor performance was also perturbed.However, « Local » differences appeared according to the localisation of the constraint, reflecting the adaptation of the motor command. Nonetheless, a result needs to be particularly underlying.Like in hemi-handicapped patients, the motor performance (i.e. centre of mass velocity at the end of the first step) was higher in « bilateral constraint, hypomobility on both ankles » versus « unilateral constraint, hypomobility on stance ankle ».In the dissertation, the results are discussed in terms of the adaptation of the motor command of unilateral and bilateral induced biomechanical constraint. More specifically, we discuss how rebalancing the functional capacity of both legs should allow to increase motor performance. These results put forward new perspectives in the domain of functional rehabilitation
APA, Harvard, Vancouver, ISO, and other styles
46

Drouin-Germain, Anne. "La relation entre le sentiment de présence et la performance d'adolescents à une tâche d'attention présentée en réalité virtuelle." Thèse, Université du Québec à Trois-Rivières, 2014. http://depot-e.uqtr.ca/7388/1/030775493.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Marchand, Andrée-Anne. "Altérations des performances sensorimotrices dans une tâche de pointage cervicale chez des patients atteints de céphalées de tension." Thèse, Université du Québec à Trois-Rivières, 2014. http://depot-e.uqtr.ca/7345/1/030673398.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Cirou, Bertrand. "Expression d'algorithmes scientifiques et gestion performante de leur parallélisme avec PRFX pour les grappes de SMP." Bordeaux 1, 2005. http://www.theses.fr/2005BOR12994.

Full text
Abstract:
Nous proposons un mode d'expression destiné à l'implémentation performante des algorithmes parallèles scientifiques, notamment irréguliers, sur des machines à mémoires distribuées hétérogènes (e. G. Grappes de SMP). Ce mode d'expression parallèle est basé sur le langage C et l'API de la bibliothèque PRFX. Le découpage de l'algorithme en tâches est obligatoire mais les synchronisations et communications entre ces tâches sont implicites. L'identification des tâches et de leurs caractéristiques (identificateur de la fonction cible, paramètres, coût) doit être effectuée via l'interface de la bibliothèque PRFX. Cette interface doit également être utilisée pour allouer et libérer les données ainsi que pour déclarer les accès des tâches aux données. La structuration des données (référencement par pointeurs) est aisée car PRFX fournit un espace d'adressage global. D'autres fonctionnalités optionnelles de la bibliothèque PRFX permettent d'exprimer des optimisations génériques et lisibles. En effet, il est possible d'appliquer dans le cas des programmes prévisibles (i. E. Structurés par un jeu de données d'entrée), des heuristiques d'ordonnancement globales paramétrées par des modèles de coût et guidées par le programmeur (e. G. Spécification d'un placement initial). Le support utilise une iso-mémoire assurant la validité des pointeurs en mémoire distribuée. Il adopte un fonctionnement de type inspection/exécution. L'inspecteur modélise l'exécution de l'algorithme parallèle par un DAG de tâches. Ce type de fonctionnement et ce modèle sont adaptés à l'exploitation performante des programmes irréguliers prévisibles. Les tâches et leurs accès aux données sont capturés dans ce DAG lors de l'inspection statique consistant en une pré-exécution partielle du programme. Les communications et synchronisations sont déduites de l'analyse des accès aux données faite par l'inspecteur. Ensuite, un ordonnanceur séquentiel applique l'heuristique d'ordonnancement intégrant les optimisations explicitées par le programmeur. Enfin, un exécuteur parallèle exécute le DAG de tâches en respectant l'ordonnancement des tâches et des communications. Il exploite la performance des communications unilatérales pour les communications inter-noeuds et tire profit de la mémoire partagée d'un noeud avec des threads. Dans ce cadre, nous avons validé notre approche par l'implémentationd'algorithmes scientifiques (résolution de l'équation de Laplace, factorisation LU de matrices pleines et factorisation de matrices creuses par la méthode de Cholesky) et par des expérimentations en vraie grandeur sur des grappes de SMP IBM NH2 et p690+.
APA, Harvard, Vancouver, ISO, and other styles
49

Dewier, Agnès. "Les processus cognitifs mis en oeuvre dans l'interaction homme-ordinateur: l'influence du niveau d'expérience et des caractéristiques de la tâche sur la performance." Doctoral thesis, Universite Libre de Bruxelles, 1991. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212984.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Simon-Fiacre, Caroline. "Médiations sémiotiques en situation de co-résolution de problèmes : effets sur les stratégies et performances d'enfants de CP et de CE2 dans les tâches d'exploration ou d'encodage d'un parcours." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX10019.

Full text
Abstract:
Ce travail s'inscrit à l'interface des travaux de psychologie fondés par l'approche socio-constructiviste du fonctionnement et du développement des activités cognitives chez des enfants et de ceux de la pragmatique. Les expérimentations réalisées ont pour but de comprendre comment et à quelles conditions les transactions cognitivo-langagières peuvent s'avérer bénéfiques (ou non) lors de la résolution de tâches spatiales. Ces dernières consistent soit à explorer un parcours de type labyrinthe (2D ou 3D) soit à encoder un tracé. La résolution de ces tâches a été proposée à des sujets de CP et CE2 en individuel ou dyade. Les résultats obtenus ont permis par une analyse fine des corpus interactifs de dégager les incidences de la situation de communication sur la cognition. Il a ainsi été dégagé que les compétences et les performances cognitives varient en fonction des situations de communication, les processus cognitifs eux-mêmes, en particulier les mécanismes d'inférence, étant gouvernés par des processus communicationnels, l'ensemble attestant que les conditons de déroulement des échanges sont au centre de la relation entre cognition et communication.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography