Дисертації з теми "Algorithmes – Travail"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Algorithmes – Travail.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Algorithmes – Travail".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Morat, Philippe. "Une étude sur la base de la programmation algorithmique notation et environnement de travail /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00308504.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Traoré, Daouda. "Algorithmes parallèles auto-adaptatifs et applications." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00353274.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la construction d'algorithmes et de programmes parallèles qui s'adapte automatiquement à la plate-forme d'exécution (nombre de processeurs, vitesses des processeurs, ...) et ce, de manière dynamique inconsciente (en anglais oblivious). La construction que nous proposons est basée sur la technologie développée au sein de l'équipe Moais consistant au couplage récursif et dynamique : d'un algorithme séquentiel (qui minimise le nombre d'opérations, mais pas le temps parallèle) ; et d'un algorithme parallèle à grain fin (qui minimise le temps parallèle sur un nombre non borné de ressources, mais pas le nombre d'opérations). Les deux algorithmes sont entrelacés à la volée par un ordonnancement à grain fin de type vol de travail. Outre une analyse théorique du couplage (borne inférieure, optimalité asymptotique), nous proposons une implantation " générique " que nous instancions sur différents exemples (un nouvel algorithme parallèle adaptatif de calcul des préfixes, algorithmes adaptatifs de fusion, de partition et tris, plusieurs algorithmes adaptatifs de la librairie standard C++). Dans cette thèse, nous proposons aussi un nouvel algorithme parallèle statique optimal du calcul des préfixes.
3

Basseur, Matthieu. "Conception d'algorithmes coopératifs pour l'optimisation multi-objectif : application aux problèmes d'ordonnancement de type flow-shop." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Basseur.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les problèmes « difficiles » de l'optimisation combinatoire, sont généralement résolus de manière heuristique, afin de procurer de bonnes solutions en un temps « raisonnable », les méthodes de résolution exacte étant inapplicables aux grandes instances. Actuellement, un nombre croissant d'approches coopératives entre ces méthodes voient le jour. Dans un premier temps, une classification des approches coopératives de la littérature à été réalisé. A partir de ces travaux, nous présentons différents schémas de coopération typiques, en se focalisant spécialement sur les coopérations entre méthodes de résolution exacte et heuristique. Dans un deuxième temps, nous proposons d'effectuer différentes coopérations pour résoudre un problème de flow-shop bi-objectif. Pour la résolution approchée de ce problème, l'algorithme AGA (Algorithme Génétique Adaptatif) a été défini pour servir de base aux méthodes coopératives. Deux mécanismes sont proposés pour renforcer l'adaptabilité et la capacité d'exploration des algorithmes génétiques multi-objectif. Le premier mécanisme permet d'utiliser, dans le même programme, plusieurs opérateurs de mutation, et de favoriser automatiquement ceux qui s'avèrent plus efficaces. Le second mécanisme consiste à adapter en ligne un paramètre de la diversification, de sorte à obtenir une répartition harmonieuse des solutions le long du front de Pareto
Ensuite, nous proposons de faire coopérer AGA avec des méthodes dédiées à l'intensification de la recherche. Nous proposons un premier type de coopération avec PLS (Recherche Locale Pareto) en proposant différents algorithmes de type recherche mimétique. Les tests effectués sur les différentes coopérations montrent l'intérêt d'utiliser un algorithme d'exploration (AGA), ainsi que l'efficacité des coopérations adaptives entre différents algorithmes. Puis, nous proposons une coopération originale avec l'algorithme MOPR (Path Relinking Multi-Objectif). Pour cela nous avons défini différents mécanismes pour adapter les algorithmes de path-relinking au cas multi-objectif. Ce type d'approche est très prometteur. Enfin, les approches coopératives avec la méthode exacte bi-objectif TPM (Méthode Deux Phases) ont été envisagées. Trois approches ont été proposées, une exacte et deux heuristique. Les expérimentations ont permis d'améliorer sensiblement les meilleures solutions obtenues. Les différentes approches testées, montrent l'intérêt des mécanismes de transition adaptative entre algorithmes, ainsi l'apport réalisé par l'utilisation de méthodes d'optimisation très différentes, dans le cadre de l'optimisation multi-objectif
4

Poinsot, Lisa. "Contribution à l'étude de la contrainte du temps dans le contrat de travail." Thesis, Université de Lille (2018-2021), 2021. https://pepite-depot.univ-lille.fr/ToutIDP/EDSJPG/2021/2021LILUD014.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La « Contribution à l’étude de la contrainte du temps dans le contrat de travail » propose de vérifier les effets de la représentation du temps par le Droit face aux difficultés qu’engendrent les évolutions impactant le travail salarié. Le Droit et le temps sont intrinsèquement liés : le Droit matérialise et objectivise le temps alors que ce dernier justifie notamment les innovations juridiques. Cette forte influence mutuelle du temps et du Droit amène à se questionner sur la pertinence de la représentation juridique du contrat de travail face à l’usage massif des algorithmes au sein du travail salarié. Pour répondre à cette problématique, cette étude entend démontrer la création d’une représentation juridique du contrat de travail du fait de la perception du temps par le Droit, ainsi que la transformation de la perception du travail salarié, en prenant appui sur l’intelligence artificielle et les plateformes numériques. Une réponse se profile dès lors : la représentation juridique du contrat de travail, résultat de l’action du Droit sur le temps, peut servir de socle de protection du travailleur face à l’importante utilisation de l’intelligence artificielle et des plateformes numériques. L’adaptation de la représentation juridique du contrat de travail permettrait de bénéficier des avantages de ces progrès technologiques tout en encadrant leur usage
The « Contribution to the study of the time constraint in the employment contract » proposes to verify the effects of the representation of time by the Law in the face of the difficulties generated by the evolutions impacting employed labour. Law and time are intrinsically linked: law materialises and objectifies time, while the latter justifies legal innovations. This strong mutual influence of time and law leads us to question the relevance of the legal representation of the employment contract in the face of the massive use of algorithms in salaried work. To answer this question, this study intends to demonstrate the creation of a legal representation of the employment contract due to the perception of time by the Law, as well as the transformation of the perception of salaried work, based on artificial intelligence and digital platforms. An answer is therefore emerging: the legal representation of the employment contract, the result of the action of the Law on time, can serve as a basis for the protection of the worker in the face of the important use of artificial intelligence and digital platforms. The adaptation of the legal representation of the employment contract would make it possible to benefit from the advantages of these technological advances while supervising their use
5

Kacem, Imed. "Ordonnancement multicritère des job-shops flexibles : formulation, bornes inférieures et approche évolutionniste coopérative." Lille 1, 2003. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2003/50376-2003-3.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse sur les problèmes d'ordonnancement concerne la mise en œuvre d'une méthodologie coopérative et multicritère pour résoudre les problèmes des job-shops flexibles. Il s'articule autour de deux parties principales. La première partie expose l'état de l'art et explique la difficulté et la diversité des problèmes d'ordonnancement, et par la suite, met en évidence la nécessité de la coopération et présente l'approche hybride proposée. Ces travaux s'articulent autour de deux modèles. Le premier modèle concerne l'évaluation multicritère et est présenté dans le troisième chapitre. Le deuxième est dédié à la résolution et à l'optimisation et est décrit dans le quatrième chapitre. Le modèle d'évaluation multicritère vise à élaborer un moyen de mesure de la qualité des solutions. Cette notion peut intégrer (en utilisant la puissance de la représentation floue) des préférences subjectives dans un cadre coopératif. Elle peut aussi chercher à identifier les solutions dominantes (au sens de Pareto) en faisant un bon usage de bornes inférieures intégrées dans le modèle. Le modèle d'optimisation et de résolution représente un noyau pour construire les solutions de "bonne qualité"
Deux approches ont été développées dans ce modèle. La première est l'Approche par Localisation (AL). Elle permet de construire un ensemble de solutions en minimisant les critères liés à la répartition des ressources dans le cas des job-shops flexibles. La deuxième est une approche basée sur des techniques à stratégie d'évolution contrôlées pour améliorer la qualité des solutions données par l'AL. Dans ce cadre, trois nouveaux codages ont été mis en œuvre tout en développant les opérateurs génétiques associés. En outre, quelques aspects modulaires de cette méthode sont également présentés dans le troisième chapitre. Dans le cinquième chapitre, nous illustrons la mise en oeuvre des différentes approches proposées sur un jeu de données afin d'évaluer leurs performances. Nous présentons également quelques comparaisons à d'autres méthodes. De plus, nous validons la méthode proposée sur une grande série d'exemples pratiques. Enfin, nous concluons ce mémoire en rappelant les grandes lignes des travaux menés et en présentant quelques perspectives de recherche futures concernant les possibles applications réelles de l'approche développée
6

Barreiro, Claro Daniela. "Spoc : un canevas pour la composition automatique de services web dédiés à la réalisation de devis." Angers, 2006. http://www.theses.fr/2006ANGE0025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une requête d'un utilisateur peut correspondre à l'emploi de plusieurs services exécutés conjointement. Ce type de problème est connu comme la composition de services web. Dans cette thèse, nous proposons un canevas pour la composition automatique des services web, nommé SPOC (Semantic-based Planning Optimized Compositions). Ce canevas se décompose en quatre phases successives : la découverte, la planification, l'exécution de devis et l'optimisation. La phase de découverte recherche les services web qui vont être candidats. La phase de planification détermine quelle composition de services peut satisfaire la requête de l'utilisateur. La phase d'exécution de devis vient ensuite. Les services web sont appelés afin d'obtenir un devis. La dernière phase correspond à l'optimisation des résultats trouvés. Enfin, nous avons validé le canevas SPOC en l'appliquant au domaine du Marché Public Français, et plus précisément, dans le processus de mise en concurrence des bâtiments publics
Users request may require multiple services to be executed. In this PhD thesis, we propose a framework for automatic composing web services called SPOC (Semantic-based Planning Optimized Compositions). This framework is composed of four successive phases: discovery, planning, execution and optimization. The discovery phase aims to search for web services which are candidates to compositions. In the planning phase, we determine which service compositions may satisfy the user request. In the execution phase, the web services are called in order to obtain estimated values (quotes). The last phase optimizes these results. Finally, we validated our proposed framework (SPOC) and applied it on the French public market domain, more precisely on the public building competition process
7

Basseur, Matthieu Talbi El-Ghazali. "Conception d'algorithmes coopératifs pour l'optimisation multi-objectif application aux problèmes d'ordonnancement de type flow-shop /." Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/471.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2005.
N° d'ordre (Lille 1) : 3633. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. [185]-199.
8

Hu, Xiaobin. "Algorithmes de résolution pour la simulation de l'emboutissage par l'approche inverse." Compiègne, 1997. http://www.theses.fr/1997COMP1015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de ce travail est de développer, d'évaluer et d'améliorer différents algorithmes de résolution pour la simulation de l'emboutissage par l'approche inverse, qui est basée sur la connaissance de la forme finale de l'embouti. La première partie aborde les méthodes de résolution statiques : la méthode statique implicite, la méthode statique explicite et une méthode de combinaison. La méthode statique explicite est extrêmement rapide. La méthode explicite/implicite est à la fois rapide et précise. La méthode du gradient conjugué et la méthode de Levenberg-Marquardt sont aussi implantées et évaluées dans l'approche inverse. Dans la deuxième partie, La méthode de relaxation dynamique (RD), la méthode de relaxation visqueuse et la méthode dynamique explicite sont présentées. La validation et la comparaison sur leurs performances sont effectuées au travers des exemples académiques et industriels. La méthode de RD est très avantageuse pour les gros systèmes. La méthode dynamique explicite peut aboutir à de bons résultats si l'on utilise de nombreux petits pas. La troisième partie présente le développement des techniques de pilotage en déplacement et en longueur d'arc dans l'approche inverse. Elles offrent des possibilités de réduire la difficulté de convergence dans le cas de forte plastification et de faible écrouissage du matériau. Une méthode de développement géométrique est aussi réalisée pour fournir une meilleure solution initiale. Elle permet de franchir la difficulté numérique rencontrée au début du calcul de l'approche inverse, et gagner du temps CPU. Cette thèse présente une étude assez complète des méthodes de résolution non linéaire dans l'analyse de l'emboutissage par l'approche inverse. Elle a mis en évidence des avantages et des inconvénients de chaque méthode, et amélioré l'efficacité et la performance de l'approche inverse.
9

Ivers, Hans. "La réponse thérapeutique à une intervention multidisciplinaire pour les maux de dos chroniques : prédicteurs et algorithmes." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/27169.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les programmes d’intervention multidisciplinaire pour les personnes souffrant de maux de dos chroniques, malgré leur capacité à retourner environ 60% des participants au travail, représentent des coûts importants. La capacité à prédire les bénéfices thérapeutiques peut constituer un élément important pour optimiser la réponse au traitement et la réduction des coûts. La thèse poursuivait deux objectifs. Le premier consistait à réaliser une méta-analyse des prédicteurs des bénéfices suite à un traitement multidisciplinaire pour les maux de dos chroniques. Au total, 87 études ont été sélectionnées, comprenant 73 prédicteurs et 773 grandeurs d'effet reliées à trois indicateurs : la sévérité de la douleur et de l'incapacité en fin de traitement, et le retour au travail. L'âge et l'éducation, le fait de recevoir des indemnisations, la consommation de médication et de soins de santé, les stratégies positives de gestion des problèmes, les traits anxieux, la sévérité de la douleur, de l'incapacité et des limitations, la capacité aérobique, l'endurance et la force musculaire, le faible support familial, et les demandes psychologiques et physiques relatives à l'emploi constituent des prédicteurs significatifs des bénéfices obtenus. Aucune évidence ne supporte le rôle du genre, du diagnostic médical, de la présence d'anomalies radiologiques, de l'état physique du patient et du type de travail dans la prédiction tertiaire. Le second objectif visait à étudier conceptuellement et empiriquement les performances prédictives de quatre algorithmes issus des travaux en statistiques et en intelligence artificielle, soit l’analyse discriminante linéaire et logistique, les arbres de classification et les réseaux de neurones en base radiale. Les caractéristiques et limites de chaque technique sont illustrées à l'aide de simulations. Les capacités prédictives dans un contexte médical sont discutées à la lumière de cinq études de comparaison. Les données disponibles appuient le choix d'arbres de classification comme moteur de prédiction dans un contexte médical. L’utilisation des prédicteurs fiables et significatifs de la réponse thérapeutique, jointe à l'implantation d'outils de prédiction performants, permettra aux professionnels de mieux cibler leurs interventions selon le profil des patients et des bénéfices attendus, afin de pouvoir maximiser la réponse thérapeutique malgré un contexte de ressources limitées.
Multidisciplinary programs for chronic back pain patients, while returning about 60% of patients at work, represent major financial investments. The capacity to predict therapeutic outcomes may constitute an important asset to optimize treatment response and achieve cost reductions. This thesis has two objectives. The first objective was to complete a metaanalytic review of the predictors of treatment outcomes following multidisciplinary programs for low back pain. A total of 87 studies were selected, comprising 73 predictors and 773 effect sizes related to three outcomes : severity of pain and disability following program, and return to work. Age and education, receiving disability payments, medication and health services usage, positive coping strategies, anxious traits, severity of pain, disability and role limitation, aerobic capacity, physical endurance and muscular strength, low familial support, and psychological and physical demands related to employment were found to be significant predictors of outcomes. No evidence supported the predictive value of gender, medical diagnosis, radiological abnormalities, physical characteristics, and nature of work in tertiary prediction. The second objective was to study conceptually and empirically predictive performance of four algorithms coming from statistical and data mining areas, such as linear and logistic discriminant analysis, multivariate classification trees, and radial basis neural networks. Strengths and limitations of each technique are discussed using simulated data. Predictive performance with medical data are discussed based on five large comparison studies. Available data support the choice of multivariate decision trees for predictive engine in a medical setting. The selection of reliable and significant predictors of treatment response to multidisciplinary programs, coupled with the use of effective predictive tools, will allow health professionals to better tailor their interventions according to patient profiles and expected benefits, in order to maximize treatment response in a context of limited clinical and financial resources.
10

Mor, Stefano Drimon Kurz. "Analyse des synchronisations dans un programme parallèle ordonnancé par vol de travail. Applications à la génération déterministe de nombres pseudo-aléatoires." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons deux contributions dans le domaine de la programmation parallèle.La première est théorique : nous introduisons l'analyse SIPS, une approche nouvelle pour dénombrer le nombre d'opérations de synchronisation durant l'exécution d'un algorithme parallèle ordonnancé par vol de travail.Basée sur le concept d'horloges logiques, elle nous permet,: d'une part de donner de nouvelles majorations de coût en moyenne; d'autre part de concevoir des programmes parallèles plus efficaces par adaptation dynamique de la granularité.La seconde contribution est pragmatique: nous présentons une parallélisation générique d'algorithmes pour la génération déterministe de nombres pseudo-aléatoires, indépendamment du nombre de processus concurrents lors de l'exécution.Alternative à l'utilisation d'un générateur pseudo-aléatoire séquentiel par processus, nous introduisons une API générique, appelée Par-R qui est conçue et analysée grâce à SIPS.Sa caractéristique principale est d'exploiter un générateur séquentiel qui peut "sauter" directement d'un nombre à un autre situé à une distance arbitraire dans la séquence pseudo-aléatoire.Grâce à l'analyse SIPS, nous montrons qu'en moyenne, lors d'une exécution par vol de travail d'un programme très parallèle (dont la profondeur ou chemin critique est très petite devant le travail ou nombre d'opérations), ces opérations de saut sont rares.Par-R est comparé au générateur pseudo-aléatoire DotMix, écrit pour Cilk Plus, une extension de C/C++ pour la programmation parallèle par vol de travail.Le surcout théorique de Par-R se compare favorablement au surcoput de DotMix, ce qui apparait aussi expériemntalement.De plus, étant générique, Par-R est indépendant du générateur séquentiel sous-jacent
We present two contributions to the field of parallel programming.The first contribution is theoretical: we introduce SIPS analysis, a novel approach to estimate the number of synchronizations performed during the execution of a parallel algorithm.Based on the concept of logical clocks, it allows us: on one hand, to deliver new bounds for the number of synchronizations, in expectation; on the other hand, to design more efficient parallel programs by dynamic adaptation of the granularity.The second contribution is pragmatic: we present an efficient parallelization strategy for pseudorandom number generation, independent of the number of concurrent processes participating in a computation.As an alternative to the use of one sequential generator per process, we introduce a generic API called Par-R, which is designed and analyzed using SIPS.Its main characteristic is the use of a sequential generator that can perform a ``jump-ahead'' directly from one number to another on an arbitrary distance within the pseudorandom sequence.Thanks to SIPS, we show that, in expectation, within an execution scheduled by work stealing of a "very parallel" program (whose depth or critical path is subtle when compared to the work or number of operations), these operations are rare.Par-R is compared with the parallel pseudorandom number generator DotMix, written for the Cilk Plus dynamic multithreading platform.The theoretical overhead of Par-R compares favorably to DotMix's overhead, what is confirmed experimentally, while not requiring a fixed generator underneath
11

Dhaenens, Clarisse Talbi El-Ghazali. "Optimisation combinatoire multiobjectif apport des méthodes coopératives et contribution à l'extraction de connaissances /." Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/373.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Reproduction de : Habilitation à diriger des recherches : Informatique : Lille 1 : 2005.
Synthèse des travaux en français. Recueil de publications en anglais non reproduit dans la version électronique. N° d'ordre (Lille 1) : 466. Curriculum vitae. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 97-103. Liste des publications et des communications.
12

Zribi, Nozha. "Ordonnancement de job-shops flexibles sous contraintes de disponibilité des machines." Ecole Centrale de Lille, 2005. http://www.theses.fr/2005ECLI0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Mise en oeuvre de méthodologies pour la résolution du probléme de job-shop flexible sous contraintes de disponibilités des machines. La partie1 concerne le développement de nouvelles méthodes efficaces pour la résolution du FJSP par une approche par phases. Deux méthodes sont développées pour la résolution de l'affectation: une méthode exacte de type B&B et une méthode approchée, basée sur une heuristique permettant une bonne répartition des charges, suivie d'une recherche Tabou. Nous avons développé des bornes inférieures pour le makespan et pour la somme des retards puis introduit une approche intégrée basée sur les AG améliorant les approches existantes. La partie 2 concerne l'introduction de contraintes de disponibilité: dans le cas où les données concernant les tâches de maintenance sont fixées, nous avons traité le cas où les machines ont la même vitesse et proposé une heuristique basée sur des régies de priorité. Nous avons défini un critére approprié basé sur le calcul d'une borne inférieure du makespan en présence de contraintes de disponibilité. Une adaptation d'un AG est proposée pour résoudre le problème de séquencement s/c de disponibilité. Pour étudier la complexité des problèmes à deux jobs, nous avons généralisé l'approche géométrique temporisée pour tenir compte de la propriété de flexibililité et proposé un algorithme polynomial pour la résolution du problème à deux jobs. Une adaptation de l'approche intégrée et une borne inférieure sont développées pour le problème général. Nous avons traité ensuite le cas où les tâches de maintenance sont flexibles avec une fenêtre de temps allouée. Différentes heuristiques sont proposées et validées sur des benchmarks
13

Mor, Stefano Drimon Kurz. "Analysis of synchronizations in greedy-scheduled executions and applications to efficient generation of pseudorandom numbers in parallel." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2015. http://hdl.handle.net/10183/130529.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons deux contributions dans le domaine de la programmation parallèle. La première est théorique : nous introduisons l’analyse SIPS, une approche nouvelle pour dénombrer le nombre d’opérations de synchronisation durant l’exécution d’un algorithme parallèle ordonnancé par vol de travail. Basée sur le concept d’horloges logiques, elle nous permet : d’une part de donner de nouvelles majorations de coût en moyenne; d’autre part de concevoir des programmes parallèles plus efficaces par adaptation dynamique de la granularité. La seconde contribution est pragmatique : nous présentons une parallélisation générique d’algorithmes pour la génération déterministe de nombres pseudo-aléatoires, indépendamment du nombre de processus concurrents lors de l’exécution. Alternative à l’utilisation d’un générateur pseudo-aléatoire séquentiel par processus, nous introduisons une API générique, appelée Par-R qui est conçue et analysée grâce à SIPS. Sa caractéristique principale est d’exploiter un générateur séquentiel qui peut “sauter” directement d’un nombre à un autre situé à une distance arbitraire dans la séquence pseudo-aléatoire. Grâce à l’analyse SIPS, nous montrons qu’en moyenne, lors d’une exécution par vol de travail d’un programme très parallèle (dont la profondeur ou chemin critique est très petite devant le travail ou nombre d’opérations), ces opérations de saut sont rares. Par-R est comparé au générateur pseudo-aléatoire DotMix écrit pour Cilk Plus, une extension de C/C++ pour la programmation parallèle par vol de travail. Le surcout théorique de Par-R se compare favorablement au surcoput de DotMix, ce qui apparait aussi expériemntalement. De plus, étant générique, Par-R est indépendant du générateur séquentiel sous-jacent.
Nós apresentamos duas contribuições para a área de programação paralela. A primeira contribuição é teórica: nós introduzimos a análise SIPS, uma nova abordagem para a estimar o número de sincronizações realizadas durante a execução de um algoritmo paralelo. SIPS generaliza o conceito de relógios lógicos para contar o número de sincronizações realizadas por um algoritmo paralelo e é capaz de calcular limites do pior caso mesmo na presença de execuções paralelas não-determinísticas, as quais não são geralmente cobertas por análises no estado-da-arte. Nossa análise nos permite estimar novos limites de pior caso para computações escalonadas pelo popular algoritmo de roubo de tarefas e também projetar programas paralelos e adaptáveis que são mais eficientes. A segunda contribuição é pragmática: nós apresentamos uma estratégia de paralelização eficiente para a geração de números pseudoaleatórios. Como uma alternativa para implementações fixas de componentes de geração aleatória nós introduzimos uma API chamada Par-R, projetada e analisada utilizando-se SIPS. Sua principal idea é o uso da capacidade de um gerador sequencial R de realizar um “pulo” eficiente dentro do fluxo de números gerados; nós os associamos a operações realizadas pelo escalonador por roubo de tarefas, o qual nossa análise baseada em SIPS demonstra ocorrer raramente em média. Par-R é comparado com o gerador paralelo de números pseudoaleatórios DotMix, escrito para a plataforma de multithreading dinâmico Cilk Plus. A latência de Par-R tem comparação favorável à latência do DotMix, o que é confirmado experimentalmente, mas não requer o uso subjacente fixado de um dado gerador aleatório.
We present two contributions to the field of parallel programming. The first contribution is theoretical: we introduce SIPS analysis, a novel approach to estimate the number of synchronizations performed during the execution of a parallel algorithm. Based on the concept of logical clocks, it allows us: on one hand, to deliver new bounds for the number of synchronizations, in expectation; on the other hand, to design more efficient parallel programs by dynamic adaptation of the granularity. The second contribution is pragmatic: we present an efficient parallelization strategy for pseudorandom number generation, independent of the number of concurrent processes participating in a computation. As an alternative to the use of one sequential generator per process, we introduce a generic API called Par-R, which is designed and analyzed using SIPS. Its main characteristic is the use of a sequential generator that can perform a “jump-ahead” directly from one number to another on an arbitrary distance within the pseudorandom sequence. Thanks to SIPS, we show that, in expectation, within an execution scheduled by work stealing of a “very parallel” program (whose depth or critical path is subtle when compared to the work or number of operations), these operations are rare. Par-R is compared with the parallel pseudorandom number generator DotMix, written for the Cilk Plus dynamic multithreading platform. The theoretical overhead of Par-R compares favorably to DotMix’s overhead, what is confirmed experimentally, while not requiring a fixed generator underneath.
14

Edi, Kouassi Hilaire. "Affectation flexible des ressources dans la planification des activités industrielles : prise en compte de la modulation d'horaires et de la polyvalence." Toulouse 3, 2007. http://www.theses.fr/2007TOU30085.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, nous proposons une démarche pour la modélisation de l'affectation flexible des ressources humaines en matière de planification d'activités industrielles. Cette modélisation prend en compte deux aspects de la flexibilité, liés l'un à la modulation du temps de travail, et l'autre à la diversité des tâches qui peuvent être accomplies par une ressource donnée (polyvalence). Nous proposons deux approches méthodologiques pour la résolution du modèle : Une première approche est basée sur les algorithmes génétiques monocritères qui permet de faire une recherche systématique quant aux choix des acteurs à affecter, une seconde approche basée sur l'affectation à partir de règles de priorité (ARP) avec la prise en compte simultanée de la criticité des compétences et de l'efficacité des ressources afin d'affecter les opérateurs les plus appropriés. L'enjeu de ce travail concerne la résolution d'un problème complexe avec un temps de recherche acceptable
In this work, we propose an approach for the modelling of the flexible allocation of human resources as far as planning of industrial activities is concerned. This model takes into account two aspects of flexibility, related one to the modulation of the working time, and the other with the variety of tasks which can be achieved by a given resource (multi skills). We propose two methodological approaches for the resolution of the model: a first approach is based on mono-criterion genetic algorithms which make a systematic research concerning the possible choices of the operators allocation, a second approach based on the assignment from rules of priority with simultaneously takes into account of the criticality of competences and efficiency of the resources in order to assign the most suitable operators. The issue of this work relates to the resolution of a complex problem with an acceptable search time
15

Laval, Dominique. "L'algorithmique au lycée entre développement de savoirs spécifiques et usage dans différents domaines mathématiques." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les nouveaux programmes des lycées français, mis en place depuis la rentrée 2010, ont fixé des objectifs précis en matière d’algorithmique. A la lecture de ces programmes, l’enseignement de l’algorithmique apparaît comme outil (au sens de Douady, 1986) pour donner sens à un certain nombre de notions étudiées. Comment dépasser ce stade pour que l’algorithmique devienne objet d’apprentissage (au sens de Douady, 1986) ? Le travail de recherche se situe dans le cadre d’apprentissages de connaissances sur les algorithmes en mathématiques dans l’enseignement au niveau des classes de Seconde et du Cycle Terminal Scientifique du lycée. L’étude et la construction d’algorithmes par les élèves sont situées dans un cadre plus général de raisonnement et de preuve, mais aussi de démarches de modélisation en mathématiques. Il s’agit d’étudier l’effectivité de tels enseignements dans le cadre institutionnel français du point de vue des apprentissages effectivement réalisés par les élèves et des pratiques des enseignants, et d’en inférer des résultats plus généraux sur le raisonnement mathématique dans certains domaines spécifiques, pour les classes du lycée. Le travail de recherche entrepris privilégie la place occupée par les algorithmes dans l’enseignement des mathématiques et propose un cadre théorique tenant compte des cadres généraux de la didactique des mathématiques, en particulier les Espaces de Travail Mathématique (ETM) (Kuzniak, Richard, 2014) associés à des domaines mathématiques spécifiques. Plus particulièrement, poursuivant la spécification d’un modèle Espaces de Travail Algorithmique (ETA) (Laval, 2014, 2016), nous précisons ce que peuvent être les plans épistémologique et cognitif dans ces espaces en mettant l’accent sur leurs interactions liées aux genèses sémiotique, instrumentale et discursive auxquelles ces plans donnent lieu. Nous étudions aussi quels espaces personnels peuvent se construire chez les élèves des différents niveaux scolaires du lycée, et comment ils articulent des connaissances sur les algorithmes et les domaines mathématiques scolaires. Les modèles des ETM/ETA sont consacrés à l’analyse du travail mathématique dans des domaines mathématiques spécifiques avec, en particulier, des paradigmes guidant et orientant le travail des élèves. De plus, partant du fait que peu d’études sur des tâches de modélisation ont été basées sur les modèles ETM/ETA, nous affinons certaines de nos analyses dans le cadre des ETM/ETA sur la base du cycle de modélisation proposé par Blum et Leiss (2005) en relation avec certains domaines spécifiques des mathématiques. Pour cela, nous construisons plusieurs ingénieries didactiques mettant en place des expérimentations dans trois domaines mathématiques : (1) la théorie élémentaire des nombres ; (2) l’analyse ; (3) les probabilités et les simulations aléatoires. Ces ingénieries sont expérimentées et analysées dans les trois niveaux du lycée français : seconde et cycle terminal scientifique. Notre travail de recherche comporte des outils d’analyse de tâches et d’activités dans différents domaines mathématiques. La méthodologie employée permet d’obtenir des données globales et d’observer finement les activités des élèves en classe et les pratiques des enseignants
The new programs of French High schools, since 2010, precise objectives in terms of algorithmics. According to High schools curricula, algorithmics teaching appears as a tool (in the sense of Douady, 1986) to give meaning to some studied notions. How to go beyond this level so that algorithmic becomes an object of learning (in the sense of Douady, 1986)? This research work is in the framework of learning of mathematical knowledge in algorithmics at the level of Grade 10 and Scientific Terminal Cycle (Grades 11 and 12) of the French high school. The study and construction of algorithms by students are located in a more general framework of reasoning and proof, but also mathematical modelling. We build three didactic engineerings in High school to study the work of student and to watch teacher’s practices. Our aim is to infer more general results on mathematical reasoning in some specific mathematical domains.The research work favours algorithms’ place in mathematics teaching. We propose a theoretical framework taking into account the general frameworks of mathematics didactics, in particular the Mathematical Working Spaces (MWS) (Kuzniak, Richard, 2014) associated with specific mathematical domains.Following the specification of an Algorithmics Working Spaces (AWS) (Laval, 2014, 2016) we specify the possibilities of the epistemological and cognitive plans inside of these spaces increasing their interactions with their semiotician, instrumental and discursive geneses. We also study which personal spaces can be built for students at different levels of High school system, and how they articulate knowledge about algorithms and school mathematical domains. The models of MWS/AWS aim at analysing of mathematical work in specific mathematical domains, with in particular, paradigms guiding and directing the work of the student.Moreover, since few studies of modelling tasks have been built on MWS/AWS models, we refined some our analyses in the framework MWS/AWS basing on the modelling cycle proposed by Blum & Leiss (2005) in relation to some specific mathematical domains.We build several didactic engineerings that we experimented in various mathematical domains: (1) elementary number theory; (2) mathematical analysis; (3) probabilities and random simulations. These didactic engineerings are experimented and analysed in various French High school's grade: Grade 10 and Scientific Terminal Cycle (Grades 11 and 12). Our research work includes tools for analysing tasks and activities in different mathematical domains. The methodology obtains aggregated global data and finely observes students' activities in classroom and teacher’s practices
16

Ben, Ayed Lanouar. "Modélisation numérique de l'emboutissage et optimisation des outils serre-flan." Compiègne, 2005. http://www.theses.fr/2005COMP1600.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de nos travaux de recherches est de contrôler l'écoulement de la matière sous serre-flan, par la maîtrise et l'optimisation du profil des efforts serre-flan. En fonction des défauts qui doivent être évités, un problème d'optimisation a été formulé avec des fonctions limitations exprimant explicitement les critères de qualité choisis. Une procédure d'optimisation, basée sur la méthode de surface de réponse et un algorithme itératif de type SQP, a été proposée. Pour localiser l'optimum global avec précision et à moindre coût une stratégie de réactualisation de l'espace de recherche a été adoptée. La rupture, est évitée en utilisant le critère modifié de force maximale, qui a été couplé avec ABAQUS. Trois applications ont été étudiées. Les résultats obtenus mettent en évidence l'intérêt du contrôle de l'effort de serrage en fonction du temps et la nécessité pour certains cas d'utiliser plusieurs serre-flan afin d'améliorer la répartition de l'effort de serrage dans l'espace
The objective of our research tasks is to control the material flow under the blank holder through the control and the optimization of the blankholder force profiles. According to the defects which must be avoided, an optimization problem was formulated with inequality constraints functions expressing explicitly some selected quality criteria. An optimization procedure, based on the response surface method and an SQP algorithm, is proposed. To find the global optimum with precision and at lower cost an adaptative strategy of the research space is adopted. The rupture, is avoided by using the modified maximum force criterion, witch is coupled with ABAQUS. Three applications were studied. The optimization results highlight the interest in the control of the blankholder forces in relation of time and the need in certain cases to use several blank holder surfaces in order to improve the distribution of the blankholder force in space
17

Rasheed, Tahir. "Collaborative Mobile Cable-Driven Parallel Robots." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0055.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un nouveau concept de robots parallèles à câble mobile (RPCM) comme un nouveau système robotique. RPCM est composé d'un robot parallèle à câble (RPC) classique monté sur plusieurs bases mobiles. Les RPCMs combinent l'autonomie des robots mobiles avec les avantages des RPCs, à savoir un grand espace de travail, un rapport charge utile/poids élevé, une faible inertie de l'effecteur final, une capacité de déploiement et une reconfigurabilité. De plus, les RPCMs présentent une nouvelle innovation technique qui pourrait contribuer à apporter plus de flexibilité et de polyvalence par rapport aux solutions robotiques industrielles existantes. Deux prototypes de RPCMs appelés FASTKIT et MoPICK ont été développés au cours de cette thèse. FASTKIT est composé de deux bases mobiles portant une plate-forme mobile à six degrés de liberté, tirée par huit câbles, dans le but de fournir une solution robotique économique et polyvalente pour la logistique. MoPICK est composé d'une plate-forme mobile à trois degrés de liberté tirée par quatre câbles montés sur quatre bases mobiles. Les applications ciblées de MoPICK sont des tâches mobiles dans un environnement contraint, par exemple un atelier ou des opérations logistiques dans un entrepôt. Les contributions de cette thèse sont les suivantes. Tout d'abord, toutes les conditions nécessaires à l'atteinte de l'équilibre statique d'un RPCM sont étudiées. Ces conditions sont utilisées pour développer un algorithme de distribution de tension pour le contrôle en temps réel des câbles RPCM. Les conditions d'équilibre sont également utilisées pour étudier l'espace de travail clé en main des RPCMs. Ensuite, les performances cinématiques et les capacités de torsion des RPCMs sont étudiées. Enfin, la dernière partie de la thèse présente des stratégies de planification de trajectoires multiples pour les RPCMs afin de reconfigurer l'architecture géométrique du RPC pour réaliser la tâche souhaitée
This thesis presents a novel concept of Mobile Cable - Driven Parallel Robots (MCDPRs) as a new robotic system. MCDPR is composed of a classical C able - D riven P a rallel R obot (CDPR) mounted on multiple mobile bases. MCDPRs combines the autonomy of mobile robots with the advantages of CDPRs, namely, large workspace, high payload - to - weight ratio, low end - effector inertia, deployability and reconfigurability. Moreover , MCDPRs presents a new technical innovation that could help to bring more flexibility and versatility with respect to existing industrial robotic solutions. Two MCDPRs prototypes named FASTKIT and MoPICK have been developed during the course of this the sis. FASTKIT is composed of two mobile bases carrying a six degrees - of - freedom moving - platform, pulled by eight cables , with a goal to provide a low cost and versatile robotic solution for logistics. MoPICK is composed of a three degrees - of - freedom movi ng - platform pulled by four cables mounted on four mobile bases. The targeted applications of MoPICK are mobile tasks in a constrained environment, for example, a workshop or logistic operations in a warehouse. The contributions of this thesis are as follow s. Firstly, all the necessary conditions are studied that required to achieve the static equilibrium of a MCDPR . These conditions are used to develop a Tension Distribution Algorithm for the real time control of the MCDRP cables. The equilibrium conditions are also used to investigate the Wrench - Feasible - Workspace of MCDPRs. Afterwards, the kinematic performance and twist capabilities of the MCDPRs are investigated. Finally, the last part of the thesis presents multiple path planning strategies for MCDPRs i n order to reconfigure the CDPR’s geometric architecture for performing the desired task
18

Barlet, Olivier. "Contribution à l'optimisation de forme de pièces embouties pour l'industrie automobile." Compiègne, 1998. http://www.theses.fr/1998COMP1110.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude concerne le secteur de la conception et de la fabrication des outillages de presses pour l'industrie automobile. Un outil numérique a été développé pour optimiser la forme des surfaces additionnelles. L’objectif est de fournir une aide à la conception de la gamme d'emboutissage afin de diminuer l'empirisme, les coûts, les délais et d'améliorer la qualité de l'outil. La méthode originale proposée dans la thèse résulte de la combinaison d'une analyse éléments finis de la pièce emboutie par une approche simplifiée dite "approche inverse" avec un algorithme d'optimisation numérique de type séquentiel quadratique. Des développements substantiels ont été réalisés afin d'obtenir un outil correspondant aux besoins industriels. L’outil permet d'optimiser le contour du flan ou de la pièce emboutie. Nous recherchons un contour satisfaisant un critère ou les amincissements et les épaississements maximums sont minimisés tout en réduisant la quantité de matières engagée. Une paramétrisation par une courbe de type B-spline a permis une description adaptée du contour extérieur de la pièce. Dans ce cas, les variables de conception sont les positions des points caractéristiques de la courbe. La définition des fonctions objectifs représentatives des préoccupations industrielles est détaillée. Des limitations ont été introduites pour éviter des solutions inacceptables pour la fabrication. L'évaluation des sensibilités est réalisée par différences finies. Une méthode destinée à améliorer les temps de calcul avec l'approche inverse est présentée. L’actualisation de la discrétisation est réalisée en repositionnant les nœuds se trouvant dans la zone serre-flan. A ce niveau, la prise en compte d'une surface sous serre-flan gauche a fait l'objet de développements particuliers. Enfin, les choix relatifs aux conditions initiales sont discutés. Les exemples traités concernent des pièces académiques (embouti axisymétrique, boîte carrée) et issues de l'industrie (coupelle d'amortisseur, renfort de charnière). Les résultats obtenus montrent l'intérêt des formulations et des algorithmes proposés.
19

Sublime, Jérémie. "Contributions au clustering collaboratif et à ses potentielles applications en imagerie à très haute résolution." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente plusieurs algorithmes développés dans le cadre du projet ANR COCLICO et contient deux axes principaux :Le premier axe concerne l'introduction d'un algorithme applicable aux images satellite à très haute résolution, qui est basé sur les champs aléatoires de Markov et qui apporte des notions sémantiques sur les clusters découverts. Cet algorithme est inspiré de l'algorithme Iterated conditional modes (ICM) et permet de faire un clustering sur des segments d'images pré-traitées. La méthode que nous proposons permet de gérer des voisinages irréguliers entre segments et d'obtenir des informations sémantiques de bas niveau sur les clusters de l'image traitée.Le second axe porte sur le développement de méthodes de clustering collaboratif applicables à autant d'algorithmes que possible, ce qui inclut les algorithmes du premier axe. La caractéristique principale des méthodes proposées dans cette thèse est leur applicabilité aux deux cas suivants : 1) plusieurs algorithmes travaillant sur les mêmes objets dans des espaces de représentation différents, 2) plusieurs algorithmes travaillant sur des données différentes ayant des distributions similaires. Les méthodes que nous proposons peuvent s'appliquer à de nombreux algorithmes comme l'ICM, les K-Moyennes, l'algorithme EM, ou les cartes topographiques (SOM et GTM). Contrairement aux méthodes précédemment proposées, notre modèle permet à des algorithmes très différents de collaborer ensemble, n'impose pas de contrainte sur le nombre de clusters recherchés et a une base mathématique solide
This thesis presents several algorithms developed in the context of the ANR COCLICO project and contains two main axis: The first axis is concerned with introducing Markov Random Fields (MRF) based models to provide a semantic rich and suited algorithm applicable to images that are already segmented. This method is based on the Iterated Conditional Modes Algorithm (ICM algorithm) and can be applied to the segments of very high resolution (VHR) satellite pictures. Our proposed method can cope with highly irregular neighborhood dependencies and provides some low level semantic information on the clusters and their relationship within the image. The second axis deals with collaborative clustering methods developed with the goal of being applicable to as many clustering algorithms as possible, including the algorithms used in the first axis of this work. A key feature of the methods proposed in this thesis is that they can deal with either of the following two cases: 1) several clustering algorithms working together on the same data represented in different feature spaces, 2) several clustering algorithms looking for similar clusters in different data sets having similar distributions. Clustering algorithms to which these methods are applicable include the ICM algorithm, the K-Means algorithm, density based algorithms such as DB-scan, all Expectation-Maximization (EM) based algorithms such as the Self-Organizing Maps (SOM) and the Generative Topographic Mapping (GTM) algorithms. Unlike previously introduced methods, our models have no restrictions in term of types of algorithms that can collaborate together, do not require that all methods be looking for the same number of clusters, and are provided with solid mathematical foundations
20

Li, Siying. "Context-aware recommender system for system of information systems." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2602.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Travailler en collaboration n’est plus une question mais une réalité, la question qui se pose aujourd’hui concerne la mise en œuvre de la collaboration de façon à ce qu’elle soit la plus réussie possible. Cependant, une collaboration réussie n’est pas facile et est conditionnée par différents facteurs qui peuvent l’influencer. Il est donc nécessaire de considérer ces facteurs au sein du contexte de collaboration pour favoriser l’efficacité de collaboration. Parmi ces facteurs, le collaborateur est un facteur principal, qui est étroitement associé à l’efficacité et à la réussite des collaborations. Le choix des collaborateurs et/ou la recommandation de ces derniers en tenant compte du contexte de la collaboration peut grandement influencer la réussite de cette dernière. En même temps, grâce au développement des technologies de l’information, de nombreux outils numériques de collaboration sont mis à la disposition tels que les outils de mail et de chat en temps réel. Ces outils numériques peuvent eux-mêmes être intégrés dans un environnement de travail collaboratif basé sur le web. De tels environnements permettent aux utilisateurs de collaborer au-delà de la limite des distances géographiques. Ces derniers laissent ainsi des traces d’activités qu’il devient possible d’exploiter. Cette exploitation sera d’autant plus précise que le contexte sera décrit et donc les traces enregistrées riches en description. Il devient donc intéressant de développer les environnements de travail collaboratif basé sur le web en tenant d’une modélisation du contexte de la collaboration. L’exploitation des traces enregistrés pourra alors prendre la forme de recommandation contextuelle de collaborateurs pouvant renforcer la collaboration. Afin de générer des recommandations de collaborateurs dans des environnements de travail collaboratifs basés sur le web, cette thèse se concentre sur la génération des recommandations contextuelles de collaborateurs en définissant, modélisant et traitant le contexte de collaboration. Pour cela, nous proposons d’abord une définition du contexte de collaboration et choisissons de créer une ontologie du contexte de collaboration compte tenu des avantages de l’approche de modélisation en l’ontologie. Ensuite, une similarité sémantique basée sur l’ontologie est développée et appliquée dans trois algorithmes différents (i.e., PreF1, PoF1 et PoF2) afin de générer des recommandations contextuelles des collaborateurs. Par ailleurs, nous déployons l’ontologie de contexte de collaboration dans des environnements de travail collaboratif basés sur le web en considérant une architecture de système des systèmes d’informations du point de vue des environnements de travail collaboratif basés sur le web. À partir de cette architecture, un prototype correspondant d’environnement de travail collaboratif basé sur le web est alors construit. Enfin, un ensemble de données de collaborations scientifiques est utilisé pour tester et évaluer les performances des trois algorithmes de recommandation contextuelle des collaborateurs
Working collaboratively is no longer an issue but a reality, what matters today is how to implement collaboration so that it is as successful as possible. However, successful collaboration is not easy and is conditioned by different factors that can influence it. It is therefore necessary to take these impacting factors into account within the context of collaboration for promoting the effectiveness of collaboration. Among the impacting factors, collaborator is a main one, which is closely associated with the effectiveness and success of collaborations. The selection and/or recommendation of collaborators, taking into account the context of collaboration, can greatly influence the success of collaboration. Meanwhile, thanks to the development of information technology, many collaborative tools are available, such as e-mail and real-time chat tools. These tools can be integrated into a web-based collaborative work environment. Such environments allow users to collaborate beyond the limit of geographical distances. During collaboration, users can utilize multiple integrated tools, perform various activities, and thus leave traces of activities that can be exploited. This exploitation will be more precise when the context of collaboration is described. It is therefore worth developing web-based collaborative work environments with a model of the collaboration context. Processing the recorded traces can then lead to context-aware collaborator recommendations that can reinforce the collaboration. To generate collaborator recommendations in web-based Collaborative Working Environments, this thesis focuses on producing context-aware collaborator recommendations by defining, modeling, and processing the collaboration context. To achieve this, we first propose a definition of the collaboration context and choose to build a collaboration context ontology given the advantages of the ontology-based modeling approach. Next, an ontologybased semantic similarity is developed and applied in three different algorithms (i.e., PreF1, PoF1, and PoF2) to generate context-aware collaborator recommendations. Furthermore, we deploy the collaboration context ontology into web-based Collaborative Working Environments by considering an architecture of System of Information Systems from the viewpoint of web-based Collaborative Working Environments. Based on this architecture, a corresponding prototype of web-based Collaborative Working Environment is then constructed. Finally, a dataset of scientific collaborations is employed to test and evaluate the performances of the three context-aware collaborator recommendation algorithms
21

Huynh, Tuong Nguyen. "Complexité et algorithmes pour l'ordonnancement multicritère des travaux indépendants : problèmes juste-à-temps et travaux interférants." Thesis, Tours, 2009. http://www.theses.fr/2009TOUR4001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous abordons dans cette thèse deux types de problèmes d’ordonnancement sur une machine ou sur des machines parallèles : 1. les problèmes d’ordonnancement de type juste-à-temps : il s’agit de déterminer un ordonnancement de sorte que les travaux se terminent le plus près possible de leur date de fin souhaitée. On considère le cas où la date de fin souhaitée commune est connue et le cas où elle est à déterminer. De nouveaux algorithmes exacts sont proposés. Des schémas d’approximation sont élaborés. 2. les problèmes d’ordonnancements de travaux interférants : il s’agit de déterminer un ordonnancement qui permet d’optimiser un critère pour tous les travaux, sachant que la solution trouvée doit permettre également l’optimisation d’un autre critère défini uniquement sur un sous-ensemble des travaux. Il s’agit ici d’un nouveau problème d’ordonnancement multicritère, différent de la notion classique. Les approches considérées pour trouver une solution non dominée sont l’approche e-contrainte, la combinaison linéaire de critères et le goal programming. De nouveaux résultats de complexité sont montrés et des algorithmes exacts sont développés
In this thesis, we consider two kinds of scheduling problems on a single machine or on parallel machines : 1. just-in-time scheduling problems : it aims to determine a schedule so that a job completes as close as possible to its due date.We consider the case where the common due date is known and the case where the common due date has to be fixed. New exact algorithms based on greedy algorithms and dynamic programming are proposed. Approximation schemes are given. 2. scheduling problems with interfering jobs : the aim is to determine a schedule that optimizes a criterion for the whole set of jobs and so that the solution optimizes another objective only for a subset of jobs. It is here a new multi-criteria scheduling problem, different from the classical notion. The approaches considered for finding a non-dominated solution are the e-constraint approach, the linear combination of criteria and the goal programming approach. New complexity results are proposed and exact algorithms are developed
22

Atalla, El-Awady Attia El-Awady. "Prise en compte de la flexibilité des ressources humaines dans la planification et l’ordonnancement des activités industrielles." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0018/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le besoin croissant de réactivité dans les différents secteurs industriels face à la volatilité des marchés soulève une forte demande de la flexibilité dans leur organisation. Cette flexibilité peut être utilisée pour améliorer la robustesse du planning de référence d’un programme d’activités donné. Les ressources humaines de l’entreprise étant de plus en plus considérées comme le coeur des structures organisationnelles, elles représentent une source de flexibilité renouvelable et viable. Tout d’abord, ce travail a été mis en oeuvre pour modéliser le problème d’affectation multi-périodes des effectifs sur les activités industrielles en considérant deux dimensions de la flexibilité: L’annualisation du temps de travail, qui concerne les politiques de modulation d’horaires, individuels ou collectifs, et la polyvalence des opérateurs, qui induit une vision dynamique de leurs compétences et la nécessité de prévoir les évolutions des performances individuelles en fonction des affectations successives. La nature dynamique de l’efficacité des effectifs a été modélisée en fonction de l’apprentissage par la pratique et de la perte de compétence pendant les périodes d’interruption du travail. En conséquence, nous sommes résolument placés dans un contexte où la durée prévue des activités n’est plus déterministe, mais résulte du nombre des acteurs choisis pour les exécuter, en plus des niveaux de leur expérience. Ensuite, la recherche a été orientée pour répondre à la question : « quelle genre, ou quelle taille, de problème pose le projet que nous devons planifier? ». Par conséquent, les différentes dimensions du problème posé sont classées et analysés pour être évaluées et mesurées. Pour chaque dimension, la méthode d’évaluation la plus pertinente a été proposée : le travail a ensuite consisté à réduire les paramètres résultants en composantes principales en procédant à une analyse factorielle. En résultat, la complexité (ou la simplicité) de la recherche de solution (c’est-à-dire de l’élaboration d’un planning satisfaisant pour un problème donné) peut être évaluée. Pour ce faire, nous avons développé une plate-forme logicielle destinée à résoudre le problème et construire le planning de référence du projet avec l’affectation des ressources associées, plate-forme basée sur les algorithmes génétiques. Le modèle a été validé, et ses paramètres ont été affinés via des plans d’expériences pour garantir la meilleure performance. De plus, la robustesse de ces performances a été étudiée sur la résolution complète d’un échantillon de quatre cents projets, classés selon le nombre de leurs tâches. En raison de l’aspect dynamique de l’efficacité des opérateurs, le présent travail examine un ensemble de facteurs qui influencent le développement de leur polyvalence. Les résultats concluent logiquement qu’une entreprise en quête de flexibilité doit accepter des coûts supplémentaires pour développer la polyvalence de ses opérateurs. Afin de maîtriser ces surcoûts, le nombre des opérateurs qui suivent un programme de développement des compétences doit être optimisé, ainsi que, pour chacun d’eux, le degré de ressemblance entre les nouvelles compétences développées et les compétences initiales, ou le nombre de ces compétences complémentaires (toujours pour chacun d’eux), ainsi enfin que la façon dont les heures de travail des opérateurs doivent être réparties sur la période d’acquisition des compétences. Enfin, ce travail ouvre la porte pour la prise en compte future des facteurs humains et de la flexibilité des effectifs pendant l’élaboration d’un planning de référence
The growing need of responsiveness for manufacturing companies facing the market volatility raises a strong demand for flexibility in their organization. This flexibility can be used to enhance the robustness of a baseline schedule for a given programme of activities. Since the company personnel are increasingly seen as the core of the organizational structures, they provide the decision-makers with a source of renewable and viable flexibility. First, this work was implemented to model the problem of multi-period workforce allocation on industrial activities with two degrees of flexibility: the annualizing of the working time, which offers opportunities of changing the schedules, individually as well as collectively. The second degree of flexibility is the versatility of operators, which induces a dynamic view of their skills and the need to predict changes in individual performances as a result of successive assignments. The dynamic nature of workforce’s experience was modelled in function of learning-by-doing and of oblivion phenomenon during the work interruption periods. We firmly set ourselves in a context where the expected durations of activities are no longer deterministic, but result from the number and levels of experience of the workers assigned to perform them. After that, the research was oriented to answer the question “What kind of problem is raises the project we are facing to schedule?”: therefore the different dimensions of the project are inventoried and analysed to be measured. For each of these dimensions, the related sensitive assessment methods have been proposed. Relying on the produced correlated measures, the research proposes to aggregate them through a factor analysis in order to produce the main principal components of an instance. Consequently, the complexity or the easiness of solving or realising a given scheduling problem can be evaluated. In that view, we developed a platform software to solve the problem and construct the project baseline schedule with the associated resources allocation. This platform relies on a genetic algorithm. The model has been validated, moreover, its parameters has been tuned to give the best performance, relying on an experimental design procedure. The robustness of its performance was also investigated, by a comprehensive solving of four hundred instances of projects, ranked according to the number of their tasks. Due to the dynamic aspect of the workforce’s experience, this research work investigates a set of different parameters affecting the development of their versatility. The results recommend that the firms seeking for flexibility should accept an amount of extra cost to develop the operators’ multi functionality. In order to control these over-costs, the number of operators who attend a skill development program should be optimised, as well as the similarity of the new developed skills relative to the principal ones, or the number of the additional skills an operator may be trained to, or finally the way the operators’ working hours should be distributed along the period of skill acquisition: this is the field of investigations of the present work which will, in the end, open the door for considering human factors and workforce’s flexibility in generating a work baseline program
23

Li, Xia. "Travel time prediction using ensemble learning algorithms." Thesis, University of Nottingham, 2018. http://eprints.nottingham.ac.uk/53358/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In the research area of travel time prediction, the existing studies mainly focus on aggregated travel time prediction (without distinguishing vehicle types) or travel time prediction for passenger vehicles. The travel time prediction for freight transportation has not received enough attention from researchers. Only a few relevant studies can be found in the literature, and the proposed methods are usually very simple and lack comparisons with more advanced methods. Although many believed that a better prediction model can be developed using more advanced techniques such as artificial neural networks or autoregressive conditional heteroscedastic models, it is usually difficult and costly to train these models and the model interpretability is poor. There is a demand for `off-the-shelf' methods with good performance, ease of implementation and good model interpretability. Thus, the aims of this thesis are: (1) developing some `off-the-shelf' data-driven methods to predict travel time for freight transportation; (2) creating a comprehensive understanding of how the developed methods can be more effectively applied for general travel time prediction problems. Its two main contributions are: (1) it develops data-driven travel time prediction methods for freight transportation by utilising freight vehicles' trajectory data; (2) it investigates the relation between features and performance and discovers the combinatorial effects of features under the effects of different noise processes and different model fitting strategies. The experimental results show that useful features can be mined from the trajectory data to enhance the travel time prediction for freight transportation. The developed methods outperform some of the state-of-the-art data-driven methods.
24

Ben, Othman Sara. "Système collaboratif d'aide à l'ordonnancement et à l'orchestration des tâches de soins à compétences muiltiples." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22651/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la gestion des systèmes de soins, la maîtrise des flux hospitaliers et l’anticipation des tensions sont des enjeux majeurs. Le but de cette thèse est de contribuer à l’étude et au développement d’un Système Collaboratif d’Aide à l’Ordonnancement et à l’Orchestration (SysCAOO) des tâches de soins à compétences multiples pour gérer les tensions dans les Services d’Urgences Pédiatriques (SUP) afin d’améliorer la qualité de prise en charge des patients. Le SysCAOO intègre une approche Workflow collaboratif pour modéliser le parcours patient afin d’identifier les dysfonctionnements et les pics d’activités du personnel médical dans le SUP. L’aspect dynamique et incertain du problème nous a conduits à adopter une alliance entre les Systèmes Multi-Agent (SMA) et les Algorithmes Evolutionnaires (AE) pour le traitement et l’ordonnancement des tâches de soins en tenant compte du niveau d’expérience des acteurs du SUP et leurs disponibilités. En cas d’aléas dans le SUP, une coalition d’agents se forme pour collaborer et négocier afin de proposer des décisions d’orchestration du Workflow et minimiser le temps d’attente des patients en cours de leur prise en charge. Les résultats expérimentaux présentés dans cette thèse justifient l’intérêt de l’alliance entre les SMA et les Métaheuristiques afin de gérer les tensions dans le SUP. Les travaux de recherche présentés dans cette thèse s’intègrent dans le cadre du projet HOST (Hôpital : Optimisation, Simulation et évitement des tensions) (http://www.agence-nationale-recherche.fr/?Projet=ANR-11-TECS-0010)
Health care systems management and the avoidance of overcrowding phenomena are major issues. The aim of this thesis is to implement a Collaborative Support System for Scheduling and Orchestration (CSSystSO) of multi-skill health care tasks in order to avoid areas bottlenecks in the Pediatric Emergency Department (PED) and improve health care quality for patients. The CSSystSO integrates a collaborative Workflow approach to model patient journey in order to identify dysfunctions and peaks of activities of medical staff in the PED. The dynamic and uncertain aspect of the problem has led us to adopt an alliance between Multi-Agent Systems (MAS) and Evolutionary Algorithms (EA) for health care tasks treatment and scheduling taking into account the level of experience of the PED actors and their availabilities. In case of perturbations in the PED, a coalition of agents is formed to collaborate and negotiate in order to provide orchestration Workflow decisions to minimize the waiting time of patients during their treatment. The experimental results presented in this thesis justify the interest of the alliance between MAS and Metaheuristics to manage overcrowding phenomena in the PED. This work belongs to the project HOST (Hôpital: Optimisation, Simulation et évitement des tensions). (http://www.agence-nationale-recherche.fr/?Projet=ANR-11-TECS-0010)
25

Duval, Dominique. "Diverses questions relatives au calcul formel avec des nombres algèbriques : [thèse soutenue sur un ensemble de travaux]." Grenoble 1, 1987. http://www.theses.fr/1987GRE10028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Presentation du systeme d5 de calcul formel avec des nombres algebriques, ecrit avec claire dicrescenzo. Exemples d'application illustrant l'efficacite de l'algorithme. Justification theorique du systeme d5 dans le cadre des theories equationnelles a l'aide de la notion d'evaluation dynamique
26

Xu, Tianze. "Variational Inequality Based Dynamic Travel Choice Modeling." University of Cincinnati / OhioLINK, 2009. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1234999856.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Balmer, Michael. "Travel demand modeling for multi-agent transport simulations : algorithms and systems /." Zürich : ETH, 2007. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=17238.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Charypar, David. "Efficient algorithms for the microsimulation of travel behavior in very large scenarios /." Zürich : ETH, 2008. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=18034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Goldfarb, Daniel Scott. "An Evaluation of Assignment Algorithms and Post-Processing Techniques for Travel Demand Forecast Models." Thesis, Virginia Tech, 2003. http://hdl.handle.net/10919/31631.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The purpose of this research project was to evaluate the techniques outlined in the National Cooperative Highway Research Program Technical Report 255 Highway Traffic Data for Urbanized Area Project Planning and Design (NCHRP-255), published in 1982 by the Transportation Research Board. This evaluation was accomplished by using a regional travel demand forecast model calibrated and validated for the year 1990 and developing a highway forecast for the year 2000. The forecasted volumes along the Capital Beltway (I-495/I-95) portion located in the State of Maryland were compared to observed count data for that same year. A series of statistical measures were used to quantitatively evaluate the benefits of the techniques documented in NCHRP-255. The primary research objectives were: ·To critically evaluate the ability of a regional travel demand forecast model to accurately forecast freeway corridor volumes by comparing link forecast volumes to the actual count data. ·To evaluate and determine the significance of post-processing techniques as outlined in NCHRP-255. The most important lesson learned from this research is that although it was originally written in 1982, NCHRP-255 is still a very valuable resources for supplementing travel demand forecast model output. The â rawâ model output is not reliable enough to be used directly for highway design, operational analysis, nor alternative or economic evaluations. The travel demand forecast model is a tool that is just part of the forecasting process. It is not a turn-key operation, and travel demand forecasts cannot be done without the application of engineering judgment.
Master of Science
30

Zhu, Fulin. "Locations of AVI System and Travel Time Forecasting." Thesis, Virginia Tech, 2000. http://hdl.handle.net/10919/33578.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The purpose of this research is to solve several important problems of the AVI system, including the AVI site location problem, travel time forecasting, the study of reliability and accuracy of the forecasted travel time. This thesis serves as a further research toward the modeling of AVI systems in which the effects of AVI site location, AVI site density, travel time forecasting are analyzed. The model based on the genetic algorithms was applied to AVI site location problem to solve it as a multi-objective optimization problem, thus the best locations was determined on the basis of several criteria. The model developed was tested in an assumed transportation network. The achieved CPU time in this stage of the research are promising. MATLAB and its accompanying Neural Network Toolbox, has been applied to data obtained from San Antonio real time AVI Tag database to forecast travel time. The approach to the neural network is detailed in this paper. Two ANN models were tested in this research. The accuracy of AVI travel time forecasting was then assessed and the better model for travel time forecasting was found. Lastly, a comparison of forecasted travel time with different travel time prediction technologies was performed to serve as a reference parameter for the travel time forecasting study.
Master of Science
31

Andrésen, Anton, and Adam Håkansson. "Comparing unsupervised clustering algorithms to locate uncommon user behavior in public travel data : A comparison between the K-Means and Gaussian Mixture Model algorithms." Thesis, Tekniska Högskolan, Jönköping University, JTH, Datateknik och informatik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-49243.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Clustering machine learning algorithms have existed for a long time and there are a multitude of variations of them available to implement. Each of them has its advantages and disadvantages, which makes it challenging to select one for a particular problem and application. This study focuses on comparing two algorithms, the K-Means and Gaussian Mixture Model algorithms for outlier detection within public travel data from the travel planning mobile application MobiTime1[1]. The purpose of this study was to compare the two algorithms against each other, to identify differences between their outlier detection results. The comparisons were mainly done by comparing the differences in number of outliers located for each model, with respect to outlier threshold and number of clusters. The study found that the algorithms have large differences regarding their capabilities of detecting outliers. These differences heavily depend on the type of data that is used, but one major difference that was found was that K-Means was more restrictive then Gaussian Mixture Model when it comes to classifying data points as outliers. The result of this study could help people determining which algorithms to implement for their specific application and use case.
32

Preissmann, Myriam. "Sur quelques problèmes théoriques et appliqués de la théorie des graphes : [thèse en partie soutenue sur un ensemble de travaux]." Grenoble 1, 1988. http://www.theses.fr/1988GRE10162.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude de la théorie des graphes (graphes cubiques et indice chromatique, graphes parfaits) et applications (problèmes d'optimisation combinatoire associes a des modèles de physique statique, algorithmes heuristiques et exactes pour la simulation rapide d'un VLSI)
33

Jahangiri, Arash. "Modeling and Assessing Crossing Elimination as a Strategy to Reduce Evacuee Travel Time." Thesis, Virginia Tech, 2012. http://hdl.handle.net/10919/76873.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
During evacuations, emergency managers and departments of transportation seek to facilitate the movement of citizens out of impacted or threatened areas. One strategy they may consider is crossing elimination, which prohibits certain movements at intersections, that may be permissible under normal operating conditions. A few previous studies examined this strategy in conjunction with contra-flow operations, but fewer have considered crossing elimination by itself. This study helps fill the existing gap in knowledge of the individual effects of crossing elimination. A bi-level model that iterates between optimization and simulation is developed to determine the optimal configuration of intersection movements from a set of pre-specified possible configurations for intersections in a given area. At the upper level, evacuees' travel time is minimized and at the lower level, traffic is assigned to the network with the traffic assignment-simulation software DynusT. The overall model is solved with a simulated annealing heuristic and applied to a real case study to assess the impact of crossing elimination. Three scenarios are developed and examined using the solution method proposed in this research. These scenarios are developed using combinations of two elements: (1) Evacuee destination distributions, and (2) Evacuee departure time distributions. Results showed about 3-5 percent improvement in total evacuee travel time can be achieved in these scenarios. Availability of through movements at intersections and existing merging points in movement configurations are the two factors influencing the selection of movement configurations.
Master of Science
34

Li, Zheng, and Zheng Li. "Improving Estimation Accuracy of GPS-Based Arterial Travel Time Using K-Nearest Neighbors Algorithm." Thesis, The University of Arizona, 2017. http://hdl.handle.net/10150/625901.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Link travel time plays a significant role in traffic planning, traffic management and Advanced Traveler Information Systems (ATIS). A public probe vehicle dataset is a probe vehicle dataset that is collected from public people or public transport. The appearance of public probe vehicle datasets can support travel time collection at a large temporal and spatial scale but at a relatively low cost. Traditionally, link travel time is the aggregation of travel time by different movements. A recent study proved that link travel time of different movements is significantly different from their aggregation. However, there is still not a complete framework for estimating movement-based link travel time. In addition, probe vehicle datasets usually have a low penetration rate but no previous study has solved this problem. To solve the problems above, this study proposed a detailed framework to estimate movement-based link travel time using a high sampling rate public probe vehicle dataset. Our study proposed a k-Nearest Neighbors (k-NN) regression method to increase travel time samples using incomplete trajectory. An incomplete trajectory was compared with historical complete trajectories and the link travel time of the incomplete trajectory was represented by its similar complete trajectories. The result of our study showed that the method can significantly increase link travel time samples but there are still limitations. In addition, our study investigated the performance of k-NN regression under different parameters and input data. The sensitivity analysis of k-NN algorithm showed that the algorithm performed differently under different parameters and input data. Our study suggests optimal parameters should be selected using a historical dataset before real-world application.
35

Guitard, Julien. "L'évaluation des politiques de l'emploi : Quatre essais." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2009. http://tel.archives-ouvertes.fr/tel-00402436.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose dans un premier temps une évaluation structurelle des effets microéconomiques de deux politiques phares du Plan d'Aide au retour à l'Emploi (PARE) implémenté en France en 2001 : l'accompagnement et la formation des demandeurs d'emploi. La création d'entreprise étant souvent citée comme une alternative à ces politiques, on établit dans un second temps un modèle du cycle de vie des travailleurs indépendants. Toutefois, ne disposant du coût social des mesures étudiées, une analyse coût-bénéfice complète n'a pu être réalisée dans le cadre de ce travail. D'un point de vue méthodologique l'approche structurelle est abordée ici comme une extension des évaluations en forme réduite et non comme leur antithèse. Compte tenu des difficultés algorithmiques posées par cette méthode, on accorde une attention particulière aux techniques d'optimisation utilisées et on s'attache - suivant les recommandations de Judd - à simplifier au maximum la mise en oeuvre des estimations grâce à l'usage du logiciel AMPL.
36

Gündling, Felix [Verfasser], Karsten [Akademischer Betreuer] Weihe, and Ralf [Akademischer Betreuer] Borndörfer. "Efficient Algorithms for Intermodal Routing and Monitoring in Travel Information Systems / Felix Gündling ; Karsten Weihe, Ralf Borndörfer." Darmstadt : Universitäts- und Landesbibliothek, 2020. http://d-nb.info/1223618943/34.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Zhou, Zhong. "Models and Algorithms for Addressing Travel Time Variability: Applications from Optimal Path Finding and Traffic Equilibrium Problems." DigitalCommons@USU, 2008. https://digitalcommons.usu.edu/etd/129.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
An optimal path finding problem and a traffic equilibrium problem are two important, fundamental, and interrelated topics in the transportation research field. Under travel time variability, the road networks are considered as stochastic, where the link travel times are treated as random variables with known probability density functions. By considering the effect of travel time variability and corresponding risk-taking behavior of the travelers, this dissertation proposes models and algorithms for addressing travel time variability with applications from optimal path finding and traffic equilibrium problems. Specifically, two new optimal path finding models and two novel traffic equilibrium models are proposed in stochastic networks. To adaptively determine a reliable path with the minimum travel time budget required to meet the user-specified reliability threshold α, an adaptive α-reliable path finding model is proposed. It is formulated as a chance constrained model under a dynamic programming framework. Then, a discrete-time algorithm is developed based on the properties of the proposed model. In addition to accounting for the reliability aspect of travel time variability, the α-reliable mean-excess path finding model further concerns the unreliability aspect of the late trips beyond the travel time budget. It is formulated as a stochastic mixed-integer nonlinear program. To solve this difficult problem, a practical double relaxation procedure is developed. By recognizing travelers are not only interested in saving their travel time but also in reducing their risk of being late, a α-reliable mean-excess traffic equilibrium (METE) model is proposed. Furthermore, a stochastic α-reliable mean-excess traffic equilibrium (SMETE) model is developed by incorporating the travelers’ perception error, where the travelers’ route choice decisions are determined by the perceived distribution of the stochastic travel time. Both models explicitly examine the effects of both reliability and unreliability aspects of travel time variability in a network equilibrium framework. They are both formulated as a variational inequality (VI) problem and solved by a route-based algorithm based on the modified alternating direction method. In conclusion, this study explores the effects of the various aspects (reliability and unreliability) of travel time variability on travelers’ route choice decision process by considering their risk preferences. The proposed models provide novel views of the optimal path finding problem and the traffic equilibrium problem under an uncertain environment, and the proposed solution algorithms enable potential applicability for solving practical problems.
38

Gündling, Felix Verfasser], Karsten [Akademischer Betreuer] [Weihe, and Ralf [Akademischer Betreuer] Borndörfer. "Efficient Algorithms for Intermodal Routing and Monitoring in Travel Information Systems / Felix Gündling ; Karsten Weihe, Ralf Borndörfer." Darmstadt : Universitäts- und Landesbibliothek, 2020. http://nbn-resolving.de/urn:nbn:de:tuda-tuprints-142127.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Delhome, Raphaël. "Modélisation de la variabilité des temps de parcours et son intégration dans des algorithmes de recherche du plus court chemin stochastique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSET010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La représentation des temps de parcours est un enjeu influençant la qualité de l’information transmise aux usagers des réseaux de transport. En particulier, la congestion constitue un inconvénient majeur dont la prise en compte n’est pas toujours maîtrisée au sein des calculateurs d’itinéraires. De même, les évènements comme les réductions de capacité, les perturbations climatiques, ou encore les pics de fréquentation incitent à dépasser la définition statique des temps de parcours. Des travaux antérieurs se sont focalisés sur des temps dynamiques, i.e. dépendants de la date de départ, de manière à affiner le détail de la représentation, et à prendre notamment en compte le caractère périodique des congestions. La considération d’informations en temps réel est aussi une amélioration indéniable, que ce soit lors de la préparation du trajet, ou lorsqu’il s’agit de s’adapter à des perturbations rencontrées en cours de route. Ceci dit, aussi fines qu’elles soient dans les calculateurs disponibles, ces modélisations présentent un inconvénient majeur : elles ne prennent pas en compte toutes les facettes de la variabilité des temps de parcours. Cette variabilité est très importante, en particulier si l’on considère le niveau d’aversion au risque des usagers. En outre, dans un réseau multimodal, les correspondances éventuelles rendent encore plus critique l’incertitude associée aux temps de parcours. En réponse à ces enjeux, les présents travaux de thèse ont ainsi été consacrés à l’étude de temps de parcours stochastiques, i.e. vus comme des variables aléatoires distribuées.Dans une première étape, nous nous intéressons à la modélisation statistique des temps de parcours et à la quantification de leur variabilité. Nous proposons l’utilisation d’un système de lois développé dans le domaine de l’hydrologie, la famille des lois de Halphen. Ces lois présentent les caractéristiques typiques des distributions de temps de parcours, elles vérifient par ailleurs la propriété de fermeture par l’addition sous certaines hypothèses afférentes à leurs paramètres. En exploitant les ratios de moments associés aux définitions de ces lois de probabilité, nous mettons également au point de nouveaux indicateurs de fiabilité, que nous confrontons avec la palette d’indicateurs classiquement utilisés. Cette approche holistique de la variabilité des temps de parcours nous semble ainsi ouvrir de nouvelles perspectives quant au niveau de détail de l’information, notamment à destination des gestionnaires de réseaux.Par la suite, nous étendons le cadre d’analyse aux réseaux, en utilisant les résultats obtenus à l’étape précédente. Différentes lois de probabilité sont ainsi testées dans le cadre de la recherche du plus court chemin stochastique. Cette première étude nous permet de dresser un panorama des chemins identifiés en fonction du choix de modélisation. S’il est montré que le choix du modèle est important, il s’agit surtout d’affirmer que le cadre stochastique est pertinent. Ensuite, nous soulevons la relative inefficacité des algorithmes de recherche du plus court chemin stochastique, ceux-ci nécessitant des temps de calcul incompatibles avec un passage à l’échelle industrielle. Pour pallier cette difficulté, un nouvel algorithme mettant en oeuvre une technique d’accélération tirée du cadre déterministe est développé dans la dernière partie de la thèse. Les résultats obtenus soulignent la pertinence de l’intégration de modèles stochastiques au sein des calculateurs d’itinéraires
The travel time representation has a major impact on user-oriented routing information. In particular, congestion detection is not perfect in current route planners. Moreover, the travel times cannot be considered as static because of events such as capacity drops, weather disturbances, or demand peaks. Former researches focused on dynamic travel times, i.e. that depend on departure times, in order to improve the representation details, for example concerning the periodicity of congestions. Real-time information is also a significant improvement for users aiming to prepare their travel or aiming to react to on-line events. However these kinds of model still have an important drawback : they do not take into account all the aspects of travel time variability. This dimension is of huge importance, in particular if the user risk aversion is considered. Additionally in a multimodal network, the eventual connections make the travel time uncertainty critical. In this way the current PhD thesis has been dedicated to the study of stochastic travel times, seen as distributed random variables.In a first step, we are interested in the travel time statistical modeling as well as in the travel time variability. In this goal, we propose to use the Halphen family, a probability law system previously developed in hydrology. The Halphen laws show the typical characteristics of travel time distributions, plus they are closed under addition under some parameter hypothesis. By using the distribution moment ratios, we design innovative reliability indexes, that we compare with classical metrics. This holistic approach appears to us as a promising way to produce travel time information, especially for infrastructure managers.Then we extend the analysis to transportation networks, by considering previous results. A set of probability laws is tested during the resolution of the stochastic shortest path problem. This research effort helps us to describe paths according to the different statistical models. We show that the model choice has an impact on the identified paths, and above all, that the stochastic framework is crucial. Furthermore we highlight the inefficiency of algorithms designed for the stochastic shortest path problem. They need long computation times and are consequently incompatible with industrial applications. An accelerated algorithm based on a deterministic state-of-the-art is provided to overcome this problem in the last part of this document. The obtained results let us think that route planners might include travel time stochastic models in a near future
40

Abrishami, Mahdi. "Dynamic Link Flow Estimation according to Historical Travel Times." Thesis, Linköpings universitet, Kommunikations- och transportsystem, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-144583.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Vast application of ITS and the availability of numerous on-road detection devices has resulted in variety of alternative data sources to be exploited and used in the field of traffic modelling. In this thesis, historical travel times, as an alternative data source, is employed on the developed method to perform dynamic network loading. The developed method, referred to as DNLTT, uses the share of each route available in the route choice set from the initial demand, as well as link travel times to perform the network loading. The output of the algorithm is time-dependent link flows. DNLTT is applied on Stockholm transportation network, where it is expected to have variation in link travel times in different time-periods, due to network congestion. In order to calculate the route shares, a time-sliced OD matrix is used. The historical travel times and the routes in the route choice set are extracted from an existing route planning tool. An available logit model, which considers the route travel time as the only logit parameter, is used for the route share calculation and the network loading is performed according to 2 different methods of DNLTT and DL. The evaluation of results is done for a toy network, where there happen different network states in different time-periods. Furthermore, the model output from Stockholm case study is analyzed and evaluated. The dynamic behavior of DNLTT is studied by analysis of link flows in different time-periods. Furthermore, the resulting link flows from both network loading methods are compared against observed link flows from radar sensors and the statistical analysis of link flows is performed accordingly. DNLTT exhibits a better performance on the toy network compared to DL, where the increasing link travel times cause the link flows to decline in different time-periods. However, the output of the developed method does not resemble the observed link flows for the investigated links in Stockholm case study. It is strongly believed, that the performance of DNLTT on the investigated transportation network potentially improves, in case the historical travel times better resemble the network dynamics. In addition to a more reliable data set, an OD adjustment process in all the time-periods is believed to generate better model output.
41

Nadri, Dariush. "Joint non-linear inversion of amplitudes and travel times in a vertical transversely isotropic medium using compressional and converted shear waves." Curtin University of Technology, Department of Exploration Geophysics, 2008. http://espace.library.curtin.edu.au:80/R/?func=dbin-jump-full&object_id=17631.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Massive shales and fractures are the main cause of seismic anisotropy in the upper-most part of the crust, caused either by sedimentary or tectonic processes. Neglecting the effect of seismic anisotropy in seismic processing algorithms may incorrectly image the seismic reflectors. This will also influence the quantitative amplitude analysis such as the acoustic or elastic impedance inversion and amplitude versus offsets analysis. Therefore it is important to obtain anisotropy parameters from seismic data. Conventional layer stripping inversion schemes and reflector based reflectivity inversion methods are solely dependent upon a specific reflector, without considering the effect of the other layers. This, on one hand, does not take the effect of transmission in reflectivity inversion into the account, and on the other hand, ignores the information from the waves travelling toward the lower layers. I provide a framework to integrate the information for each specific layer from all the rays which have travelled across this layer. To estimate anisotropy parameters I have implemented unconstrained minimization algorithms such as nonlinear conjugate gradients and variable metric methods, I also provide a nonlinear least square method, based on the Levenberg-Marquardt algorithm. In a stack of horizontal transversely isotropic layers with vertical axis of symmetry, where the layer properties are laterally invariant, we provide two different inversion schemes; traveltime and waveform inversion.
Both inversion schemes utilize compressional and joint compressional and converted shear waves. A new exact traveltime equation has been formulated for a dipping transversely isotropic system of layers. These traveltimes are also parametrized by the ray parameters for each ray element. I use the Newton method of minimization to estimate the ray parameter using a random prior model from a uniform distribution. Numerical results show that with the assumption of weak anisotropy, Thomsen’s anisotropy parameters can be estimated with a high accuracy. The inversion algorithms have been implemented as a software package in a C++ object oriented environment.
42

Paz, Avila Luis Albert 1964. "Algorithm development for solving the emergency vehicle location problem with stochastic travel times and unequal vehicle utilizations." Thesis, The University of Arizona, 1988. http://hdl.handle.net/10150/276917.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis deals with the problem of locating emergency vehicles in an urban area. An optimization model is formulated that extends previous work by allowing stochastic travel times, unequal vehicle utilizations, and backup service. The heart of the model is a procedure similar to the Hypercube approximation model. Ten pair-wise interchange heuristics are developed and tested on 240 test problems. Demand and service time components of the test data have been generated using characteristics of the Tucson Emergency Medical System. Geographical components of the test data have been generated using actual city shapes as models. It is believed that these test problems are more indicative of actual emergency vehicle location problems than those previously presented in the literature.
43

Ding, Guoxiang. "DERIVING ACTIVITY PATTERNS FROM INDIVIDUAL TRAVEL DIARY DATA: A SPATIOTEMPORAL DATA MINING APPROACH." The Ohio State University, 2009. http://rave.ohiolink.edu/etdc/view?acc_num=osu1236777859.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Polishuk, Natali. "Implementing social media data in algorithms for estimating crowdedness in tourist's attractions." Thesis, Linnéuniversitetet, Institutionen för medieteknik (ME), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-66075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Dolnicar, Sara, Friedrich Leisch, Andreas Weingessel, Christian Buchta, and Evgenia Dimitriadou. "A comparison of several cluster algorithms on artificial binary data [Part 1]. Scenarios from travel market segmentation [Part 2: Working Paper 19]." SFB Adaptive Information Systems and Modelling in Economics and Management Science, WU Vienna University of Economics and Business, 1998. http://epub.wu.ac.at/1504/1/document.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Social scientists confronted with the problem of segmenting individuals into plausible subgroups usually encounter two main problems: First: there is very little indication about the correct choice of the number of clusters to search for. Second: different cluster algorithms and even multiple replications of the same algorithm result in different solutions due to random initializations and stochastic learning methods. In the worst case numerous solutions are found which all seem plausible as far as interpretation is concerned. The consequence is, that in the end clusters are postulated that are in fact "chosen" by the researcher, as he or she makes decisions on the number of clusters and the solution chosen as the "final" one. In this paper we concentrate on the power and stability of several popular clustering algorithms under the condition that the correct number of clusters is known. Artificial data sets modeled to mimic typical situations from tourism marketing are constructed. The structure of these data sets is described in several scenarios, and artificial binary data are generated accordingly. These data, ranging from very simple to more complex, real-data-like structures, enable us to systematically analyze the "behavior" of the cluster methods. Section 3 gives an overview of all cluster methods under investigation. Section 4 describes our experimental results, comparing first all scenarios and then all cluster methods. To accomplish this task, several evaluation criteria for cluster methods are proposed. Finally: Sections 5 and 6 draw some conclusions and give an outlook on future research. (author's abstract)
Series: Working Papers SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
46

Yilmaz, Ahmet. "Orbit Transfer Optimization Of Spacecraft With Impulsive Thrusts Using Genetic Algorithm." Master's thesis, METU, 2012. http://etd.lib.metu.edu.tr/upload/12614722/index.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis addresses the orbit transfer optimization problem of a spacecraft. The optimal orbit transfer is the process of altering the orbit of a spacecraft with minimum propellant consumption. The spacecrafts are needed to realize orbit transfer to reach, change or keep its orbit. The spacecraft may be a satellite or the last stage of a launch vehicle that is operated at the exo-atmospheric region. In this study, a genetic algorithm based orbit transfer method has been developed. The applicability of genetic algorithm based orbit transfer method has been verified using orbit transfers which are optimal at specific cases. The solution to orbit transfer problem is also searched using steepest descent algorithm.While genetic algorithm can reach the optimal solution, steepest descent algorithm can reach optimal solution when a good initial prediction is provided. The effects of the initial orbital values on the orbit transfer solutions are also studied.
47

Renaud-Goud, Paul. "Energy-aware scheduling : complexity and algorithms." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00744247.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In this thesis we have tackled a few scheduling problems under energy constraint, since the energy issue is becoming crucial, for both economical and environmental reasons. In the first chapter, we exhibit tight bounds on the energy metric of a classical algorithm that minimizes the makespan of independent tasks. In the second chapter, we schedule several independent but concurrent pipelined applications and address problems combining multiple criteria, which are period, latency and energy. We perform an exhaustive complexity study and describe the performance of new heuristics. In the third chapter, we study the replica placement problem in a tree network. We try to minimize the energy consumption in a dynamic frame. After a complexity study, we confirm the quality of our heuristics through a complete set of simulations. In the fourth chapter, we come back to streaming applications, but in the form of series-parallel graphs, and try to map them onto a chip multiprocessor. The design of a polynomial algorithm on a simple problem allows us to derive heuristics on the most general problem, whose NP-completeness has been proven. In the fifth chapter, we study energy bounds of different routing policies in chip multiprocessors, compared to the classical XY routing, and develop new routing heuristics. In the last chapter, we compare the performance of different algorithms of the literature that tackle the problem of mapping DAG applications to minimize the energy consumption.
48

Tahlyan, Divyakant. "Performance Evaluation of Choice Set Generation Algorithms for Modeling Truck Route Choice: Insights from Large Streams of Truck-GPS Data." Scholar Commons, 2018. https://scholarcommons.usf.edu/etd/7649.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis evaluates truck route choice set generation algorithms and derives guidance on using the algorithms for effective generation of choice sets for modeling truck route choice. Specifically, route choice sets generated from a breadth first search link elimination (BFS-LE) algorithm are evaluated against observed truck routes derived from large streams of GPS traces of a sizeable truck fleet in the Tampa Bay region of Florida. A systematic evaluation approach is presented to arrive at an appropriate combination of spatial aggregation and minimum number of trips to be observed between each origin-destination (OD) location for evaluating algorithm-generated choice sets. The evaluation is based on both the ability to generate relevant routes that are typically considered by the travelers and the generation of irrelevant (or extraneous) routes that are seldom chosen. Based on this evaluation, the thesis offers guidance on effectively using the BFS-LE approach to maximize the generation of relevant routes. It is found that carefully chosen spatial aggregation can reduce the need to generate large number of routes for each trip. Further, estimation of route choice models and their subsequent application on validation datasets revealed that the benefits of spatial aggregation might be harnessed better if irrelevant routes are eliminated from the choice sets. Lastly, a comparison of route attributes of the relevant and irrelevant routes shed light on presence of systematic differences in route characteristics of the relevant and irrelevant routes.
49

Dolnicar, Sara, Friedrich Leisch, Gottfried Steiner, and Andreas Weingessel. "A comparison of several cluster algorithms on artificial binary data [Part 2]. Scenarios from travel market segmentation. Part 2 (Addition to Working Paper No. 7)." SFB Adaptive Information Systems and Modelling in Economics and Management Science, WU Vienna University of Economics and Business, 1998. http://epub.wu.ac.at/112/1/document.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The search for clusters in empirical data is an important and often encountered research problem. Numerous algorithms exist that are able to render groups of objects or individuals. Of course each algorithm has its strengths and weaknesses. In order to identify these crucial points artificial data was generated - based primarily on experience with structures of empirical data - and used as benchmark for evaluating the results of numerous cluster algorithms. This work is an addition to SFB Working Paper No. 7 where hard competitive learning (HCL), neural gas (NGAS), k-means and self organizing maps (SOMs) were compared. Since the artificial data scenarios and the evaluation criteria used remained the same, they are not explained in this work, where the results of five additional algorithms are evaluated. (author's abstract)
Series: Working Papers SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
50

Thompson, Travis Hunter [Verfasser], and Christian [Akademischer Betreuer] Ochsenfeld. "Integral bounds and rigorous screening algorithms for reduced scaling in explicitly correlated, semi-numerical, and non-Hermitian quantum chemistry / Travis Hunter Thompson ; Betreuer: Christian Ochsenfeld." München : Universitätsbibliothek der Ludwig-Maximilians-Universität, 2020. http://d-nb.info/123654319X/34.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії