To see the other types of publications on this topic, follow the link: Méthodes évaluation.

Dissertations / Theses on the topic 'Méthodes évaluation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes évaluation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Savoundararadja, Ravindranath. "Évaluation comparative des méthodes multicritères de régression ordinale : méthodes UTA et méthodes MORALS." Paris 6, 1987. http://www.theses.fr/1987PA066616.

Full text
Abstract:
Deux modèles UTA et MORALS sont étudiés pour expliquer un préordre de préférence par des critères qualitatifs et/ou quantitatifs. UTA fait usage de la technique de programmation linéaire sous certaines conditions de normalisation et estime des paramètres de régression positifs. MORALS, une méthode de régression linéaire multiple, estime des coefficients sans restriction de signe.
APA, Harvard, Vancouver, ISO, and other styles
2

Diab, Hassan. "Évaluation de méthodes formelles de spécification." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0020/MQ56896.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Honobé, Hoang Erik. "Évaluation stratégique d'entreprises par méthodes neuronales." Paris 2, 2000. http://www.theses.fr/2000PA020104.

Full text
Abstract:
Dans cette recherche, on s'interesse aux applications possibles de nouvelles techniques informatiques a l'evaluation strategique d'entreprise. On constate que les reseaux de neurones representent un domaine particulierement prometteur en analyse multicritere et en prevision de series chronologiques. On examine alors la question suivante : dans quelle mesure peut-on explorer et utiliser au profit de l'entreprise ces nouvelles techniques issues des recents progres realises en informatique? dans un premier temps, on presente une nouvelle preuve geometrique permettant de reformuler certaines proprietes neuronales de facon plus general. On presente alors un nouveau modele neuronal applique a la prevision de taux de change, et on constate des resultats interssants, tant sur la performance du modele que sur ses capacites d'apprentissage et ses potentiels en analyse des decisions en gestion d'entreprise. Les resultats obtenu confirment l'interet de ces nouvelles approches en management, ceci principalement du aux caracteristiques propres des methodes neuronales qui semblent offrir plus de souplesse que nombre de facons habituelles de proceder.
APA, Harvard, Vancouver, ISO, and other styles
4

Dorval, Jonathan. "Évaluation des méthodes d'estimation du productible des parcs éoliens." Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/966/1/DORVAL_Jonathan.pdf.

Full text
Abstract:
L’estimation de la capacité de production est une étape cruciale dans le processus de conception d’une centrale éolienne. Une mauvaise estimation de la production peut engendrer des pertes économiques importantes. Une étude réalisée sur les centrales éoliennes subventionnées par le gouvernement canadien a démontré que l’estimation moyenne de ces centrales affichait une surestimation de la capacité de production. Dans ce contexte, une étude a été effectuée afin de mieux comprendre l’origine de ces erreurs et de développer une méthode afin de les réduire. Pour ce faire, les logiciels MS-Micro, WAsP, WindFarm et WindPro ont été étudiés et comparés. Selon les résultats obtenus, MS-Micro donne de meilleurs résultats lorsque le terrain est simple comparativement à WAsP. À l’inverse, WAsP accorde des erreurs plus faibles en terrain complexe. Au niveau des modèles de sillage, le modèle WindFarm affiche les résultats les plus concluants lorsqu’il s’agit de sillage unitaire tandis que le modèle WindPro donne les meilleurs résultats dans le cas de sillage multiple. Suite à ces analyses, des indicateurs de topographie et de sillage ont été développés afin d’identifier l’influence des diverses caractéristiques d’un site sur l’erreur de production. Entre autres, une classification de la rugosité a été créée, incluant un paramètre de rugosité de référence ainsi qu’un paramètre de complexité de rugosité. Les indicateurs ont également permis d’établir des corrélations et de développer des équations permettant d’évaluer l’erreur de production en fonction du site et du positionnement des éoliennes sur le site. Une réduction de 83.4% des erreurs de production sur l’effet de terrain est obtenue, tandis que les indicateurs de sillage ont engendré une amélioration de l’estimation de 79.3%. Enfin, diverses études de cas ont été effectuées sur le modèle WAsP afin d’évaluer les erreurs engendrées par certaines approximations. Les résultats démontrent, entre autres, que des erreurs importantes se produisent lorsque les données de vent n’ont pas tendance à suivre une distribution de Weibull. Ce phénomène ne semble pas être observé sur le modèle MS-Micro.
APA, Harvard, Vancouver, ISO, and other styles
5

Ordas, Sébastien. "Évaluation de méthodes faible consommation contre les attaques matérielles." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS023/document.

Full text
Abstract:
La consommation des circuits intégrés n'a cessé d'augmenter cette dernière décennie. Avec l'augmentation du prix de l'énergie et la démocratisation des systèmes embarqués, des méthodes permettant de gérer le compromis consommation performance, comme la gestion dynamique de la fréquence et de la tension d'alimentation ou encore du potentiel de substrat, ont été élaborées. Ces méthodes, qui sont de plus en plus couramment mises en œuvre dans les systèmes intégrés, permettent de diminuer la consommation de ceux-ci, et mieux de gérer le compromis consommation performance. Certains de ces circuits, embarquant ces méthodes peuvent avoir à effectuer des opérations traitant des informations confidentielles. Il est donc nécessaire de s'interroger sur l'éventuel impact de ces sur la sécurité des systèmes intégrés. Dans ce contexte, les travaux de thèse reportés dans le présent document, ont eu pour objectif d'analyser la compatibilité de ces méthodes de gestion de la consommation avec la conception de circuits robustes aux attaques matérielles. Plus particulièrement, l'objectif a été de déterminer si ces techniques de conception faible consommation, constituent des obstacles réels ou bien facilitent les attaques matérielles par observation et perturbation exploitant le canal électromagnétique. Dans un premier temps, une étude sur l'efficacité des attaques par observation en présence de gestion aléatoire de la tension, de la fréquence et de la polarisation de substrat a été conduite. Dans un deuxième temps, l'impact de la gestion dynamique des tensions d'alimentation et de substrat sur la capacité à injecter des fautes par médium électromagnétique a été étudié. Ce document présente l'ensemble des résultats de ces analyses.Mots-clés : Attaques Matérielles, Attaques par Canaux Auxiliaires, Attaques par fautes, Canal électromagnétique, DVFS, Body-Biasing
The consumption of integrated circuits has been increasing over the last decade. With the increase of energy prices and the democratization of embedded systems, methods to manage the consumption performance compromise, such as the dynamic management of the frequency and the supply voltage or the substrate potential, were developed. These methods, which are becoming more commonly implemented in integrated systems, allow to reduce the consumption of those latter, and to better manage the tradeoff between consumption and performance.Some of these circuits, embedding these methods, may have to perform some operations with confidential information. It is therefore necessary to consider the possible impact of these methods on the safety of the integrated systems. In this context, the work reported in this thesis aimed to analyze the compatibility of these methods of power management with the design of robust circuits to physical attacks.Specifically, the objective was to determine whether these low-power techniques constitute real obstacles or facilitate the attacks by observation or perturbation exploiting the electromagnetic channel. Initially, a study on the effectiveness of attacks by observation in the presence of random management of voltage, frequency and substrate polarization was done. Secondly, the impact of the dynamic management of supply voltages and substrate polarization on the ability to inject faults by electromagnetic medium was studied. This document presents the overall results of these analyzes. Keyword : Hardware Attacks, Side Channel Attacks, Faults Attacks, Electromagnetic canal, DVFS, Body-biasing
APA, Harvard, Vancouver, ISO, and other styles
6

Chang, Bingbing. "Évaluation du stress au travail et méthodes de prévention." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS214.

Full text
Abstract:
Cette thèse a pour objectif de développer et de valider expérimentalement une méthode d’évaluation du stress au travail inspirée du modèle « Job Demands-Ressources » dans une entreprise, puis dans une population de doctorants. Deux questionnaires adaptés à ces deux populations (employés vs doctorants) ont été créés et validés. Les résultats montrent que ces deux questionnaires sont fiables, valides, et adaptés à divers contextes professionnels. Des mesures du coping, du bien-être et du mode de vie viennent compléter l’évaluation du stress et de ses répercussions sur l’individu. À l’aide de l’analyse de Cluster, les profils de stress et les combinaisons du coping permettent une meilleure compréhension des complexités psychologiques. Une dernière partie est consacrée à un protocole d’induction du stress en laboratoire pour mesurer et traiter spécifiquement un état de stress ponctuel inhérent à un contexte professionnel. Le protocole d’induction du stress inspiré du Trier Social Stress Test a été mis en place pour étudier les associations entre traits de personnalité, coping, émotions et variabilité du rythme cardiaque. L’anxiété-trait, le névrosisme, l’extraversion et le caractère consciencieux jouent des rôles importants sur le stress, le coping et la variabilité du rythme cardiaque. La peur et la honte ont été identifiées comme les émotions négatives du stress. Des atténuations de certaines émotions positives ont été révélées sous l’effet du stress. Ces études offrent de nouvelles pistes pour la prévention des risques psychosociaux et peuvent servir de base à l’élaboration d’outils innovants, peu coûteux et adaptés à une plus grande variété de professions pour la détection et la gestion du stress au travail
This thesis aims to develop and validate experimentally a method of assessing professional stress inspired by the “Job Demands-Resources” model in a company and in Ph.D students. Two questionnaires customized to these two populations (employees vs. Ph.D students) were created and validated. The results show that our two questionnaires are reliable, valid and flexible to various professional contexts. Measures of coping, well-being and lifestyle allow for an overall assessment of the stressful situation and its repercussions on the individual. Stress profiles and coping combinations identified by Cluster analysis provide a better understanding of the complexities of psychological problems. The final part is devoted to a protocol of induction of psychological stress in a laboratory setting to evaluate and treat an inherent state of stress in a professional context. This protocol of stress induction inspired by the Trier Social Stress Test was set up to study the associations among personality, coping, emotions and heart rate variability. Anxiety traits, neuroticism, extraversion, and consciousness play important roles in stress, coping, and heart rate variability. Fear and shame have been identified as the negative emotions of stress. Mitigation of certain positive emotions has been revealed under stress. These studies offer new directions for the psychological risks’ prevention and serve as a basis for an innovative, inexpensive and adapted tool to a wider variety of professions for the detection and management of occupational stress
APA, Harvard, Vancouver, ISO, and other styles
7

Broissand, Christine. "Méthodes d'évaluation de l'antibiothérapie en milieu hospitalier." Paris 5, 1989. http://www.theses.fr/1989PA05P173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Cabon, Bertrand. "Problèmes d'optimisation combinatoire : évaluation de méthodes de la physique statistique." Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0024.

Full text
Abstract:
Nous abordons dans cette thèse trois approches pour la résolution de problèmes combinatoires difficiles. Nous montrons comment les méthodes du Recuit Simulé et de l'Approximation de Champ Moyen, issues de la Physique Statistique, peuvent être utilisées pour résoudre des problèmes d'optimisation discrète. Nous présentons également, dans le cadre CSP (Constraint Satisfaction Problems), des méthodes exactes de résolution sur le principe du "Branch and Bound". Les comportements de ces approches sont comparés sur différents problèmes combinatoires difficiles tels que le recalage d'images satellites, le problème d'allocation de f'équences radio, ou des problèmes CSP aléatoires. Enfin, nous montrons comment la méthode du Champ Moyen peut accélérer une méthode de type Branch and Bound en lui fournissant une bonne affectation initiale et deux heuristiques d'ordonnancement des variables et des valeurs. Nous présentons des résultats expérimentaux sur des problèmes CSP générés aléatoirement.
APA, Harvard, Vancouver, ISO, and other styles
9

Vatel, Dominique. "Évaluation de méthodes numériques nouvelles pour les écoulements internes turbulents." Bordeaux 1, 1993. http://www.theses.fr/1993BOR10621.

Full text
Abstract:
Une etude numerique originale pour la simulation d'ecoulements internes est proposee. Le modele etudie est celui des equations de navier-stokes couplees avec un modele de turbulence a deux equations k-epsilon. Pour le resoudre, nous mettons en place une methode de splitting. Cette methode consiste a decoupler le systeme initial en plusieurs sous-systemes modelisants chacun un ou des phenomenes physiques particuliers. Chacun de ces sous-systemes fait l'objet d'une etude monodimensionnelle. La resolution de l'un d'entre eux a conduit a la construction d'un solveur de riemann turbulent. Une extension a la dimension deux d'espace est ensuite proposee, ainsi qu'une validation de la methode
APA, Harvard, Vancouver, ISO, and other styles
10

Foerster, Evelyne. "Évaluation des Méthodes Meshfree pour les Simulations Géomécaniques en Transformations Finies." Phd thesis, Ecole Centrale Paris, 2003. http://tel.archives-ouvertes.fr/tel-00649662.

Full text
Abstract:
Ce travail propose tout d'abord une synthèse des principales méthodes sans maillage (i.e. meshfree) existant actuellement (DEM, EFGM, h-p Clouds, SPH, RKPM, RKI, MLS/RK, PIM, RPIM, MLS/RBF, etc.), en fournissant une écriture commune à toutes les méthodes et en mettant ainsi directement en évidence les spécificités de chacune vis-à-vis de la construction des fonctions de forme. Plusieurs techniques spécifiques à la mise en œuvre numérique des méthodes meshfree sont également présentées et discutées. Les performances des différentes méthodes et techniques sont enfin comparées pour des tests mécaniques standards. Ce travail présente par ailleurs le modèle dynamique non linéaire utilisé pour modéliser les milieux poreux saturés en transformations finies, ainsi que les approches classiques pour établir la loi de comportement de la phase solide. Ce modèle est évalué sur diverses applications géomécaniques, en comparant les résultats obtenus pour différentes méthodes avec et sans maillage.
APA, Harvard, Vancouver, ISO, and other styles
11

Désilets, Jacques. "Anisotropie de l’information thermique : évaluation des effets et méthodes de correction." Mémoire, Université de Sherbrooke, 1991. http://hdl.handle.net/11143/7845.

Full text
Abstract:
Résumé : Plusieurs auteurs ont établi en laboratoire qu’il y a une variation de la radiation émise dans le domaine de l’infrarouge thermique (8-14 ) en fonction de l’angle de visée du capteur. Les présents résultats consistent en l’étude de cette variation sur des images aéroportées obtenues par te capteur Daedalus DS-1260 du Centre Canadien de Télédétection. Le milieu d’étude est localisé dans la zone agricole de ta plaine du Saint-Laurent, au sud de la ville de Trois-Rivières, Canada. Le phénomène des comportements anisotropes a été observé à partir de différentes cibles (eau, végétations sol nu et routes) ayant des propriétés identiques. Nous avons extrait les valeurs du signal (température de radiance) en fonction de différentes positions des cibles par rapport à la ligne au nadir pour des données de jour et de nuit. Suite à cette étape des opérations statistiques permettent d’obtenir des données pour tous les angles de visée possibles (+37° à -37°) du capteur et de bien caractériser les changements liés à la couche atmosphérique et aux pixels mixtes. Ces résultats sont comparés à ceux de divers auteurs pour évaluer l’importance des variations rencontrées. Pour corriger tes modifications causées par le grand angle de visée du capteur nous proposons trois algorithmes de correction. Ces méthodes sont basées sur une normalisation des données par rapport à celles de ta ligne au nadir.||Abstract : Several authors have established in laboratory studies that there is a variation of the radiation emitted in the thermal infrared domain (8-14) as a function of the field of view of the sensor. The present results consist in a study about this variation. We used aerial images acquired by the Daedalus DS-1260 of the Canadian Centre for Remote Sensing. The area studied is located in the agricultural zone of the Saint-Laurent lowlands, south of the city of Trois-Rivières, Canada. The phenomenon of anisotropy bas been observed for different type of target (water, vegetation bare soil and roads) having identical characteristics. We have extracted the signal recorded (radiance temperature) as a function of different positions of the target on each side of nadir, for day and night data. Several statistical analyses of the airborne data enabled us to obtain data for the hole [sic] range of angle possible by the sensor (+ 37° or -37°). These gave us the opportunity to characterize the changes introduced by the atmospheric layer and the mixed pixel. The results are also compared with different authors. To correct the bias caused by the scan angle we proposed three corrections algorithms. These methods are based on a normalization of the data in regard of those at the nadir.
APA, Harvard, Vancouver, ISO, and other styles
12

Dahan, Xavier. "Complexité des représentations des systèmes de polynômes : triangulation, méthodes modulaires, évaluation dynamique." Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00003835.

Full text
Abstract:
Les systèmes polynomiaux sous forme triangulaire, notamment les chaînes régulières et en particulier les ensembles triangulaires (de Lazard), sont des structures de données simples, permettant d'envisager des calculs modulaires (par spécialisation des coefficients, puis remontée via un opérateur de Newton-Hensel), de "résoudre'' les systèmes de polynômes (méthodes de "triangulations'') et de représenter des tours d'extensions de corps pour calculer avec les nombres algébriques. Dans ces trois domaines, les méthodes et résultats nouveaux apportés, notamment sur le plan de la complexité, étendent le champs d'application des ensembles triangulaires, et leur impact face à d'autres méthodes de manipulation des équations polynomiales, surtout les bases de Gröbner. Tout d'abord la complexité en espace des coefficients n'est qu'en croissance quadratique en fonction de données géometriques naturelles. Conséquence directe en est un opérateur de Newton (triangulaire) requérant moins d'étapes de remontée, et donc des méthodes modulaires plus encourageantes. Il en est ainsi pour la décomposition équiprojetable, premier algorithme de triangulation des systèmes basé sur une méthode modulaire, et pour le problème du changement d'ordres monomiaux en dimension positive, dans des cas assez particuliers toutefois pour une première approche. Par ailleurs, calculer modulo un ensemble triangulaire en suivant le modèle de l'évaluation dynamique, se voit doté, 20 ans après sa création, d'un premier résultat de complexité satisfaisant.
APA, Harvard, Vancouver, ISO, and other styles
13

Haned, Hinda. "Évaluation de méthodes statistiques pour l'interprétation des mélanges d'ADN en science forensique." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00817181.

Full text
Abstract:
L'analyse et l'interprétation d''echantillons constitu'es de mélanges d'ADN de plusieurs individus est un défi majeur en science forensique. Lorsqu'un expert de la police scientifique a affaire à un mélange d'ADN il doit répondre à deux questions: d'abord, "combien de contributeurs y a-t-il dans ce mélange ?"et puis, "quels sont les génotypes des individus impliqués ?" Le typage seul de cet ADN ne permet pas toujours de r'epondre 'a ces questions. En effet leproblème est posé d'es lors que plus de deux allèles sont observées à un locus donné, plusieurscombinaisons génotypiques sont alors 'a envisager et il est impossible de déterminer avec certitudele nombre d'individus qui ont contribué au m'elange. De plus, la présence d'anomalies liées àl'analyse de marqueurs g'en'etiques, comme la contamination ou la perte d'all'eles ("drop-out"),peut davantage compliquer l'analyse.Les nombreux d'eveloppements statistiques d'edi'es 'a ces probl'ematiques n'ont pas eu le succ'esescompt'e dans la communaut'e forensique, essentiellement, parce que ces m'ethodes n'ont pas 'et'evalid'ees. Or sans cette validation, les experts de la police scientifique ne peuvent exploiter cesm'ethodes sur des m'elanges issus d'affaires en cours d'investigation.Avant d'ˆetre valid'ees, ces m'ethodes doivent passer par une rigoureuse 'etape d''evaluation.Cette derni'ere soul'eve deux questions: d'abord, la question de la m'ethodologie 'a adopter, puis,celle des outils 'a d'eployer. Dans cette th'ese, nous tentons de r'epondre aux deux questions.D'abord, nous menons des 'etudes d''evaluation sur des m'ethodes d'edi'ees 'a deux questions cl'es: i)l'estimation du nombre de contributeurs 'a un m'elange d'ADN et ii) l'estimation des probabilit'esde "drop-out". En second lieu, nous proposons un logiciel "open-source" qui offre un certainnombre de fonctionnalit'es permettant de faciliter l''evaluation de m'ethodes statistiques d'edi'eesaux m'elanges d'ADN.Cette thèse a pour but d'apporter une r'eponse concr'ete aux experts de la police scientifiqueen leur fournissant 'a la fois une d'emarche m'ethodologique pour l''evaluation de m'ethodes, et lapossibilit'e d'analyser la sensibilit'e de leurs r'esultats au travers d'un outil informatique en libreacc'es.
APA, Harvard, Vancouver, ISO, and other styles
14

Roussel, Guillaume. "Développement et évaluation de nouvelles méthodes de classification spatiale-spectrale d’images hyperspectrales." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0020/document.

Full text
Abstract:
L'imagerie hyperspectrale, grâce à un nombre élevé de bandes spectrales très fines et contigües, est capable d'associer àchaque pixel d'une image une signature spectrale caractéristique du comportement réflectif du matériau ou du mélange dematériaux présents dans ce pixel. La plupart des algorithmes de classification tirent profit de cette grande profusiond'information spectrale mais exploitent très peu l'information contextuelle existant entre les pixels appartenant à un mêmevoisinage. L'objectif de cette thèse est de réaliser de nouveaux algorithmes utilisant simultanément les informations spectraleet spatiale à des fins de classification et d'étudier la complémentarité de ces deux types d'information dans divers contextes.Dans cette optique nous avons développé trois scénarios de classification sensiblement différents, chacun étant adapté à untype d'application particulier.Nous avons tout d'abord développé un procédé d'extraction puis de classification vectorielle d'un ensemble de caractéristiquesspectrales et spatiales. Les caractéristiques spectrales sont extraites au moyen de méthodes visant à réduire la dimension desimages hyperspectrales tout en conservant une majorité de l'information utile. Les caractéristiques spatiales sont quant àelles produites par l'intermédiaire d'outils de caractérisation de la texture (matrices de co-occurrence et spectres de texture)ou de la forme (profils morphologiques). Nous nous sommes ensuite intéressés à la modélisation markovienne et avonsentrepris d'adapter un algorithme de classification de type Conditional Random Field à un contexte hyperspectral. Notretroisième et dernière approche s'appuie sur une segmentation préalable de l'image afin de réaliser une classification parzones et non plus par pixels.L'information spectrale pure permet de regrouper efficacement des pixels présentant des signatures spectrales similaires etsuffit généralement dans le cadre de problèmes de classification ne faisant intervenir que des classes sémantiquement trèsprécises, liées à un unique type de matériau. Les classes plus générales (utilisées par exemple pour des applicationsd'aménagement des sols) se composent en revanche de plusieurs matériaux parfois communs à plusieurs classes et agencésselon des motifs qui se répètent. Caractérisables à la fois spatialement et spectralement, ces classes sont susceptibles d'êtreplus complètement décrites par une utilisation simultanée de ces deux types d'information. Pour conclure cette étude, nousavons effectué une comparaison des trois méthodes d'intégration de l'information spatiale au processus de classification selonles trois critères sont la précision de classification, la complexité algorithmique et la robustesse
Thanks to a high number of thin and contiguous spectral bands, the hyperpectral imagery can associate to each pixel of animage a spectral signature representing the reflective behaviour of the materials composing the pixel. Most of theclassification algorithms use this great amount of spectral information without noticing the contextual information betweenthe pixels that belong to the same neighborhood. This study aims to realize new algorithms using simultaneously the spectraland spatial informations in order to classify hyperspectral images, and to study their complementarity in several contexts. Forthis purpose, we have developped three different classification scenarios, each one adapted to a particular type of application.The first scenario consists in a vectorial classification processus. Several spectral and spatial characteristics are extracted andmerged in order to form a unique data set, which is classified using a Support Vector Machine method or a Gaussian MixingModel algorithm. The spectral characteristics are extracted using dimension reduction method, such as PCA or MNF, while thespatial characteristics are extracted using textural characterization tools (co-occurrence matrices and texture spectra) ormorphological tools (morphological profiles). For the second scenario, we adapted a Conditional Random Field algorithm tothe hyperspectral context. Finally, the last scenario is an area-wise classification algorithm relying on a textural segmentationmethod as a pre-processing step.The spectral information is generally sufficient to deal with semantically simple classes, linked to a unique type of material.Complex classes (such as ground amenagment classes) are composed of several materials which potentially belong to morethan one class. Those classes can be characterized both spectrally and spatially, which means that they can be morecompletly described using both spectral and spatial informations. To conclude this study, we compared the threespectral/spatial classification scenarios using three criterions : classification accuracy, algorithmic complexity and strength
APA, Harvard, Vancouver, ISO, and other styles
15

Chu, Junfei. "Méthodes d’amélioration pour l'évaluation de l'enveloppement des données évaluation de l'efficacité croisée." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC096/document.

Full text
Abstract:
L'évaluation croisée d'efficacité basée sur la data envelopment analysis (DEA) a été largement appliquéepour l'évaluation d'efficacité et le classement des unités de prise de décision (decision-making units, DMUs). A l’heureactuelle, cette méthode présente toujours deux défauts majeurs : la non-unicité des poids optimaux attachés aux entréeset aux sorties et la non Pareto-optimalité des résultats d’évaluation. Cette thèse propose des méthodes alternatives poury remédier. Nous montrons d’abord que les efficacités croisées visées dans les modèles traditionnels avec objectifssecondaires ne sont pas toujours atteignables pour toutes les DMUs. Nous proposons ensuite un modèle capable detoujours fournir des objectifs d'efficacité croisée atteignables pour toutes les DMUs. Plusieurs nouveaux modèles avecobjectifs secondaires bienveillants ou agressifs et un modèle neutre sont proposés. Un exemple numérique est utilisépour comparer les modèles proposés à ceux qui existent dans la littérature. Nous présentons ensuite une approched'évaluation croisée d'efficacité basée sur l'amélioration de Pareto. Cette approche est composée de deux modèles etd’un algorithme. Les modèles sont utilisés respectivement pour estimer si un ensemble donné de scores d’efficacitécroisée est Pareto-optimal et pour améliorer l’efficacité croisée de cet ensemble si cela est possible. L'algorithme estutilisé pour générer un ensemble Pareto-optimal de scores d'efficacité croisée pour les DMUs. L'approche proposéeest finalement appliquée pour la sélection de projets de R&D et comparée aux approches traditionnelles. En outre,nous proposons une approche d’évaluation croisée d’efficacité qui traite simultanément les deux problématiquesmentionnées ci-dessus. Un modèle de jeu de négociation croisée est proposé pour simuler la négociation entre chaquecouple de DMUs au sein du groupe afin d'identifier un ensemble unique de poids à utiliser pour le calcul de l'efficacitécroisée entre eux. De plus, un algorithme est développé pour résoudre ce modèle via une suite de programmes linéaires.L'approche est finalement illustrée en l'appliquant à la sélection des fournisseurs verts. Enfin, nous proposons uneévaluation croisée d'efficacité basée sur le degré de satisfaction. Nous introduisons d'abord la nation de degré desatisfaction de chaque DMU sur les poids optimaux sélectionnés par les autres. Ensuite, un modèle max-min est fournipour déterminer un ensemble des poids optimaux pour chaque DMU afin de maximiser tous les degrés de satisfactiondes DMUs. Deux algorithmes sont ensuite développés pour résoudre le modèle et garantir l’unicité des poids optimauxde chaque DMU, respectivement. Enfin, l’approche proposée est appliquée sur une étude des cas pour la sélection detechnologies
Data envelopment analysis (DEA) cross-efficiency evaluation has been widely applied for efficiencyevaluation and ranking of decision-making units (DMUs). However, two issues still need to be addressed: nonuniquenessof optimal weights attached to the inputs and outputs and non-Pareto optimality of the evaluationresults. This thesis proposes alternative methods to address these issues. We first point out that the crossefficiencytargets for the DMUs in the traditional secondary goal models are not always feasible. We then givea model which can always provide feasible cross-efficiency targets for all the DMUs. New benevolent andaggressive secondary goal models and a neutral model are proposed. A numerical example is further used tocompare the proposed models with the previous ones. Then, we present a DEA cross-efficiency evaluationapproach based on Pareto improvement. This approach contains two models and an algorithm. The models areused to estimate whether a given set of cross-efficiency scores is Pareto optimal and to improve the crossefficiencyscores if possible, respectively. The algorithm is used to generate a set of Pareto-optimal crossefficiencyscores for the DMUs. The proposed approach is finally applied for R&D project selection andcompared with the traditional approaches. Additionally, we give a cross-bargaining game DEA cross-efficiencyevaluation approach which addresses both the issues mentioned above. A cross-bargaining game model is proposedto simulate the bargaining between each pair of DMUs among the group to identify a unique set of weights to beused in each other’s cross-efficiency calculation. An algorithm is then developed to solve this model by solvinga series of linear programs. The approach is finally illustrated by applying it to green supplier selection. Finally,we propose a DEA cross-efficiency evaluation approach based on satisfaction degree. We first introduce theconcept of satisfaction degree of each DMU on the optimal weights selected by the other DMUs. Then, a maxminmodel is given to select the set of optimal weights for each DMU which maximizes all the DMUs’satisfaction degrees. Two algorithms are given to solve the model and to ensure the uniqueness of each DMU’soptimal weights, respectively. Finally, the proposed approach is used for a case study for technology selection
APA, Harvard, Vancouver, ISO, and other styles
16

Ethgen, Bonnet Morgane. "Méthodes d'évaluation des traitements non pharmacologiques : l'exemple des dispositifs médicaux implantables." Paris 6, 2012. http://www.theses.fr/2012PA066184.

Full text
Abstract:
Un premier travail a consisté en la comparaison des résultats de tolérance de traitements médicamenteux (TM) et non médicamenteux (TNM) en rhumatologie : 119 évaluant des TM et 74 évaluant des TNM sur 6 ans ont été analysés. Les données de tolérance sont plus souvent décrites dans les TM que dans les TNM (86,5% vs 47,3%). Ces résultats persistent après ajustement sur différents paramètres tels la pathologie, la taille de la population étudiée, le financement de l’étude. Ce travail a permis de montrer que l’appréciation du rapport bénéfice risque est fortement biaisée par le manque d’information sur les traitements évalués. Nous nous sommes ensuite focalisés sur l’évaluation (intervention et tolérance) des stents dans les essais randomisés en cardiologie (n=132). Le traitement à l’étude était un stent actif dans 49 % des essais sélectionnés. Pourtant, le nombre de centres impliqués n’était pas reporté dans un tiers des essais sélectionnés et le volume d’activité des centres n’était jamais décrit. Seul un tiers des essais rapportait le nom des centres ayant participé à l’étude. L’intervention était décrite dans 91,7% des essais, cependant, des composantes importantes de l’intervention étaient insuffisamment décrites : la voie d’abord (15,9%), l’équipement utilisé (21,2%). Des données sur l’expertise des médecins n’étaient rapportées que dans 2 articles. L’assignation était décrite et secrète dans 58,3% et l’évaluation était réalisée en insu du traitement reçu dans 34,8%. Cette étude démontre la nécessité d’améliorer la présentation des données permettant de juger de la validité interne et externe
Our first study was to compare the reporting f harm in trials of pharmacologic (PT) and nonpharmacologic treatment (NPT). 193 articles were analysed. After adjustement for medical areas, sample size, funding source, and multicenter trails, data on harm were more often described in PT reports than in NPT reports in reporting dverse events. The lack of reporting harm in trials assessing NPT in rheuatic disease is an important barrier to evaluating the benefit-harm balance of NPT. Our second work evaluated the harm reporting and the quality of internal and external validity in published reports evaluating the stent for percutaneous coronary intervention. 132 articles were analyzed. The volume of interventions per center was described in 2 reports, and in 5 reports for operator expertise. The generation of allocation sequence was adequate in 58. 3%, treatment allocation was concealed in 34. 8%. Several harm related data were not adequately accounted for in articles and the current reprting of results of RCTs testing stents needs to be improved to allow readers to appraise the risk of biais and the applicability of results
APA, Harvard, Vancouver, ISO, and other styles
17

Leboulanger, Nicolas. "Évaluation de nouvelles méthodes peu invasives d'exploration des voies aériennes supérieures de l'enfant." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00832999.

Full text
Abstract:
La prise en charge des pathologies obstructives des voies aériennes supérieures (VAS) de l'enfant est actuellement basée sur l'évaluation de l'obstruction lors d'une endoscopie sous anesthésie générale. Cet examen a une morbidité non négligeable et les contraintes pesant sur un enfant atteint d'une pathologie obstructive des VAS sont lourdes. La difficulté de quantifier de manière simple et précise l'obstruction des VAS et son retentissement justifie l'évaluation de nouvelles techniques. L'objectif de ce travail a été d'étudier des méthodes d'explorations, non ou peu invasives, de ces pathologies obstructives : la méthode de réflexion acoustique (MRA) et la mesure du travail respiratoire. La MRA est basée sur l'analyse de la réflexion d'une onde sonore dans les VAS. Le travail respiratoire est la mesure de l'effort fourni par les muscles respiratoires au cours de la respiration. Nous avons démontré que la MRA était applicable chez l'enfant de plus de 2 ans. Des mesures sur des enfants atteints de mucoviscidose et de mucopolysaccharidose ont permis d'étudier les résistances des VAS et leur évolution au cours de la maladie. Chez l'enfant plus jeune, quand la MRA est impossible, nous avons mis en évidence chez des nourrissons atteints d'une séquence de Robin et présentant un travail respiratoire très augmenté qu'une ventilation non invasive était capable de diminuer l'effort fourni et d'améliorer l'évolution clinique Les méthodes d'explorations peu ou non invasives des VAS de l'enfant sont prometteuses car simples, sans danger, et potentiellement complémentaires d'autres examens plus invasifs. Leur réalisation en routine est envisageable dans de nombreux cas de figure
APA, Harvard, Vancouver, ISO, and other styles
18

Bernardin, Aude. "Méthodes biocompatibles de fonctionnalisation de substrats et surfaces : évaluation par imagerie de fluorescence." Paris 11, 2009. http://www.theses.fr/2009PA112255.

Full text
Abstract:
Ces travaux de thèse portent sur le développement de méthodes de fonctionnalisation compatibles avec le vivant et s’inscrivent dans un vaste domaine d’applications biomédicales. Une nouvelle méthode de couplage en conditions douces entre nitrones et cycloalcynes contraints a été développée par analogie avec la réaction de cycloaddition [3+2] entre cycloalcynes contraints et azotures existant dans la littérature. L’évaluation des couplages avec les azotures ou les nitrones a été réalisée par imagerie de fluorescence grâce à la synthèse de deux sondes portant des groupes cyclooctynes, l’une organique et l’autre à base de nanocristaux semi-conducteurs fluorescents. A cette occasion, nous avons montré l’intérêt de la fonctionnalisation de ces objets en l’absence de cuivre, qui permet de maintenir un rendement quantique de fluorescence élevé, contrairement à la chimie clic classique (catalysée au cuivre). Des lames de verre portant des azotures ou des nitrones ont également pu être fonctionnalisées par les sondes-cycloalcynes. Le marquage des acides sialiques membranaires in vitro après incorporation métabolique de mannosamines modifiées a finalement permis de valider le concept en conditions biologiques
This work describes the development of biocompatible functionalisation methods of wide interest in the field of biomedical applications. A new water-compatible coupling method between nitrones and strained-cycloalkynes is here developed, by analogy with the [3+2] cycloaddition between azides and strained-cycloalkynes described in the literature. The efficiency of the coupling is evaluated by fluorescence imaging. Two fluorescent probes bearing cyclooctyne groups are synthesized, an organic dye-based probe and a quantum dotbased probe. Contrary to Cu(I)-catalyzed click chemistry, the developped methodology enables quantum dots’ functionalization while maintaining their high fluorescence quantum yield. Glass slides have also been coated with azides or nitrones, surfaces on which can be subsequently grafted cyclooctyne-probes. Fluorescent labelling of cell membrane’s sialic acids after metabolic incorporation of modified mannosamines has also been carried out in vitro to confirm the potential interest of strained-alkyne chemistry in biological conditions
APA, Harvard, Vancouver, ISO, and other styles
19

Leboulanger, Nicolas. "Évaluation de nouvelles méthodes peu invasives d’exploration des voies aériennes supérieures de l’enfant." Paris 6, 2012. http://www.theses.fr/2012PA066100.

Full text
Abstract:
La prise en charge des pathologies obstructives des voies aériennes supérieures (VAS) de l’enfant est actuellement basée sur l’évaluation de l’obstruction lors d’une endoscopie sous anesthésie générale. Cet examen a une morbidité non négligeable et les contraintes pesant sur un enfant atteint d’une pathologie obstructive des VAS sont lourdes. La difficulté de quantifier de manière simple et précise l’obstruction des VAS et son retentissement justifie l’évaluation de nouvelles techniques. L’objectif de ce travail a été d’étudier des méthodes d’explorations, non ou peu invasives, de ces pathologies obstructives : la méthode de réflexion acoustique (MRA) et la mesure du travail respiratoire. La MRA est basée sur l’analyse de la réflexion d’une onde sonore dans les VAS. Le travail respiratoire est la mesure de l’effort fourni par les muscles respiratoires au cours de la respiration. Nous avons démontré que la MRA était applicable chez l’enfant de plus de 2 ans. Des mesures sur des enfants atteints de mucoviscidose et de mucopolysaccharidose ont permis d’étudier les résistances des VAS et leur évolution au cours de la maladie. Chez l’enfant plus jeune, quand la MRA est impossible, nous avons mis en évidence chez des nourrissons atteints d’une séquence de Robin et présentant un travail respiratoire très augmenté qu’une ventilation non invasive était capable de diminuer l’effort fourni et d’améliorer l’évolution clinique Les méthodes d’explorations peu ou non invasives des VAS de l’enfant sont prometteuses car simples, sans danger, et potentiellement complémentaires d’autres examens plus invasifs. Leur réalisation en routine est envisageable dans de nombreux cas de figure
The management of obstructive diseases of the pediatric upper airway (UA) is currently based on the evaluation of the obstruction during an endoscopy with general anesthesia. This procedure has a significant morbidity. The difficulty of quantifying UA obstruction and its impact with simple and accurate tools emphasizes the importance of evaluating new techniques. The objective of this work was to study new methods of exploration, minimally or non- invasive, of these obstructive diseases: the acoustic reflection method (ARM) and measurement of work of breathing. The ARM is based on the analysis of the reflection of a pressure wave in the UA. The work of breathing studies the load imposed on the respiratory muscles during breathing. We demonstrated that the MRA was applicable in children over 2 years, with a standardized technique. Measurements on children with cystic fibrosis and mucopolysaccharidosis were conducted, to assess the UA resistance and its evolution during the course of the disease. In younger children, when the ARM is possible, we demonstrated in infants with a Robin sequence having an increase in the work of breathing that noninvasive ventilation was able to reduce the load imposed on respiratory muscles and to improve the clinical course. Non- or minimally invasive techniques exploring the UA in children are promising because simple, safe, and potentially complementary to other more invasive tests. Their achievement is routinely possible in many cases
APA, Harvard, Vancouver, ISO, and other styles
20

Laroche, David. "Évaluation des méthodes particulaires pour l'étude et la génération d'un sillage de gouttes." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1287.

Full text
Abstract:
Ces travaux de recherche présentent la construction d'un modèle de liquide particulaire en 2D dans le but de reproduire la génération d'un sillage de gouttes d'eau derrière une roue en rotation. La densité, la tension de surface, la compressibilité et la dynamique du liquide sont les paramètres physiques que l'étude tente de reproduire adéquatement lors des simulations. Les interactions radiales qui apparaissent entre les particules du liquide sont définies en transposant les liens intermoléculaires de l'eau à l'échelle mésoscopique. Les interactions transverses entre les particules sont représentées par un terme visqueux similaire à la viscosité dynamique [micro] des équations de Navier-Stokes. Ce modèle est utilisé afin d'étudier l'évolution de la collision entre deux gouttes de liquide de 500 [micromètres] de diamètre. Les résultats de ces simulations montrent que l'utilisation d'un modèle 2D restreint les modes de coalescence ou de séparation des gouttes à la suite de la collision. L'introduction d'une surface solide est réalisée en développant une fonction de paroi mathématique qui définit la force entre le liquide et le solide. L'ajustement de l'adhésion du liquide sur la paroi est réalisé en observant l'angle de mouillage d'une goutte de liquide déposée sur une surface plane. Finalement, l'atomisation de liquide par une roue en rotation est étudiée en utilisant une paroi circulaire en rotation traversant un film de liquide immobile sur une surface plane. Cette étude arrive à la conclusion qu'une approche particulaire permet la génération d'un nuage de gouttes derrière une roue en rotation. Cependant, ce type d'approche devrait être utilisé en 3D afin de mieux reproduire l'ensemble des propriétés physiques d'un liquide.
APA, Harvard, Vancouver, ISO, and other styles
21

Hihi, Jalil. "Évaluation de méthodes d'identification de systèmes non-linéaires en régime permanent : méthode de traitement des données par groupes, identification floue." Nancy 1, 1993. http://www.theses.fr/1993NAN10013.

Full text
Abstract:
En vu de la modélisation d'un sous-système d'une machine à papier et de deux systèmes non linéaires simulés, trois approches sont expérimentées: une approche linéaire, la méthode de traitements des données par groupes (GMDH) et la logique floue. Pour l'approche linéaire, nous avons utilisé la classique régression pas à pas et un algorithme de recherche des meilleures variables explicatives (Lamotte et Hocking). La méthode de traitement des données par groupes (Ivakhnenko) fournit des résultats intéressants. Cet algorithme récursif permet d'engendrer un polynôme renfermant un grand nombre de monômes pour représenter le système modélisé. Nous proposons d'utiliser la régression pas à pas pour ne retenir que les termes les plus significatifs. La logique floue permet de représenter simplement les non-linéarités, mais les équations de relation floue, classiquement utilisées en identification, ne fournissent pas de bons résultats lorsqu'on ne fuzzifie pas correctement les variables. Nous avons développé un algorithme (Sugeno) qui intègre toutes les étapes d'une identification floue pour fournir un modèle linguistique à conclusions procédurales: détermination des variables de prémisse et des ensembles flous associés, puis calcul de la conséquence pour chacune des règles. Cet algorithme complexe fournit des modèles un peu moins précis que ceux élabores par MTDG, mais plus simples et, certainement, plus robustes
APA, Harvard, Vancouver, ISO, and other styles
22

Multon, Stéphane. "Évaluation expérimentale et théorique des effets mécaniques de l'alcali-réaction sur des structures modèles." Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0181.

Full text
Abstract:
L'importance du nombre d'ouvrages atteints d'alcali-réaction en France a conduit le Laboratoire Central des Ponts et Chaussées (LCPC) et Electricité de France (EDF) à développer une vaste étude expérimentale afin de calibrer et valider les méthodologies de re-calcul d'ouvrages atteints et pouvoir répondre aux questions concernant la pérennité, la sécurité et l'aptitude au service des structures dégradées par cette pathologie. L'étude de la bibliographie concernant le développement de cette réaction chimique dans les bétons et ses effets sur les structures, a conduit à définir un programme ambitieux pour mesurer précisément le développement de l'alcali-réaction dans six structures modèles, en caractérisant notamment l'effet de deux paramètres majeurs : les apports d'eau et les contraintes. A l'occasion de ce programme, trois moyens de mesures innovants nécessaires aux suivis hydrique et mécanique de ces structures ont été conçus et qualifiés : -un banc de pesage, afin de mesurer les variations de masse globale de poutres de 900 kg avec une précision de 10 g, -un banc de gammadensimétrie mobile, pour déterminer des profils de variation relative de masse dans leur hauteur, -des extensomètres à corde vibrante sans raideur, de différentes bases de mesure, pour mesurer leurs déformations locales et globales. Un nombre important de mesures "classiques" a également été réalisé, tant sur les poutres modèles que sur des éprouvettes. Cette étude a permis de constituer une banque de données importante, utilisable par de nombreux acteurs du Génie Civil puisqu'elle concerne les déformations de structures endommagées par l'alcali-réaction mais également les transports hydriques dans des structures de béton et les déformations de structures en bétons non atteints d'alcali-réaction. Ce suivi a apporté de nouveaux enseignements directement utilisables pour l'expertise et l'évaluation de la dégradation des ouvrages atteints concernant : -l'évolution des caractéristiques mécaniques d'un béton réactif représentatif de celui d'ouvrages d'art français, -la méthodologie de l'essai d'expansion résiduelle, -les effets d'un gradient d'humidité sur le comportement de structures en béton, -les effets d'apports d'eau tardifs sur le comportement d'ouvrages atteints, -l'influence de l'état de contraintes sur l'amplitude et la cinétique des expansions dues à l'alcali-réaction, que ces contraintes mécaniques soient dues au fonctionnement de l'ouvrage, à la présence d'armatures, à des conditions hydriques variables, -et finalement, l'impact de cette pathologie sur la résistance mécanique des structures atteintes
A large scale experimental program has been carried out at the Laboratoire Central des Ponts et Chaussées (LCPC), with Electricité de France (EDF) as a partner, in order to validate methodologies of mechanical reassessment of real structures damaged by Alkali-Silica Reaction (ASR) and thus answer to the needs of owners of civil engineering structures (bridges, dams, pavements). The final aim is to improve calculation tools in order to determine the evolution of ASR affected structures. Major features of this study were to point out the water driving effect and the compressive stresses consequences on swellings due to ASR. Thus, the hydro-chemo-mechanical behaviour of six instrumented laboratory structures has been monitored during a two years experimentation. Three specific devices have been designed to achieve the numerous measurements, in order to evaluate water movements in concrete and structural behaviours of the six structures : -the weighing device allows to measure the mass variations of the 900 kg beams, with a 10 g accuracy, -the gammadensitometry equipment is used to determine the relative mass variations along the height of the beams, -specific stiffness vibrating wire sensors achieve deformation measurements in the beams. Other current or improved techniques have been also used in order to complement the characterisation of the behaviour of the beams, and to quantify chemo-mechanical data related to the two concrete mixtures during two years. This laboratory experimental survey has collected numerous results to document both moisture and chemo-mechanical deformations, which builds a useful data bank in order to validate models. At last, measurements have increased knowledge useful for expert evaluation of ASR-affected structures about : -mechanical properties evolution of concrete mixture damaged by ASR, -methodology of residual expansion tests, -effects of moisture gradient in ASR-damaged structures, -consequences of late water supply on ASR progress in structures already damaged, -range and time-evolution of ASR swellings under specific stress states, due to mechanical loads, reinforcement or various environmental conditions, and, at last, the effect of this chemical reaction on the mechanical strength of damaged structures
APA, Harvard, Vancouver, ISO, and other styles
23

Foing, Muriel. "Les méthodes d'étude des liposomes en cosmétologie." Paris 5, 1992. http://www.theses.fr/1992PA05P016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Therrien, Charles. "Établissement d'une courbe de correction des précipitations solides en fonction de l'intensité du vent et validation par l'utilisation de modèles de simulation de la couverture de neige." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/22934/22934.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Cleuziou, Jean-Pierre. "L' évaluation des performances en éducation physique et sportive : apport des statistiques et de l'informatique aux problématiques et aux méthodes." Paris 11, 1994. http://www.theses.fr/1994PA112112.

Full text
Abstract:
Il s'agit de proposer aux enseignants d'éducation physique une démarche et des outils informatiques pour construire des tables de cotation des performances en fonction de leurs objectifs didactiques et des conditions matérielles des épreuves. Au stade de l'étalonnage du barème, choisir de tendre vers une distribution gaussienne des notes présente de nombreux avantages mais la difficulté principale vient alors de la dissymétrie plus ou moins prononcée des performances. Le premier objectif est de vérifier si l'on obtient des barèmes acceptables en réduisant l'asymétrie des notes au-dessous d'un certain seuil après avoir choisi une relation logarithmique entre les performances et les notes. L'une des modalités de mesure de l'asymétrie, discutées et expérimentées, donne des résultats satisfaisants dans la limite des variations aléatoires liées a l'échantillonnage. Il est alors montre que trois couples de notes et de performances, intégrant les conclusions de l'étude statistique et les connaissances de l'expert, permettent d'ajuster facilement le barème. La procédure a de nombreuses applications pratiques. Cette recherche est precedee par une analyse des méthodes utilisées notamment en France depuis le début du siècle et complétée par un logiciel permettant de mettre en ouvre les démarches proposées
APA, Harvard, Vancouver, ISO, and other styles
26

Archou, Tidjani Mohamed. "Activité des antiinflammatoires à usage dermatologique : évaluation par des méthodes invasives et non invasives." Paris 11, 1991. http://www.theses.fr/1991PA114827.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Molines, Nathalie. "Méthodes et outils pour la planification des grandes infrastructures linéaires et leur évaluation environnementale." Saint-Etienne, 2003. http://www.theses.fr/2003STET2096.

Full text
Abstract:
La généralisation et le durcissement des conflits d’implantation linéaire entraînent le rallongement des études et l’alourdissement du coût des projets. Pour limiter ces conflits, le gouvernement a fait évoluer la procédure décisionnelle : durcissement du cadre législatif, élargissement de la notion d’environnement, implication des acteurs locaux en amont des projets. . . Cette évolution complexifie les études environnementales et rend obsolète les méthodes traditionnelles. L’association des potentialités des SIG et des méthodes d’analyse multicritère est susceptible de répondre aux nouveaux besoins. Cette thèse se propose, après avoir exposé la situation décisionnelle complexe et présenté ces outils d’aide à la décision, de souligner leurs potentialités pour l’étude des projets linéaires. Une palette de méthodes et d’outils est développée pour améliorer la prise en compte de l’environnement. L’analyse environnementale du projet de liaison Lyon-Narbonne (A79) permet d’en mesurer l’efficacité
Increased conflicts related to the construction of new linear infrastructure (e. G. Transportation networks or high-tension cables) has resulted in longer and more expensive environmental impact studies. In order to reduce such conflict, the French government has changed the decision-ma king process. With this shift the notion of "the environment" has become more central, the perspectives of local stakeholders are integrated at the beginning of the projects, and environmental and regulatory laws have become more strict. These shifts, which require incorporating public participation into the decision-making process, have made conducting environmental impact studies more complex. GIS in combination with multicriteria analysis can be used to address this new decision-making context. In this thesis I will analyze the complexity of the decision-making process and will evaluate existing decision-making tools. I will then propose a set of new tools designed to evaluate the environmental impact of any given linear infrastructure project. Finally I will demonstrate the potential value of these new tools based on their application to a particular case study: the northern part of the highway project between Lyon and Narbonne (France)
APA, Harvard, Vancouver, ISO, and other styles
28

Chakir, Mohammed. "Évaluation intertemporelle des actifs financiers, inflation et méthodes de comptabilisation dans un univers d'incertitude." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090047.

Full text
Abstract:
Dans le cadre d'une économie caractérisée non seulement par l'inflation, mais aussi par l'incertitude de l'avenir, nous nous sommes interrogés sur la validité économique de l'évaluation comptable des actifs. Pour ce faire, nous avons procédé a une simulation nous permettant de tester la signification économique d'une information comptable précise (le taux de rendement comptable), en se basant sur un modèle d'équilibre général (développé dans le cadre de cette thèse) qui tient compte, à la fois, du temps, de la variation du niveau général des prix et de l'incertitude. Les résultats trouvés montrent que les comptabilités dites d'inflation sont impertinentes puisqu'elles considèrent implicitement, que la seule variable explicative de l'évolution de l'économie est représentée par la variation des prix ; ce qui est bien contestable dans un univers d'incertitude. Alors que la comptabilité en couts historiques peut être utilisée comme un système d'information judicieux, à condition que les plans d'amortissement soient corrigés selon la réalisation des états de la nature. Pour ce faire, une notion théorique d'amortissement contingent est proposée et qui peut être pratiquée par les entreprises sous la forme d'un amortissement dérogatoire
In the case of not only the inflation but also the uncertainty, we are to ask about the economic validity of the assets accounting evaluation. In answer to this object, we used a simulation which permit us to test the economic signification of a precise accounting information (the accounting rate of return). The economic reference of this simulation is founded on a general equilibrium model in concern with time, inflation and uncertainty. The results of the study shows that the inflation accounting is impertinent because it consider, implicitly, that the prices variation is the unique variable which can explain the economic evolution. The historical cost accounting can be used as a judicious system of information, under the condition that the depreciation schedules must be adjusted according to the occurrence of the states of the world. To aim this, a contingent depreciation schedule is proposed and which can be used by the firms as an exceptional depreciation schedule (amortissement derogatoire in France)
APA, Harvard, Vancouver, ISO, and other styles
29

Xia, Zhenyu. "Étude phénoménologique pour des méthodes de dimensionnement d'ouvrages d'assainissement en fonction du risque de dysfonctionnement hydraulique." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_15.pdf.

Full text
Abstract:
En 1996, une nouvelle norme (NF EN 752-2) concernant la conception des réseaux d'assainissement est parue. Elle abandonne la notion de période de retour d'évènements pluvieux pour s'appuyer sur celle de période de retour de dysfonctionnement (mise en charge ou débordement). Si ce choix est fondamentalement judicieux, il n'en reste pas moins qu'il n'existe pas actuellement de méthode permettant de dimensionner directement canalisations et bassins de rétention selon cette notion. La question se pose donc de savoir comment les "anciennes" méthodes basées sur le concept de pluie de projet répondent à cette nouvelle exigence réglementaire. L'étude décrite ci-après a pour objectif d'apporter des éléments de réponse. Basée sur une analyse statistique des pluies, d'une part, et des débits et volumes qu'elles génèrent sur un réseau test synthétique, d'autre part, elle montre que, pour les canalisations, l'utilisation de pluies de projet répond à la norme NF EN 752-2 mais qu'elles n'optimisent pas le dimensionnement et que, pour les bassins de rétention, cette même méthode n'apporte pas de certitude quant au respect de la norme NF EN 752-2.
APA, Harvard, Vancouver, ISO, and other styles
30

Pons, Xavier. "L'évaluation des politiques éducatives et ses professionnels : discours et méthodes (1958-2008)." Paris, Institut d'études politiques, 2008. http://www.theses.fr/2008IEPP0044.

Full text
Abstract:
Cette thèse a pour objet l'évaluation des politiques éducatives en France. Elle se fonde sur une enquête de terrain de quatre ans auprès des acteurs œuvrant, officiellement ou non, à l'évaluation du système éducatif au niveau national : inspecteurs généraux, statisticiens du ministère de l'Éducation nationale, magistrats de la Cour des comptes, experts de l'OCDE* et chercheurs en éducation. Sur la base de différents matériaux (98 entretiens, documentation interne, littérature professionnelle, enquêtes et rapports publics, archives et constitution d'une statistique descriptive), elle analyse la réception d'un nouvel instrument d'action publique, l'évaluation du système éducatif, par des groupes professionnels qui lui préexistent et qui, en l'absence d'une demande politique claire de la part des décideurs et des acteurs du système éducatif, le transforment en fonction de leurs intérêts professionnels. La recherche met en évidence que l'institutionnalisation de l'évaluation est inachevée et que la régulation du système éducatif par cette dernière reste incertaine. Elle montre que si l'évaluation amène les groupes professionnels à redéfinir dans leurs discours leurs modalités d'action, les méthodes effectivement employées par ces derniers, elles, n'ont pas changé de façon significative depuis le début des années 1980. L'évolution de la politique d'évaluation en France dans le secteur de l'éducation peut dès lors être comprise comme le résultat de la concurrence que se livrent ces groupes professionnels pour imposer leur science de gouvernement. * Organisation de Coopération et de Développement économiques
This thesis focuses on the evaluation of education policies in France. During four years, we interviewed actors who, officially or not, are supposed to evaluate the functioning of the education system at the national level: central inspectors, statisticians of the education ministry, OECD* experts and social researchers in education. The research is based on different materials: 98 interviews, internal documentation, professional reviews, public studies and reports, archives and making of descriptive statistics. It analyses the reception of a new regulation tool (i. E. Evaluation) by professional groups which existed before it. Since the demand of evaluation by political leaders, and more generally by the actors of the education system, is not clear, these groups have transformed this regulation tool according to their professional interests. The research shows that the institutionalisation of evaluation is unachieved and that regulation through evaluation remains uncertain. It highlights that the concrete methods of these professional groups have not changed significantly since the eighties, even if their discourse about their own practices has changed. Thus the evolution of evaluation policy in France in the education sector can be regarded as the output of the competition between different professional groups who try to impose their own science of government. * Organisation for Economic Cooperation and Development
APA, Harvard, Vancouver, ISO, and other styles
31

Sun, Xiao Chao. "Résolution de la programmation linéaire en nombres entiers : méthodes des coupes, méthodes de séparation et évaluation et méthodes de décomposition de programmes par matrices d'intervalles et par matrices graphiques." Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21451.

Full text
Abstract:
1#r#e partie (chapitres 1 a 3): cette partie exploite les proprietes par une demarche de recherche verticale allant de l'etude d'une situation theorique (approximation de hermite sur un cone simple) a l'elaboration et la mise en uvre de methodes iteratives pour la programmation lineaire en nombres entiers. La caracterisation d'une approximation entiere proche d'un sommet realisable non entier permet de definir des coupes particulieres, dites coupes de hermite, qui sont integrees iterativement dans une procedure enumerative, cette derniere etant elle-meme allegee par l'emploi d'une approche de type branch and bound. Utiliser iterativement des directions de recherche generees aleatoirement (objectifs de controle) pour rechercher des solutions entieres dans une couche du polyedre de cout constant. Cette recherche peut a son tour exploiter la forme normale de hermite et integrer les coupes correspondantes dans le polyedre defini a l'iteration suivante. 2#e partie (chapitres 4 a 7): au chapitre iv une methode est proposee pour essayer de reduire les programmes en nombres entiers au cas ou les matrices sont totalement unimodulaires quitte a rajouter un certain nombre de variables de controle (l'interet de la methode se situe quand ce nombre de variables additionnelles est faible). Ceci conduit a etudier aux chapitres suivants les matrices totalement unimodulaires associees aux hypergraphes d'intervalles et aux matrices graphiques. Les resultats obtenus pour ces deux problemes permettent de montrer la pertinence de la methode proposee (theoreme i du chapitre v et theoreme v du chapitre vii)
APA, Harvard, Vancouver, ISO, and other styles
32

Herida, Madjid. "Méthodes d’évaluation des systèmes de surveillance en santé publique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS279/document.

Full text
Abstract:
L’approche médico-économique dans les évaluations des systèmes de surveillance en santé publiqueMots clés : évaluation des systèmes de surveillance, évaluation médico-économique, méthode des choix discretsLa surveillance en santé publique et la veille sanitaire sont en lien direct avec l’action et la décision publique en fournissant des informations précises et validées aux autorités sanitaires afin que ces dernières mettent en œuvre les mesures de contrôle et de prévention appropriées. Dans un contexte d’émergences infectieuses et d’apparition de nouvelles menaces pour la santé des populations, la surveillance en santé publique doit disposer d’une capacité d’adaptation et de priorisation. Ce besoin d’adaptation dynamique est confronté au réalisme des ressources disponibles de plus en plus limitées et à la demande sociale en matière de santé publique et de protection contre les risques sanitaires croissants. L’évaluation des systèmes de surveillance en santé publique au regard de leur utilité et de leur performance technique est préconisée depuis plusieurs décennies. La question de l’efficience de ces systèmes de surveillance est plus récente et prend une dimension particulière au regard du contexte budgétaire contraint qui touchent tous les opérateurs de l’état.Ce travail s’est attaché, à montrer l’intérêt et la valeur ajoutée d’une démarche standardisée d’évaluation des systèmes de surveillance en maladies infectieuses au sein d’une agence nationale de santé publique. Fondée sur un protocole développé selon la méthodologie préconisée par les recommandations internationales, cette démarche a enrichi la stratégie de surveillance de l’institution et a permis d’initier de nouveaux travaux portant sur la valorisation des bénéfices engendrés par la surveillance et leur prise en considération pour la priorisation des ressources. Une revue systématique de la littérature scientifique a permis de dresser un état des lieux et des connaissances sur l’évaluation des bénéfices de la surveillance en santé publique. Outre le faible nombre d’études dans le domaine, cette revue montre que les bénéfices engendrés par la surveillance sont le plus souvent estimés par le coût des cas épargnés ou des vies sauvées grâce aux actions de contrôle et de réponse. Cette approche présente plusieurs limites. Elle est difficilement applicable pour les systèmes de surveillance ne nécessitant pas des mesures de contrôle immédiates. Elle ne prend pas en compte les valeurs d’existence en lien avec les effets non monétaires induits par la surveillance en santé publique et la veille sanitaire. Afin de prendre en compte toutes les dimensions de la surveillance, nous avons mené une étude exploratoire faisant appel à la méthode des choix discrets appliquée à des systèmes de surveillance de maladies infectieuses émergentes. Cette étude inédite dans le champ de la surveillance en santé publique réalisée sur un échantillon de convenance, montre l’importance de certains critères comme la prévalence ou la létalité. Des consentements à payer marginaux pour ces critères sont estimés pour la première fois et constituent une première indication. Les résultats de cette étude apportent quelques éléments de réponse à la question des bénéfices induits par un système de surveillance ou de veille sanitaire.L’approche médico-économique dans les évaluations des systèmes de surveillance reste un domaine peu exploré. L’actualisation des recommandations internationales sur l’évaluation des systèmes de surveillance serait utile et devrait intégrer une approche médico-économique. L’intérêt potentiel de la méthode des choix discrets pour la valorisation des bénéfices induits par les systèmes de surveillance et de veille sanitaire appliquée dans une étude exploratoire dans ce travail devrait être évalué sur une plus grande échelle
Economic evaluations approach in the public health surveillance systems evaluationsKey word: public health surveillance system evaluation, economic evaluation, discrete choice experimentsPublic health surveillance is closely linked to action as it provides accurate and validated information to health authorities in order that these same authorities can implement appropriate prevention measures and control strategies. In a context of emerging infectious diseases and of new health threats occurring, priorities for public health surveillance need to be reviewed and adapted regularly. This need of constant adaptation is facing limited resources and an increasing social demand of health security and protection against all health risks. Assessing the usefulness and the technical performance of surveillance systems are the main objectives of public health surveillance system evaluations and this has been recognized for many years through international guidelines. The efficiency of a surveillance system is a more recent question and takes a particular dimension in the context of budgetary constraints that all national agencies are facing.This work aimed to underline the interest and the added value of an external and formal evaluation process of surveillance systems in a national public health agency. Based on a generic evaluation protocol drawn up in accordance with international recommendations, this evaluation process has improved the surveillance strategy of the institution and has brought new questions up about the estimations of benefits of surveillance systems and their impact in the surveillances prioritizing process. A systematic literature review has drawn a clear picture of the state of the art and the knowledges in the field of public health surveillance system benefits estimation and evaluation this systematic review indicates that, to date, very few economic evaluations of public health surveillance systems have been performed worldwide. It also shows that the benefits of surveillance are mainly assessed by the costs of the number of cases or deaths prevented by the response and control measures. This approach has certain limits. It cannot be applied when the primary objective of the surveillance activities is not linked to immediate response. It does not take into account the existence value of a Public health surveillance system. In order to take the dimensions of a public health surveillance system, we have conducted a pilot study using discrete choice experiments applied to different emerging infectious diseases surveillance systems. This study, novel in the field of public health surveillance, was performed among a convenient sample and shows the importance of certain criteria such as the prevalence and the case fatality ratio. For the first time, marginal willingness to pay for these criteria have been estimated and these results give some insights into the question of the benefits, a public health surveillance system can bring.Economic evaluations of public health surveillance system remain an area where little has been carried out to date. Updating international recommendations for public health surveillance systems would be useful and should include an economic approach. The potential interest of the discrete choice experiments for valuing benefits of a public health system used in this pilot study need to be confirmed in a larger scale
APA, Harvard, Vancouver, ISO, and other styles
33

Youcef, Samir. "Méthodes et outils d'évaluation de performances des services web." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090031.

Full text
Abstract:
Les architectures orientées service (SOA) ont certainement apporté des réponses pour de nombreux problèmes que les précédentes technologies, telles que RMI et CORBA, n'ont pas pu offrir. Elles ont essentiellement fournit des réponses méthologiques pour garantir interopérabilité et le couplage faible entre systèmes d'information (SI) de plus en plus hétérogènes. Cependant, les services Web engendrent des problèmes de différentes natures telles que l'adaptation au changement dynamique du comportement du fournisseur d'un service et sa qualité de service (QdS) rendue. Il est donc indispensable de développer des méthodes et outils d'évaluation afin de surveiller et d'analyser la QdS rendue par les services. Cette thèse se situe justement dans le cadre de développement de méthodes et d'outils d'évaluation de performances des services Web. A cette fin, nous avons abordé le sujet sous trois aspects, à savoir le calcul exacte, le calcul des bornes du temps moyen et la prise en compte des critères de qualité de service dans la découverte et la sélection des services Web. Pour le premier aspect, nous avons proposé des formules analytiques pour le calcul exact et l'analyse du temps moyen de réponse des différents constructeurs du standard BPEL. Pour le second aspect, nous avons proposé des familles de modèles bornant supérieurement le temps de réponse d'un service Web composite. Le cadre de l'analyse, dans cette partie, est celle des chaînes de Markov à temps continu (DTMC) et la technique utilisée est celle du couplage des processus aléatoires. Pour le troisième aspect, nous avons proposé l'extension de l'architecture conventionnelle des services Web afin de prendre en compte la QdS dans leur découverte et sélection
Service Oriented Architecture (SOA) has certainly provided answers for many problems that previous technologies, like RMI and CORBA, could not offer. They mainly provide methodological answers to ensure interoperability and low coupling between heterogeneous information systems (IS). However, Web services create problems of various kinds such as adaptation to change the dynamic behavior of a service provider and quality of service (QoS) delivered. It is therefore essential to develop methods and tools to monitor and analyze the QoS delivered by the services. This PH. D. Thesis stands justly for the context of developing methods and tools for Web services performance evaluation. For this goal, we have approached the subject from three aspects, namely, the exact computation, the bounds computation for the average response time of Web services and taken into account the quality of service in the discovery and the selection of Web services. For the first aspect, we have proposed analytical formulas for the exact computation and analysis of average response time of the various of standard BPEL constructors. For the second aspect, we proposed upper bounds for the response time of a composite Web service. The analysis in this section is that of continous Markov chain (DTMC) and the technique used is the processes coupling. For the third aspect, we have proposed an extension of the conventional Web services architecture in ordre to take into account the QoS in their discovery and selection
APA, Harvard, Vancouver, ISO, and other styles
34

Vieille, Jean-Noël. "Méthodes d'analyse stratégique et financière des groupes : l'évaluation des cent premiers groupes européens (1986-1992)." Montpellier 1, 1994. http://www.theses.fr/1994MON10021.

Full text
Abstract:
L'objectif de notre recherche est de contribuer a clarifier les methodologies destinees a diagnostiquer et a evaluer les performances des entreprises. Une methode de valorisation doit d'abord resulter d'une analyse financiere realisee a partir d'une logique de flux. Puis, l'analyse strategique va permettre la modelisation du positionnement relatif des entreprises, au sein de leur secteur d'appartenance. Enfin, l'analyse sectorielle, s'appuyant largement sur des principes d'economie industrielle, fournira les instruments necessaires a la creation de typologies sectorielles. Notre demarche est dont pluridisciplinaire. Elle trouve une application concrete sur les cent premiers groupes industriels europeens dont les strategies et les resultats financiers ont ete analyses sur la periode 1986-1992. Ainsi definies, les sciences de gestion trouveront une nouvelle application qui viendra completer la finance de marche qui assure une quasi hegemonie sur la recherche en finance
This research aims at providing a contribution to the various methodologies used in assessing the performance of business firms. We have elected to use a financial analysis framework based firstly ypon cas-flows. We next present a strategic analysis that allows us to design a model for the relative positioning of firms within their sector. Lastly, sectorial analysis mainly based upon the principles of industrial economics will provide the tools required for the creation of sectors breakdowns. Our research is therefore a multifield one. It will be concretly applied to the top 100 european business groups whose strategies and financial performance are analysed for 1986-1992. The management science research will thus be enriched with a new quantitative ans qualitative application. The latter completes the research literature in finance which deals today almost exclusively with financial markets
APA, Harvard, Vancouver, ISO, and other styles
35

Sorin, Edouard. "Fissuration en modes mixtes dans le bois : diagnostic et évaluation des méthodes de renforcement local." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0264/document.

Full text
Abstract:
Cette thèse s’effectue au sein de l’université de Bordeaux. Ce projet concerne la construction en bois et en particulier la compréhension des phénomènes à l’origine des fissures dans les structures bois. L’un des objectifs étant de concevoir des méthodes efficaces de renforcement local pour les éléments de structure. Pour cela, l’étude se décompose en plusieurs étapes, la compréhension des phénomènes mis en jeu dans la création des fissures sur des bois de construction. Ce travail s’orientera sur la modélisation de fissure en mode mixte, la recherche de solution de renforcement avec compréhension fine de l’impact de types de renforts sur la propagation de la fissure. Cette étude sera accompagnée d’une campagne d’essais, afin de vérifier l’efficacité des renforcements choisis et d’identifier l’impact de l’effet d’échelle sur les modèle de prédiction. Des essais de grandes dimensions seront donc réalisés pour mieux appréhender les effets de groupes et les effets d’échelle sur du matériau d’emploi. On vise ensuite à définir des outils prédictifs de la résistance des systèmes renforcés et de moyens de contrôles pour les Plan d’Assurance Qualité
The purpose of reinforcing assemblies and structural elements inwood is to overcome the resistance limits of the material, by transferring greaterefforts in areas which can lead to premature cracking in structures. The reinforcementsused can be made of steel, composite materials or wood. Their hook can bemechanical (screwed bodies) or by adhesion (structural bonding like glued-in rodsfor example). In both cases, the transfer of solicitations remains poorly known, andthe effect of the beginning and the deflection of crack are not well apprehended. Inengineering techniques, the wood resistance in the reinforced area is neglected, whichis in line with the precautionary principle. Currently, the scientific investigations areinterested in the resistance of those kind of techniques without considering the interactionsbetween the quasi-brittle behavior of the wood and the reinforcementswhich govern the gain in mechanical performance. However, these solutions can leadto a failure caused by the progressive splitting of the wood and the anchor loss ofthe reinforcement. So it seems accurate to propose predictions of the short-termstrength for splitting of reinforced and unreinforced beams, which can be used tofurther exploration of the long-term failure mechanism. That is why, in this study, aglobal prediction model of the ultimate strength of structural components subjectedto splitting, reinforced and unreinforced ones, was developed. It considers the quasibrittlebehavior of the wood and crack propagation in mixed mode, using a mixinglaw established on the R-curves. The relevance of this modeling was then comparedto the current dimensioning methods of the Eurocodes 5, for notched beams, withexperimental campaigns conducted at different scales
APA, Harvard, Vancouver, ISO, and other styles
36

Mata, Esther. "Évaluation des méthodes de diagnostic biologique et caractérisation physicochimique des ige spécifiques en allergo-anesthésie." Nancy 1, 1993. http://www.theses.fr/1993NAN19427.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Larrouturou, Sylvie. "Activité in vitro de substances antirétrovirales contre le virus visna-maedi : évaluation de plusieurs méthodes." Limoges, 1993. http://www.theses.fr/1993LIMO302B.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Norre, Sylvie. "Problèmes de placement de taches sur des architectures multiprocesseurs : méthodes stochastiques et évaluation des performances." Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21511.

Full text
Abstract:
Cette thèse traite du problème de placement de taches sur des architectures multiprocesseurs. Elle s'inscrit à la fois dans le cadre de la théorie de l'ordonnancement et dans le cadre de la modélisation et de l'évaluation des performances. Un ensemble de taches, non préemptives, de durées quelconques et liées par des contraintes de précédence, doit être éxecuté sur des processus identiques. Les coûts de communication inter-taches sont pris en compte ou non, le nombre de bus étant limite ou non. Dans tous les cas, le critère d'optimisation est la minimisation de la durée d'execution de l'ensemble des taches. Une première partie propose une méthodologie pour la modélisation des problèmes de placement à l'aide des réseaux de petri. Une seconde partie s'interesse a la résolution des problèmes de placement. Deux types d'ordonnancement sont étudiés: les ordonnancements déterministes (les durées d'exécution des taches et les coûts de communication inter-taches sont connus et constants) et les ordonnancements stochastiques (les durées d'exécution des taches et les coûts de communication inter-taches sont modelisés par des lois de probabilité). Pour chacun de ces problèmes, différentes méthodes de résolution sont proposées. Ces méthodes reposent sur le couplage d'algorithmes d'ordonnancement par liste et de méthodes stochastiques. Elles exploitent des modèles de simulation (déterministe ou stochastique) et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et les performances de l'architecture multiprocesseurs. L'outil retenu pour la construction et l'exploitation de ces modèles est le logiciel qnap2 (queueing network analysis package). Il faut remarquer que l'ensemble des méthodes et outils proposés peut s'appliquer à d'autres systèmes, tels que les systèmes de production
APA, Harvard, Vancouver, ISO, and other styles
39

Coupe, Mickaël. "Dysfonctions macro et micro-vasculaires induites par l'inactivité physique : évaluation de méthodes prophylactiques chez l'homme." Laboratoire de biologie neurovasculaire et mitochondriale intégrée (Angers), 2012. http://www.theses.fr/2012ANGE0058.

Full text
Abstract:
L'inactivité physique a des effets délétères au niveau vasculaire et devient un facteur de risque indépendant des maladies cardio-vasculaires. L'environnement spatial et ses simulations au sol sont des modèles d'inactivité physique poussée qui induisent une atteinte vasculaire et microcirculatoire. Des contremesures ou méthodes préventives sont développées dans le domaine spatial. Elles peuvent être soit physique (en recréant des conditions de la gravité) soit pharmacologique ou nutritionnelle. Le but de notre premier travail expérimental était d'évaluer les effets de deux contremesures au cours d'un alitement non strict de 60 jours. La prise quotidienne d'une composition complexe d'extraits végétaux issus de la médecine traditionnelle chinoise montrait un effet bénéfique sur les fonctions microcirculatoires sans action significative sur la macrocirculation ou la tolérance à l'orthostatisme. Un exercice résistif avec vibration avait un effet bénéfique sur le système nerveux végétatif mais sans toutefois prévenir l'intolérance à l'orthostatisme. Le but de notre deuxième travail expérimental était d'étudier le reconditionnement cardiovasculaire après 5 jours d'immersion sèche non stricte. 24 heures après la fin de l immersion sèche, les principales atteintes cardio-vasculaires observées étaient rétablies. Bien qu'ayant des effets seulement partiels sur les fonctions étudiées, les herbes chinoises et un exercice résistif avec vibration sont des contremesures prometteuses pour limiter les atteintes cardiovasculaires induites par un alitement de longue durée. D'une façon générale, il est important de tester spécifiquement les effets des contremesures sur les fonctions vasculaires et en particulier sur les fonctions endothéliales et microcirculatoires
Physical inactivity has deleterious effects on macro and microcirculation and are independent cardiovascular risk factor. Space environment and its' ground simulation are models of enhanced physical inactivity that induce macrovascular and microvascular impairments. International space community develops the means to prevent and/or counteract these impairments. Countermeasures may be either physical, reproducing gravity or its effects, or nutritional and pharmacological. The goal of our first experiment was to assess the effects of two countermeasures tested during a non strict 60-day head down bed rest. Daily intake of Chinese herbal medicine appeared beneficial for microcirculatory functions but did not efficiently prevent macrovascular dysfunctions and orthostatic intolerance. Resistive exercice combined With whole body vibrations had a beneficial effect on autonomic nervous system but did not prevent orthostatic intolerance. The goal of our second experiment was to study the recovery of cardiovascular system after a non strict 5-day dry immersion. 24 hours after the end of dry immersion, cardiovascular integrity was restored. Chinese herbs and resistive exercice With whole body vibrations partly prevent the functions we studied. Both of them are very promising systems to counteract cardiovascular impairments induced by long term head down bed rest. Globally, it is important to test the specific effects of countermeasures on vascular functions and in particular on endothelial and microcirculatory functions
APA, Harvard, Vancouver, ISO, and other styles
40

Boleda, Mario. "Démographie historique des Andes : évaluation de certaines méthodes d'estimation du régime démographique à l'époque moderne." Lyon 2, 2003. http://theses.univ-lyon2.fr/documents/lyon2/2003/boleda_m.

Full text
Abstract:
Des estimations de la dynamique démographique des populations du passé se font couramment par des méthodes mises au point pour être appliquées lorsque les renseignements nécessaires font défaut. Dans cette thèse l'on propose, justement, de tester de façon empirique certaines de ces méthodes. Il s'agit des modèles de populations stables et quasi-stables (Coale & Demeny, 1966), ainsi que de la méthode présentée par Ronald Lee (inverse projection) qui est la base du logiciel POPULATE élaboré par Robert Mc Caa et H. Pérez Brignoli. Or ces procédés ressortent mal évaluées. Ils souffrent de biais très forts. Qu'est-ce que le chercheur peut faire dans ce cas ? Et bien, le recours à ce genre de méthodes restera pour le moment inévitable, en attendant que de meilleures procédures voient le jour. Le chercheur peut, cependant, employer les facteurs de correction que nous avons calculé grâce à l'étude menée sur la population canadienne sous régime français (1608-1760)
Demographic dynamics estimations on historical population are frequently done by methods designed to be applied when data are lacking or incomplete. In this thesis, it is proposed an empirical test for several of these methods: the stable and quasi-stable models, that were elaborated by Coale & Demeny (1966) and the inverse projection designed by R. Lee as it is included in the POPULATE solution, a software produced by Robert McCaa and H Pérez Brignoli. Methods appeared to be seriously biaised. Differences between direct mesures and estimates coming from the tested methods were much larger than expected. Researchers are going to be using these techniques in the next future, waiting for a new and better procedure. Researchers can now apply the correction factors that we obtained from our experimental study based on the Quebec population
APA, Harvard, Vancouver, ISO, and other styles
41

Zennou, Sarah. "Méthodes d'ordre partiel pour la vérification de systèmes concurrents et temps réel." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11062.

Full text
Abstract:
Le phénomène d'explosion combinatoire qui survient lors de la vérification par modèles de systèmes concurrents et temps réel freine l'usage de cette technique pour vérifier la correction de systèmes informatiques critiques. Cette explosion est essentiellement due à la représentation de la concurrence entre actions par leur entrelacement. Les méthodes d'ordre partiel tentent de minimiser le nombre d'explorations de ces entrelacements. Elles s'appuient sur la correspondance entre les traces de Mazurkiewicz (qui sont des ensembles de séquences identiques aux permutations près d'actions concurrentes) et des ordres partiels (où les actions concurrentes ne sont pas ordonnées puisque leur ordre relatif n'est pas significatif). Ces ordres servent à caractériser certaines séquences particulières d'exécutions qui seront les seules à être explorées et suffisent pour décider si le modèle satisfait la propriété étudiée. L'extension immédiate de ces méthodes aux systèmes concurrents temps réel est, quant à elle, beaucoup moins efficace, puisque la plupart des commutations d'actions concurrentes sont perdues du fait des contraintes temporelles. La première contribution de cette thèse est une méthode d'ordre partiel pour les systèmes concurrents, modélisés par des automates, qui n'explore que les séquences d'exécutions dont les ordres partiels ont peu d'éléments maximaux, ce qui suffit pour décider le problème de l'accessibilité locale (et donc de vérifier des propriétés locales. )La seconde contribution est une méthode pour les systèmes temps réel, modélisés par des automates temporisés, basée sur une sémantique d'ordre partiel où le temps ne s'écoule qu'entre l’exécution d'actions qui ne sont pas concurrentes. Nous étudions cette sémantique et les préordres associés avec une approche théorie des langages qui permet d'expliquer les problèmes rencontrés par les méthodes proposées précédemment. En général, aucune représentation symbolique finie n'existe pour représenter cet ensemble infini d'exécutions, mais nous proposons une nouvelle représentation symbolique (infinie) que nous munissons d'un critère suffisant pour n'en explorer qu'une partie finie tout en préservant l'accessibilité. La troisième contribution est un outil de vérification par modèle qui implante cette seconde approche. L'évaluation pratique de ces deux méthodes présentée dans cette thèse, atteste, dans les deux cas, de réductions significatives sur les systèmes analysés.
APA, Harvard, Vancouver, ISO, and other styles
42

Ben, Mamoun Mouad. "Encadrements stochastiques et évaluation de performances des réseaux." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS0012.

Full text
Abstract:
Cette thèse porte sur l'utilisation des techniques de comparaison stochastique pour l'évaluation de performances des systèmes complexes. Ces techniques constituent à construire des modèles plus simples qui fournissent des bornes sur la distribution de probabilité de l'indice de performance considéré. Nous avons considéré cette approche pour l'analyse des systèmes modélisés par des chaînes de Markov. Dans ce cadre, nous avons défini une classe particulière de matrices de transition de chînes de Markov qui ont des propriétés très intéressantes, dont une forme close pour le calcul de la distribution stationnaire. Nous avons ensuite fourni des algorithmes qui permettent de construire des matrices appartenant à cette classe, qui sont bornantes et monotones selon différents ordres stochastiques. Les distributions stationnaires des matrices construites peuvent être calculées à travers la forme close et elles constituent des bornes sur les distributions stationnaires des matrices initiales. Dans ce travail, nous avons porté un intérêt particulier aux ordres stochastiques de variabilité qui fournissent des bornes plus précises que les bornes au sens de l'ordre fort[\preceq]st, habituellement utilisé. Nous avons aussi utilisé l'approche d'encadrements stochastiques pour l'analyse des délais des disciplines de services équitables "Fair Queueing" (FQ) dont la dynamique est très complexe. Nous avons proposé des disciplines bornantes de type "Weighted Round Robin" qui sont plus simples à analyser. En fait, ces disciplines ont un comportement périodique. Ceci nous a permis de faire une analyse Markovienne et fournir des bornes sur les distributions de délais des disciplines FQ. La comparaison des délais est établie au sens de l'ordre trajectoriel [\preceq]st.
APA, Harvard, Vancouver, ISO, and other styles
43

Ousten, Yves. "Microélectronique hybride couches épaisses : conception, hybridation et évaluation de capteurs : évaluation de la technologie par des méthodes d'analyses physiques et physico-chimiques non destructives." Bordeaux 1, 1989. http://www.theses.fr/1989BOR10544.

Full text
Abstract:
Une premiere partie de ce travail concerne la realisaiton de capteurs integres. A travers trois exemples: jauges de contraintes, varistances, capteur de proximite, l'auteur montre l'interet de la technologie hybride couches epaisses pour l'integration de capteurs, qui permet l'association, sur un meme substrat, du systeme de detection et de l'electronique de conversion ou d'alimentation. L'utilisation de techniques de caracterisation non destructives, telles que la rbs (rutherford backscattering spectrometry) ou le sam (scanning acoustic microscope) est necessaire, car le niveau d'integration des capteurs en technologie couches epaisses devient tres important. Une de ces techniques, la microscopie acoustique, a ete particulierement etudiee dans son application a la caracterisation des materiaux et des processus utilises dans l'integration de capteurs en technologie hybride couches epaisses
APA, Harvard, Vancouver, ISO, and other styles
44

Longer, Eric. "Méthodes d'étude de l'activité antiseptique sur la flore cutanée : étude comparative de différentes techniques de prélèvements." Paris 5, 1988. http://www.theses.fr/1988PA05P274.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Douali, Nassim. "Conception et évaluation des méthodes et des systèmes d'aide a la décision pour une médecine personnalisée." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066083.

Full text
Abstract:
La sécurité est une première étape essentielle dans l'amélioration de la qualité des soins. Devant l’importance de ces erreurs qui menacent 12 millions de patients aux USA chaque année ; plusieurs travaux ont essayé de trouver des solutions pour réduire les erreurs médicales et les effets indésirables des médicaments : La médecine basée sur la preuve, la médecine personnalisée et les systèmes d’aide à la décision médicale. Les sociétés savantes élaborent de façon périodique des recommandations de bonnes pratiques pour aboutir à instaurer une médecine basée sur la preuve. Ces recommandations sont considérées comme des outils efficaces pour faire pont entre la pratique médicale des praticiens et les preuves scientifiques.La simple diffusion de GBPC n’a qu’un impact limité sur les pratiques cliniques.Plusieurs études ont montré que l’informatisation de ces guides en les intégrant dans le Workflow clinique permet d’améliorer l’adhérence des médecins à ces recommandations. Les guides de bonnes pratiques cliniques ne couvrent pas les caractéristiques individuelles des patients. Un des objectifs d’amélioration des soins et de la réduction des effets indésirables des patients est la personnalisation de la prise en charge. Cette personnalisation nécessite l’utilisation de toutes les informations (cliniques, biologiques, génétiques, radiologiques, sociales..) pour caractériser le profil du patient. Nous avons développé une méthode de raisonnement hybride, CBFCM, capable d’utiliser des connaissances et des données hétérogènes. L’implémentation de la méthode a été faite avec des outils du web sémantique. Nous avons développé un environnement Open Source pour la modélisation et la formalisation des connaissances médicales (recommandations..). Nous avons validé la méthode avec plusieurs études dans le domaine des infections urinaires mais aussi dans d’autres domaines (pneumologie, stéatose hépatique non alcoolique, diabète gestationnel..). L’intégration des données génétiques, cliniques et biologiques nous a permis d’améliorer la prédiction de certaines maladies (NASH)
Several studies have tried to find ways to reduce medical and adverse drug errors:The evidence-based medicine, personalized medicine and clinical decision support systems. Many recommandations are developped periodically to improve a best practices. These recommendations are considered effective tools to bridge between medical practitioners and practice of scientific evidence. The use of the Clinical Practice Guidelines has a limited impact on clinical practice. Several studies showed that the computerization of these guides by integrating them into the clinical workflow improves adherence of physicians to these recommendations.One of the aims of improving care and reducing adverse effects of patients is personalizing care. This customization requires the use of all the information (clinical, biological, genetic, radiological, social..) to characterize the profile of the patient.We have developed a method of hybrid reasoning "Case Based Fuzzy CognitiveMaps" able to use knowledge and heterogeneous data. The implementation of themethod was made with semantic web technologies. We have developed an open source environment for modeling and formalization of medical knowledge.We validated the method with several studies in the field of urinary tract infections,but also in other areas (respiratory, nonalcoholic fatty liver disease, gestational diabetes..). The integration of genetic, clinical and laboratory data have allowed us to improve the prediction of certain diseases (NASH)
APA, Harvard, Vancouver, ISO, and other styles
46

Haitami, Mehdi. "Évaluation de performance de méthodes client-serveur et agent mobile de résolution d'interactions de services téléphoniques." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1284.

Full text
Abstract:
La recherche de solutions au problème d'interactions de services téléphoniques a suscité l'intérêt de plusieurs groupes de recherches oeuvrant dans le domaine des télécommunications. Pratiquement toutes les solutions implémentées par les opérateurs utilisent le modèle de communication client-serveur. Mais ces derniers temps on assiste à l'émergence d'un nouveau concept de communication, celui d'agent mobile qui offre la possibilité aux programmes de se déplacer pendant leur exécution. Cette nouvelle façon de communiquer a permis l'exploration de nouvelles techniques de détection et de résolution d'interactions de services. Le présent travail aborde un autre aspect du problème d'interaction de services, celui d'évaluer la performance de méthodes client-serveur et agent mobile de résolution d'interactions de services téléphoniques dans un contexte de réseau intelligent. En effet, cette mesure de performance va permettre aux opérateurs de choisir le modèle le plus adéquat à chaque type d'interaction en fonction du trafic que sa méthode de résolution génère."résumé abrégé par UMI.
APA, Harvard, Vancouver, ISO, and other styles
47

Pierru, Axel. "Unicité des méthodes de calcul de valeurs actuelles nettes de projets d'investissement." Paris 1, 2001. http://www.theses.fr/2001PA010022.

Full text
Abstract:
Nous montrons tout d'abord que la méthode globale classique peut être utilisée pour étudier la rentabilité d'un projet, même lorsque les résultats de ce dernier sont soumis à une fiscalité différente de celle considérée pour le calcul du taux d'actualisation. En outre, pour déterminer la valeur économique d'un projet, la méthode globale et la méthode d' Arditti-Levy nécessitent d'être ajustées si l'entreprise affecte à ce projet un emprunt représentant proportionnellement plus (ou moins) que la fraction correspondant au ratio de référence fixé par l'entreprise pour l'ensemble des projets de la même classe de risque. Nous faisons un certain nombre de propositions en ce sens qui débouchent, notamment, sur la formulation d'une " méthode globale classique généralisée ". A partir de la formule présentée, nous proposons ensuite une approche générale dont peuvent être dérivées les différentes méthodes de calcul de valeur actuelle nette d'un projet d'investissement: rentabilité globale classique, Arditti-Levy, fonds propres, flux nets. . . Leur cohérence a déjà été prouvée, mais en juxtaposant des démonstrations distinctes. La formulation unique proposée assure cette cohérence de façon immédiate. Nous montrons l'existence d'une " droite des taux de rendement interne " et généralisons la relation liant les valeurs actuelles nettes des différentes méthodes lorsque l' emprunt est initialement défini par référence au coût d'investissement. L'étude de la cohérence de l'approche générale proposée avec la valeur actuelle ajustée de Myers permet de généraliser la relation de Modigliani et Miller au cas d'un projet de durée quelconque.
APA, Harvard, Vancouver, ISO, and other styles
48

Mallet, Frédéric. "Modélisation et évaluation de performances d'architectures matérielles numériques." Nice, 2000. http://www.theses.fr/2000NICE5481.

Full text
Abstract:
SEP est une méthode incrémentale orientée-composant de Simulation et d'Evaluation de Performances d'architectures matérielles numériques. Les modèles d'architectures sont construits par un agencement structurel de composants et de connecteurs suivant des règles de composition. L'évaluation de performances d'une architecture par rapport à une application est effectuée dans un environnement de simulation à événements discrets adapté. Le modèle construit peut être utilisé comme référence pour la mise au point de code synthétizable [sic]. Dans une première partie, nous définissons un modèle générique décrit en UML (Unified Modelling Language) qui permet une modélisation unifiée d'architectures hétérogènes et la construction d'un environnement graphique d'aide à la conception et non spécifique d'une architecture. Le comportement des composants élémentaires à partir de méthodes Java est construit par une spécification active. L'utilisation de l'approche par composants autonomes rend possible la mise en place de nombreux mécanismes intéressants pour améliorer la réutilisation et la lisibilité des modèles, pour modéliser le jeu d'instructions, pour intégrer des modèles Esterel. Dans une deuxième partie, nous montrons comment notre modèle permet l'intégration de techniques de validation dans l'environnement de simulation. En particulier, nous validons la composition des composants et les services de haut niveau construits. Un mécanisme de liaison dynamique évolué est alors mis en place pour valider fonctionnellement les modèles.
APA, Harvard, Vancouver, ISO, and other styles
49

Leclercq, Gilles. "Formation de base en économie : Conception, réalisation, expérimentation et évaluation d'un outil collectif de formation : Ethique, ingeniérie et pédagogie : Peut-on enseigner l'économie?" Lille 1, 1992. http://www.theses.fr/1992LIL12008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Rendon-Pimentel, Luis. "L'irrigation à la planche : développement et évaluation d'un nouveau modèle hydrologique pour simuler et prédire l'avancement du front couplé à l'infiltration." Grenoble 1, 1987. http://www.theses.fr/1987GRE10079.

Full text
Abstract:
Dans une premiere partie (chapitre i et ii) sont presentees les equations qui regissent les ecoulements de surface et souterrains, ainsi que les essais experimentaux et numeriques aui sont utilises comme reference pour tester differents modeles. La comparaison de ces resultats experimentaux et numeriques avec ceux obtenus par les modeles hydrologiques existants dans la litterature est donnee chapitre iii. Dans le chapitre iv le nouveau modele developpe dans cette etude, est presente et teste. Le probleme d'identification des parametres a travers la solution inverse, est finalement traite dans le chapitre v
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography