To see the other types of publications on this topic, follow the link: Évaluation de stabilité.

Dissertations / Theses on the topic 'Évaluation de stabilité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Évaluation de stabilité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

El, Moubarki Lassad. "Décomposition et évaluation des mesures de stabilité d'un partitionnement." Paris 9, 2009. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2009PA090035.

Full text
Abstract:
Plusieurs méthodes ont récemment été proposées afin de valider un partitionnement en évaluant sa stabilité. Les mesures de validation utilisant le critère de stabilité se diffèrent, essentiellement, par leurs façons de comparer les partitions. Partant du principe qu'un manque de stabilité est dû à un défaut de cohésion et/ou d'isolation des classes, nous proposons d'interpréter certaines mesures de stabilité, tel que l'indice de Rand, par le degré global d'isolation et de cohésion de la partition. Nous montrons que pour toutes les classes, ces degrés de cohésion et d'isolation se décomposent en fonction des contributions de chaque élément de l'ensemble des données à classer. Nous illustrons notre approche sur des données réelles et sur des données simulées. En particulier, nous traitons un jeu de données simulées qui illustre le comportement asymptotique des mesures de stabilité qui a été formellement établi dans un article récent de Ben David, von Luxburg (2008). De plus, nous comparons, sur les jeux de données traités, les différentes mesures de stabilité de partitions obtenues par plusieurs méthodes de classification
During the last ten years, several stability measures have been proposed with the aim to assess partitions obtained from clustering algorithms. These measures differ in the way to compare partitions. Based on the idea that a lack of stability is due to either a lack of cohesion and/or isolation of clusters, we propose a validation process based on a two decomposition level of stability measures. We propose an additive decomposition of some partition stability measures such as the well known Rand index. The terms of this decomposition are related to either the cohesion or the isolation of any cluster in the examined partition, and each of these terms is the sum of the contributions of all the individual objects of the dataset. We then present our approach both on real and simulated datasets. In particular, we investigate simulated datasets that illustrate the theoretical limitations on partition stability measures, as recently established by Ben-David and von Luxburg (2008). The obtained results for these datasets suggest that the above decomposition of stability measures, may help to avoid misinterpretations of partition stability values
APA, Harvard, Vancouver, ISO, and other styles
2

Pigalle, Florence. "Etude de la stabilité du cisplatine en solution aqueuse : proposition et évaluation de protocoles de conservation." Paris 5, 1991. http://www.theses.fr/1991PA05P029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Dkhissi, El Houssine. "Étude et évaluation de la stabilité d'un égaliseur DFE avec décodeur partiellement intégré." Mémoire, École de technologie supérieure, 2003.

Find full text
Abstract:
De nos jours, les transmissions à haut débit jouent un rôle important. En effet, le nombre d'utilisateurs et la quantité d'information à transmettre sont de plus en plus importants. Les nouveaux systèmes de communication envisagent d'augmenter significativement les débits transmis tout en conservant de bonnes performances. En général, cette augmentation du débit s'accompagne d'un accroissement des distorsions, surtout pour les canaux de propagation qui varient dans les temps. Pour combattre l'effet de ces interférences entre symboles, plusieurs techniques peuvent être employées. Un processus connu sous le nom d'égalisation est souvent utilisé dans les systèmes de transmission. Mais, pour certains canaux difficiles, l'égaliseur ne peut pas annuler complètement l'IES. Il est alors possible d'améliorer ses performances en ajoutant dans la chaîne de communication un ensemble codeur/décodeur au prix d'une diminution du débit utile. Dans le cadre de cette étude, une nouvelle méthode était proposée par Ladouceur et réalisée par Lauzon. Cette méthode consiste à intégrer partiellement un décodeur dans la boucle de rétroaction d'un égaliseur DFE. Les prformances exprimées permetent de conclure que la réalisation de cette structure est posssible du point de vue pratique. Ce travail porte sur l'étude et l'évaluation de la stabilité de la structure proposée. Avant d'entamer les différentes étapes de l'étude, la structure est subdivisée en deux parties: une partie linéaire et une partie nonlinéaire. Les travaux présentés dans ce mémoire ont été effectués sur la partie nonlinéaire. D'abord, une étude bibliographique sur l'évolution de l'égaliseur DFE et une analyse des différents résultats sur la stabilité du DFE seront abordées. Ensuite, une explication sur les différentes combinaisons de la technique d'égalisation et du décodage sera étudiée. Enfin, une approche adéquate d'évaluation de la stabilité du système sera adoptée. Cette approche est basée, en premier lieu, sur l'étude de la stabilité de l'architecture de l'égaliseur DFE sans décision et sans décodeur. Ce qui revient à étudier la stabilité d'un égaliseur de type RII (ARMA). En second lieu, l'approche est adaptée à une structure plus complexe (nonlinéaire), tout en assumant des suppositions de simplification. Cependant, la méthode s'est avérée difficile, voire impossible pour la structure complète (décision, décodeur). La méthode utilisée est concluante et nous mène à une expression du pas d'adaptation dans le cas où l'adaptation adoptée est pilotée par un algorithme CMA. Toutefois, il y a toujours place à une amélioration puisque l'objectif final est d'acquérir des résultats théoriques unifiés pour la structure globale. À présent, on peut généraliser l'approche pour une structure MIMO.
APA, Harvard, Vancouver, ISO, and other styles
4

Liu, Zaobao. "Évaluation et amélioration des modèles numériques pour l'analyse de la stabilité des pentes." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10018/document.

Full text
Abstract:
La rupture des pentes et l’éclatement des roches, qui représentent deux types de risques naturels fréquents dans le monde, peuvent engendrer des conséquences économiques importantes et des pertes en vie humaine. Malgré que les phénomènes soient étudiés depuis de longues années, il reste encore des questions ouvertes et sans réponse et il est donc encore nécessaire poursuivre les recherches sur cette thématique. Le présent travail de thèse est consacré la modélisation numérique de la stabilité des grandes pentes et de l’éclatement des massifs rocheux en utilisant des méthodes basées sur l’intelligence artificielle en proposant des modifications et des améliorations de telles méthodes. En se basant sur des observations de déplacements de terrain, le glissement de terrain, qui est phénomène commun de la rupture de pentes, est étudié par le processus de Gauss afin de prédire son apparition temporelle. Ensuite, la question d’évaluation de la stabilité des pentes est abordée en utilisant la stratégie de machine à vecteurs de pertinence (RVM) avec des hyper-paramètres adaptatifs. Une approche itérative est proposée afin de déterminer les valeurs optimales des hyper-paramètres. Afin d’améliorer la prédiction, l’évaluation complète de la stabilité des pentes est réalisée en proposant un modèle basé sur la théorie de flou (CM) associé à un processus analytique d’hiérarchisation pondérée (WAHP). Ce modèle est utilisé à l’évaluation de la stabilité de la pente de rive gauche de la centrale hydroélectrique de Jinping 1, dans la région Sud-Ouest de Chine. Enfin, dans la dernière partie, la problématique de l’éclatement des massifs rocheux est abordée en utilisant des modèles basés sur la théorie du flou, en se basant sur une synthèse de 164 cas réels. Des comparaisons entre les résultats numériques et des données de terrain sont présentées pour de différents cas étudiés dans cette thèse
Slope failures and rock burst, which are two typical types of geological hazards, create tremendous economic damages and cause massive losses to the health of domestic humans or animals every year throughout the world. The severe situation implies that they are still in need to be further studied despite the fact that they have been discussed for a long time. The present work is devoted to presenting the analysis of slope failures and rock burst using some computational intelligent models with modifications and improvements. Then landslide, a common type of slope failure, is analyzed for time occurrence prediction using the Gaussian Process by means of field-observed displacement series. After that, the problem of slope stability evaluation is discussed using the strategy of relevance vector machine (RVM) with adaptive hyper-parameter. An iteration approach is presented to find optimal hyper-parameter values in this chapter. Afterwards, the comprehensive evaluation of slope stability is carried out with the cloud model (CM) and weighted analytical hierarchy process (WAHP) closely related to the left abutment slope of Jinping 1 Hydropower Station, southwest of China. Finally, prediction of rock burst classification is engaged using the cloud models synthesized with the attribution weights on the basis of 164 rock burst cases. In each modeling of the associated problems, comparisons are given on the performance of each strategy as well as some evaluations
APA, Harvard, Vancouver, ISO, and other styles
5

Nguyen, Hieu Toan. "Évaluation des effets de site topographiques dans les pentes soumises à des sollicitations dynamiques par simulations numériques." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0074/document.

Full text
Abstract:
Les séismes sont connus comme des catastrophes naturelles destructrices et meurtrières. Particulièrement dans les régions montagneuses, les effets des séismes sont encore beaucoup plus aggravés à cause des effets de site topographiques. La présence d'une pente est à l'origine d'une amplification du signal sismique notamment dans le voisinage de la crête. De nombreux séismes anciens tels que le séisme de Lambesc (1909, Ms=6.2) qui a conduit à la destruction du village de Rognes (Bouches-du-Rhône, France), ou plus récemment le séisme d'Athènes en Grèce (1999, Ms=5.9) qui a endommagé la ville d'Adames ainsi que les séismes de Chichi à Taiwan (1999, Mw=7.6), du Salvador (2001, Mw=7.6) et du Sichuan (2008, Mw=7.9) responsables de très nombreux glissements de terrain particulièrement catastrophiques sont des exemples représentatifs. Les investigations post-sismiques ont montré une contribution importante des effets de site topographiques au bilan des dommages humains et matériels. Dans le but d'améliorer les connaissances de ce phénomène, de nombreuses simulations numériques ont été réalisées sur des modèles de versant isolés en utilisant le logiciel FLAC 2D (Itasca). Les résultats obtenus ont été analysés en considérant plusieurs critères comme les facteurs d'amplification, les surfaces et les dimensions des zones d'amplification ainsi que la distribution spatiale de ces zones dans le massif de versant. Des études paramétriques ont permis de mettre en évidence le rôle principal de la fréquence adimensionnelle, rapport de la hauteur du versant à la longueur d'onde du signal sismique, dans l'évaluation des effets de site topographiques. Ces résultats montrent également que la pente est le deuxième paramètre important, suivie du coefficient de Poisson et de la géométrie de la crête et du pied de la pente.Ces résultats numériques ont également permis de définir des relations empiriques, nommées ANS, qui permettent d'estimer les effets de site topographiques selon les différents critères d'interprétation. Ces formules sont adaptées pour les signaux sismiques avec une bande de fréquences prédominantes relativement étroite. Pour les autres cas, la Méthode de Décomposition des ondes (MD) a été développé dans ce travail. Cette méthode est basée sur la décomposition du signal complexe multi-fréquentiel en plusieurs ondes mono-fréquentielles par transformée de Fourier. L'effet du signal complexe est alors évalué en faisant une combinaison des effets individuels de chaque onde élémentaire. Ces approches développées dans ce travail (ANS et MD) permettent d'évaluer les effets de site topographiques, en tenant compte de plusieurs paramètres géomorphologiques et sismiques du massif de versant ainsi que du contenu fréquentiel du signal sismique, sans avoir recours à des simulations numériques
Earthquakes are known as destructive and murderous natural catastrophe. Particularly in the mountainous regions, the effects of earthquakes are still much aggravated due to the topographic site effects. The presence of a slope causes an amplification of the seismic signal, particularly in the vicinity of the crest. Numerous earthquakes in the past such as the 1909 Lambesc earthquake (Ms=6.2) which led to the destruction of the Rognes village (Bouches-du-Rhône, France), or more recently the 1999 Athens, Greece earthquake (Ms=5.9) which damaged the Adames city as well as the 1999 Chichi, Taiwan earthquake (MW=7.6), the 2001 El Salvador earthquake (MW=7.6) and the 2008 Sichuan earthquake (MW=7.9) responsible for numerous catastrophic landslides are representative examples. Post-seismic investigations demonstrated a significant contribution of topographic site effects on the human and material damage assessment.In order to improve the knowledge of this phenomenon, numerous numerical simulations were performed on the step-like slope models by using the FLAC 2D software (Itasca). The obtained results were analyzed by considering various criteria such as amplification factors, dimensions and area of amplification zones as well as spatial distribution of these zones inside the slope mass. The parametric analyses allow underlining the principal role of the dimensionless frequency, ratio of the slope height to the wavelength of the seismic signal, in the evaluation of topographic site effects. These results also show that the slope angle is the second important parameter, followed by the Poisson's ratio and the geometry of the crest and of the toe of slope.These numerical results allow pointing out empirical equations, called ANS, which can be used to estimate the topographic site effects according to different interpretation criteria. These formulas are suitable for seismic signals with a relatively narrow band of predominant frequencies. For other cases, the method concerning decomposition of seismic incident wave (MD) was developed in this work. This method is based on the decomposition of the complex multi-frequency seismic signal into multiple mono-frequency waves by using Fourier transform. The effect of the complex signal is then evaluated through a combination of the effects of elementary waves. The approaches developed in this work (ANS and MD) allow evaluating the topographic site effects, by taking into account geomorphologic and seismic parameters of the slope as well as the frequency content of the seismic signal, without recourse to numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
6

Boyer, Antoine. "Synthèse, caractérisation et évaluation biologique d'apatites phosphocalciques carbo silicatées." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2014. http://tel.archives-ouvertes.fr/tel-01068540.

Full text
Abstract:
La substitution ionique apparait comme une des possibilités pour moduler la bioactivité de l'hydroxyapatite (HA), matériau couramment employé comme substitut osseux. L'incorporation simultanée d'ions carbonates et silicates dans la structure apatitique pourrait permettre de coupler les propriétés de résorption et de dissolution des apatites carbonatées avec le rôle métabolique important du silicium dans le tissu conjonctif.Des poudres d'hydroxyapatites phosphocalciques substituées en carbonates et en silicates de formule Ca10 x+y(PO4)6-x-y(CO3)x(SiO4)y(OH)2-x+y (avec 0 ≤ y ≤ x ≤ 2 et x+y ≤ 2, C Si HA), ont été synthétisées par précipitation en milieu aqueux. L'originalité de cette synthèse réside essentiellement dans l'emploi de réactifs parfaitement solubles et miscibles dans l'eau. L'incorporation des carbonates et des silicates en substitution des phosphates a lieu dès la précipitation. Les poudres obtenues sont monophasiques, cristallines et de structure apatitique.Les caractérisations physico-chimiques des poudres ont mis en évidence l'existence d'interactions entre les carbonates (A et B) et les silicates au sein de la maille apatitique. La décarbonatation des sites B, synonyme de décomposition de la phase C-Si-HA, a pu être décalée à de plus hautes températures avec l'emploi du CO2 comme atmosphère de calcination. Le frittage de céramiques denses et monophasiques en C Si HA destinée à une première évaluation biologique a donc été possible. La culture in vitro de cellules souches mésenchymateuses C3H10T1/2 à la surface de céramiques de composition C0,8 Si0,4 HA a mis en évidence leur biocompatibilité et des propriétés ostéoconductives équivalentes à celles de l'HA.
APA, Harvard, Vancouver, ISO, and other styles
7

Belkacem, Lotfi. "Processus stables et applications en finance : CAPM, risque, choix des portefeuilles, évaluation des options dans un marché "[alpha]-stable"." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090053.

Full text
Abstract:
Le travail présenté dans ce mémoire s'intéresse à divers champs d'applications des lois stables en finance. Nous justifions d'abord la modélisation des taux de rentabilité des actions par des distributions α-stables, en mettant en évidence la structure fractale du marché des actions à travers des tests empiriques d'autosimilarité et de stabilité. Nous dérivons, sous l'hypothèse que les taux de rentabilité des actifs sont conjointement -stable symétriques (1 <α < 2), un modèle d'évaluation des actifs financiers (MEDAF stable). Nous montrons ensuite que les taux de rentabilité d'équilibre de tous les actifs risques sont fonctions de leur covariation avec le taux de rentabilité de portefeuille de marche. Le MEDAF stable met en évidence une nouvelle mesure de risque, qui peut être interprétée comme un coefficient beta stable. D'autre part, nous définissons en matière de choix des portefeuilles, un modèle d'analyse des portefeuilles efficients dans un contexte où les actifs suivent une loi α-stable multivariée. La représentation des portefeuilles efficients 1. 7-stables et gaussiens dans le même espace (rentabilité espérée, paramètre d'échelle), montre que la frontière efficiente 1. 7-stable domine son homologue gaussienne. Enfin, nous développons un modèle simple, en temps continu, d'évaluation des options de type européennes dont le sous-jacent évolue selon une équation différentielle stochastique gouvernée par un mouvement α-stable. Nous exploitons ce modèle pour expliquer l'effet smile de la volatilité implicite de Black et Scholes.
APA, Harvard, Vancouver, ISO, and other styles
8

Brasseur, Edmond. "Recherche, synthèse et évaluation de « biolubrifiants » : peresters d'acides gras et de sorbitol." Rouen, 1999. http://www.theses.fr/1999ROUES081.

Full text
Abstract:
Ce mémoire est le fruit d'une étude consacrée à la recherche, à la synthèse et à la caractérisation de nouvelles molécules lubrifiantes non toxiques et biodégradables. L'avenir de ces lubrifiants est de remplacer les produits actuellement utilisés dans les industries agroalimentaires, cosmétiques, et pharmaceutiques, dont l'innocuité est remise en question. De nouvelles bases lubrifiantes, de la famille des peresters d'acides gras et de sorbitol ont été développées. Elles ont été synthétisées en utilisant des agents acylants en présence de pyridine ou de triéthylamine. Elles présentent des propriétés thermiques, de stabilité à l'oxydation sous de hautes températures, et des performances tribologiques, comparables sinon supérieures à celles des polyesters d'acides gras et de néopentylpolyols.
APA, Harvard, Vancouver, ISO, and other styles
9

Jacquinot, Pascal. "Évaluation des propriétés internes d'un modèle économétrique : application au modèle Muscat." Paris 1, 1992. http://www.theses.fr/1992PA010031.

Full text
Abstract:
Le modèle Muscat de l'université de Paris se singularisait par un comportement variantiel cyclique. L'objet de cette thèse est d'en déterminer les origines grâce à une évaluation de ses propriétés internes. Toutefois, en raison de la lourdeur de ces techniques, une maquette reproduisant ce cycle endogène, muscadet, a été estimée. Par ailleurs, à l'image du modèle dont il s'inspire Muscadet généralise l'utilisation de mécanismes à correction d'erreur. Ce qui est l'occasion pour nous de revenir sur ce type de modèle. Nous présentons, ensuite, les différentes techniques d'agrégation mises à notre disposition. Entre des méthodes plus automatiques qui reposent sur des procédures systématiques et des méthodes plus empiriques qui tiennent mieux en compte de la spécificité du modèle, nous avons retenu pour notre part les secondes. L'analyse de la structure causale a permis la mise en évidence des variables de bouclage qui ont confirmé le caractère keynésien de Muscadet. Puisqu'il nous fallait aussi étudier sa dynamique, un rappel s'imposait sur la stabilité des modèles. Puis, nous inspirant des travaux réalisés par Kuh, Neese et Hollinger, les valeurs propres ont été calculées. Les décompositions de multiplicateurs et de réponses a des chocs de structure ont dégagé les valeurs propres importantes. L'une d'entre elles, complexe, explique le cycle endogène. Grace à une analyse des sensibilités, cette racine a été affectées à la demande d'emploi
The aim of the thesis is to detect the variable(s) which originated the cyclical behavior of the university of Paris i econometric model, muscat. For this purpose we have performed an internal analysis of this model. Because of its heaviness, the analysis has not been applied directly to the original model. So a maquette, named muscadet, which keeps the endogeneous cycle, has been built. Since it caracteristizes muscat, the use of error correction mechanisms in the maquette has been generalised. That is for us the opportunity to represent more generally this kind of model. Among methods of aggregation, there are automatic procedures and more empirical ones which take care of the specificity of the model. The latters have our preference. The causal analysis is the occasion to highlight the loop variables. They confirm the keynesian structure of muscadet. As we must also study the dynamics of the model, we have recalled the main results on this subject. After, keeping in mind the Kuh, Neese and Hollinger's works on the mqem model, eigenvalues have been computed. Decompositions of multipliers and responses to parameters perturbations allow to exhibit important roots for the model dynamics. One of these roots is complex and is at the origin of the cyclical behavior. Thanks to a sensitivity analysis, the root has been associated with the labor demand
APA, Harvard, Vancouver, ISO, and other styles
10

Touzin, Maryse. "Évaluation de la stabilité d'une couche mince de simili-téflon déposée par plasma sur un substrat d'acier inoxydable." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26178/26178.pdf.

Full text
Abstract:
En raison de ses propriétés mécaniques adéquates, de sa facilité de mise en forme et de son historique dans le domaine des dispositifs médicaux, l’acier inoxydable est présentement un des matériaux privilégiés pour la fabrication des tuteurs vasculaires métalliques. Toutefois, une certaine polémique subsiste quant à l’utilisation de ce matériau. En effet, lorsqu’il est implanté à l’intérieur du corps humain, qui est considéré comme un environnement biologique agressif, il est sujet, entre autres, à la corrosion par piqûres, entraînant alors le relargage d’ions cancérigènes et la dégradation de ses propriétés mécaniques. Afin d’améliorer les performances à long terme des tuteurs vasculaires, un protocole de modification de la surface d’acier inoxydable par déposition plasma fut élaboré précédemment. Deux étapes successives ont alors été appliquées à la surface d’acier inoxydable : tout d’abord un prétraitement de la surface permettant de la nettoyer et de la polir et ensuite une déposition par plasma d’une couche mince de simili-téflon. Au cours de ce projet de maîtrise, des protocoles expérimentaux ont été conçus et validés et des essais ont été réalisés afin de vérifier la stabilité et l’efficacité de la couche de simili-téflon sur le substrat d’acier inoxydable. Dans un premier temps, des essais effectués dans des bains statiques visant à vérifier la stabilité de la couche ont été réalisés. Les couches de simili-téflon avant et après vieillissement ont alors été comparées à l’aide de différentes techniques d’analyse de surface. Par la suite, l’efficacité de la couche de simili-téflon à protéger la surface d’acier inoxydable contre la corrosion a été vérifiée grâce à des essais de corrosion accélérés; c’est-à-dire des essais de polarisation. Différentes conditions de la surface d’acier inoxydable ont alors été comparées : l’acier inoxydable tel que reçu, prétraité et finalement prétraité avec déposition de la couche de simili-téflon. Dans ces trois cas, l’échantillon était soit non-déformé ou déformé à 25%, ce qui représente la déformation maximale du tuteur lors de son déploiement. Les expériences ont permis de démontrer que la couche de simili-téflon telle qu’étudiée, bien qu’instable, retardait le phénomène de corrosion de la couche d’acier inoxydable. D’autre part, un protocole approprié permettant de tester la stabilité et l’efficacité de ce type de couche a pu être développé lors de ce projet de maîtrise et ce dernier pourra servir à tester des couches réalisées avec différentes conditions de déposition.
Metallic stents are mainly made of 316L stainless steel. Even though this material possesses the required mechanical properties needed in a stent, its long-term safety is still controversial. Indeed, in the aggressive biological environment, this material is prone to localized corrosion attack and possible corrosion products include elements classified as carcinogenic. To improve the long-term safety of the 316L stainless steel stents, a multi-step process was previously developed in our laboratory to isolate the stainless steel surface from the body fluid by depositing an ultra-thin plasma-polymerized fluorocarbon coating. To ensure the safety and effectiveness of the ultra-thin film, a series of tests was performed. In this context, the aim of this project is to develop and realize tests allowing the evaluation of both the stability and the efficiency of the coating. Firstly, to evaluate the stability, static immersion tests were performed in different solutions. Aged and non-aged surfaces were then characterized and compared by using different surface analyses methods. Secondly, the effectiveness of the ultra-thin film against general and localized corrosion was verified using accelerated corrosion tests; i.e. cyclic polarization tests and Tafel plot corrosion measurements. In this case, different surface conditions were tested and the results were compared to see if the coating was efficient on flat substrate and under a plastic deformation, to which it will be submitted when put in the human body. Even though part of this study has shown that the ultra-thin film was unstable in an aqueous environment, another part has shown that combined pre-treatment and ultra-thin film increased the corrosion resistance of stainless steel. Furthermore, an appropriate protocol to evaluate those properties has been developed and will be most useful to evaluate future coatings deposited under different conditions.
Inscrite au Tableau d'honneur de la Faculté des études supérieures
APA, Harvard, Vancouver, ISO, and other styles
11

Millerioux, Jennifer. "Formulation et évaluation de la stabilité et de l'efficacité de topiques protecteurs vis-à-vis des composés organophosphorés." Lyon 1, 2009. http://n2t.net/ark:/47881/m6v40sbv.

Full text
Abstract:
Les neurotoxiques organophosphorés (NOP) sont extrêmement toxiques et peu volatils. Dans des conditions normales de température et de pression, ils peuvent pénétrer rapidement la peau sous forme liquide et exercer leurs effets délétères. En milieu civil ou militaire, leur utilisation potentielle est toujours redoutée. Le développement de dispositifs de protection cutanée vis-à-vis de ces agents est donc d’un intérêt majeur pour les armées et la sécurité civile. Dans ce contexte, les objectifs de ce travail ont été de formuler et évaluer la stabilité et l’efficacité de topiques protecteurs cutanés (TP) vis-à-vis des NOP. Le premier objectif a consisté à mettre au point des TP de compositions et de formes galéniques différentes (émulsions, gels) puis à valider leurs stabilités physicochimiques. Cent trente TP ont été formulés et 30 ont montré une stabilité physicochimique satisfaisante. Le second objectif a été d’évaluer l’efficacité des TP les plus prometteurs vis-à-vis des composés organophosphorés. Actuellement il n’existe pas de standardisation de ce type d’étude. Par conséquent, l’utilisation de plusieurs tests in vitro et in vivo (membranes biologiques ou synthétiques, NOP ou simili), dont la pertinence et la fiabilité ont été déterminées, nous a permis d’établir une logique de criblage pour l’évaluation de l’efficacité des TP. Parmi les 13 formulations testées, les résultats ont montré qu’un gel hydro-alcoolique apporte une protection cutanée significative et supérieure aux produits de référence testés vis-à-vis du VX, un NOP d’intérêt
Prevention of exposure to the neurotoxic organophosphorus compounds (OP) that are quickly absorbed in the skin is a major concern both for pesticide users and soldiers. Skin barrier creams are being developed to complement or replace uncomfortable chemical protective suits. The objectives of this work were to formulate and assess physicochemical stability and protective efficacy of topical skin protectant (TSP) against OP compounds. The first objective was to formulate several different TSP (emulsions, gel) and validate their physicochemical stability. The second objective was to determine the consistency of results from in vitro tests and the importance of the formulation composition in the skin protective efficacy. Quick evaluation of formulations efficacy mainly relies on in vitro tests which lead to consistent, complementary and relevant results. Our results indicated that the least effective formulations could be quickly identified by performing in vitro permeation tests with silicone membrane and by evaluating interfacial interactions between formulations and OP. We showed that a hydrogel containing specific hydrophilic polymers was by far the most effective of the formulations evaluated against VX, OP compounds, skin permeation in vitro
APA, Harvard, Vancouver, ISO, and other styles
12

Bonilla, Sierra Viviana. "De la photogrammétrie à la modélisation 3D : évaluation quantitative du risque d'éboulement rocheux." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI072/document.

Full text
Abstract:
Les analyses structurale et mécanique des pentes rocheuses constituent des éléments clés pour l'évaluation de leur stabilité. L'utilisation complémentaire de la photogrammétrie et des modèles numériques qui couplent les réseaux discrets de discontinuités (DFN selon son sigle en anglais) avec la méthode des éléments discrets (DEM selon son sigle en anglais), présente une méthodologie qui peut être utilisée pour évaluer le comportement mécanique des configurations tridimensionnelles de terrain pour lesquelles l'existence de discontinuités non persistantes peut être supposée. La stabilité des masses rocheuses est généralement supposée être contrôlée par la résistance au cisaillement le long des plans de discontinuité. Si les discontinuités sont non persistantes, avec leur continuité interrompue par la présence de ponts rocheux (portions de roche intacte reliant la masse rocheuse au massif), leur résistance apparente augmente considérablement. Dans ce cas, la contribution des ponts rocheux localisés entre ces discontinuités doit être prise en compte dans l'analyse de stabilité. La déstabilisation progressive des massifs rocheux dans lesquels des discontinuités non persistantes sont présentes, peut être étudiée par des simulations numériques réalisées à l'aide de l'approche DEM. La roche intacte est représentée comme un assemblage de particules (ou éléments discrets) liées entre elles par des contacts dont les lois de comportement spécifiques peuvent être calibrées pour représenter correctement le comportement de la roche. L'intérêt de la méthode est qu'elle permet de simuler l'initiation de la rupture et sa propagation à l'intérieur de la matrice rocheuse du fait de la rupture des contacts cohésifs entre les particules. De plus, les discontinuités préexistantes peuvent être prises en compte explicitement dans le modèle en utilisant une loi de contact ad hoc qui assure un comportement mécanique représentatif des plans de discontinuité. Des analyses de stabilité ont été effectuées et ont mis en évidence le rôle des ponts rocheux dans la génération de nouvelles surfaces de rupture qui peuvent se développer à travers des mécanismes de rupture mixte en traction et en cisaillement. On peut considérer la formulation de Jennings comme l'une des premières méthodes d'analyse de la stabilité des pentes rocheuses qui évaluent la résistance au glissement comme une combinaison pondérée des résistances mécaniques des ponts rocheux et des plans de discontinuité. Sa validité a été discutée et systématiquement comparée aux résultats obtenus à partir de simulations numériques. Il a pu être montré que la formulation de Jennings perd sa validité dès que la rupture des ponts rocheux intervient majoritairement par des mécanismes de traction. Une formulation complémentaire a alors été proposée. En ce qui concerne l'étude de la stabilité des massifs rocheux sur site, il a été montré que l'association entre les données issues de la photogrammétrie en haute résolution et l'approche DFN-DEM peut être utilisée pour identifier des scénarios de rupture. L'analyse en retour de cas réels a montré que les surfaces de rupture peuvent être simulées comme le résultat de mécanismes combinant la fracturation des ponts rocheux et le glissement le long des discontinuités préexistantes. La rupture d'un dièdre qui a eu lieu dans une mine de charbon australienne, a été utilisée pour valider cette méthodologie. Des simulations numériques ont été réalisées pour déterminer les scénarios pour lesquels les surfaces de rupture simulées et celles repérées sur le terrain, peuvent être utilisés pour calibrer les paramètres de résistance du modèle numérique. Le travail présenté ici répond à un besoin plus général visant à améliorer la gestion des risques naturels et miniers liés aux masses rocheuses instables. La méthodologie proposée constitue une alternative robuste dédiée à renforcer la fiabilité des analyses de stabilité pour les pentes rocheuses fracturées à structure complexe
Structural and mechanical analyses of rock mass are key components for rock slope stability assessment. The complementary use of photogrammetric techniques and numerical models coupling discrete fracture networks (DFN) with the discrete element method (DEM) provides a methodology that can be applied to assess the mechanical behaviour of realistic three-dimensional (3D) configurations for which fracture persistence cannot be assumed. The stability of the rock mass is generally assumed to be controlled by the shear strength along discontinuity planes present within the slope. If the discontinuities are non–persistent with their continuity being interrupted by the presence of intact rock bridges, their apparent strength increases considerably. In this case, the contribution of the rock bridges located in-between these discontinuities have to be accounted for in the stability analysis. The progressive failure of rock slope involving non–persistent discontinuities can be numerically investigated based upon simulations performed using a DEM approach. The intact material is represented as an assembly of bonded particles interacting through dedicated contact laws that can be calibrated to properly represent the behaviour of the rock material. The advantage of the method is that it enables to simulate fracture initiation and propagation inside the rock matrix as a result of inter-particle bond breakage. In addition, pre–existing discontinuities can be explicitly included in the model by using a modified contact logic that ensures an explicit and constitutive mechanical behaviour of the discontinuity planes. Stability analyses were carried out with emphasis on the contribution of rock bridges failure through a mixed shear-tensile failure process, leading to the generation of new failure surfaces. Jennings' formulation being considered to be one of the first rock slope stability analysis that evaluates the resistance to sliding as a weighted combination of both, intact rock bridges and discontinuity planes strengths, its validity was discussed and systematically compared to results obtained from numerical simulations. We demonstrate that the validity of Jennings' formulation is limited as soon as tensile failure becomes predominant and an alternative formulation is proposed to assess the resulting equivalent strength. Regarding field slope stability, we show that the combination of high resolution photogrammetric data and DFN-DEM modelling can be used to identify valid model scenarios of unstable wedges and blocks daylighting at the surface of both natural and engineered rock slopes. Back analysis of a real case study confirmed that failure surfaces can be simulated as a result of both fracture propagation across rock bridges and sliding along pre-existing discontinuities. An identified wedge failure that occurred in an Australian coal mine was used to validate the methodology. Numerical simulations were undertaken to determine in what scenarios the measured and predicted failure surfaces can be used to calibrate strength parameters in the model. The work presented here is part of a more global need to improve natural and mining hazards management related to unstable rock masses. We believe that the proposed methodology can strengthen the basis for a more comprehensive stability analysis of complex fractured rock slopes
APA, Harvard, Vancouver, ISO, and other styles
13

Helary, Christophe. "Hydrogels de collagène concentrés pour des substituts dermiques améliorés : évaluation in vitro et in vivo." Paris 6, 2010. http://www.theses.fr/2010PA066288.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Martini, Luigi. "Développement et évaluation de l'hypothèse de stabilité modale pour la variabilité du comportement vibratoire des structures minces modélisées par éléments finis." Compiègne, 2008. http://www.theses.fr/2008COMP1736.

Full text
Abstract:
La prise en compte de la variabilité ou des incertitudes en mécanique des structures est un véritable défi et mène à des activités de recherche importantes notamment en dynamique. Dans ce contexte, le présent travail porte sur la mise en oeuvre d'une méthodologie pour l'analyse numérique de la variabilité d'une structure modélisée par éléments finis. Le calcul de quantités statistiques : moyenne, écart-type et fonctions de densité de probabilité, est appli¬qué aux paramètres de sortie du modèle en fonction des variables aléatoires d'entrée. Les pa¬ramètres d'entrée considérés sont : les modules d'élasticité, les épaisseurs, les sections, les coordonnées nodales, les masses volumiques. Les paramètres de sortie retenus pour l'étude sont les fréquences propres et la fonction de réponse en fréquence. L'hypothèse de base est que les modes propres ne dépendent pas des perturbations des paramètres d'entrée. Pour cette raison la méthode est appelée : Modal Stabili Procedure (MSP). Elle nécessite une seule analyse éléments finis complète, associée à une procédure de post-traitement. Cette méthode permet de réduire les coûts de calcul élevés que génèrent les méthodes exis¬tantes. De plus elle présente les avantages de ne pas limiter le nombre ou le niveau de variabi¬lité des paramètres considérés et de faciliter l'utilisation avec les logiciels éléments finis stan¬dard. Pour des exemples académiques et une application industrielle : un pare-brise automobile, la méthode MSP a été confrontée à la Simulation Monte Carlo, considérée comme référence. Des résultats très satisfaisants ont généralement été obtenus pour la moyenne, l'écart-type et les densités de probabilité des quantités d'intérêt, tant pour l'analyse modale que pour la ré¬ponse en fréquence. Les limitations de l'hypothèse de stabilité modale ont également été mises en évidence. La qualité des résultats obtenus et les performances très intéressantes en temps de calcul font de la méthode MSP une approche bien adaptée aux applications industrielles
Taking into account variability or uncertainties in structural mechanics is a real challenge and leads to intensive research activities in particular in dynamics. In this context, this work deals with the development of a methodology for the variability analysis of a structure mod¬elled by finite elements. The calculation of statistical quantities: mean value, standard devia¬tion and probability density functions, is applied to the output parameters of the model ac¬cording to the input variable parameters. The input parameters considered are: Young moduli, thicknesses, sections, nodal coordinates, densities. The output parameters retained for the study are natural frequencies and frequency response functions. The basic assumption is that the mode shapes do not depend on input parameters perturbations. For this reason the method is called: Modal Stability Procedure (MSP). It requires only one complete finite element anal¬ysis and a post-processing procedure. The method allows the reduction of the high computational costs that characterize most of the existing methods. Moreover this method has the following advantages: no limitation on the number or the level of variability of the parameters considered and easy interfacing with standard finite elements software. For academic exemples and an industrial application: a car windshield, MSP has been compared with the Monte Carlo Simulation considered as reference. Very satisfactory results have generally been obtained for the mean value, standard deviation and probability densities of quantifies of interest, for modal analysis as well as for frequency response. The limitations of the modal stability assumption have also been highlighted. Thanks to the quality of results obtained and the performances in terms of computational cost, MSP is well adapted to industrial applications
APA, Harvard, Vancouver, ISO, and other styles
15

Xu, Jixian. "Simulation statistique de discontinuités et évaluation de la blocométrie de massifs rocheux : applications à l'analyse de l'écoulement et de la stabilité." Paris, ENMP, 1991. http://www.theses.fr/1991ENMP0250.

Full text
Abstract:
Les discontinuités (fissures, joints, plans de stratifications, failles, etc. ) dans un massif rocheux jouent un role déterminant dans les comportements mécaniques et hydrauliques de celui-ci. La considération de ces discontinuités dans l'analyse mécanique ou hydraulique nécessite un modèle propre à leur distribution dans l'espace. Le but de cette étude consiste à développer un modèle numèrique à deux et à trois dimensions de massifs rocheux fissurés. Le mémoire comporte cinq parties: 1) description statistique et simulation de discontinuités de massifs rocheux; 2) étude géométrique et topologique du système de discontinuités (connectivité et identification de blocs discrets); 3) caractérisation de la blocométrie naturelle de massifs rocheux; 4) modélisation d'écoulement des fluides dans le réseau de discontinuités ou dans le réseau des interfaces du système de blocs; 5) analyse mécanique du système de blocs. La plupart des sujets présentés sont programmés et intégrés dans les logiciels distat, simbloc et efrisb. Leurs fonctions sont testées par des exemples.
APA, Harvard, Vancouver, ISO, and other styles
16

Kaidi, Sami. "Couplage fluide-structure pour la simulation et le diagnostic de la stabilité des ouvrages hydrauliques de protection." Amiens, 2011. http://www.theses.fr/2011AMIE0116.

Full text
Abstract:
Cette thèse concerne l’étude de la stabilité des digues en enrochement sous sollicitations hydrodynamiques. Il s’agit de mettre en place un couplage fluide-structure pour simuler numériquement la stabilité de ces structures sous sollicitations hydrodynamiques, en tenant compte de la forme et de la disposition des blocs ; des forces de contact entre blocs ; de la nature de l’écoulement du fluide et en tenant compte des effets rétroactifs entre le fluide et le système de blocs. Dans ce couplage, la structure est supposée formée d’éléments discrets (blocs) susceptibles de se déformer. Ainsi, la modélisation des mouvements des structures est effectuée par un modèle d’éléments discrets basé sur la méthode de l’Analyse de Déformations Discontinues (DDA), tout en adoptant l’algorithme du ’Lagrangien Augmenté’ pour la prise en compte des liaisons des contacts. Pour la partie fluide, un modèle numérique en éléments finis, basé sur les équations de Navier-Stokes 2DV auxquelles nous avons ajouté une condition cinématique (pour la prise en compte de la variation de la surface libre), est utilisé pour déterminer les sollicitations hydrodynamiques qui agissent sur les blocs. La méthode DDA, permet de représenter les blocs par des polygones et leur maillage n’est pas nécessaire. Cela permet de ne traiter que les points situés aux sommets du polygone et de réduire considérablement le temps de calcul et de stockage. Elle représente donc une alternative au formules empiriques classiquement utilisées pour estimer le coefficient de stabilité d’une digue, lesquelles ne tiennent compte (i) ni de la forme géométrique des blocs, (ii) ni de contact et de frottement entre blocs etc. . . Dans le cadre de cette thèse, la DDA a été utilisée avec succès pour étudier la stabilité des digues en enrochements naturels puis artificiels de forme cubique et acropode, d’une digue soumise à un chargement sismique en déterminant les déplacements des blocs et leurs dispositions finales après le séisme. Enfin, cette méthode a été utilisée également pour étudier la résistance d’un barrage poids fissuré, aux élévations brusques du niveau d’eau, ceci en tenant compte de la nature et la position de la fissure
In this paper, a numerical study is conducted to assess the stability of the seaward facing slope of breakwaters under hydrodynamic loading using a coupled fluid-structure interaction framework. Stability characteristics of breakwaters have traditionally been analysed using empirical approaches which do not take into account important factors such as nonlinear wave-structure effects. A modelling framework is proposed for coupling deformable discontinuous media (DDA) with a finite element method (FEM) for solving free-surface flows where the Navier-Stokes equations are solved for velocity and pressure. It is necessary to take into account contacts between different shaped blocks and this study assumes that contact constraints are imposed through an augmented Lagrangian algorithm. To illustrate the performance of the proposed framework two breakwaters consisting of cubic and acropod shaped blocks are simulated under hydrodynamic forces
APA, Harvard, Vancouver, ISO, and other styles
17

Bonnyaud, Céline. "Caractérisation de la cinématique et de la trajectoire du centre de masse des patients hémiparétiques lors d’une tâche de navigation." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV074/document.

Full text
Abstract:
Les patients hémiparétiques présentent des troubles de la marche couramment évalués, lors d’une marche stabilisée en ligne droite, par des tests cliniques chronométriques et parfois par une analyse quantifiée de la marche explorant les paramètres biomécaniques de celle-ci. L’analyse de tâches de navigation dans l’environnement, impliquant des contraintes rencontrées au quotidien, apparait pertinente parallèlement à l’analyse de la marche stabilisée en ligne droite. Le test du Timed Up and Go (TUG) comprend des tâches de marche orientée vers une cible et de demi-tour, ce qui correspond à un grand nombre de déplacements effectués dans la vie quotidienne. Cependant la performance chronométrique obtenue à l’issue de ce test ne permet pas la compréhension des mécanismes à l’origine de cette performance. L’objectif principal de cette thèse est de caractériser les déplacements locomoteurs des patients hémiparétiques au cours de tâches de navigation telles que celles impliquées dans le TUG. Pour cela nous proposons une analyse biomécanique de leurs déplacements au cours des 3 phases de navigation du TUG (marche orientée vers l’obstacle, demi-tour et marche orientée vers le siège). Cette analyse concerne l’étude de la cinématique, de la stabilité et des trajectoires locomotrices de ces patients et de sujets sains. L’originalité de ce travail repose sur la caractérisation biomécanique de l’organisation des patients hémiparétiques lors de tâches de navigation, au moyen de paramètres innovants. La diminution de la performance chronométrique observée chez les patients hémiparétiques,comparativement aux sujets sains, s’explique tout d’abord par une diminution de la majorité des paramètres spatio-temporels et de la cinématique articulaire lors des 3 phases de navigation des patients. De plus, les résultats montrent que les phases de marche orientée sont contrôlées par les mêmes paramètres pour les patients hémiparétiques et les sujets sains, mais avec une pondération différente et, que la phase du demi-tour est contrôlée par des paramètres spécifiques différents. Les résultats mettent également en évidence des différences organisationnelles entre les patients hémiparétiques et les sujets sains, à savoir un défaut de stabilité, un ralentissement lors du demitour et une déviation de la trajectoire locomotrice pour les patients. Ces résultats suggèrent que les patients hémiparétiques mettent en place une stratégie consistant en un compromis entre la stabilité, la trajectoire et la performance pour une réalisation optimale des tâches de navigation telles que celles réalisées lors du TUG. Des répercussions sur la prise en charge clinique des patients hémiparétiques peuvent être envisagées à l’issue de ce travail
The gait characteristics of patients with hemiparesis are usually assessed during stable, straightline gait. Clinical tests are mostly based on timed performance, although biomechanical gait analysis may be carried out. The analysis of navigational tasks that involve constraints encountered in daily life is necessary to increase understanding of gait deficits. The Timed Up and Go test (TUG) includes oriented gait towards a target, and turning tasks, typical of real-life gait. However, the simple analysis of performance time does not provide sufficient information regarding actual performance of the tasks. The main aim of this thesis was to characterize the locomotor displacements of hemiparetic patients during navigational tasks, such as those involved in the TUG. To this end, we carried out a biomechanical analysis of gait during the three navigational tasks of the TUG (oriented gait to the target, turning and oriented gait to the seat). We analysed the kinematics, stability and locomotor trajectories of patients and healthy subjects. This work is original because it provides a biomechanical characterization of the organization of gait in patients with hemiparesis during navigational tasks, using innovative parameters. The longer performance time in hemiparetic patients, compared with healthy subjects, was related to a decrease in the majority of spatio-temporal and joint kinematic parameters. Moreover, the results showed that oriented gait tasks were controlled by the same parameters in hemiparetic patients and healthy subjects, but in different proportions. In contrast, the turning task was controlled by different, specific parameters. Organizational differences between hemiparetic patients and healthy subjects were also highlighted, namely a lack of stability, slowing during the turn and deviation from the trajectory by the patients. These results suggest that hemiparetic patients use a strategy which is a compromise between stability, trajectory and performance for the optimal achievement of navigational tasks, such as these involved in the TUG. The implications of this work for the clinical management of hemiparetic patients are explained
APA, Harvard, Vancouver, ISO, and other styles
18

Kfoury, Miriana. "Préparation, caractérisation physicochimique et évaluation des propriétés biologiques de complexes d'inclusion à base de cyclodextrines : applications à des principes actifs de type phénylpropanoïdes." Thesis, Littoral, 2015. http://www.theses.fr/2015DUNK0397/document.

Full text
Abstract:
Les phénylpropanoïdes (PPs) constituent l'une des familles les plus abondantes des métabolites secondaires dans le règne végétal. Ils protègent les plantes contre les stress biotiques et abiotiques. De nos jours, les études portent sur l'utilisation des PPs comme alternatifs aux agents antimicrobiens, antioxydants et anti-inflammatoires de synthèse pour leur incorporation dans la formulation des produits alimentaires et pharmaceutiques. Cependant, l'utilisation de PPs est généralement limitée en raison de leur faible solubilité, stabilité et volatilité. L'objectif de notre travail a été d'encapsuler sept PPs dans des molécules cages, les cyclodextrines (CDs), en vue de développer des systèmes naturels et éco-compatibles ayant des applications potentielles dans les domaines alimentaire et pharmaceutique. Trois axes ont été abordés. Le premier axe a porté sur la préparation et la caractérisation des complexes d'inclusion CD/PP en solution et à l'état solide. Les techniques d'"headspace" couplé à la chromatographie en phase gazeuse (HS-CG), spectroscopie UV-visible, ¹H RMN, (2D) ROESY RMN, FTIR, DSC et de la modélisation moléculaire ont été utilisées comme outils pour la caractérisation des complexes obtenus. Des études de phase de solubilité ont été également réalisées. Le deuxième axe a porté sur l'évaluation de l'effet des CDs sur la photostabilité et la vitesse de libéralisation des PPs. Le dernier axe a été orienté vers l'étude des activités anti-radicalaire, antibactérienne et antifongique des complexes d'inclusion CD/PP. Les résultats montrent que les CDs sont capables d'encapsuler les PPs étudiés, réduire leur volatilité, augmenter leur solubilité et photostabilité ainsi que de générer des systèmes de libération prolongée. De plus, l'encapsulation conserve les propriétés antioxydante, antibactérienne et antifongique des PPS. Les résultats de cette étude suggèrent que les complexes d'inclusion des PPs avec les CDs peuvent être considérés comme outils prometteurs pour l'optimisation des formulations alimentaires et pharmaceutiques
Phenylpropanoids (PPs) are one of the largest families of plants secondary metabolites. They protect plants against biotic and abiotic stresses. Nowadays, extensive research has been dedicated to PPs aiming their use as natural alternatives to synthetic antimicrobial, antioxidant and anti-inflammatory agents in food and pharmaceutical formulations. However, PPs suffer from a low water solubility, high volatility, high light and thermal sensitivity that limit their further use. This current study aimed to encapsulate seven PPs in host cage molecules, cyclodextrins (CDs), in order to develop natural and biocompatible formulation that may find applications in food and pharmaceutical fields. It focused on three main research axes. The first part dealt with the preparation and the characterization of CD/PP inclusion complexes both in solution and in solid state. Characterizations were performed with Static-Headspace-Gas Chromatography (SH-GC), UV-Visible, ¹H NMR, (2D) ROESY NMR, FTIR, DSC and molecular modeling. These investigations were complemented with phase solubility studies. The second part was devoted to the evaluation of the effect of CDs on the PPs photostability and controlled release. The last part aimed to evaluate the CD/PP inclusion complexes as radical scavengers, antibacterial and antifungal agents. Results showed that CDs could successfully encapsulate PPs, reduce their volatility, enhance their solubility and photostability and generate controlled release system. In addition, encapsulation maintained the antioxydant, antibacterial and antifungal properties of PPs. Thus, the CD/PP inclusion complexes could be considered as a promising tool for formulation optimization
APA, Harvard, Vancouver, ISO, and other styles
19

Ariffin, Arman. "Etude des critères de seconde génération de la stabilité du navire à l'état intact." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0043/document.

Full text
Abstract:
Le Sous-comité de la conception et de la construction navale de l'Organisation maritime internationale (OMI) a entrepris l'élaboration de critères de stabilité intacts de deuxième génération (SGISC). Le SGISC est une règle supplémentaire qui complète les règles actuelles.En outre, ces critères sont structurés en trois niveaux, à savoir le premier niveau, le deuxième niveau et l'évaluation directe. Les procédures d'évaluation directe pour chaque échec de stabilité sont développées avec la technologie de pointe la plus avancée disponible soit par analyse numérique, soit par travail expérimental pour une analyse quantitative. Dans cette thèse, on présente une implémentation des niveaux 1 et 2 du SGISC dans le solveur hydrostatique, une approche expérimentale pour le navire en détresse dans une tempête et des simulations RANS du même critère. En conclusion, il est possible de mettre en oeuvre les critères de stabilité du navire intact de deuxième génération dans le code de stabilité GHS ©, un code couramment utilisé par les industriels dans le domaine. Cinq navires ont été considérés pour vérifier cette mise en oeuvre. Une méthode expérimentale utilisant une grande soufflerie et une méthode de calcul CFD simplifiée ont été appliquées sur deux modèles. Dans les deux cas, les résultats montrent que l'angle de roulis maximal atteint par les deux navires étudiés est inférieur à celui donné par le calcul réglementaire. La méthode expérimentale est certainement plus proche de la réalité et le calcul CFD reste conservateur sans être aussi contraignant que la réglementation. En conclusion les méthodes expérimentale et numérique développées et utilisées dans ce travail de thèse peuvent être proposées pour l’évaluation directe du critère
The Sub-Committee of Ship Design and Construction of International Maritime Organisation (IMO) has undertaken the development of Second Generation Intact Stability Criteria (SGISC). The GISC is an additional rule that complement present rules. Five failure modes will be address in SGISC are excessive roll in dead ship condition, pure loss of stability, broaching, parametric roll, and excessive acceleration. Moreover, these criteria are structured in three levels namely, first level, second level and direct assessment. Direct assessment procedures for every stability failure are developed with the most advanced state-of-the art technology available either by numerical analysis or experimental work for quantitative analysis. In this thesis, implementations of Level 1 and Level 2 of the SGISC in the hydrostatic solver, experimental approached for dead ship condition and RANS simulation are presented.In conclusion, it was possible to implement the stability criteria of the intact second-generation vessel in the GHS © code of stability, a code commonly used by industrialists in the field. Five vessels were considered to verify this implementation. An experimental wind tunnel method and a simplified CFD calculation method were used on two different models. In both cases, the results show that the maximum roll angle reached by the two vessels studied is lower than the one given by the regulatory calculation. The experimental method is certainly closer to reality and the calculation CFD remains conservative without being as binding as the regulation.Therefore, the two approaches, numerical and experimental can be proposed to be used for Direct Assessment of the criterion
APA, Harvard, Vancouver, ISO, and other styles
20

Hadadou, Rafik. "Contribution à la mise au point d'une méthodologie de contrôle de stabilité des talus d'une grande mine à ciel ouvert : application à la mine de Carmaux (Tarn)." Vandoeuvre-les-Nancy, INPL, 1993. http://docnum.univ-lorraine.fr/public/INPL_T_1993_HADADOU_R.pdf.

Full text
Abstract:
Les talus des exploitations minières à ciel ouvert, doivent après leur dimensionnement et leur réalisation, être surveillés. Ce travail contribue à la mise au point de ces opérations de contrôle et définit ce que devrait être un suivi géotechnique d'une mine à ciel ouvert au cours de son creusement. Une base de données d'informations géologiques sur le terrain a été constituée. Ces informations ont été analysées en vue de détecter d'éventuelles instabilités. Une grande partie de ces dernières étaient liées à la présence d'anciens travaux exploités en souterrain. Il s'agit alors de gérer au mieux l'interaction entre les vieux travaux et l'exploitation actuelle. Compte tenu de la complexité de cette tache, un système d'auscultation en profondeur et de surveillance en surface a été mis en œuvre. Les résultats ont permis de comprendre les mécanismes d'instabilités observés. D’autre part, des modélisations à posteriori de quelques glissements ont permis d'affiner la caractérisation des matériaux. Différentes approches numériques ont été testées (méthode à l'équilibre limite, méthode aux éléments finis, méthodes aux éléments distincts). Leur complémentarité a été démontrée, l'utilisation de méthodes simples permet l'évaluation de la stabilité, l'approche par éléments finis ou éléments distincts nous a aidés à comprendre les mécanismes. Les modélisations ont été réalisées à 2 échelles: au niveau du gradin et au niveau du talus. À l'échelle du gradin, nous avons déterminé, à posteriori, par une modélisation tridimensionnelle, les valeurs caractéristiques de la cohésion et de l'angle de frottement. Ces valeurs ont été utilisées à priori, dans un cas réel d'un bloc qui semblait menaçant. L’analyse a confirmé la stabilité du bloc
APA, Harvard, Vancouver, ISO, and other styles
21

Pasquier, Daniel. "Evaluation de la personnalité à l'aide des questionnaires auto-descriptifs : approche critique du postulat de la stabilité de l'image de soi : pour une autre utilisation et une autre lecture du modèle des cinq facteurs." Rouen, 2007. http://www.theses.fr/2007ROUEL584.

Full text
Abstract:
Les psychologues utilisent des questionnaires auto-descriptifs basés sur le modèle des cinq facteurs, MCF. Ce modèle a-théorique, supposé décrire de façon exhaustive la personnalité à l’aide de cinq facteurs bipolaires orthogonaux, serait stable dans le temps et l’espace social du fait de l’origine génétique des différences. Suite à une revue de question, on montre que la structure du MCF ne répond ni au critère d’orthogonalité, ni à celui de stabilité en raison de sa sensibilité aux contextes de passation. On confirme expérimentalement que des informations additionnelles à la consigne d’un Q-sort d’image de soi orientent les réponses dans la direction induite par ces informations, avec une part personnologique de 10% de variance. On fait ressortir l’existence de scripts ordonnant les items en séquences implicatives. On termine par l’élaboration d’un modèle dynamique qui prend en compte l’estime sociale de soi, la gestion de l’impression et la vulnérabilité émotionnelle état/trait
The psychologist use self-reported questionnaires based on the five factors model, FFM. This a-theoretical model, supposed to describe in an exhaustive way the personality using five orthogonal bipolar factors, would be stable in time and social space by the fact of the genetic origin of the differences. After a review we show that the structure of FFM does not answer the criterion of orthogonality, nor of stability because of its sensitivity to the contexts of making. Experiments confirm that additional information with the instruction of a Q-sort image of oneself make it possible to direct the choices in the direction induced by this information, with a personnologic share of 10% of the variance. Beyond variability, we emphasizes the existence of transverse scripts ordering the items in implicatives sequences. We finishe by elaboration of a model dynamic which takes into account the social regard of oneself, the management of impression and the emotional vulnerability state/trait
APA, Harvard, Vancouver, ISO, and other styles
22

Damar, Hada. "Évaluation de la stabilité du rendement fourrager et de la dynamique du potassium et du phosphore dans un Gleysol humique de l'Est du Canada." Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69370.

Full text
Abstract:
Un approvisionnement stable en fourrage est important pour la pérennité des fermes laitières dans l'Est du Canada. En plus de l'azote, la croissance optimale des cultures fourragères nécessite un apport adéquat en potassium (K) et en phosphore (P), dont la disponibilité pourrait être influencée par les pratiques culturales. L'objectif principal de cette thèse était d'évaluer la stabilité des rendements fourragers sous des pratiques culturales contrastées, mais également de comprendre comment ces pratiques influent sur la dynamique du K et du P dans un sol argileux de l'Est canadien. Un dispositif de longue durée a été initié en 1989 dans la région du Saguenay Lac St-Jean. Il s'agissait d'une rotation fixe orge-fourrage-fourrage établie sur un Gleysol humique sous labour conventionnel (MP) ou chisel (CP) et recevant une fertilisation minérale (MIN) ou organique (fumier liquide de bovins laitiers, LDM). Nous avons identifié que les rendements étaient plus stables cycliquement (par cycle de trois ans) qu'annuellement. L'indice de stabilité du rendement a été réduit d'un facteur de 1.86 ± 0.57 pour les grains, de 1.87 ± 0.24 pour les pailles et de 2.00 ± 0.25 pour les fourrages en utilisant l'évaluation cyclique. Le LDM a permis d'obtenir des rendements en fourrage et en paille plus élevés que MIN. Cependant, le travail du sol n'a pas influencé les rendements. Le bilan cumulé de K était en moyenne de −579 kg K ha⁻¹ cycle⁻¹ avec MIN et +69 kg K ha⁻¹cycle⁻¹ avec LDM. L'accumulation de K échangeable dans les couches supérieures du sol était plus élevée avec LDM qu'avec MIN. Toutefois aucune relation significative entre le bilan cumulé de K et le K échangeable n'a été observée à travers les cycles. Les fractions de K échangeable et non échangeable entre 2001 et 2016 ont augmenté avec MIN malgré un bilan K déficitaire, mettant en évidence l'équilibre dynamique entre les formes de K du sol. Pour le P, le bilan cyclique cumulé variait de –20 à +150 kg P ha⁻¹ avec LDM, et de –33 à +3 kg P ha⁻¹ avec MIN, alors que des réserves plus élevées de P Mehlich-3 ont été mesurées dans la couche arable (0–15 cm) avec MIN qu'avec LDM. Une relation négative entre le bilan cumulé de P et le P Mehlich-3 a été observée soulignant la complexité des mécanismes contrôlant la disponibilité du P dans le sol. L'analyse de la couche 0–15 cm avait montré un P total plus faible sous LDM par rapport à MIN pour deux dates (2001 et 2016), et une diminution de P organique entre 12 et 27 ans sous LDM probablement due à une minéralisation ou à une perte de P organique. Les résultats obtenus avaient également montré que le travail du sol a eu un effet significatif sur la répartition de K et de P dans le sol. En raison de la différence de profondeur de labour entre CP (15 cm) et MP (20 cm), le CP avait conduit à une plus grande accumulation de K et de P dans la couche 0−15 cm, tandis que l'inverse a été constatée dans la couche 15−30 cm. Les résultats semblaient également indiquer qu'un prélèvement de K et de P par les plantes a eu lieu dans la profondeur 15−30 cm. Dans l'ensemble, cette étude a permis de démontrer que la stabilité cyclique des rendements ouvrait une nouvelle perspective de gestion des terres et de stockage des foins et de souligner la forte capacité tampon en K et en P des sols à texture fine. Avec un suivi régulier des cultures, et du statut potassique et phosphaté du sol, le CP et le LDM pourraient assurer la durabilité des systèmes fourragers dans l'Est du Canada. Toutefois, l'approche reliant les bilans de K et de P à leurs formes disponibles pour soutenir le concept d'accumulation et de maintien de la fertilité du sol s'est révélée peu fiable dans ce sol argileux. Enfin, nous recommandons de revisiter localement la stratégie de fertilisation des systèmes fourragers composés de légumineuses et de graminées établis sur un Gleysol humique afin d'inclure la teneur en K non échangeable dans la recommandation en K et la teneur en argile du sol dans la recommandation en P.
A stable supply of forages is important to ensure sustainability of the dairy farms in Eastern Canada. In addition to nitrogen, optimal forage growth requires an adequate supply of potassium (K) and phosphorus (P), whose availability could be influenced by agricultural practices. The main objective of this thesis was to assess forage yields stability under contrasting management practices, but also to understand how these practices influence K and P dynamics in clayey soils of Eastern Canada. We used along-term experiment established in 1989 in the region of Saguenay Lac St-Jean. This was a fixed barley-forage-forage rotation established on a humic Gleysol under moldboard plow (MP) or chisel (CP) plowing and supplied by mineral (MIN) or organic (liquid dairy manure, LDM) fertilizers. We found that crop yields were more stable cyclically (per three-year cycle) than annually. Yield stability index was reduced by factor of 1.86 ± 0.57 for grains, 1.87 ± 0.24 for straw and 2.00 ± 0.25 for forage using cyclic assessment. The LDM returned higher forage and straw yields than MIN. However, yields were not influenced by the tillage practice. Cumulative K budget averaged −579 kg K ha⁻¹ cycle⁻¹ with MIN and +69 kg K ha⁻¹ cycle⁻¹ with LDM. Exchangeable K accumulation in upper soil layers was higher with LDM than MIN. Nevertheless, no significant relationship between cumulative K budget and exchangeable K was observed across cycles. Exchangeable and non-exchangeable K fractions between 2001 and 2016 increased under MIN (deficit K budget), underlying the dynamic equilibrium between soil K forms. For P, cumulative cyclic budget varied from –20 to +150 kg P ha⁻¹ with LDM, and –33 to +3 kg P ha⁻¹ with MIN, while higher reserves of Mehlich-3 P were measured in topsoil (0–15 cm) with MIN than LDM. The negative relationship between cumulative P budget and Mehlich-3 P highlighted the complex mechanisms controlling soil P availability. Soil analysis in 0–15 cm layer showed lower total P with LDM than MIN for two dates (2001 and 2016), and a decline of organic P between 12 and 27 years under LDM probably due to organic P mineralization or loss. Tillage practices had significant effect on soil K and P distribution. Due to the difference in plowing depth between CP (15 cm) and MP (20 cm), the CP led to greater K and P accumulation than MP in the 0−15 cm layer, while the reverse was observed in 15−30 cm layer. The results also indicated that K and P uptakes by plants occurred in the 15−30 cm depth. Overall, this study showed that cyclic yield stability opened up a new perspective for land allocation and forage storage, and underlined the high buffer capacity in K and P of fine-textured soils. With regular monitoring of crops, and soil K and P status, CP and LDM could ensure the sustainability off orage production systems in Eastern Canada. However, the approach relating K and P budget to their available forms to support soil fertility buildup and maintenance appeared to be wrong in this clayey soil. Finally, we suggest to revisit local fertilization strategy of forage legume and grass mixtures in rotation with cereal established on a humic Gleysol in order to include non-exchangeable K content in K fertilizer recommendation and soil clay content in P fertilizer recommendation.
APA, Harvard, Vancouver, ISO, and other styles
23

Harraki, Bouchra. "Étude des interactions liées aux oligo-éléments en nutrition parentérale : évaluation de la stabilité et influence des acides aminés sur la biodisponibilité cellulaire du zinc." Université Joseph Fourier (Grenoble), 1993. http://www.theses.fr/1993GRE18007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Mercier, Jean-François. "La détermination des salaires en présence de complémentarité entre travailleurs : une analyse de la stabilité d'un modèle d'assortiment." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27538/27538.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Fauteux, Marie-Christine. "Évaluation de l'effet d'apports de caroténoïdes de la luzerne déshydratée sur son transfert dans les sécrétions lactées et la stabilité oxydative des matières grasses du lait." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30618/30618.pdf.

Full text
Abstract:
Ce projet visait à déterminer l'efficacité du transfert du pouvoir antioxydant des caroténoïdes d’un extrait concentré de luzerne (ECL) de la ration de la vache au lait et d’évaluer la susceptibilité à l'oxydation de ce lait en le comparant avec celui de vaches n’ayant pas reçu d’antioxydants ou ayant reçu un supplément de vitamine E. Tous les animaux ont également reçu des perfusions intra-abomasales continues d’huile de lin. En comparaison aux animaux recevant le supplément de vitamine E, ceux alimentés avec l’ECL produisaient davantage de lait (tendance) et de protéines laitières. L’augmentation de la teneur en acides gras polyinsaturés des matières grasses du lait aura fragilisé leur stabilité oxydative du lait pendant l’entreposage, indépendamment des traitements. L’évaluation de la stabilité oxydative du lait frais a cependant permis de noter que l’ajout d’un ECL à la ration des vaches laitières contribue à prévenir la dégradation oxydative d’un lait enrichi en acides gras polyinsaturés.
Tableau d'honneur de la FÉSP
APA, Harvard, Vancouver, ISO, and other styles
26

Alem-Boudjemline, Salima. "Réalisation et caractérisation des cellules photovoltai͏̈ques plastiques." Angers, 2004. http://www.theses.fr/2004ANGE0007.

Full text
Abstract:
En raison de leur mise en forme facile et de leur faible coût, les polymères font l'objet de nombreuses études en vue d'applications industrielles. C'est le cas des dispositifs photovoltai͏̈ques plastiques. Le rendement de conversion et la stabilité de ces systèmes sont les points les plus importants à améliorer. La première partie de notre travail porte sur la réalisation et la caractérisation d'une cellule photovoltai͏̈que à base du composite MEH-PPV et PCBM. L'insertion des couches interfaciales, le traitement de surface et l'amélioration de la morphologie de la couche active nous ont permis d'accroître significativement les performances photovoltai͏̈ques de la structure par rapport aux performances antérieures (>2,5%). Les deuxième et troisième parties portent, respectivement, sur l'évaluation de nouveaux matériaux organiques dans les cellules à base de composite et sur le développement d'une nouvelle structure de cellules photovoltai͏̈ques améliorant la stabilité
Polymers are widely studied in view of commercial applications, such as the photovoltaic devices, because of their easy processability and relatively low cost. The efficiency and stability of such devices are the main parameters to be improved. At first, we have fabricated and characterized a device based on a composite of poly(2-methoxy-5-(2'-ethylhexyloxy)-1,4-phenylenevinylene (MEH-PPV) and [6,6]-phenyl C61 butyric acid methyl ester (PCBM). The insertion of interfacial layers, the surface treatment and the improvement of the morphology of the active layer have significantly increased the photovoltaic performances of the structure compared to the previous performances (> 2. 5%). After, we studied new organic materials in bulk heterojonction solar cell configurations. At last, we developed a new structure of solar cells to improve their stability
APA, Harvard, Vancouver, ISO, and other styles
27

Eleter, Mohamad. "Synthèse, Caractérisation et évaluation de nouveaux précurseurs azotés pour dépôt de films d'oxydes métalliques MO2 (M = Hf, Zr) par MOCVD à injection liquide." Phd thesis, Université Claude Bernard - Lyon I, 2008. http://tel.archives-ouvertes.fr/tel-00376276.

Full text
Abstract:
De nouveaux précurseurs pour LI-MOCVD (Liquid injection Metal Organic Chemical Vapor Deposition) de Hf et de Zr ont été synthétisés et caractérisés par IR-TF, RMN multinoyaux, diffraction des RX sur monocristal et par ATG. La comparaison des comportements thermiques de différents complexes synthétisés a permis d'étudier l'effet de différents groupements sur leur volatilité et leur stabilité thermique. Les mono-amidinates et les monoguanidinates sont apparus plus volatiles et moins stables thermiquement que les di-amidinates et les di-guanidinates. Les films d'oxyde d'hafnium déposés ont été caractérisés par DRX, XRR, ATR et XPS. Les mono-guanidinates asymétriques tel que Hf(NEt2)3(iPr-Et2-tBu-GUA) et les di-guanidinates asymétriques tel que Hf(NMe2)2(Et-Me2-tBu-GUA)2 sont très prometteurs pour le dépôt de couches d'HfO2. Ils permettent la stabilisation d'une phase d'HfO2 de structure cristalline de symétrie supérieur à la phase monoclinique à 580°C. De plus, ces précurseurs permettent l'obtention des films de HfO2 nitruré en absence d'une étape supplémentaire de nitruration
APA, Harvard, Vancouver, ISO, and other styles
28

Gabriela, Dan. "Processus Gravitaires et Évaluation de la Stabilité des Pentes : Approches Géologique et Géotechnique. Application à la marge algérienne et à l'effondrement de l'aéroport de Nice en 1979." Phd thesis, Université de Bretagne occidentale - Brest, 2007. http://tel.archives-ouvertes.fr/tel-00274695.

Full text
Abstract:
Le travail présenté dans le cadre de ce mémoire concerne l'étude de deux zones : la marge algérienne et la zone du glissement de Nice en 1979.
La marge au large d'Alger n'avait fait l'objet d'aucune campagne scientifique majeure jusqu'à la réalisation de la campagne Maradja en 2003. Du coup, le travail de thèse sur la zone d'Alger a d'abord concerné la caractérisation morpho-sédimentaire de la zone et la cartographie des instabilités et des dépôts gravitaires. Dans un deuxième temps, il s'est concentré sur la caractérisation des propriétés physiques et mécaniques des sédiments, l'identification des mécanismes responsables de l'initiation des instabilités observées dans la zone d'étude et l'évaluation de la stabilité actuelle de la zone d'étude. Plusieurs résultats importants ont été obtenus :
• les processus sédimentaires sont très clairement influencés par la morphologie de la marge, elle-même contrôlée par l'activité tectonique. La sédimentation sur la marge algérienne est donc très hétérogène, contrastée et contrôlée par deux processus : (a) les processus gravitaires incluant les courants turbiditiques et les glissements sous-marins et (b) la sédimentation hémipélagique ;
• de nombreux glissements ont été observés et décrits sur la zone d'étude. La majorité des glissements est caractérisée par une surface inférieure à 0.2 km2 et un volume moyen de 0.003 km3. Seul, un glissement au large de la ville de Dellys est hors norme, caractérisé par un volume très supérieur à la moyenne et égal à 0.18 km3 ;
• la présence de couches de silt et sable susceptibles de se liquéfier est un facteur prépondérant d'initiation des glissements. L'évaluation du potentiel de liquéfaction pour les couches de sable, montre une possibilité de liquéfaction pour des séismes soumettant la colonne sédimentaire à un PGA de 0.2 g, une valeur qui a pu être atteinte par les séismes historiques connus ;
• l'évaluation de la stabilité de la même zone montre l'instabilité et la rupture de la pente pour un PGA de seulement 0.1 g, valeur encore plus facilement atteinte par les séismes historiques connus ;

Au contraire de la marge algérienne, la zone de Nice avait déjà fait l'objet de nombreuses études décrivant le contexte géologique lié à l'accident de 1979 et cherchant à comprendre son fonctionnement. Le travail présenté ici a d'abord concerné une synthèse de l'ensemble des données disponibles et en particulier des mesures géotechniques nouvelles réalisées dans la zone, ainsi que de nouveaux prélèvements de terrain. Ceci a permis de mieux modéliser la stabilité de la pente niçoise près de l'aéroport et de simuler la stabilité du prodelta du Var avant et après la construction de l'aéroport. Une nouvelle explication du déclenchement du glissement est proposée : ce serait le fluage d'une couche d'argile sensible sous l'effet de la charge de l'aéroport qui aurait initié la rupture. Cette hypothèse semble très solide au regard des nouvelles données obtenues. Le poids des différents facteurs déclenchant de l'accident de 1979 est aussi discuté et sert de cadre pour une estimation des risques actuels.
APA, Harvard, Vancouver, ISO, and other styles
29

Burlet, Jean-Laurent. "Mécanique de la neige et variabilité." Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF21401.

Full text
Abstract:
La prévision du risque d'avalanche est faite actuellement à l'échelle d'un massif. Nous développons une méthode de prévision locale, à l'échelle d'une pente, en nous fondant sur une analogie entre une avalanche et un glissement de terrain. L'étude comparée des matériaux neige et sol met en évidence des comportements similaires en terme de tassement, de rupture. . . Et des différences comme par exemple un faible nombre de types de neige ; en outre, le matériau neige fait l'objet de transferts de phase rapides et complexes et d'une grande variabilité spatiale et temporelle. Pour les avalanches, la forme des lignes de rupture étant mal connue, on effectue une modélisation et un calcul par éléments finis pour une pente en S typique. Cette modélisation permet de visualiser les concentrations de contraintes pour différents profils stratigraphiques et d'observer le dévelopement de la plastification avec l'augmentation du poids propre. La méthode de calcul de stabilité du manteau neigeux a été déduite de l'étude mécanique de la stabilité des pentes qui est bien connue en mécaniques des sols ; nous avons choisi la méthode des perturbations car elle permet d'introduite des courbes de rupture de forme quelconque. Cette méthode nécessite de connaître : la géométrie du substratum, la géométrie des couches, les charges, et les résistances. Nous avons obtenu et anaysé des résultats d'essais de cisaillement, d'essais de compression, d'essais pénétrométriques et d'images de neige à partir de moyens classiques en nivologie ou de moyens spécifiques (Pandalp, Géoendoscope. . . ). Nous avons aussi constitué une banque de données à partir de sondages réalisés de manière hebdomadaire à la station de La Plagne sur 4 sites de référence. Les paramètres masse volumique, diamètre, résistance dynamique de pointe et cohésion sont rassemblés par type de grain pour 6 saisons et analysés de façon statistique en totalité, puis par site en enfin par mois. Les répartitions spatiales de la hauteur de la neige et de la résistance dynamique de pointe sont mesurées puis analysées dans une pente réelle expérimentale. Des pistes pour la détermination de la hauteur de la neige à distance sont présentées, comme la méthode par ombre portée. Une modélisation 3D de la hauteur de la neige, de la stratigraphie et de la résistance dans une pente est proposée en intégrant l'influence de la topographie et de l'effet de site. Une méthode pour estimer la hauteur de la neige dans une pente en fonction des hauteurs connues sur les sites de mesure est développée, de même qu'une méthode permettant d'estimer la stratitraphie et la résistance mécanique. Ces données ponctuelles sont distribuées dans toute la pente en fonction de l'inclinaison et de l'exposition à l'intérieur de celle-ci. Un programme de calcul de stabilité est développé ; il permet de calculer automatiquement des courbes de rupture défavorables et d'effectuer des simulations de Monre Carlo à partir de géométries complexes. La méthode développée est appliquée dans son intégralité à une pente expérimentale
APA, Harvard, Vancouver, ISO, and other styles
30

Aigle, Pascal. "Stabilisation des talus de déblai par les techniques de drainage - simulation numérique des écoulements tridimentionnels à surface libre - Évaluation de l'augmentation de stabilité par méthode tridimensionnelle à la rupture." Nancy 1, 1989. http://www.theses.fr/1989NAN10037.

Full text
Abstract:
Le but de ce travail est d'analyser les effets du drainage comme moyen de stabilisation des pentes naturelles et artificielles. On propose une méthodologie en deux phases : premièrement, reconstitution par simulation numérique des écoulements tridimensionnels à surface libre créés par les systèmes confortatifs classiques ; puis, calcul de l'équilibre du talus en tenant compte du champ complet des potentiels. L'analyse en rupture circulaire est utilisée à 2 et à 3 dimensions. Des calculs systématiques montrent qu'entre deux ouvrages drainants successifs, le coefficient de sécurité minimum est obtenu pour une rupture cylindrique. La prise en compte d'un écoulement très localisé permet de mettre en évidence l'existence d'un volume critique
APA, Harvard, Vancouver, ISO, and other styles
31

Failloux, Nelly. "Etude cinétique de la stabilité et de la diffusion cutanée du rétinol par spectrométrie Raman : évaluation de la cytotoxicité et du potentiel inflammatoire du rétinol et de ses dérivés." Paris 6, 2003. http://www.theses.fr/2003PA066112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Barbottin, Aude. "Utilisation d'un modèle de culture pour évaluer le comportement des génotypes: Pertinence de l'utilisation d'Azodyn pour analyser la variabilité du rendement et de la teneur en protéines du blé tendre." Phd thesis, INAPG (AgroParisTech), 2004. http://pastel.archives-ouvertes.fr/pastel-00001262.

Full text
Abstract:
L'évolution des pratiques agricoles vers des systèmes moins intensifs nécessite d'évaluer rapidement la capacité des nouvelles variétés à valoriser ces systèmes pour des conditions pédoclimatiques variées. Les expérimentations traditionnellement réalisées dans cet objectif offrent une réponse souvent partielle, car les gammes explorées sont limitées par rapport à celles rencontrées dans la pratique agricole, et trop lente par rapport au renouvellement rapide des variétés en blé tendre. Pour accélérer cette étape d'évaluation des variétés, il est possible de s'appuyer sur de nouveaux types d'outils prévisionnels. Le travail présenté ici a pour objectif d'étudier la possibilité d'utiliser un modèle de culture pour analyser et prévoir le comportement variétal, dans une gamme d'environnements variés, pour des variétés existantes ou à créer. Nous nous sommes interrogés sur les adaptations nécessaires de ces outils pour prendre en compte le comportement variétal et nous avons proposé des pistes d'évaluation de la capacité de tels outils à choisir la variété la mieux adaptée aux conditions du milieu considéré. Les concepts et formalismes développés dans les modèles de culture en font des outils a priori pertinents pour l'évaluation et la prédiction du comportement variétal, les interactions entre la culture et le milieu étant simulées. Cependant, peu d'études se sont attachées à proposer des méthodologies d'estimation des paramètres génotypiques et d'évaluation de la capacité des modèles ajustés à rendre compte du comportement variétal. A partir d'un exemple de modèle de culture, Azodyn, intégrant dans son formalisme l'élaboration du rendement et de la teneur en protéines des grains, ainsi que les différents processus d'absorption et de transfert d'azote dans le système Sol-Plante, nous avons proposé une méthodologie d'identification et d'ajustement des paramètres génotypiques des modèles de culture, ainsi que différents critères d'évaluation de la capacité de ces modèles à rendre compte du comportement variétal. Nous avons dans un premier temps identifié, parmi tous les paramètres du modèle, ceux qui variaient en fonction du génotype, à partir d'expérimentations spécifiques, des acquis de la littérature et des connaissances d'experts. Nous avons identifié trois paramètres et trois variables d'entrée du modèle, variables entre génotypes, et susceptibles de représenter des marqueurs du comportement facilement accessibles aux différents utilisateurs de variétés. Les paramètres du modèle ont été ajustés pour un ensemble de quatorze génotypes par mesure directe de la valeur du paramètre dans des expérimentations spécifiques. Les effets des différents paramètres et variables d'entrée génotypiques sur les variations de la teneur en protéines des grains et du rendement ont été estimés par une analyse de sensibilité du modèle. Cette approche nous a permis d'identifier les principaux facteurs d'adaptation des variétés aux environnements, à savoir le poids de mille grains, les précocités à montaison et à floraison, et la capacité à fabriquer un nombre de grains élevé. Aucun paramètre spécifique à la nutrition azotée n'est apparu comme déterminant des sorties. Nous avons ensuite évalué la capacité du modèle à rendre compte du comportement des différents génotypes expérimentés sur 21 environnements, variant par la nature et l'intensité de facteurs limitants du rendement. Nous avons montré que, sur la base de ce faible nombre de paramètres variétaux, il était possible de rendre compte des niveaux moyens de rendements et de teneurs en protéines des grains des différents génotypes, pour des environnements variés. Nous avons également montré que le modèle de culture était un outil pertinent de prédiction du comportement des génotypes, que l'on s'intéresse à la stabilité des différents génotypes ou à leur classement pour différentes conditions de culture.
APA, Harvard, Vancouver, ISO, and other styles
33

Ding, Haiyang. "Commande prédictive distribuée pour un réseau de systèmes partiellement coopératifs." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT027.

Full text
Abstract:
Une structure de contrôle distribué partiellement coopérative est proposée dans cette thèse. La structure est consacrée au problème de commande d’un réseau composé de sous-systèmes non linéaires/linéaires qui sont interconnectés par leurs états et les entrées de commande. Par la coopération partielle, cela signifie que chaque sous-système est capable de préserver son propre objectif en utilisant un indice de la coopération ajustable qui définit dans quelle mesure il accepte de dégrader son propre niveau de performance afin d’aider ses voisins à maintenir leur intégrité sous les interconnexions potentiellement déstabilisantes. La communication entre les sous-systèmes est basée sur l’échange de niveaux de fonction de Lyapunov avec les contraintes associées et la quantité d’information transmise est plutôt réduite par rapport aux travaux les plus récents. Une autre caractéristique intéressante de cet structure de contrôle distribué non linéaire coopératif est l’utilisation de vecteurs prioritaires par chaque sous-système. Ce vecteur définit un ordre hiérarchique de l’importance de ses voisins menant à une stratégie de coopération dans lequel les sous-systèmes critiques dans le réseau peuvent être préservés en dépit des interactions. Une version linéaire de la structure de contrôle distribué coopératif est présenté. Cette conception de structure linéaire conduit à une évaluation rigoureuse de stabilité du réseau en boucle fermée globale. Une méthode d’amélioration de la stabilité est proposée basée sur la résolution d’un problème d’optimisation non convexe avec des degrés de liberté liés au paramétrage de l’affectation de priorité. Pour montrer son efficacité, le contrôle distribué coopératif proposé pour le réseau linéaire est appliqué pour traiter le problème de contrôle de la fréquence de charge dans un réseau d’alimentation et le problème de contrôle du système cryogénique
In this dissertation, a partially cooperative distributed control framework is proposed. The framework is dedicated to the control problem for a network consisting of linear/nonlinear subsystems that are interconnected through their states and control inputs. By partial cooperation, it means that each subsystem is able to preserve its own objective while using a tunable cooperation index that defines to what extend it accepts to degrade its own performance level so as to help its neighbors maintain their integrity under potentially destabilizing interconnections. The communication between the subsystems is rather reduced comparing to most of the existing contributions. Another attractive feature of the proposed framework is that each subsystem in the network can be assigned with priority indicating the importance of the corresponding subsystem seen by its neighbors. Through proper parameterization of the priority assignment, improved performance of the subsystems and the network can be acheived. In the linear version, a rigorous stability assessment method is presented and a systematic way of proposing an optimized priority assignment for a given network is introduced as well. The proposed scheme is applied to handle the load frequency control problem in a 4-area power network and the control problem of a cryogenic system to illustrate its effectiveness
APA, Harvard, Vancouver, ISO, and other styles
34

De, vaugelade du breuillac Segolene. "Évaluation des paramètres nécessaires à la détermination de la Date de Durabilité Minimale (DDM) et de la Période après Ouverture (PAO) des émulsions cosmétiques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX022.

Full text
Abstract:
Depuis le 11 juillet 2013, date d’application du Règlement cosmétique (CE) No 1223/2009, les metteurs sur le marché sont dans l’obligation de mentionner sur leurs produits la Date de Durabilité Minimale (DDM), ou si celle-ci excède 30 mois, la Période Après Ouverture (PAO). L’estimation de ces dates n’est pas encadrée réglementairement. Cosmetics Europe, l’Agence nationale de sécurité du médicament et des produits de santé, le Comité scientifique pour la sécurité du consommateur ou encore la Commission Européenne proposent des lignes directrices, mais les conditions d’étude pour la détermination de la DDM et de la PAO restent encore à l’appréciation de la personne responsable de la commercialisation du produit. L’objectif de ce travail était d’étudier les conditions nécessaires à la mise en place d’un protocole de mesure de la stabilité d’émulsions cosmétiques, permettant de déterminer la DDM du produit de manière fiable et rapide. Pour cela, une approche expérimentale sur une émulsion représentative de l’industrie cosmétique a été menée. L’évolution des paramètres organoleptiques, physico-chimiques et microbiologiques a été évaluée, en accéléré (température augmentée) et en temps réel. Une approche statistique a montré que les propriétés sensorielles évoluent différemment en fonction de la température et du matériau dans lequel l’émulsion est stockée. L’établissement d’un modèle de correspondance entre le vieillissement en conditions réelles et en conditions accélérées a pu être proposé pour certains paramètres physico-chimiques. Les études de microbiologie se sont tout d’abord concentrées sur la validation d’une méthode commerciale, alternative au dénombrement des germes aérobies totaux encadré par la norme ISO 21149, pour une application dans le domaine cosmétique. Après validation, la méthode a été utilisée comme un outil simple, rapide et économique pour le suivi de la stabilité microbiologique de l’émulsion de référence. La dégradation des conservateurs et de l’antioxydant présents dans la formule de référence a été suivie par chromatographie en phase gazeuse couplée à la spectrométrie de masse (GC-MS). Ce suivi a permis de mettre en évidence l’effet probable de la lumière sur la dégradation des actifs de l’émulsion. A ces tests ont été associés une stratégie analytique visant à étudier la photostabilité de l’émulsion. Les études ont porté sur deux molécules : l’acide déhydroacétique et l’alpha-tocophérol. La stratégie a permis de caractériser les mécanismes impliqués dans les réactions de photodégradation. La chromatographie en phase gazeuse couplée à la spectrométrie de masse multi-étapes (GC-MSn) et la chromatographie en phase liquide couplée à la spectrométrie de masse haute résolution en tandem (LC-HR-MS/MS) ont été utilisées pour la séparation et l'identification structurale des photoproduits. La détection des photoproduits majoritaires dans l’émulsion de référence, après irradiation UV-visible, montre la possible formation des photoproduits dans une matrice complexe de type émulsion huile/eau. Les résultats des tests de toxicité, in silico et/ou in vitro, ont démontré l’importance de prendre en compte la formation éventuelle de photoproduits dans l’évaluation de la sécurité d’un produit cosmétique
According to Cosmetic Regulation 1223/2009, implemented in July 2013, the manufacturer must mention the Date of Minimum Durability (DMD), or if DMD exceeds 30 months, the Period After Opening (PAO) on the product packaging. At the present time, no text regulates the procedures applicable to the validation of a DMD or a PAO. Some guidelines are published by Cosmetics Europe, the National Agency for the safety of medicines and health products, the Scientific Committee for consumer safety, or the European Commission; but the evaluation remains at the discretion of the person responsible for marketing the product. In this context, this work proposes recommendations to establish a stability protocol in order to quickly determine the DMD. Experimental approaches on an emulsion representative of the major category in the cosmetics industry have been established. Organoleptic, physicochemical and microbiological stabilities were evaluated. The emulsion stability has been tested in accelerated conditions and in real time. A statistical approach has been proposed to evaluate the product shelf life according to its organoleptic properties. The sensory properties of the cosmetic emulsion changed differently depending on the temperature and the material in which it has been stored. A mathematical correlation between the results of studies under normal and those obtained under accelerated conditions has been proposed for some parameters. A microbiological study focused on the validation of a commercially available method, alternative to total count of aerobic microorganisms, normed by the ISO 21149 for cosmetic application. Once validated, this method has been used as an economical, quick and easy tool to evaluate the microbiological stability of cosmetic emulsions. Gas chromatography coupled with mass spectrometry was used to follow the degradation of antioxidant and preservatives. To take into account the photostability of the emulsion, an analytical strategy was proposed to identify the mechanisms involved in phototransformation reactions. The study focused on two molecules: dehydroacetic acid and alpha-tocopherol. Both gas chromatography coupled with tandem mass spectrometry (GC-MS/MS) and liquid chromatography coupled with ultrahigh resolution mass spectrometry (LC-UHR-MS) were used for the separation and the structural identification of photoproducts. The main photoproducts were detected in the reference emulsion after UV-visible irradiation, thus showing the possible formation of photoproducts in a complex oil/water emulsion. Both in silico and in vitro toxicity tests highlighted the need for taking into account the potential formation of photoproducts in the safety evaluation of a cosmetic product
APA, Harvard, Vancouver, ISO, and other styles
35

Weatherdon, Nathan. "Expropriation risk with social and political instability : a dynamic conservation modeling approach." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28485/28485.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Gauthier, Mélanie. "Relation entre les comportements extériorisés et la stabilité de l'expérience de garde chez les enfants de 4 à 5 ans qui fréquentent un centre de la petite enfance." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26469.

Full text
Abstract:
La présente recherche a pour but d’étudier la relation entre les comportements extériorisés et la stabilité de l’expérience de garde chez les enfants âgés de 4 à 5 ans qui fréquentent un centre de la petite enfance. L’échantillon est composé de 107 enfants (53 filles et 54 garçons), dont l’âge moyen se situe à 59,9 mois (É.T. = 4,8). Parallèlement, l’échantillon est constitué de 15 éducatrices provenant de cinq centres de la petite enfance de la région de Québec, ayant en moyenne 23,5 ans (É.T. = 7,8) d’expérience dans le domaine. Une analyse de covariance univariée (ANCOVA) a été réalisée entre les comportements extériorisés et la stabilité de l’expérience de garde, en tenant compte du genre. Les résultats ne montrent aucune différence significative entre les comportements extériorisés et la stabilité de l’expérience de garde des enfants, si l’on tient compte du genre. Ces résultats sont discutés en fonction des éléments susceptibles d’influencer les différences de genre dans les comportements extériorisés des enfants et ceux relatifs à la stabilité de l’expérience de garde.
APA, Harvard, Vancouver, ISO, and other styles
37

Poette, Christopher. "La fragmentation du paysage : impact sur l'écoulement atmosphérique et la stabilité au vent des peuplements forestiers." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0387/document.

Full text
Abstract:
A l’heure actuelle, seuls des facteurs locaux, stationnels, sont considérés pour le calcul des risques liés au vent alors que le vent qui aborde un peuplement forestier est affecté par les surfaces sur lesquelles il vient de passer ; les lisières en particulier jouent un rôle important sur l’écoulement atmosphérique, en contribuant à générer de la turbulence. Dans un paysage fragmenté, constitué d’une mosaïque de surfaces de différentes hauteurs et rugosités, la multiplicité des lisières est ainsi susceptible d’avoir des effets cumulatifs perceptibles à l’échelle régionale, qui pourraient contribuer de manière significative à la fragilité des massifs face à des tempêtes. Certains niveaux de fragmentation semblent susceptibles de conduire à un accroissement des risques en cas de vent violent. Bien que la région de lisière a été étudiée de manière approfondie dans le passé en raison de leur importance pour la détermination des vitesses de vent, des niveaux de turbulence et des échanges entre l’atmosphère et la canopée, il n’y a aucune étude de l’impact de lisières multiples ou de la fragmentation des forêts sur les caractéristiques de la couche limite à l’échelle du paysage. Quelques rares études laissent penser que la fragmentation du paysage pourrait moduler de manière significative la structure turbulente de la couche limite atmosphérique mais ces études concernent des réseaux de brisevents plutôt qu’un ensemble de parcelles forestières. On cherche par conséquent à caractériser les champs de vent et de turbulence pour ces différentes configurations. Pour ce faire, une expérimentation en soufflerie à été réalisée, visant à caractériser l’écoulement sur des maquettes de paysage présentant cinq degrés de fragmentation (L = ~ 5, ~ 10, ~15, ~20, ~30h, où L est la distance entre deux patchs de forêts régulièrement espacés et h est la hauteur de la canopée). Un cas homogène a également été simulé et sert ici de référence. Pour le modèle de canopée choisi, ces expérimentations montrent que l’énergie cinétique turbulente présente dans la basse atmosphère ne passe pas par un maximum pour une valeur de l’espacement intermédiaire comme il était supposé à l’origine. Le cas homogène est la configuration la plus rugueuse. Pour de grands espacements l’influence d’une parcelle ne se fait guère sentir sur la suivante et lorsqu’ils sont faibles l’écoulement ne "ressent" guère les clairières et présente des caractéristiques semblables au cas homogène. Nous avons également évalué un modèle atmosphérique de type "simulation des grandes échelles" à l’aide des données présentées précédemment. Le modèle est capable de reproduire les grandes caractéristiques de la turbulence telles que les vitesses de vent horizontales et verticales, l’énergie cinétique turbulente, les contraintes de Reynolds et les coefficients d’asymétrie horizontale et verticale en tous points du domaine. Cela nous a permis de confirmer la validité des calculs numériques et de simuler l’écoulement sur une plus large gamme de paysages fragmentés. Les résultats démontrent l’importance de l’indice foliaire pour le calcul de la rugosité effective sur une succession de patchs de forêt
At present only the characteristics of a forest stand and its immediate environment are taken into account in calculating forest wind risk. However, it is known that the wind is strongly affected by the surfaces over which it has previously flowed. Forest edges in particular play an important role in determining the characteristics of the atmospheric flow by generating increased turbulence, triggering the formation of coherent tree scale structures. In a fragmented landscape, consisting of surfaces of different heights and roughness, the multiplicity of edges may have cumulative effects at the regional scale leading to increased forest damage during storms. Flow changes in the atmospheric boundary-layer across surface roughness changes have received extensive study in the past because of their importance in determining velocities, turbulence levels and exchange between the atmosphere and biosphere or ground. There have also been a number of studies across single forest edges both in the field, wind-tunnels and computer models. However, there have been no studies of flow across multiple forest edges or the impact of forest fragmentation on the characteristics of the boundary-layer. The only studies on multiple surface changes have been wind-tunnel examination of the flow though and across multiple wind-breaks. In this thesis we show results from a series of wind tunnel experiments on a range of levels of forest fragmentation. Five gap spacings (L = ~ 5, ~ 10, ~15, ~20, ~30h, where L is the length of the gap and h is the canopy height) were investigated using 3D laser doppler velocimetry in order to assess the effects of fragmented landscapes on mean and turbulent wind characteristics. The fragmentation was two-dimensional with the transition between forest and gaps only being along the wind direction and the forest and gaps were continuous perpendicular to the wind direction. The wind speeds and turbulence characteristics are compared against measurements from a single forest edge in the wind tunnel, which acts as a reference. No enhancement of turbulence formation at a particular level of fragmentation was observed but there was a consistent pattern of wind speed and turbulence back from the first edge of each simulation with the horizontal velocity at tree top increasing and the turbulent kinetic energy decreasing as gap size increased. We also compare mean wind speeds (U and W) and turbulence characteristics (variance in u, v, and w; skewness in U, V, and W; Reynold’s stress, and TKE) at all points in the experimental measurement domain of the wind tunnel with Large Eddy Simulation (LES) results, which allows us to confirm the validity of the LES calculations and to conduct a wider range of experiments than was possible in the wind-tunnel. The results demonstrate the importance of the frontal area index or roughness density of elements (in this case trees) in determining the nature of the flow and the effective roughness of the overall surface. They also show that as the gaps between forest blocks increases the flow transitions (at a gap size between 10 to 15 tree heights) from flow comparable to that over a continuous forest to flow across a set of isolated forest blocks
APA, Harvard, Vancouver, ISO, and other styles
38

Oikonomopoulou, Apostolia. "APPROCHES NUMERIQUES POUR L'ETUDE DU COMPORTEMENT DES STRUCTURES MAÇONNEES ANCIENNES : Un outil basé sur le Calcul à la Rupture et la visualisation graphique." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00493588.

Full text
Abstract:
L'ingénieur et l'architecte, confrontés à la large demande pour la préservation des structures historiques et monumentales, ont besoin d'une approche transdisciplinaire et efficace pour le traitement de ces systèmes complexes. Les travaux de recherche proposés dans cette thèse s'inscrivent à un effort de développement d'un outil informatique servant à une évaluation préliminaire de la stabilité des structures maçonnées anciennes, qui est compréhensible par des utilisateurs travaillant dans diverses disciplines. Etant donné que le comportement statique global de ce type de structures pose plutôt un problème d'équilibre, le théorème statique du Calcul à Rupture est utilisé afin de vérifier la stabilité d'une structure maçonnée sous chargements statiques ou quasi-statiques. La méthode proposée correspond aux systèmes structuraux bidimensionnels ou pseudo-tridimensionnels (symétries axiales) qui comportent les éléments typiques de l'architecture médiévale combinés de façons variables.
APA, Harvard, Vancouver, ISO, and other styles
39

Hor, Boramy. "Évaluation et réduction des conséquences des mouvements de terrains sur le bâti : approches expérimentale et numérique." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00737787.

Full text
Abstract:
L'instabilité des cavités souterraines (mines, carrières, tunnels,...) peut induire les mouvements de terrains d'amplitude suffisante pour endommager les bâtiments et les infrastructures en surface. Les méthodes traditionnelles, utilisées dans les pratiques d'ingénieur pour prévoir les déformations dans les structures, sont basées sur les caractéristiques des mouvements de terrain en condition de terrain vierge sans prendre en compte l'effet de la présence des structures en surface. L'objectif de cette thèse est de prédire les déformations des ouvrages en tenant compte de l'influence de l'interaction sol-structure, d'une part ; et d'évaluer la performance d'une solution de protection (tranchée périphérique), d'autre part. Cela a été achevé par la réalisation d'études paramétriques utilisant deux approches complémentaires : une approche expérimentale à l'aide d'un modèle réduit physique 3D sous gravité normale et une modélisation numérique 3D par la méthode des éléments finis. En particulier l'effet d'un certain nombre de paramètres géométriques et mécaniques a pu être investigué dans l'étude de l'interaction sol-structure : la position de la structure par rapport à la cuvette d'affaissement, le poids de la structure et la raideur relative entre le sol et la structure. Concernant l'étude de l'efficacité de tranchées périphériques, l'effet de la position de la structure, de la position de la tranchée vis-à-vis de la structure et de la rigidité de la tranchée a été analysé. Les résultats obtenus ont abouti à une meilleure compréhension du problème d'interaction sol-structure et ont montré l'importance de cet effet qui doit être pris en compte dans l'évaluation de la vulnérabilité du bâti. Le transfert des mouvements du sol à la structure est faible (moins de 2,5%), dans le cas modélisé : structure rigide et interface glissante. Les différents résultats ont permis par ailleurs de mettre en évidence l'efficacité de la tranchée périphérique pour réduire les sollicitations affectant les structures. La tranchée doit être remplie avec un matériau très déformable et surtout placée à une distance de l'ordre d'un mètre de la structure.
APA, Harvard, Vancouver, ISO, and other styles
40

Meric, Elise. "Compréhension des effets matrices de boissons à base de jus de fruits enrichies en ingrédients protéiques sur la stabilité de ces jus et évaluation in vivo et in vitro de l'impact de cet enrichissement protéique sur le système glycémique." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29032/29032.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Pedron, Antoine. "Développement d’algorithmes d’imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112071/document.

Full text
Abstract:
La problématique de cette thèse se place à l’interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l’adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu’il soit en production ou maintenance. Afin de détecter d’éventuels défauts, de les positionner et les dimensionner, des méthodes d’imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L’évolution du matériel d’acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L’évolution multicoeurs des processeurs généralistes (GPP), ainsi que l’arrivée de nouvelles architectures comme les GPU rendent maintenant possible l’accélération de ces algorithmes.Le but de cette thèse est d’évaluer les possibilités d’accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l’ordonnancement des nids de boucles sur GPP, ainsi que l’ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L’intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme
This thesis work is placed between the scientific domain of ultrasound non-destructive testing and algorithm-architecture adequation. Ultrasound non-destructive testing includes a group of analysis techniques used in science and industry to evaluate the properties of a material, component, or system without causing damage. In order to characterize possible defects, determining their position, size and shape, imaging and reconstruction tools have been developed at CEA-LIST, within the CIVA software platform.Evolution of acquisition sensors implies a continuous growth of datasets and consequently more and more computing power is needed to maintain interactive reconstructions. General purprose processors (GPP) evolving towards parallelism and emerging architectures such as GPU allow large acceleration possibilities than can be applied to these algorithms.The main goal of the thesis is to evaluate the acceleration than can be obtained for two reconstruction algorithms on these architectures. These two algorithms differ in their parallelization scheme. The first one can be properly parallelized on GPP whereas on GPU, an intensive use of atomic instructions is required. Within the second algorithm, parallelism is easier to express, but loop ordering on GPP, as well as thread scheduling and a good use of shared memory on GPU are necessary in order to obtain efficient results. Different API or libraries, such as OpenMP, CUDA and OpenCL are evaluated through chosen benchmarks. An integration of both algorithms in the CIVA software platform is proposed and different issues related to code maintenance and durability are discussed
APA, Harvard, Vancouver, ISO, and other styles
42

Ihsan, Mohammad. "Analysis of the stability of slopes submitted to water infiltration using advanced models : coupled hydromechanical model and Nonlinear Dynamics Method." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10091/document.

Full text
Abstract:
Ce travail de thèse porte sur l'analyse des glissements de terrain, qui constituent un risque naturel majeur responsable de pertes humaines élevées ainsi que de grands dommages aux structures, des infrastructures et de l'environnement naturel. Cette question revêt une importance particulière, en raison du changement climatique, qui augmente le risque de fortes pluies ainsi que la sécheresse, et par conséquent le risque d'instabilité des pentes due à l'environnement. Généralement, l'analyse de la stabilité des talus est réalisée en utilisant l’approche de l'équilibre limite. Comme cette théorie ne tient pas compte du processus de mobilisation du frottement, elle pourrait conduire à une surestimation du facteur de sécurité. Une analyse fiable de la stabilité des talus, en particulier dans les sols hétérogènes soumis à l'action de l'eau, nécessite l'utilisation de méthodes numériques avancées. Deux méthodes ont été utilisées dans cette recherche: la méthode de couplage hydromécanique et la méthode dynamique non linéaire
This research concerns analysis of landslides, which constitute a major natural risk responsible for high human losses as well as large damages to structures, infrastructure and natural environment. This issue becomes particularly important, because of the climate change, which increases the risk of heavy rains as well as severe drought and consequently the risk of slope instability due to the environment change. Generally, analysis of slope stability is conducted using the limit equilibrium theory. As this theory does not take into consideration the process of mobilization of the friction, it could lead to an overestimation of the safety factor. A reliable analysis of the slope stability, in particular in heterogeneous soils submitted to the water action, requires the use of advanced numerical methods. Two methods were used in this research: the coupled hydro-mechanical method and the nonlinear dynamic method
APA, Harvard, Vancouver, ISO, and other styles
43

Diallo, Alpha Oumar. "Contribution à la caractérisation des profils de dangers physico-chimiques des liquides ioniques." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2124/document.

Full text
Abstract:
Les liquides ioniques sont des produits chimiques avancés promis selon de nombreuses personnes à un brillant avenir dans un certain nombre d’applications stratégiques qui pourraient servir un avenir plus vert dans la chimie et les développements technologiques liés à l'énergie. Cependant, le manque de données thermodynamiques appropriées ainsi que les discours réducteurs portant sur une haute stabilité thermique et l’absence de tout danger intrinsèque comme tendances absolues de ces produits chimiques ont conduit à entreprendre ce travail de thèse avec comme objectif de développer une méthodologie dédiée et pertinente visant à caractériser les profils de dangers physico-chimiques de ces molécules chimiques. En effet, étant donné le nombre potentiellement élevé de liquides ioniques, une meilleure stratégie consistant à explorer les propriétés réelles de ces matériaux, sans négliger les risques physico-chimiques potentiels, y compris les risques d’incendie, constitue une contribution de taille à leur utilisation verte. A cet effet, des outils expérimentaux ont été mis en œuvre et utilisés, les résultats obtenus confirment jusqu’ici que le potentiel de dangers physico-chimiques doit être évalué au cas par cas.Finalement, les perspectives concernant les travaux futurs en ce qui concerne une meilleure connaissance et une appréciation des questionnements liés aux dangers physico-chimiques sont donnés dans le but de servir une conception et une utilisation durable des liquides ioniques
Ionic liquids are advanced chemicals promised according to many people to a brilliant future in a number of strategic applications that might serve greener future in chemistry and energy related technological developments. However, lack of appropriate thermodynamic data as well as some what misleading discourse advocating on high thermal stability and absence ofany intrinsic hazard as absolute trends of these chemicals have led to initiate this thesis workwith the objective to develop a dedicated and pertinent methodology aiming at characterizing the comprehensive physico-chemical hazards profile of such chemical.Indeed, given the huge potential number of ionic liquids, a better strategy consists in exploring real world properties of these materials, not neglecting potential physico-chemical hazards,including the fire hazards, as to contribute to their green use. For that purpose, experimental tools have been implemented and used; obtained results so far confirm that the physico-chemical hazards potential must be assessed on a case by case approach. Finally, perspectives regarding future work with regard to better knowledge and assessmentof ionic liquids physico-chemical related issues are given with the aim of serving sustainable design and use of ionic liquids
APA, Harvard, Vancouver, ISO, and other styles
44

Coopman, Quentin. "Impact des aérosols sur les nuages en Arctique." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10154/document.

Full text
Abstract:
Les interactions des aérosols avec les nuages en Arctique peuvent avoir de fortes conséquences sur le forçage radiatif. Néanmoins cette interaction reste encore mal comprise. Dans cette étude nous utilisons les instruments satellitaires POLDER-3 & MODIS pour obtenir des informations sur les propriétés microphysiques des nuages que nous co-localisons temporellement et spatialement avec la concentration en monoxyde de carbone, traceur passif du contenu en aérosols, issue des modèles numériques GEOS-Chem et FLEXPART. Nous co-localisons également les données avec les réanalyses de ERA-Interim pour pouvoir contrôler les paramètres météorologiques tel que l’humidité spécifique et la stabilité de la basse troposphère. Afin d’étudier l'impact des panaches de pollution sur la microphysique des nuages, nous définissons le paramètre ACInet qui décrit l'interaction aérosol nuage. Nos résultats suggèrent que les parcelles d'air venant de feux de biomasses ont un effet limité sur la microphysique des nuages. Au contraire, l'effet des aérosols venant de sources anthropiques ont un effet proche d'un maximum théorique. Nous étudions alors l'impact de différents paramètres météorologiques sur l'ACInet. Nous avons également analysé l'impact des aérosols d'origine anthropiques sur la transition de phase liquide-glace des nuages. Nos résultats indiquent que le contenu en aérosols a un effet net de diminution de la température de transition de phase, ce qui est susceptible d'avoir de fortes conséquences sur la durée de vie des nuages
The Arctic region is warming particularly rapidly. The aerosol-cloud interaction (ACI) plays an important role on cloud radiative properties and climate change but aerosol impact on cloud microphysical parameters is still poorly understood.In this study we combine measurements from the satellite instruments POLDER-3 and MODIS to temporally and spatially co-localize cloud microphysical properties with carbon monoxide concentrations, passive tracer of aerosol content, from GEOS-Chem and FLEXPART. We also add ERA-I reanalysis of meteorological parameters to stratify meteorological parameters, such as specific humidity and lower tropospheric stability. Thus, observed differences in cloud-microphysical-parameters can be attributed to differences in aerosol content and not in meteorological parameters. We define a net ACI (ACInet) which can be interpreted as a measure of the sensitivity of a cloud at any given location to pollution plumes from distant sources. We study the impact of aerosols from anthropogenic and biomass-burning sources on liquid-cloud microphysical properties in Arctic, between 2005 and 2010, above ocean, and for different meteorological regimes. Our results suggest that the effect of biomass pollution plumes is smaller than the effect of anthropogenic pollution plumes. Meteorological parameters can significantly influence the ACI. We analyze the impact of anthropogenic aerosol on thermodynamic phase transition. The smaller the effective radius, the greater the supercooled temperature, whereas the greater the aerosol concentration, the smaller the supercooled temperature
APA, Harvard, Vancouver, ISO, and other styles
45

Seck, El Hadji Boubacar. "Contribution au développement d’outils analytiques et numériques pour quantifier et qualifier la robustesse des structures." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100060/document.

Full text
Abstract:
Les notions de robustesse structurale sont intégrées dans les codes de conception européens suite à l'effondrement partiel et progressif de la tour Ronan Point de Canning Town à Londres (Angleterre, 16.05.1968). Le cadre réglementaire des Eurocodes définit la robustesse comme l'aptitude d'une structure à résister à des événements accidentels dits identifiés (incendies, explosions, chocs) ou non identifiés (conséquences d'une erreur humaine, attentats) sans présenter de dégâts disproportionnés par rapport à la cause d'origine. Cette définition incite les ingénieurs à inclure dans les procédures de conception les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). L'objectif de ces travaux de thèse est de développer un outil de simulation de la robustesse de structures lorsque des incertitudes de sollicitations (évènement accidentel) et / ou une faute de dimensionnement (conception ou de réalisation) interfèrent avec les dimensionnements réglementaires. La robustesse est évaluée à travers un indice compris entre 0 (structure peu robuste) et 1 (structure très robuste) et calculé à partir des probabilités de défaillance initiale et globale. Cette thèse propose une méthodologie reposant sur la recherche d’arbres complets d'évènements illustrant l'ensemble des cheminements potentiels d'une défaillance initiale localisée jusqu'à la ruine globale. L'approche développée s'applique aux structures hyperstatiques, dans lesquelles la rupture d'un ou plusieurs éléments n'entraine pas systématiquement la ruine de l'ensemble de la structure. En effet, les éléments non endommagés restants peuvent être en mesure de supporter les chargements externes par une redistribution des efforts internes.La procédure est illustrée dans les cas de structures unidimensionnelles hyperstatiques de poutres bi-encastrées et d'un portique référencé dans les normes et classiquement étudié dans la littérature. Le mode local de défaillance de nos simulations est la formation d'une rotule (fragile ou plastique) lorsque le moment sollicitant appliqué atteint la valeur du moment résistant d'une section droite. Deux types de lois probabilistes, Gaussiennes et Log-normales, sont testées par l'approche développée et par des simulations Monte-Carlo. Les variables aléatoires choisies peuvent être indépendantes ou corrélées. Nous présentons les résultats sous forme d’arbres d'évènements comportant l'ensemble des branches exclusives, sans intersection entre branches issues d’un même nœud. Cette spécificité permet de calculer des indices caractérisant la robustesse de la structure selon chaque scénario.L'analyse de l’arbre des évènements et des indices de robustesse permet de mettre en évidence les fragilités potentielles pouvant engendrer une défaillance généralisée d'une structure vis-à-vis d’accidents ou d’actes de malveillance. La méthode développée fournit un outil de simulation et de diagnostic efficace, tant en phase de conception qu'en phase de réhabilitation, permettant d'envisager le renforcement de bâtis existants ou futurs et d'assurer la sécurité des personnes et des ouvrages environnants
Localized initial failures in constructions can sometimes be followed by disproportionate damage (collapse) spreading to the whole or the major part of a building. Since the partial and progressive collapse of the Ronnan Point tower (London, $1968$) caused by a gas explosion, the concept of robustness has been introduced in standards. Structural robustness is defined as the ability of a structure to withstand unforeseen events causing local damage like fire, explosion or impact, without suffering disproportionate collapse. This definition encourages engineers to include the concepts of initial damage (local failure) and disproportionate damage (global failure) in design procedures. The main objective of this PhD work is to develop a simulation tool in order to highlight the potential weakness in a structure when uncertain sollicitations (accidental events) and/or dimensional fault (design or realization) interfere with the standard predictions. The robustness is evaluated by an index varying from 0 (non-robust structure) to 1 (very robust structure) and is calculated from the initial and global failure probabilities. The proposed methodology is based on an event tree analysis summurizing all the distinct potential scenarios, from the initial damage to the collapse of the structure. The developed approach is applied to statically indeterminate unidimensional structures like beams and frame. The redundancy's consequence is that the break of one or several cross sections will not necessarily lead to the collapse of the whole system: the redistribution of the internal efforts allows the remaining undamaged parts of the structure to support the external (applied) loading. The methodology is illustrated by some examples of clamped-clamped beam and frame, loaded with punctual forces. The cross sections are supposed to have an elastic behaviour until the formation of plastic hinges (local failure). Two types of probabilistic laws, Gaussian and Log-normal, are tested by the developed approach and by Monte-Carlo simulations. The chosen random variables can be either independent or correlated. The resulting complete event tree contains all the exclusive paths from an localised damage to the global failure, without intersection between branches stemming from the same node. This specific property allows to evaluate the robustness indexes of the structure with the ratio between the local and global probabilities, according to each scenario. The analysis of the event tree and of the robustness indexes allows to highlight the potential brittleness which could cause a generalized collapse of the structure with respect to accidents or malicious acts. The developed methodology provides an effective tool of simulation and diagnostic, both in the design phase and in the rehabilitation one, useful to the reinforcement of existing or future buildings and to ensure the safety of people and surrounding structures
APA, Harvard, Vancouver, ISO, and other styles
46

Imyim, Apichat. "Méthodologie d'évaluation environnementale des déchets stabilisés / solidifiés par liants hydrauliques." Lyon, INSA, 2000. http://theses.insa-lyon.fr/publication/2000ISAL0091/these.pdf.

Full text
Abstract:
Cette étude vise à évaluer du point de vue environnemental le relargage à long terme des polluants inorganiques issus des déchets Solidifiés / Stabilisés (S/S) par liants hydrauliques. La recherche se divise en trois parties : (1) Proposition d'une méthodologie d'évaluation du comportement à long terme des espèces polluantes, (2) Application et validation de la méthodologie aux déchets synthétiques S/S, (3) Application de la méthodologie à des déchets réels S/S ; des boues galvaniques et des cendres volantes. La méthodologie comporte les tests de lixiviation et le modèle de prévision à long terme du comportement des polluants contenus. Les tests de lixiviation sélectionnés permettant l'identification des paramètres nécessaires pour le modèle comportemental ont été effectués. Le modèle développé est basé sur un modèle diffusionel dans la matrice poreuse couplé à des réactions chimiques mettant en jeu les espèces majeures contenues dans les matériaux. La cohérence entre les résultats expérimentaux et ceux de simulation prouve que le modèle décrit bien les phénomènes physico-chimiques du relargage. Cette approche nous permettra donc de déterminer le comportement à long terme des déchets S/S afin d'évaluer leur impact sur l'environnement
This research aims to assess the long-term release of inorganic pollutants leached from stabilised wastes by hydraulic binders in the environmental point of view. The research divides in three parts: (1) proposition of an assessment methodology of the long term behavior of pollutant species, (2) application and validation of the methodology to synthetic stabilised wastes, (3) application of the methodology to stabilized galvanic sludge and stabilized fly ash. The methodology includes leachning tests and a model of the long-term behavior prediction of pollutant contained in the wastes. The selected leaching tests permitting the identification of the necessary parameters for behavioral model have been done. The developed model is based on a diffusional model in the porous matrix coupled to chemical reactions of major species contained in the stabilized materials. The consistency between the experimental and simulated results proves that the model describes the physico – chemical mechanism of considered species release well. This approach leads to determine the long-term behavior of stabilized wastes in order to assess their impact on the environment
APA, Harvard, Vancouver, ISO, and other styles
47

Madore, Jean-Benoît. "Évaluation de la modélisation de la taille de grain de neige du modèle multi-couches thermodynamique SNOWPACK: implication dans l'évaluation des risques d'avalanches." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8941.

Full text
Abstract:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Abstract : The snow thermodynamic multi-layer model SNOWPACK was developed in order to address the risk of avalanches by simulating the vertical geophysical and thermophysical properties of snow. Risk and stability assessments are based on the simulation of the vertical variability of snow microstructure (grain size, sphericity, dendricity and bond size), as well as snow cohesion parameters. Previous research has shown a systematic error in the grain size simulations (equivalent optical grain size) over several areas in northern Canada. In order to quantify the simulated errors in snow grain size and associated uncertainties in stability, snow specific surface area (SSA), was measured using a laser-based system measuring snow albedo through an integrating sphere (InfraRed Integrating Sphere, IRIS) at 1310 nm. Optical grain size was retrieved from the IRIS SSA measurements in order to validate the optical equivalent grain radius from simulated SNOWPACK outputs. Measurements occurred during a field campaign conducted during the 2013-2014 winter season in the Canadian Rockies. The two study plots selected are located at Glacier National Park, BC and Jasper National Park, AB. Profiles of density and stratigraphic analysis were completed as well as grain size (IRIS) profiles, combine with snow micropenetrometer (SMP) measurements. Density analysis showed good agreement for the simulated values (R[superscript 2]=0.76) and thus the simulated resistance for the SSI was assumed of reasonable precision. Snow instabilities predicted by SNOWPACK were observed by SMP resistance variation. The optical grain size analysis showed systematic overestimation of the modeled values, in agreement with the current literature. Error in SSA evolution in a rounding environment was mostly constant whereas error in conditions driven by temperature gradient was variable. Finally, it is suggested that a climate-oriented parametrization of the microstructure could represent an improvement for stability assessment in Canada given the variability and size of avalanche terrain.
APA, Harvard, Vancouver, ISO, and other styles
48

Moulin, Stéphane. "Réexamen des inégalités entre hommes et femmes sur le marché du travail : des philosophies politiques aux évaluations empiriques." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2005. http://tel.archives-ouvertes.fr/tel-00095542.

Full text
Abstract:
L'objet de cette thèse est de construire une analyse critique de l'approche économique « conventionnelle » des inégalités entre les sexes. L'existence de « barrières discriminatoires » entre hommes et femmes sur le marché du travail conduit à critiquer la mesure de la discrimination salariale « pure ».
Nous soutenons qu'il n'est pas possible de donner une définition non ambiguë de la discrimination sur le marché du travail sans rentrer dans des questions de philosophie politique de la justice. Chaque philosophie politique implique une conception différente de la discrimination et impose des contraintes sur la méthodologie empirique de mesure des inégalités. Une conception pluraliste de la discrimination conduit ainsi à critiquer la conception consensuelle de l'égalité des chances, la théorie marginale de la juste distribution ainsi que la « bonne » pratique de mesure de la discrimination.
Nous présentons d'abord une grille d'analyse pluraliste de la discrimination entre les sexes articulant philosophies politiques de la justice sexuée, théories économiques de la discrimination, et méthodologies statistiques de mesure de l'inégalité de traitement sur le marché du travail. Nous proposons ensuite des mesures économétriques des barrières discriminatoires à l'accès à l'emploi, au temps plein et aux responsabilités hiérarchiques. Ces mesures nous permettent enfin de revenir sur l'identification et l'évaluation de la ségrégation verticale, de la discrimination salariale, et de la discrimination positive dans les politiques de l'emploi.
APA, Harvard, Vancouver, ISO, and other styles
49

Cléry-Melin, Galichon Marie-Laure. "Étude des fonctions neurocognitives dans la dépression : caractérisation de déficits motivationnels et cognitifs, évaluation de leur valeur pronostique Why don't you try harder? An investigation of effort production in major depression Neural mechanisms underlying motivation of mental versus physical effort Psychomotor retardation is a scar of past depressive episodes, revealed by simple cognitive tests Are cognitive deficits in major depressive disorder progressive? A simple attention test in the acute phase of a major depressive episode is predictive of later functional remission Progress in elucidating biomarkers of antidepressant pharmacological treatment response: a systematic review and meta-analysis of the last 15 years Stability of the diagnosis of seasonal affective disorder in a long-term prospective study." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB218.

Full text
Abstract:
Les données issues de la recherche en neurosciences permettent de considérer la dépression comme une affection invalidante générale, caractérisée par des déficits neurocognitifs et comportementaux, au delà des symptômes dépressifs cliniques définis dans les classifications nosographiques. Ces déficits coexistent à la phase aiguë d’un épisode dépressif caractérisé (EDC) et interfèrent dans la prise de décision et réalisation d’un comportement orienté vers un but, et la sensation d’effort associée. Ils semblent persister en période de rémission clinique, altérant la qualité de la réponse thérapeutique et fonctionnelle et aggravant à terme le pronostic du trouble. L’objectif de ce travail est d’identifier des marqueurs neurocognitifs objectivement mesurables en pratique clinique, et d’étudier leur association au pronostic d’un EDC, afin de mieux prédire les probabilités de rémission et d’optimiser les stratégies de prescription thérapeutique des patients. L’altération des processus neurocognitifs liés à la récompense constitue un premier marqueur de vulnérabilité du trouble dépressif : dans une étude explorant la production d’un effort moteur dans le but d’obtenir une récompense, les patients déprimés présentaient un déficit de production d’effort, à la différence des sujets sains. Ce trouble de la motivation par incitation - processus sous tendu en imagerie fonctionnelle chez le sujet sain par l’activation de circuits cortico-striataux ventraux -pourrait constituer une dimension spécifique de la maladie dépressive. Participant à l’altération des processus de prise de décision et d’action, ce déficit motivationnel est associé, et possiblement secondaire, à des déficits plus spécifiquement cognitifs que nous avons ensuite étudiés. Dans une étude explorant plusieurs fonctions cognitives chez des patients déprimés au sein d’une large cohorte, la présence d’un ralentissement psychomoteur séquellaire après 6 à 8 semaines de traitement – chez des patients pourtant en rémission clinique -, était positivement et de manière indépendante, significativement corrélée au nombre d’épisodes dépressifs passés, constituant ainsi un marqueur d’une sévérité « cumulative » du trouble dépressif. Enfin, dans une revue de la littérature sur le caractère progressivement évolutif des déficits cognitifs dans le trouble dépressif unipolaire, nous avons discuté l’existence d’un effet « neurotoxique » cérébral de l’accumulation d’EDC, à l’origine de troubles neurocognitifs et de conséquences sur le cours évolutif de la maladie (risque majoré de rémission clinique et/ou fonctionnelle partielle, de récurrence, d’évolution démentielle). Un des principaux intérêts de l’identification de marqueurs de vulnérabilité cliniques et cognitifs est de mettre en évidence leur rôle prédictif du cours évolutif d’un épisode -ou d’un trouble- dépressif. Dans une étude menée sur une cohorte de plus de 500 patients déprimés, une variable attentionnelle (d2 test d’attention) était capable de prédire l’évolution ultérieure vers la rémission complète (clinique et fonctionnelle) de façon significative, linéaire, et indépendante des autres variables et de représenter un marqueur-trait de la dépression, aisément utilisable en pratique clinique. D’autres marqueurs cognitifs (tels que les fonctions exécutives) ont montré une valeur prédictive élevée de la réponse thérapeutique, avec une précision proche de celle de marqueurs d’imagerie ou électrophysiologie, selon les résultats d’une méta-analyse récente, justifiant leur emploi dans le suivi des patients
Hese deficits coexist in the acute phase of a depressive episode and interfere with decision-making and goal-directed behaviors, and the associated feeling of effort. They appear to persist in periods of clinical remission, decreasing the quality of the therapeutic and functional response and lately worsening the prognosis of the disorder. The aim of this work is to identify objectively measurable neurocognitive markers in clinical practice, and to study their association with the prognosis of a depressive episode, in order to better predict remission and potentially to optimize therapeutic prescribing strategies for patients accordingly. The impairment of neurocognitive processes related to reward constitutes a first vulnerability marker for major depressive disorder (MDD): in a study assessing the production of motor effort in order to obtain a reward, depressed patients had a deficit in production of effort, unlike healthy subjects. Such deficit in incentive motivation - a process underpinned by the activation of ventral cortico-striatal circuits in healthy subjects - may constitute a specific dimension of MDD. It participates in the decision-making and action processes impairments and is associated with – and possibly a consequence of- more specifically cognitive deficits. In a study assessing several cognitive functions in a large cohort of depressed patients, the persistence of psychomotor retardation after 6 to 8 weeks of treatment - in patients considered as being in clinical remission - was positively and independently correlated with the number of past depressive episodes, thus constituting a marker of "cumulative" marker of past depressive episodes. Finally, in a literature review on the progressive evolution of cognitive deficits in MDD, we discussed the existence of a “neurotoxic” effect of the lifetime accumulation of depressive episodes on neurocognitive deficits and its consequences on disease prognosis (increased risk of incomplete functional/clinical remission, relapses, evolution towards dementia). One of the main interest in identifying clinical and cognitive markers of vulnerability is to highlight their capacity to predict the course of a depressive episode-or disorder. In a study based on a cohort of more than 500 depressed patients, a measurement of attention (d2 attention test) was able to significantly and independently predict the subsequent course towards complete remission (clinical and functional) and to constitute a trait -marker of depression, easy to use in clinical practice. Other cognitive markers (such as executive functions) have shown high predictive values for therapeutic response, comparable to those provided by imaging or electrophysiology markers, according to the results of a recent meta-analysis, that emphasizes the interest of using them in patient’s follow-up. Finally, in order to better assess the prognosis of depressive disorder, we have shown that Seasonal Affective Disorder (SAD) diagnosis criteria - which nevertheless represents a specific depressive disorder with well-known physiopathology substrates (construction validity) - had a low predictive validity, prompting to consider this disorder as a temporary expression of a mood disorder, rather than a specific disorder. The identification of clinical tools measuring motivational and cognitive deficits in clinical routine and predicting the course of a depressive episode or disorder represents a major challenge in the improvement of personalized therapeutic management and the long-term prognosis in depressed patients
APA, Harvard, Vancouver, ISO, and other styles
50

Kiss, Marc-Olivier. "Évaluation de la stabilité primaire d'une greffe ostéochondrale autologue stabilisée au moyen d'un ciment ostéoconducteur résorbable." Thèse, 2011. http://hdl.handle.net/1866/8730.

Full text
Abstract:
L’objectif de cette étude est de vérifier si un ciment ostéoconducteur résorbable utilisé comme technique de fixation de greffons ostéochondraux permet d'obtenir une stabilité initiale supérieure à celle obtenue avec la technique de mosaicplastie originalement décrite. Il s’agit d’une étude biomécanique effectuée sur des paires de fémurs cadavériques bovins. Pour chaque paire de fémurs, des greffons ostéochondraux autologues ont été insérés et stabilisés au moyen d’un ciment biorésorbable (Kryptonite, DRG inc.) sur un fémur alors qu’au fémur controlatéral, les greffons ont été implantés par impaction selon la technique usuelle de mosaicplastie. Des greffons uniques ainsi que des greffons en configuration groupée ont été implantés et soumis à une évaluation biomécanique. Les charges axiales nécessaires pour enfoncer les greffons de 1, 2 et 3 mm ont été comparées en fonction de la technique de stabilisation utilisée, ciment ou impaction, pour chaque configuration de greffons. Les résultats démontrent que les greffons ostéochondraux cimentés uniques et groupés ont une stabilité initiale supérieure à celle de greffons non cimentés sur des spécimens cadavériques bovins. L’obtention d’une plus grande stabilité initiale par cimentation des greffons ostéochondraux pourrait permettre une mise en charge précoce post-mosaicplastie et mener à une réhabilitation plus rapide.
The objective of this project is to compare the primary stability of osteochondral autografts stabilized with a resorbable osteoconductive bone cement to that of bottomed press fit grafts inserted according to the original mosaicplasty technique. Biomechanical testing was conducted on pairs of cadaveric bovine femurs. For each femoral pair, osteochondral grafts were inserted and stabilized with an osteoconductive bone cement (Kryptonite, DRG inc.) on one bone whereas on the controlateral femur, grafts were inserted in a press fit fashion. Grafts were inserted in 2 different configurations, single grafts as well as groups of 3 adjacent grafts, and submitted to biomechanical testing. Axial loads needed to sink the grafts to 1, 2 and 3 millimeters below cartilage level were recorded and compared according to the fixation technique, cement or press-fit impaction, for each graft configuration. According to those results, cemented osteochondral autografts appear more stable than press fit grafts for both single and 3-in-a-row configurations. Using such a cementation technique could potentially prevent the initial loss of stability that has been shown to occur with osteochondral grafts in the post-operative period, allowing patients to perform early weight bearing and rehabilitation.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography