To see the other types of publications on this topic, follow the link: Méthodes d'extraction.

Dissertations / Theses on the topic 'Méthodes d'extraction'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes d'extraction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dang, Duc-Cuong. "Méthodes d'extraction pour la résolution de problèmes d'optimisation combinatoire." Compiègne, 2011. http://www.theses.fr/2011COMP1985.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à la résolution approchée de problèmes d'optimisation difficiles. Notre idée centrale pour procéder à l'élaboration d'heuristiques et métaheuristiques efficaces est d'exploiter les sous-structures du problème à traiter pour lesquelles la résolution est plus facile. Nous avons introduit une approche de résolution basée sur une méthode d'extraction. Nous avons ainsi traité efficacement un problème particulier de tournées avec profits (TOP) grâce à une propriété de dominance des tournées saturées. Une approche similaire a permis de traiter le problème de la clique maximum en utilisant des métaheuristiques avancées avec des schémas heuristiques hybrides. Nous avons également montré l'utilité et l'efficacité des méthodes développées comme l'heuristique de destruction/construction dans un contexte industriel. Il s'agit de la planification des visites pour relever les compteurs d'eau avec l'introduction du radio-relevé<br>In this thesis, we focused on the development of heuristic solutions for solving NP-Hard combinatorial optimization problems. Our main idea is to exploit substructures of the problems for which the resolution is polynomial. We introduced a new resolution approach, called extraction method. Based this method and on a dominance property of saturated tours, we proposed two effective algorithms for solving the Team Orienteering Problem (TOP). Using the same principle, we proposed an advanced hybrid metaheuristic for the Maximum Clique Problem. We have also shown the effectiveness of the developed methods such as destruction/ construction heuristic with an industrial application. The application consists of optimizing the process of organizing water meter readings during the transition to the automatic reading technology
APA, Harvard, Vancouver, ISO, and other styles
2

Delque-Kolic, Emmanuelle. "Méthodes d'extraction du carbone des poteries pour leur datation par le radiocarbone." Lyon 1, 1995. http://www.theses.fr/1995LYO10119.

Full text
Abstract:
La poterie est un temoin direct de l'activite humaine et fournit, par ses etudes macroscopiques et microscopiques, beaucoup de renseignements sur ses producteurs. Pourtant, la datation par le radiocarbone, couramment appliquee en archeologie aux artefacts tels que charbon, bois et os, n'a que rarement eu recours au materiel ceramique. Il s'avere, en effet, que les diverses origines du carbone des poteries conferent a ce materiau une mauvaise fiabilite. Le probleme consiste alors a extraire, pour la datation, le carbone representatif de l'epoque de fabrication de la poterie. Dans un premier temps, nous avons elabore nos propres echantillons avec des matieres premieres (argile et degraissant) de nature et d'age connus et dans des conditions de cuisson telles que le combustible, d'age connu egalement, degage des fumees capable de noircir nos poteries experimentales. C'est cette derniere source de carbone, souvent appelee carbone d'enfumage et presente en plus ou moins grande quantite sur beaucoup de ceramiques archeologiques, que nous avons cherchee a extraire. Le brulage, sous oxygene, a basse temperature, des tessons ceramiques broyes extrait de facon preferentielle le carbone de cuisson. Ce traitement applique a une lamelle decoupee dans une partie enfumee de la poterie libere, presqu'exclusivement, le carbone issu de l'enfumage. Ces techniques, appliquees a des tessons archeologiques d'age connu, ont donne des resultats encourageants. Enfin, nous avons explore une nouvelle technique qui consiste a oxyder le carbone par action d'un rayonnement laser a la surface de l'echantillon. Moyennant de serieuses precautions experimentales dues aux faibles quantites de carbone mises en jeu, l'utilisation de cette technique pour extraire le carbone d'enfumage semble prometteuse
APA, Harvard, Vancouver, ISO, and other styles
3

Toribio, Raphaël. "Méthodes d'extraction de pôles de résonance : application à la caractérisation de cibles." Nantes, 2002. http://www.theses.fr/2002NANT2079.

Full text
Abstract:
Ces travaux de thèse s'inscrivent dans le cadre de procédés d'analyse et de traitement basses fréquences de signaux radar, afin d'apporter une contribution quant à l'amélioration de techniques de détection et d'identification de cibles, pour des systèmes opérationnels. Suite à un état, traitant du problème des approximations des réponses impulsionnelle et transitoire d'un objet, il est possible d'identifier une cible à partir de sa réponse basse fréquence, par la caractérisation de paramètres intrinsèques appelés : pôles de résonance. Ainsi, la première partie du mémoire s'articule, autour d'un rappel de phénomènes physiques traduisant l'existence de pôles de résonance dans la réponse d'une cible , soumise à une excitation électromagnétique. . .
APA, Harvard, Vancouver, ISO, and other styles
4

Marinova, Mariya Dafinova. "Nouvelles méthodes d'extraction des acides carboxyliques, séparation des acides lactique et tartrique." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT021G.

Full text
Abstract:
L'objectif principal de ce travail est de développer de nouvelles méthodes d'extraction des acides carboxyliques et de vérifier leur efficacité dans le cas des acides lactique et tartrique présents dans les effluents d'origine vinicole. L'analyse du mécanisme d'extraction par les extractants classiques a permis la mise en place d'un extractant mixte, un extractant modifié et d'un solvant adapté pour séparer des acides carboxyliques. L'extractant mixte représente un mélange d'une base, la TOA et d'un sel d'ammonium quaternaire, l'Aliquat 336, dilués avec du 1-décanol. L'extraction de l'acide lactique par l'un des deux ectractants classiques favorise l'action de l'autre et elle est plus efficace en comparaison avec celle réalisée au moyen des constituants individuels. La phase organique contenant l'extractant modifié dans du 1-décanol et n-dodécane possède plusieurs avantages par rapport à l'extractant classique lors de l'extraction de l'acide lactique. Le solvant le mieux adapté au niveau de l'extraction sélective et retenu pour séparer les acides lactique et tartrique est le mélange TOA, 1-décanol, n-dodécane.
APA, Harvard, Vancouver, ISO, and other styles
5

Gazeaux, Julien. "Méthodes probabilistes d'extraction de signaux cachés appliquées à des problèmes de sciences de l'atmosphère." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00747464.

Full text
Abstract:
Ce travail de thèse est consacré à la problématique de l'extraction de signaux dans le domaine des sciences de l'atmosphère. Le point commun des problèmes considérés est la notion de détection et d'estimation de signaux cachés. L'approche par la modélisation probabiliste s'est avérée y être bien adaptée. Nous nous sommes attachés à répondre à différentes questions telles que : quel type d'information s'attend-on à trouver dans un jeu de données ? Le signal supposé caché se trouve-t-il réellement dans les données d'étude ? Comment détecter l'instant d'occurrence d'un phénomène, comment le caractériser (timing, amplitude ...) ? Si un tel signal est détecté, quelle (in)certitude est associée à cette détection ? Nous répondons à ces différentes questions au travers du développement de différents modèles probabilistes de détection d'évènements cachés. Nous nous sommes intéressés à différents modèles non stationnaires, dont deux sont notamment présentés dans un cadre multivarié. Au travers de trois modèles probabilistes décrivant des signaux cachés divers (rupture de variance, signaux éruptifs et changement de moyenne), nous avons aussi développé des méthodes associées de détection. Le premier modèle est appliqué à la détection de nuages stratosphériques polaires dans des profils lidar, le deuxième à des éruptions volcaniques dans des séries chronologiques de sulfate et enfin le troisième est appliqué à la détection de la date de l'onset de la mousson Africaine dans des données géophysiques liées à la dynamique atmosphérique et aux précipitations. Les différentes méthodes mises en place font appel à une variété de techniques de modélisation probabiliste allant de la maximisation de rapport de vraisemblance associée à des tests d'hypothèses à la résolution de filtres de Kalman dans un cadre non stationnaire et non linéaire pour la décomposition de séries multivariées couplée à la détection des signaux cachés. Les difficultés techniques liées à l'extraction de signaux cachés sont analysées et les performances des différents algorithmes sont évaluées. Les résultats obtenus confirment l'intérêt des méthodes probabilistes appliquées à ces problématiques de signaux cachés en sciences de l'atmosphère.
APA, Harvard, Vancouver, ISO, and other styles
6

Linard, Benjamin. "Développement de méthodes évolutionnaires d'extraction de connaissance et application à des systèmes biologiques complexes." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00766182.

Full text
Abstract:
La biologie des systèmes s'est beaucoup développée ces dix dernières années, confrontant plusieurs niveaux biologiques (molécule, réseau, tissu, organisme, écosystème...). Du point de vue de l'étude de l'évolution, elle offre de nombreuses possibilités. Cette thèse porte sur le développement de nouvelles méthodologies et de nouveaux outils pour étudier l'évolution des systèmes biologiques tout en considérant l'aspect multidimensionnel des données biologiques. Ce travail tente de palier un manque méthodologique évidant pour réaliser des études haut-débit dans le récent domaine de la biologie évolutionnaire des systèmes. De nouveaux messages évolutifs liés aux contraintes intra et inter processus ont été décrites. En particulier, mon travail a permis (i) la création d'un algorithme et un outil bioinformatique dédié à l'étude des relations évolutives d'orthologie existant entre les gènes de centaines d'espèces, (ii) le développement d'un formalisme original pour l'intégration de variables biologiques multidimensionnelles permettant la représentation synthétique de l' histoire évolutive d'un gène donné, (iii) le couplage de cet outil intégratif avec des approches mathématiques d'extraction de connaissances pour étudier les perturbations évolutives existant au sein des processus biologiques humains actuellement documentés (voies métaboliques, voies de signalisations...).
APA, Harvard, Vancouver, ISO, and other styles
7

Bisceglia, Émilie. "Méthodes physiques d'extraction de micro-organismes à partir d'échantillons sanguins à l'aide de microsystèmes." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00957785.

Full text
Abstract:
Dans le domaine du diagnostic in vitro, l'étape d'extraction de micro-organismes à partir d'un échantillon complexe est une étape clé pour permettre l'identification du pathogène responsable d'une infection. Pour les septicémies, cette étape d'extraction est généralement précédée d'une étape de culture, ce qui conduit à une obtention des résultats au bout de plusieurs jours. Un résultat plus rapide (typiquement inférieur à 24h) permettrait d'augmenter le taux de survie des patients, et aurait ainsi une forte valeur ajoutée pour le corps médical. Le but de ces travaux est donc de développer une nouvelle méthode d'extraction et de concentration de pathogènes directement à partir d'un échantillon sanguin, sans étape de culture. Une stratégie en deux modules microfluidiques associés en série est proposée : elle repose sur la modification de la conductivité et de l'osmolarité de l'échantillon dans un premier module, puis sur la capture des micro-organismes par diélectrophorèse dans un second module. L'étude du premier module a permis de déterminer l'impact de la conductivité et de l'osmolarité du milieu sur les propriétés diélectriques des cellules. Deux voies ont ainsi été abordées, afin de diriger les cellules du sang et les micro-organismes vers un milieu de conductivité et d'osmolarité contrôlées : la dilution, et l'utilisation de forces acoustiques. L'étude du deuxième module a ensuite permis de démontrer la possibilité de capturer et concentrer des micro-organismes à partir d'un échantillon hypotonique et faiblement conducteur dans un écoulement microfluidique par diélectrophorèse. L'architecture d'un microsystème dédié a été définie grâce à un modèle numérique, puis validé expérimentalement avec des échantillons sanguins et différents micro-organismes (E. coli, S. epidermidis et C. albicans). La capture générique des micro-organismes est démontrée, et un taux de capture de 97% a été obtenu pour la séparation de \EC, avec une vitesse moyenne de l'échantillon dans le microsystème de 100 à 200 µm.s-1. Enfin, des perspectives d'amélioration sont présentées pour permettre d'effectuer cette étape de séparation sur un gros volume d'échantillon (1 à 10mL) en quelques heures, afin de répondre aux exigences imposées par l'urgence des tests de diagnostic des septicémies.
APA, Harvard, Vancouver, ISO, and other styles
8

Rajeha, Hiba. "Optimisation des méthodes d'extraction des composés phénoliques des raisins libanais et de leurs coproduits." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2209.

Full text
Abstract:
Ce travail de doctorat traite l’optimisation des méthodes d’extraction des composés phénoliques à partir des sous-produits de la viticulture et de la viniculture, à savoir les sarments de vigne et les marcs de raisins. Plusieurs technologies innovantes sont appliquées et comparées : l’extraction accélérée par solvant (EAS), les décharges électriques de haute-tension (DEHT), les ultrasons (US) et les champs électriques pulsés (CEP). Les extractions solide-liquide faites sur les sarments ont montré que, parmi les solvants étudiés, l’eau est le moins efficace. L’ajout de la β-cyclodextrine dans l’eau améliore le procédé d’extraction mais est moins efficace que les mélanges hydroéthanoliques. L’extraction en milieu alcalin donne le meilleur rendement en composés phénoliques. L’intensification de l’extraction des composés phénoliques des sarments est possible grâce aux nouvelles technologies d’extraction. L’efficacité des méthodes testées est la moindre avec les US, moyenne avec les CEP pour atteindre le meilleur rendement phénolique avec les DEHT. La filtrabilité de ces extraits est d’autant plus lente que leur composition est complexe. L’ultrafiltration membranaire permet une très bonne purification et concentration des composés phénoliques. L’étude des mécanismes d’action des DEHT a permis d’identifier les phénomènes favorisant l’extraction des composés phénoliques à partir des sarments. Un effet mécanique des DEHT, capable de fragmenter les sarments, est en majorité responsable de cette amélioration. Le procédé énergivore du broyage pourra alors être omis. Un effet électrique contribuant également à l’intensification du procédé d’extraction est démontré. La formation de peroxyde d’hydrogène durant le traitement par DEHT est quantifiée mais ne semble pas altérer les composés phénoliques qui sont des molécules à capacité antiradicalaire élevée. Quant aux études portées sur les marcs de raisins, la variation simultanée de plusieurs paramètres opératoires a permis l’optimisation de l’extraction aqueuse et hydroéthanolique des composés phénoliques en ayant recours à la méthodologie de surface de réponse (MSR). Le passage d’un milieu aqueux à un milieu hydroéthanolique a permis d’améliorer nettement le procédé d’extraction solide-liquide des composés phénoliques et l’utilisation de l’EAS a permis l’augmentation du rendement en composés phénoliques jusqu’à trois fois par rapport à l’optimum obtenu en milieu hydroéthanolique<br>This study deals with the optimization of the extraction methods of phenolic compounds from viticulture and viniculture by-products, namely vine shoots and grape pomace. Several innovative technologies were tested and compared: high voltage electrical discharges (HVED), accelerated solvent extraction (ASE), ultrasounds (US) and pulsed electric fields (PEF). The solid-liquid extraction conducted on vine shoots showed that, amongst the studied solvents, water is the least effective. The addition of the β-cyclodextrin to water improves the extraction process but remains less effective than that with hydroethanolic mixtures. The extraction in alkaline medium gives the highest phenolic compound extraction yields. The intensification of phenolic compound extraction from vine shoots was possible thanks to new extraction technologies. The effectiveness of the tested methods was the least with US, followed by PEF to accomplish the highest phenolic yield with HVED. The filterability of the extracts was slower when their composition was complex, and the membrane technology allowed a good purification and concentration of phenolic compounds. The reason behind the high effectiveness of HVED was investigated. The action mechanisms of HVED were studied in details. A mechanical effect of HVED provoked vine shoots fragmentation and particle size reduction. This was the main phenomenon responsible for the intensification of the extraction process. It also suggested that a grinding pretreatment would not be necessary prior to HVED, which considerably diminishes the energy input of the overall process. The presence of a non-mechanical effect and its contribution in the efficiency of HVED were also shown. The formation of hydrogen peroxide during the treatment was observed. However it did not seem to alter vine shoot phenolic compounds since these demonstrated a high radical scavenging capacity. As for the studies conducted on grape pomace, the simultaneous variation of several operating parameters allowed the aqueous and hydroethanolic optimization of phenolic compound extraction from these byproducts by response surface methodology (RSM). The passage from an aqueous to a hydroethanolic medium clearly improved the solid-liquid extraction of phenolic compounds from grape pomace. The use of ASE further increased the phenolic compound yield up to three times as compared to the optimum obtained with a hydroethanolic solvent
APA, Harvard, Vancouver, ISO, and other styles
9

Candillier, Christophe. "Méthodes d'Extraction de Connaissances à partir de Données (ECD) appliquées aux Systèmes d'Information Géographiques (SIG)." Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00101491.

Full text
Abstract:
Le travail effectué durant cette thèse concerne l'étude des méthodes d'Extraction de Connaissances à partir de Données (ECD) dans le cadre des Systèmes d'Information Géographiques (SIG). Nous avons non seulement mis en œuvre et amélioré des méthodes d'ECD classique (Classification de Données, Visualisation de Classifications) mais aussi des méthodes d'ECD spatiales liées à des méthodes d'analyse spatiale (Lissage Spatial, Détermination de Pôles, Sectorisation). Nous avons effectué notre travail de recherche au sein de la société GÉOBS spécialisée dans l'analyse des données géographiques (spatiales), et nous avons donc expérimenté, appliqué et vérifié ces méthodes sur des jeux de données fournis par GÉOBS et liés à des problématiques de Développement Économique, de Géomarketing, d'Analyse de Risque, d'Environnement, de Santé, etc. Ce mémoire offre une vision globale concernant un ensemble de problématiques et de méthodes d'analyse. Il met ainsi en avant la complémentarité des méthodes utilisées qui sont souvent connectées entre elles soit du point de vue technique soit du point de vue de leur utilisation. Finalement, ce fut un travail très enrichissant car il a touché à de nombreuses problématiques et à d'aussi nombreuses méthodes d'extraction de connaissances.
APA, Harvard, Vancouver, ISO, and other styles
10

Guin, Ophélie. "Méthodes bayésiennes semi-paramétriques d'extraction et de sélection de variables dans le cadre de la dendroclimatologie." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00636704.

Full text
Abstract:
Selon le Groupe Intergouvernemental d'experts sur l'Évolution du Climat (GIEC), il est important de connaitre le climat passé afin de replacer le changement climatique actuel dans son contexte. Ainsi, de nombreux chercheurs ont travaillé à l'établissement de procédures permettant de reconstituer les températures ou les précipitations passées à l'aide d'indicateurs climatiques indirects. Ces procédures sont généralement basées sur des méthodes statistiques mais l'estimation des incertitudes associées à ces reconstructions reste une difficulté majeure. L'objectif principal de cette thèse est donc de proposer de nouvelles méthodes statistiques permettant une estimation précise des erreurs commises, en particulier dans le cadre de reconstructions à partir de données sur les cernes d'arbres.De manière générale, les reconstructions climatiques à partir de mesures de cernes d'arbres se déroulent en deux étapes : l'estimation d'une variable cachée, commune à un ensemble de séries de mesures de cernes, et supposée climatique puis l'estimation de la relation existante entre cette variable cachée et certaines variables climatiques. Dans les deux cas, nous avons développé une nouvelle procédure basée sur des modèles bayésiens semi- paramétriques. Tout d'abord, concernant l'extraction du signal commun, nous proposons un modèle hiérarchique semi-paramétrique qui offre la possibilité de capturer les hautes et les basses fréquences contenues dans les cernes d'arbres, ce qui était difficile dans les études dendroclimatologiques passées. Ensuite, nous avons développé un modèle additif généralisé afin de modéliser le lien entre le signal extrait et certaines variables climatiques, permettant ainsi l'existence de relations non-linéaires contrairement aux méthodes classiques de la dendrochronologie. Ces nouvelles méthodes sont à chaque fois comparées aux méthodes utilisées traditionnellement par les dendrochronologues afin de comprendre ce qu'elles peuvent apporter à ces derniers.
APA, Harvard, Vancouver, ISO, and other styles
11

Le, Boudec Ange. "Nouvelles méthodes d'extraction du Molybdène et géochimie d'un grand gisement fossilifère Cambrien, le Lagerstätte de Sirius Passet." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00832055.

Full text
Abstract:
Les propriétés géochimiques particulières du molybdène vis-à-vis du potentiel d'oxygénation en milieu aqueux en font un élément particulièrement utilisé pour déterminer le degré d'oxygénation du milieu dans lequel un dépôt a sédimenté. Dans un premier temps, ce travail de thèse présente une alternative aux méthodes d'extraction du molybdène utilisées jusqu'ici. Les principales méthodes de purification couramment utilisées sur échantillons géologiques se décomposent en deux phases : une purification au travers d'une résine anionique, puis une purification au travers d'une résine cationique. La méthode proposée ici, initialement prévue pour permettre des analyses en Sample-Standard-Bracketing (SSB), permet d'isoler quantitativement le molybdène du reste de la matrice géologique en un seul passage sur résine anionique. La purification s'avère également suffisamment efficace pour effectuer des analyses en utilisant la méthode du double-spike. Une comparaison de ces deux méthodes de correction du fractionnement instrumental a permis d'évaluer les limites de l'utilisation du SSB par rapport au double-spike. Dans un second temps, cette chimie a été appliquée dans le cadre d'une étude géochimique approfondie d'un gisement fossilifère extrêmement riche: le Lagerstätte de Sirius Passet situé au nord du Groenland. Associée aux critères paléontologiques, cette étude indique que ces sédiments se sont déposés dans un milieu au moins partiellement oxygéné, sous forme de boues sédimentaires très peu propices aux échanges avec la colonne d'eau. Le contexte paléogéographique, les analyses chimiques et les observations microscopiques suggèrent que ces boues sont principalement d'origine éolienne.
APA, Harvard, Vancouver, ISO, and other styles
12

Mbaye, Cheikh Tidiane. "Contribution à la simulation dynamique des procédés agro-alimentaires : application au procédé d'extraction de l'huile d'arachide." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0470.

Full text
Abstract:
L'objet de ce travail est de proposer une modélisation dynamique des opérations unitaires du procédé d'extraction par solvant de l'huile à partir de la graine d'arachide en vue de la simulation dynamique du procédé complet. Les opérations unitaires du procédé d'extraction des huiles oléagineuses sont proches de celles rencontrées en génie chimique. C'est ainsi qu'il est possible d'espérer qu'une simulation dynamique du procédé complet puisse avoir des effets bénéfiques sur l'analyse de tels procédés. De plus, la littérature scientifique ne fournissait pas de méthodes générales de détermination des propriétés thermodynamiques des corps purs et des mélanges rencontres dans les matières premières oléagineuses. Les outils de simulation dynamique des procédés, tels que le logiciel Speedup, par leur possibilité d'introduire ses propres données sur les différents mélanges rencontres sont des moyens efficaces pour la simulation des opérations unitaires de traitement des huiles végétales. La modélisation dynamique des opérations unitaires a été effectuée avec un traitement spécifique des données thermodynamiques. La simulation dynamique du procédé complet a été effectuée en tenant compte de ces modèles dynamiques spécifiques et d'un système adapte de contrôle-commande. A partir de cette modélisation, il a été possible d'étudier un atelier de trituration comprenant les opérations unitaires d'extraction par solvant et de distillation par évaporation a double effet ; une simulation dans des conditions de fonctionnement industriel avec système de contrôle-commande a pu être réalisée avec succès. Le modèle dynamique proposé est très flexible ; il peut s'adapter facilement à une amélioration du procédé ou s'intégrer à une stratégie globale de contrôle-commande.
APA, Harvard, Vancouver, ISO, and other styles
13

Pennerath, Frédéric. "Méthodes d'extraction de connaissances à partir de données modélisables par des graphes : Application à des problèmes de synthèse organique." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00436568.

Full text
Abstract:
Des millions de réactions chimiques sont décrites dans des bases de données sous la forme de transformations de graphes moléculaires. Cette thèse propose différentes méthodes de fouille de donnés pour extraire des motifs pertinents contenus dans ces graphes et ainsi aider les chimistes à améliorer leurs connaissances des réactions chimiques et des molécules. Ainsi on commence par montrer comment le problème central de la recherche des schémas de réactions fréquents peut se résoudre à l'aide de méthodes existantes de recherche de sous-graphes fréquents. L'introduction du modèle général des motifs les plus informatifs permet ensuite de restreindre l'analyse de ces motifs fréquents à un nombre réduit de motifs peu redondants et représentatifs des données. Si l'application du modèle aux bases de réactions permet d'identifier de grandes familles de réactions, le modèle est inadapté pour extraire les schémas caractéristiques de méthodes de synthèse (schémas CMS) dont la fréquence est trop faible. Afin de surmonter cet obstacle, est ensuite introduite une méthode de recherche heuristique fondée sur une contrainte d'intervalle entre graphes et adaptée à l'extraction de motifs de très faible fréquence. Cette méthode permet ainsi de déterminer à partir d'exemples de réactions et sous certaines conditions le schéma CMS sous-jacent à une réaction donnée. La même approche est ensuite utilisée pour traiter le problème de la classification supervisée de sommets ou d'arêtes fondée sur leurs environnements puis exploitée pour évaluer la formabilité des liaisons d'une molécule. Les résultats produits ont pu être analysés par des experts de la synthèse organique et sont très encourageants.
APA, Harvard, Vancouver, ISO, and other styles
14

Sévillano, Rose-Marie. "Structures des lignines résiduelles des pâtes chimiques : influence des méthodes d'extraction, des procédés de délignification et des essences de bois." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0046.

Full text
Abstract:
L'obtention de pâte à papier chimique nécessite de réaliser une serie de traitements (cuisson, blanchiment) dont l'objectif principal est d'éliminer la lignine. En effet la lignine porteuse de groupements colorés entrave le blanchiment des pâtes. Dans ce travail est proposé une nouvelle méthode d'analyse des fonctions carbonyle de la lignine (responsables de la coloration des pâtes). Cette méthode met en ouvre la dérivation par la trifluoromethylphenylhydrazine suivie par une analyse quantitative en RMN #1#9F. Elle permet de doser simultanément les carbonyles aldéhydiques et cétoniques d'une part et quinoniques d'autre part. Cette méthode rapide, précise est supérieure aux méthodes décrites dans la littérature. L'optimisation du blanchiment passe par la connaissance de la structure de la lignine résiduelle. Ceci nécessite de savoir l'isoler afin de pouvoir l'analyser correctement. Une étude comparative des méthodes d'extraction de la lignine résiduelle a été réalisée. Ceci a permis de préciser les avantages et inconvénients de chacune de ces méthodes. Dans le cas de l'extraction enzymatique, la structure de la lignine n'est pas modifiée ; cependant la lignine obtenue est fortement contaminée par des protéines et par des hydrates de carbone. Dans le cas de l'acidolyse utilisant un milieu dioxane-eau (80/20 v/v) contenant 0,1 n d'acide chlorhydrique, la lignine est dépolymérisée. L'extraction en milieu acide acétique-eau-chlorure de zinc, optimisée dans l'étude, n'affecte peu les liaisons ether de la lignine issue de pâte kraft et donne des rendements élevés. Les résultats obtenus sur les lignines résiduelles issues des pâtes kraft et bisulfite ont permis de confirmer la plupart des mécanismes réactionnels décrits dans la littérature. Par ailleurs, ils ont permis également de préciser les facteurs régissant l'aptitude au blanchiment des pâtes (facilité d'une pâte à être blanchie indépendamment de la nature du réactif de blanchiment employé).
APA, Harvard, Vancouver, ISO, and other styles
15

Mahboubi, Amal Kheira. "Méthodes d'extraction, de suivi temporel et de caractérisation des objets dans les vidéos basées sur des modèles polygonaux et triangulés." Nantes, 2003. http://www.theses.fr/2003NANT2036.

Full text
Abstract:
La diversification des services multimédias et l'émergence du standatd MPEG4 au milieu des années 1990 a mis en évidence la nécessité de recherches approfondies sur les méthodes d'analyse de la vidéo numérique en vue de la représentation de son contenu. Cette thèse s'inscrit dans ce contexte. Nous cherchons à concevoir un système complet de représentation du contenu vidéo en prenant en compte ses aspects spatial et temporel. A cet effet, dans cette thèse nous présentons plusieurs méthodes pour le suivi des objets contenus dans des séquences vidéo génériques. Chaque objet plan noté 'VOP' (Video Object Plane) est représenté par un maillage triangulaire associé à un modèle polygonal hiérarchique et articulé. La segmentation, fondée sur des régions polygonales, permet de maintenir un découpage cohérent au cours du temps d'un VOP en zones à mouvements homogènes. . .
APA, Harvard, Vancouver, ISO, and other styles
16

Charles, Jérôme. "Désintégration des mésons B. Méthodes d'extraction des angles décrivant la violation de CP. Théorie effective des facteurs de forme lourd à léger." Phd thesis, Université Paris Sud - Paris XI, 1999. http://tel.archives-ouvertes.fr/tel-00002502.

Full text
Abstract:
Cette thèse se compose de deux parties distinctes, qui ont pour objectif l'étude de l'interaction faible des quarks lourds. Elle s'inscrit dans le contexte de la détermination des paramètres fondamentaux de la matrice de mélange de Cabibbo-Kobayashi-Maskawa, mais apporte également des éléments de compréhension de la structure hadronique. À propos de la violation de CP, on aborde les problèmes théoriques qui peuvent se poser lors de l'extraction des angles du Triangle d'Unitarité. Un premier aspect concerne les incertitudes hadroniques générées par les diagrammes pingouin. Dans le cas classique de la désintégration B -> pi+pi-, on propose une description exacte très simple de ces effets, à un seul paramètre, ce qui permet de les contrôler avec des hypothèses phénoménologiques. Un deuxième aspect concerne les ambiguïtés discrètes sur les angles CP et les analyses en espace des phases qui permet de les discriminer : la distribution en masses invariantes pour les désintégrations en trois mésons pseudoscalaires, et la distribution angulaire pour les désintégrations en hypéron et antihypéron. Dans la seconde partie de la thèse, on étudie les facteurs de forme qui décrivent les transitions lourd à léger, du type B -> pi(rho) l nu, B -> K* gamma et B -> K(*) l+l- ; ceux-ci sont au coeur de la détermination de |Vub| et |Vts| par exemple. En utilisant une approche de théorie effective, dérivée de QCD dans la limite de masse lourde initiale et de grande énergie du hadron final, et négligeant les corrections radiatives, on montre que trois facteurs de forme indépendants suffisent à décrire les transitions B -> P et B -> V, où P (V) désigne un méson pseudoscalaire (vecteur) léger par rapport au B. De plus, la dépendance de ces facteurs de forme vis-à-vis de la masse lourde M et de la grande énergie E est factorisable en racine(M) x z(E), et on s'attend plus précisément à un comportement en racine(M) / E^2. Ces prédictions, valables à l'ordre dominant en 1/M, 1/E et alpha_s, sont vérifiées exactement dans le cadre des règles de somme de QCD sur le cône de lumière, ainsi que dans une certaine classe de modèles covariants de quarks constituants, construits selon la prescription de Bakamjian-Thomas.
APA, Harvard, Vancouver, ISO, and other styles
17

Hassein-Bey, Abdelkader. "Modélisation physique des effets du vieillissement et méthodes d'extraction des paramètres des transistors MOS submicroniques sur silicium massif et S. O. I." Grenoble INPG, 1993. http://www.theses.fr/1993INPG0103.

Full text
Abstract:
La reduction des dimensions des dispositifs elementaires composant les circuits integres, a ete rendue possible par les progres de la technologie microelectronique. L'augmentation de la densite d'integration induit un accroissement des champs electriques a l'interieur du transistor, d'ou une injection de porteurs chauds dans l'oxyde de grille et une creation de defauts. La comprehension des mecanismes physiques de degradation est fondamentale pour aboutir a des solutions technologiques permettant d'attenuer le phenomene de vieillissement. Cette comprehension est le fruit d'etudes menees sur la degradation des performances des dispositifs dans le but d'evaluer l'ampleur et la nature des dommages engendres. L'objectif de notre travail n'est pas d'effectuer une etude systematique du vieillissement, mais de developper et de mettre au point des modeles et des methodes specifiques de caracterisation de transistors mos degrades ultra-courts. Ainsi, nous aborderons la simulation et la modelisation des tmos, en nous concentrant sur le cas des canaux de type p. Ceci nous permettra de mettre au point des methodes efficaces d'extraction de parametres. Les technologies silicium sur isolant ou soi (silicon on insulator) apparaissent comme une alternative interessante pour la microelectronique, pouvant serieusement concurrencer les technologies plus classiques sur silicium massif. Nous abordons en detail le probleme du couplage des interfaces dans les tmos soi ultra-minces. On traite aussi de la modelisation des effets des degradations dans les tmos soi ultra-courts afin de mieux comprendre les aspects typiques et complexes lies au vieillissement de ces transistors
APA, Harvard, Vancouver, ISO, and other styles
18

Dimitrova, Al Khani Sofka. "Simulation des colonnes d'extraction à l'aide d'un modèle de population de gouttes : méthodes de résolution pour l'hydrodynamique et le transfert de matière." Toulouse, INPT, 1988. http://www.theses.fr/1988INPT011G.

Full text
Abstract:
L'amelioration des algorithmes d'integration du modele de population (equilibre hydraulique avec ou sans transfert de matiere permet la mise au point un outil peu couteux d'analyse des resultats experimentaux et de simulation. Diverses colonnes d'extraction liquide-liquide sont etudiees : pulsee a plateaux perfores, kuehni, pulsee a disques et couronnes. Presentation de l'approximation du modele continu par la methode de colloration orthogonale sur les elements finis
APA, Harvard, Vancouver, ISO, and other styles
19

Idbraim, Soufiane. "Méthodes d'extraction de l'information spatiale et de classification en imagerie de télédétection : applications à la cartographie thématique de la région d'Agadir (Maroc)." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/553/.

Full text
Abstract:
Les travaux de cette thèse s'articulent autour de deux axes : la classification pour la cartographie de l'occupation du sol et l'extraction du réseau routier à partir des images satellitaires et aériennes. Le premier axe a pour objectif de proposer une méthode de classification visant à prendre en compte le contexte spatial de l'information contenue dans une image satellitaire. Ainsi, nous avons développé une méthode de classification markovienne, avec recherche de la solution optimale par l'algorithme d'ICM (Iterated Conditional Mode). Cette méthode est paramétrée par un facteur de température qui va permettre, premièrement, de régler la tolérance des configurations désavantageuses dans le processus d'évolution de la classification, et deuxièmement, d'assurer la convergence de l'algorithme en un temps de calcul raisonnable. Parallèlement, nous avons introduit une nouvelle contrainte contextuelle de segmentation dans l'algorithme. Cette contrainte va permettre au fil des itérations d'affiner la classification en accentuant les détails détectés par les contours de segmentation. Le second axe de cette thèse est l'extraction du réseau routier à partir des images satellitaires et aériennes. Nous avons proposé une méthodologie complètement automatique à travers un système d'extraction par blocs qui agissent séparément et indépendamment sur l'image, le premier bloc opère un filtrage directionnel adaptatif, permettant ainsi de détecter les routes dans chaque fenêtre de l'image selon les directions dominantes. Quant au deuxième, il applique une segmentation, puis, il sélectionne les segments représentant des routes selon un critère de forme. Ces deux blocs apportent ainsi un type d'informations différent sur la scène étudiée. Ces résultats sont confrontés puis complétés dans un troisième bloc afin de générer une image du réseau routier. Les performances des méthodologies proposées sont vérifiées à travers des exemples sur des images satellitaires et aériennes. Les résultats expérimentaux sont encourageants<br>The work of this thesis focuses around two axes: the classification for the mapping of land cover and the extraction of roads from satellite and aerial images. The first axis aims to propose a method of classification which takes in account the spatial information contained in a satellite image. Thus, we developed a method of Markov classification with the search for the optimal solution by an ICM (Iterated Conditional Mode) algorithm. This method is parameterized by a new factor of temperature, this parameter will allow, first, to rule the tolerance of the disadvantageous configurations during the evolution of the classification process, and secondly, to ensure the convergence of the algorithm in a reasonable time of calculation. In parallel, we introduced a new contextual constraint of the segmentation in the algorithm. This constraint will allow, over the iterations, to refine the classification by accentuating the detected details by the segmentation contours. The second axis of this thesis is the extraction of roads from satellite and aerial images. We proposed a completely automatic methodology with an extraction system in blocks which act separately and independently on the image. The first block operates a directional adaptive filtering, allowing detecting roads in each window of the image according to the dominant directions. The second one applies segmentation, and then selects the segments representing roads according to a criterion of the segment form. These two blocks provide a different type of information on the studied image. These results are then complemented with a third block to generate an image of the road network. The performances of the proposed methodologies are verified through examples of satellite and aerial images. In general, the experimental results are encouraging
APA, Harvard, Vancouver, ISO, and other styles
20

Brito-Berger, Ingrid. "Développement de méthodes d'extraction et d'analyse multi-résidus pour le suivi de contaminants organiques polyaromatiques et de métabolites oxygénés dans les sédiments." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR058/document.

Full text
Abstract:
Dans ce travail, deux méthodes d'extraction multi-résidus de contaminants présents dans des sédiments ont été développées. Dans la première partie de cette étude, une méthode a été développée pour l’'extraction simultanée de deux familles de métabolites oxygénés d'hydrocarbures aromatiques polycycliques (HAP), les quinones et les HAP hydroxylés (OH-HAP). Une approche chimiométrique a permis de déterminer les paramètres influant sur l’extraction assistée par micro-ondes (MAE) et une zone de compromis a été trouvée pour extraire de manière optimale les deux familles de composés. Deux méthodologies d’analyses chromatographiques ont été développées et validées pour analyser les extraits, puis comparées, à savoir la chromatographie liquide haute performance couplée aux détections UV et fluorimétrique (HPLC-UV-Fluo) et la chromatographie en phase gazeuse couplée à un spectromètre de masse par impact électronique (CPG-SM). En CPG-SM, des réactions de silylation des OH-HAP et d’acétylation des quinones ont dû être mises au point, afin d’abaisser les limites de détection (LD), en particulier pour les ortho-quinones. En HPLC-UV-Fluo, les LD étaient plus faibles qu’en CPG-SM, surtout pour les OH-HAP détectés en Fluo et l'analyse était plus rapide, sans processus de dérivation; mais la détection n’étant pas sélective, l’identification des analytes s’est avérée hazardeuse. Le choix s’est donc porté sur la CPG-SM pour une analyse plus fiable des deux familles de composés de matrices sédimentaires naturellement contaminées. Dans la deuxième partie de ce travail de thèse, une nouvelle méthodologie d'extraction a été développée et validée, basée sur la dispersion en phase solide de la matrice solide (MSPD), capable d'extraire mais aussi de purifier l’échantillon, méthodologie par ailleurs simple et rapide. Deux familles de composés ont été extraits simultanément à partir de sédiments, les HAP et les polychlorobiphényles (PCB). Un certain nombre de paramètres ont été optimisés, tels la nature des agents dispersants, le temps de broyage, le volume et la nature du mélange de solvants d’élution. Dans un deuxième temps, l'introduction des OH-HAP dans le processus analytique a amené à coupler à la MSPD une autre méthode d’extraction/purification beaucoup plus sélective, basée sur les polymères à empreintes moléculaires (MIP). En effet, les interférents polaires, restés piégés par l’agent dispersant polaire dans la première cartouche contenant le sédiment broyé, devaient être élués afin de libérer les OH-HAP, qui a leur tour devaient être retenus sélectivement dans un MIP empreint pour les phénols, pour fournir une élution finale exempte d'autres composés. Il a été montré que ces MIPs pouvaient extraire sélectivement les OH-HAP de faible et de haut poids moléculaire, mais il fallait choisir soigneusement le solvant de percolation pour ne pas endommager le polymère. Cependant, la difficulté principale a été de désorber les OH-HAP fortement retenus par le sédiment par liaison hydrogène. Cela a pu être réalisé pour les OH-HAP légers, en utilisant un mélange de solvants avec un effet de relargage par un sel, mais pas pour les OH-HAP lourds, trop fortement adsorbés sur la matrice sédimentaire. Par ailleurs, il a fallu utiliser une grande quantité de polymère à empreinte moléculaire à cause de la compétition pour les sites de reconnaissance entre les OH-HAP et des composés phénoliques<br>In this work two multiresidual methods for extracting contaminants from sediments were developed. In the first part of this study, a method was developed for extracting simultaneously two groups of oxygenated metabolites of polycyclic aromatic hydrocarbons (PAHs), quinones and hydroxylated PAHs (hydroxy-PAHs). A chemometric approach allowed us to determine the influential parameters on microwave assisted extraction (MAE), and a compromise could be found for extracting quantitatively both families of compounds. Two chromatographic analytical methodologies were developed and validated for analysing the extracts: high performance liquid chromatography coupled with fluorimetric and ultraviolet detection (HPLC-UV-FLD) and gas chromatography coupled with an electronic impact mass spectrometer (GC-MS). Using GC-MS, reactions of silylation of hydroxy-PAHs and of acetylation of quinones had to be developed, to decrease detection limits (LOD), particularly for ortho-quinones. Using HPLC-UV-FLD, LODs were lower than using GC-MS, particularly for hydroxy-PAHs detected by FLD, and the analysis was faster, without derivatization; but the detectors were not selective, and identification of analytes was doubtful. Choice was done to favour GC-MS for a more reliable analysis of the two families of compounds extracted from naturally contaminated sediments. In the second part of this thesis work, a new fast and simple extraction methodology was developed and validated, based on matrix solid phase dispersion (MSPD), capable of extracting and purifying simultaneously sediment samples. Two families of compounds were simultaneously extracted from sediments, PAHs and polychlorobiphenyls (PCBs). Many parameters were optimized, as the nature of dispersing agents, the time of grinding, the volume and nature of elution solvent mixtures. In a second step, hydroxy-PAHs were introduced in the analytical process, which led us to add another more selective extraction/purification method to MSPD, based on molecularly imprinted polymers (MIPs). Indeed polar interfering compounds, trapped by the polar dispersant in the first cartridge containing the blended sediment, had to be eluted to release hydroxy-PAHs, which in turn had to be selectively retained by the polymer, imprinted for phenols, to provide a final eluate free from other polar compounds. It was demonstrated that those MIPs could selectively extract low and high molecular weight hydroxy-PAHs, but appropriate percolating solvents had to be chosen to avoid polymer damages. However, the main difficulty was to desorb hydroxy-PAHs strongly retained by the sediment matrix through hydrogen bonds. It could be achieved for light hydroxy-PAHs, using a mixture of eluting solvents with salting-out effect, but not for heavy hydroxy-PAHs which stayed strongly sorbed on the sediment matrix. Furthermore we needed to use high amounts of imprinted polymer because of the competition for recognition sites between hydroxy-PAHs and phenolic compounds
APA, Harvard, Vancouver, ISO, and other styles
21

Thibodeau, Denis. "Comportement et méthodes de dimensionnement des câbles d'ancrage utilisés dans les mines souterraines." Vandoeuvre-les-Nancy, INPL, 1994. http://docnum.univ-lorraine.fr/public/INPL_T_1994_THIBODEAU_D.pdf.

Full text
Abstract:
Le travail décrit dans cette thèse à pour principal objectif de trouver, d'améliorer ou de modifier les outils disponibles à l'ingénieur minier afin de choisir une densité de câble d'ancrage optimale. Pour ce faire le travail a consisté, en première approche, à réviser les méthodes actuellement utilisées soit les méthodes analytiques, empiriques et numériques. En comparant les résultats obtenus par ces méthodes à des cas réels (les mines de Sotiel (Espagne) et de Brusada (Italie)) une approche a été établie se définissant par une progression dans l'utilisation des différents outils permettant d'optimiser la densité de câbles d'ancrage à chaque nouvelle étape de la progression. Chacune des étapes de la progression se caractérise par un outil plus performant intégrant des modèles de comportement des câbles d'ancrage dans un massif rocheux fracturé en blocs plus évolués et sophistiqués. À partir de l'analyse des outils disponibles, des résultats in situ et de la littérature un modèle est proposé intégrant le comportement en traction et en cisaillement des câbles d'ancrage armant une discontinuité. Ce modèle prend également en compte la notion de capacité maximum de l'ancrage qui est fonction de la longueur ancrée disponible et de la résistance d'ancrage à l'interface coulis et acier
APA, Harvard, Vancouver, ISO, and other styles
22

Proux, Denys. "Muninn, une stratégie d'extraction d'informations dans des corpus spécialisés par application de méthodes d'analyse linguistique de surface et de représentation conceptuelle des structures sémantiques." Dijon, 2001. http://www.theses.fr/2001DIJOS010.

Full text
Abstract:
Les travaux décrits dans ce mémoire de thèse présentent le résultat de la réflexion que nous avons menée sur la mise au point d'un système efficace d'extraction d'informations dans des corpus spécialisés. De manière à positionner le problème dans le cadre d'une application réelle, et pour valider les choix technologiques qui ont été faits, les travaux présentés ici ont été réalisés en collaboration avec des biologistes. Les techniques mises au point ont été appliquées à la résolution du problème de l'extraction d'informations sur des interactions génétiques dans des textes traitant de la mouche Drosophile. La contribution principale de ce travail de recherche porte sur la mise au point d'une architecture originale pour effectuer de l'extraction d'informations dans les textes en utilisant des techniques d'analyse linguistique de surface associées à une représentation conceptuelle des structures sémantiques des phrases. La contribution porte aussi sur la résolution d'une série de problèmes spécifiques apparaissant au cours de la cascade des traitements comme par exemple la reconnaissance automatique des noms de gènes de la Drosophile, ou alors la normalisation automatique des phrases. Le système mis au point a été évalué sur des corpus validés au préalable par des experts. Les résultats obtenus comparés à ceux d'autres méthodes se sont révélés très intéressants et ont permis de valider l'approche.
APA, Harvard, Vancouver, ISO, and other styles
23

Suchat, Sunisa. "Dosage du polyisoprène et des résines de la biomasse de guayule (Parthenium argentatum) par spectroscopie proche infrarouge (SPIR) : méthodes d'extraction par solvant de référence." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20210/document.

Full text
Abstract:
Dosage du polyisoprène et des résines de la biomasse de guayule (Parthenium argentatum) par spectroscopie proche infrarouge (SPIR) Méthodes d'extraction par solvant de référence Un protocole basé sur l'extraction accélérée (ASE) avec l'acétone (EA) (résine) puis l'hexane (EH) (polyisoprène, PI) a été sélectionné et optimisé (rendement maximal; adapté à l'analyse de séries) ; quantification d'abord basée sur le poids de l'extrait (gravimétrie). L'EH est maximal à 120°C après étapes avec l'acétone à 40°C (plan d'expérience). La contamination croisée a été confirmée par SEC et FTIR (5 à 29%), conduisant à une deuxième méthode basée sur résine et PI et non plus sur EA et EH, incluant le PI de faible masse molaire (Mw) de l'EA. Ces 2 méthodes de référence ont servi à calibrer la SPIR (chimiométrie/PLS, coeff. beta) afin de relier signature spectrale, PI, résine. ASE-SPIR, couplés ici pour la première fois, ont été plus performants (R² 0.96; 0.98; RPD 4.8; 4.6; EA et EH resp.) que les méthodes de la littérature, grâce aux 215 échantillons représentatifs (génotypes, saison, âge du guayule, climat). La méthode tenant compte de la contamination est moins performante (erreur exp. due aux analyses SEC et FTIR; variation de composition des résines). Ayant montré la dégradation du PI au cours de l'extraction, un autre protocole a été étudié (biomasse humide, un solvant, une seule étape, 20°C) afin d'accéder au Mw «natif », donnant 2.106 g au lieu de 6.105 avec la biomasse séchée; il faut donc être prudent face aux Mw de guayule de la littérature. Ce travail montre la nécessité de tenir compte de la complexité de la biomasse de guayule (échelle cellulaire/PI vacuolaire, résine des canaux; moléculaire/instabilité chimique) lors de l'extraction du PI pour l'analyse structurale. Ces méthodes analytiques ont contribué à produire des prototypes (gant non allergisant, pneu) à haut Mw et à l'acclimatation en Europe dans le cadre du projet EU-Pearls<br>Measurement of resin and polyisoprene in Parthenium argentatum (guayule) biomass using near infrared spectroscopy (NIRS) -Associated solvent-based reference methods .A protocol based on sequential extraction with acetone (resin) and hexane (polyisoprene, PI) with accelerated solvent extraction (ASE) was optimized and selected (maximized yield; adapted to large series) instead of Soxhlet and homogenizer. Quantification was first based on extract weight (gravimetry). Hexane extract was maximized at 120°C, after acetone steps at 40°C, through an experimental design. Cross contamination was confirmed and quantified (5 to 29%; SEC and FTIR). This gave a second method based on resin and PI, instead of crude extracts, accounting for low average molar mass PI (Mw) extracted by acetone instead of hexane. Both reference methods were used for calibrating NIRS applied to powdered biomass, with chemometric tools (PLS loadings, beta coefficients) to interpret spectral bands vs PI-resin relationship. ASE, not used before as reference, is highly reliable, and calibration with gravimetry (R² 0.96; 0.98; RPD 4.8; 4.6; for acetone and hexane extract) better than published data, thanks to the 215 samples covering genotypes, harvest date, plant age, climate. The method using cross contamination was less efficient because of higher experimental error induced by additional SEC and FTIR, and change in resin composition. Having set NIRS methods, a new protocol (single solvent THF, minimized processing, 20°C, fresh biomass) was designed to avoid degradation, yielding PI extracts with Mw above 2.106g/mole, closer to in vivo structure (6.105 when using dried guayule); caution to sample preparation in literature dealing with guayule PI structure. This calls for considering the complex structure of guayule biomass (PI in cells; resin in ducts; chemical instability) when extracting PI. These methods allowed producing high PI Mw glove and tire prototypes and domesticating this new crop in Europe within the EU-Pearls project
APA, Harvard, Vancouver, ISO, and other styles
24

Martel, Anne-Claire. "Méthodes d'extraction et de dosage de trois fongicides (iprodione, vinclozoline et cymoxanil) dans les fruits et légumes : étude de leur disparition sur deux substrats végétaux, framboise et salade." Lyon 1, 1996. http://www.theses.fr/1996LYO10209.

Full text
Abstract:
Cette etude analytique a ete orientee sur trois pesticides, l'iprodione, la vinclozoline et la cymoxanil, couramment employes dans le cadre de la production des framboises et des laitues de la region rhone-alpes. Nous presentons la mise au point de methodes d'analyse repetables et reproductibles avec une comparaison sur les dosages effectues en chromatographies en phase liquide sur colonne (clhp) et sur couche mince (ccm) ainsi qu'en phase gazeuse (cpg). Nous avons suivi l'evolution de la disparition de ces trois fongicides sur les framboises et les laitues traitees selon differentes modalites. Il ressort de notre etude que la cinetique de disparition de l'iprodione et de la vinclozoline suit un modele de pseudo-premier ordre. Par ailleurs, les parametres meteorologiques et agronomiques ont une influence sur le devenir des residus de pesticides
APA, Harvard, Vancouver, ISO, and other styles
25

Puissant, Anne. "INFORMATION GÉOGRAPHIQUE ET IMAGES A TRÈS HAUTE RÉSOLUTION UTILITÉ ET APPLICATIONS EN MILIEU URBAIN." Phd thesis, Université Louis Pasteur - Strasbourg I, 2003. http://tel.archives-ouvertes.fr/tel-00467474.

Full text
Abstract:
Depuis le milieu des années 1990, l'INFO-STRATEGIE, c'est-à-dire la stratégie de mise en place de l'Information Géographique, est au cœur des préoccupations des gestionnaires du territoire et des urbanistes. Elle nécessite des données multi-sources, multi-échelles et mises à jour régulièrement à une périodicité adaptée à l'évolution du milieu urbain. Les images d'Observation de la Terre représentent un potentiel important d'acquisition d'IG. Actuellement, le marché connaît une évolution majeure avec la mise en orbite de produits-systèmes Très Haute Résolution (THR) de résolution inférieure à 5 m. Cette évolution technologique débouche sur une abondance de données numériques, sources potentielles d'IG en milieu urbain, modifie les attentes des utilisateurs et transforme leurs applications. Une réflexion en termes de demande (formalisation des besoins) et non plus d'offre est indispensable pour répondre à la multiplication de l'utilisation d'IG à diverses échelles. Par ailleurs, répondre aux besoins des « utilisateurs finaux » (politiques, gestionnaires, techniciens) revient à préciser les ajustements nécessaires à la définition des capacités des nouveaux produits-systèmes. A partir d'une enquête auprès des utilisateurs d'IG, un cahier des charges précisant les besoins en information à grande échelle est établi. Des « niches potentielles d'utilisation » des images métriques sont identifiées. Des tests sont appliqués pour analyser les gains dans l'utilisation de ces nouveaux capteurs. L'un des enjeux de l'augmentation de la résolution spatiale est une nouvelle vision du territoire plus proche de la réalité. Les objets urbains s'individualisent (domaine de l'identification) et sont caractérisés par leurs éléments constitutifs (domaine de l'analyse). Cet apport de détails perturbe les procédures classiques d'extraction automatiques et complexifie l'attribution des objets aux nomenclatures existantes. Le test de plusieurs algorithmes classiques conduit à la formalisation de règles d'identification des objets urbains sur des images THR. Ces règles sont intégrées dans une procédure de classification « orientée-objets ».
APA, Harvard, Vancouver, ISO, and other styles
26

Puissant, Anne. "Information géographique et images à très haute résolution : Utilité et applications en milieu urbain." Université Louis Pasteur (Strasbourg) (1971-2008), 2003. https://publication-theses.unistra.fr/public/theses_doctorat/2003/PUISSANT_Anne_2003.pdf.

Full text
Abstract:
Depuis le milieu des années 1990, l'INFO-STRATEGIE, c'est-à-dire la stratégie de mise en place de l'Information Géographique, est au cœur des préoccupations des gestionnaires du territoire et des urbanis-tes. Elle nécessite des données multi-sources, multi-échelles et mises à jour régulièrement à une périodicité adaptée à l'évolution du milieu urbain. Les images d'Observation de la Terre représentent un potentiel im-portant d'acquisition d'IG. Actuellement, le marché connaît une évolution majeure avec la mise en orbite de produits-systèmes Très Haute Résolution (THR) de résolution inférieure à 5 m. Cette évolution technologi-que débouche sur une abondance de données numériques, sources potentielles d'IG en milieu urbain, modi-fie les attentes des utilisateurs et transforme leurs applications. Une réflexion en termes de demande (forma-lisation des besoins) et non plus d'offre est indispensable pour répondre à la multiplication de l'utilisation d'IG à diverses échelles. Par ailleurs, répondre aux besoins des " utilisateurs finaux " (politiques, gestionnai-res, techniciens) revient à préciser les ajustements nécessaires à la définition des capacités des nouveaux produits-systèmes. A partir d'une enquête auprès des utilisateurs d'IG, un cahier des charges précisant les besoins en information à grande échelle est établi. Des " niches potentielles d'utilisation " des images métri-ques sont identifiées. Des tests sont appliqués pour analyser les gains dans l'utilisation de ces nouveaux capteurs. L'un des enjeux de l'augmentation de la résolution spatiale est une nouvelle vision du territoire plus proche de la réalité. Les objets urbains s'individualisent (domaine de l'identification) et sont caractérisés par leurs éléments constitutifs (domaine de l'analyse). Cet apport de détails perturbe les procédures classi-ques d'extraction automatiques et complexifie l'attribution des objets aux nomenclatures existantes. Le test de plusieurs algorithmes classiques conduit à la formalisation de règles d'identification des objets urbains sur des images THR. Ces règles sont intégrées dans une procédure de classification " orientée-objets "<br>Since the mid 1990s 'INFO-STRATEGY', i. E. The strategic use of Geographic Information, is one of the reliable goals in urban management, planning and sustainable development. Geographic Information requires multisource and multiscale data, updated on a regular basis at appropriate time periods. Earth Observation data-such as aerial photography and satellite image-represent an important source for GI. Recently, the use of Very High Resolution imagery data (VHR - finer than 5m) offers an abundance of numerical information and therefore an important possibility to use GI in decision-making concerning the urban environment. A reflection is thus required in terms of needs rather than supply in order to meet the requirements of localised information on a variety of scales. Moreover, defining the needs of the 'end users' (decision-makers, managers, technicians) corresponds to propose the necessary adjustment to the definition of the capacity of these new sensors. In this context, on the basis of comparisons and surveys of the 'end users' a reference grid defining the needs of GI on a large-scale basis has been established. Some "potential applications" of metric images are highlighted. Tests have been carried out in order to analyse very precisely the benefits of use of these new sensors. An important factor in the increase of spatial resolution is a new vision of the territory that is closer to real-ity. Urban objects are individually recognisable (field of identification) and can be characterised by their components (field of analysis). This superabundance of details disturbs the classical automatic proce-dures of extraction (per pixel classification) and makes complex the attribution of objects to existing nomenclatures. After having tested several traditional algorithms used on HR images, it appears neces-sary to transcribe the rules of identification of urban objects and to integrate them into an 'object-oriented' classification method
APA, Harvard, Vancouver, ISO, and other styles
27

Lemoine, Hugues. "Les sécoiridoïdes d'Olea europaea et du Lonicera tatarica : matières premières destinées à la conception de nouveaux synthons chiraux pour la synthèse de composés biologiquement actifs et outils pour le développement de nouvelles méthodes d'extraction et de synthèse." Phd thesis, Université René Descartes - Paris V, 2012. http://tel.archives-ouvertes.fr/tel-00923156.

Full text
Abstract:
Les sécoiridoïdes sont des monoterpènes hautement fonctionnalisés utilisés comme matières premières chirales renouvelables en hémisynthèse, lorsqu'ils sont abondants au sein des végétaux. Un nouveau procédé vert d'extraction aqueuse et de purification utilisant des résines et la chromatographie de partage centrifuge a permis l'isolement de plus de 100 g d'oleuropéine des feuilles d'Olea europaea et d'une douzaine de grammes de sécologanoside et de sweroside des feuilles de Lonicera tatarica. L'ouverture de la lactone du perpivaloylsweroside a été effectuée en milieu organique apolaire par le TMSONa. Cette réaction a été étendue à 8 lactones commerciales et 5 lactones de sécoiridoïdes. Une approche mécanistique de cette nouvelle réaction a été établie sur la γ-butyrolactone à l'aide d'une étude cinétique. Cette réaction a été utilisée pour la conversion du sweroside en sécologanoside en quatre étapes. Cette approche séquentielle a été appliquée avec succès sur les dérivés du sweroside. Quatre nouveaux analogues du sécologanoside et 9 synthons chiraux originaux ont ainsi été isolés. De plus l'étude de la réactivité de l'oleuropéine a permis l'obtention de 4 nouveaux synthons et un analogue isomérique du sécologanoside. Ces analogues de sécologanoside sont précurseurs de nouveaux alcaloïdes indolo-monoterpèniques. Enfin la double liaison exocyclique du sweroside a pu être sélectivement ozonolysée et épimérisée pour conduire à la formation d'un synthon clé pour la synthèse de diterpènes cytotoxiques marins de types xénicanes.
APA, Harvard, Vancouver, ISO, and other styles
28

Hemiari, Gholam-Abbas. "Nouvelle méthode d'extraction automatique de routes dans des images satellitaires." Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/2721.

Full text
Abstract:
In the present thesis, a new automatic method to extract roads from satellite imagery is proposed. This new method called Tridimensional Multilayer (3DM) is part of the global methods of linear feature extraction and is based on the Radon transform concept. The 3DM method eliminates simultaneously the three restrictions of the linear Radon transform for line extraction. This method allows the extraction of lines with different lengths and curvatures even in a noisy context. The 3DM method allows also to establish a geometrical database relative to extracted lines like the length and the endpoints of extracted lines. This database can be integrated into a Geographic Information System (GIS) and it can be used in diverse applications. The methodological approach of this study is divided in two phases: mathematical and algorithm developments.In the first phase, we generalized the Radon transform for a continuous second-degree polynomial function (Tridimensional Radon Transform 3DRT) for extracting lines with different curvatures. The second phase consists first in elaborating a new concept of acquisition and analysis of information adapted to the methods of linear feature extraction (Multilayer method ). Then, we developed the 3DM method by combining 3DRT and MM. The 3DM method was applied to a binary noisy image for extracting the lines that represent roads with different lengths and the river borders with different curvatures. The performance of the 3DM method is evaluated by comparing the result obtained from the reference image (input image without noise). The evaluation of the 2DM method shows that 88% of the lines are correctly extracted. Meanwhile the percentage of omitted lines is 12% and committed lines reach 4%. The extraction success rate of this method is consequently quantified at 82%. These measurements show the improvement brought by the 3DM method in the extraction of the different curve lines. Implementation of the 3DM method onto images obtained by the binarisation of different real images shows moreover the potential of this method in diverse applications for extracting the different types of linear features from various types of imagery.
APA, Harvard, Vancouver, ISO, and other styles
29

Azzamouri, Ahlam. "Construction de méthodes et d'outils de planification pour l'industrie minière du phosphate en contexte de Lean Management." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100125/document.

Full text
Abstract:
La demande mondiale en ressource minérale en général et celle du phosphate en particulier connait une forte croissance depuis plusieurs années. C’est dans ce contexte tendu que chaque industriel cherche à être pionnier et à réduire ses coûts afin d’assurer sa pérennité tout en étant soumis aux contraintes légales dans une perspective de développement responsable. Face à des enjeux comparables, plusieurs industries manufacturières se sont orientées avec succès depuis plusieurs décennies vers l’approche japonaise du Lean Management. C’est pour cette raison que nous avons réfléchi à proposer à travers ce projet de recherche une méthodologie pour le Lean Mining Responsable visant à améliorer l’efficacité et l’efficience de l’industrie minière. L’ensemble des méthodes, briques logicielles et concepts proposés dans cette thèse ont été construit à partir d’un retour d’expérience réalisé sur le système minier d’extraction du phosphate de l’axe centre de l’OCP SA. Nos travaux, réalisés sous la forme d’une recherche action, se caractérisent par des apports à 3 niveaux :Apports méthodologiques ; nous proposons la Méthodologie ASCI-LM pour évaluer l’impact sur l’organisation industrielle liés à la mise en place d’outils et de méthodes en contexte minier. Cette approche constitue un guide méthodologique permettant une recherche action dans le contexte de l’industrie minière. Ce guide méthodologique explique comment formaliser les modèles de connaissance (cartographie des flux) et comment imbriquer les modèles informatiques permettant d’évaluer informatiquement des scenarios organisationnels liés à des problèmes de coordination des activités en contexte minier.Briques logicielles pour l’aide à la décision ; l’interdépendance spatio-temporelle qui caractérise la chaîne minière, rend difficile la prédiction de l’impact de la décision prise. Ce point est un facteur-clé qui explique la démotivation de l’industrie minière à l’égard de la mise en œuvre du Lean Mining. Un système d’aide à la prise de décision pour l’industrie minière aura comme objectif de pouvoir reproduire la réalité et par la suite de tester l’impact de différentes décisions en prenant compte de : l’état du gisement, le programme de maintenance, la disponibilité des machines, les demandes à satisfaire… Les décisions prises dans le processus extractif auront comme impact sur : l’évolution des stocks de minerai, l’occupation des machines mobilisées, la satisfaction de la demande… Nous proposons deux briques logicielles dont la première porte sur la planification minière pour assurer un pilotage intégré de la mine et aider à la prise de décision dans un délai court. La deuxième brique logicielle que nous avons imaginée évalue / optimise les méthodes d’organisations industrielles de la mine lors de la constitution des « mélanges » de minerai ; le mélange de minerai constitue l’output commercialisable du système minier et qui est envoyé aux clients internes ou externes de la supply chain minière. Nouvelles méthodes d’organisation industrielle ; Nous avons proposé une méthode de constitution des mélanges de minerai qui change complètement celle utilisée actuellement. Cette dernière est basée sur une logique de nomenclature figée alors que nous proposons des nomenclatures dynamiques que nous avons appelés « blending dynamique ». Ces nomenclatures dynamiques visent à définir les mélanges optimaux qui varient au fil du temps en fonction des minerais extrait du chantier et de leur composition chimique. Malgré les réticences qui pouvaient y avoir pour adopter cette approche (ce qui est logique dans une organisation « historique »), les mineurs ont montré un grand intérêt vis-à-vis de l’approche qui a été validée sur le terrain et qui est même généralisable sur d’autres contextes<br>Global demand for mineral resources in general, and phosphate in particular, has been growing strongly for several years. In this increased competitive environment, every industry seeks to be pioneering and to reduce its costs to ensure its sustainability while complying with new responsible development regulations. Faced with this kind of challenges, a number of manufacturing industries have turned to the Japanese Lean Management approach. With this in mind, we designed our research project to develop a Lean Sustainable Mining methodology aimed at improving the mining industry’s efficiency and effectiveness at the OCP-SA center axis phosphate mine. We first conducted a detailed review of the Lean Mining (LM) literature to assess how well such an approach had already been implemented, which points are directly relevant to the mine and which are not. We also reviewed the implementation methodologies and assessed how effectively they were used. This analysis highlighted multiple shortcomings including in relation to the methodological approaches, the software bricks for decision support systems, the industrial organization methods and adequate factoring in of all energy-related aspects.We first recommend applying the ASCI (Analyze, Specification, Conception, Implementation) methodology to LM in order first to identify all the steps upstream of development of the relevant knowledge model and then the associated action model. This phase was developed based on a thorough analysis of mine soil characteristics in order to build a robust knowledge base. This methodology was then applied to the Ben Guerir mine. We believe that this methodological approach will be found useful by other industries in their effort to switch to LM.Our next step was to construct a model based on discrete event simulation for short-term decision support of mine extraction planning. This model closely matches current extractive process operations (drilling, blasting, etc.) and takes into account all the constraints whether they be in relation to the field (geology, blocks, state of the initial system, distances, ...) or to the equipment (capacity differences, technical downtime, ...). Other considerations that we factored in include the decisions taken upstream of the chain (priority source layers, maintenance program, orders, among others). The model yields the following output: deposits blocks to be extracted in order to meet the demand defined over the planning horizon, the equipment Gantt to define the route to be taken by each piece of equipment and the cumulative feed curves for extracted source layers. The purpose is to extract material required by the downstream blending process, while avoiding any non-value added activities, and to improve overall chain performance.The phosphate industry needs to define the blends used to produce the ore qualities to be shipped to domestic and international customers. We have proposed a new method for optimal definition of these blends designed to replace fixed bills of materials by dynamic ones that change over time. Our "dynamic blending" model serves to define, based on available source layer stocks i) the feedings to be conveyed from the deposit to the stock and ii) the optimal quantities to be extracted from each layer while meeting the customer’s quality specifications charter. The purpose of this approach is to produce the right quality, preserve the phosphate-rich layers for the future, streamline stocks and ensure a connection between the pushed upstream flow (deposit) and the pulled downstream flow (definition of blends)<br>إن الطلب العالمي على الموارد المعدنية بشكل عام، والفوسفاط على وجه الخصوص، يزداد بسرعة منذ عدة سنوات. وفي هذا السياق الذي يعنى بمنافسة قوية بين الأطر الفعالة، يسعى كل مصنع الى أن يكون الرائد في مجاله، وأن يقلل من تكاليف الإنتاج من أجل ضمان متانته في إطار خضوعه لقيود قانونية تحت منظور التنمية المسؤولة. في إطار مواجهة قضايا مماثلة، انتقلت العديد من الصناعات التحويلية، بنجاح لعدة عقود، إلى تطبيق النهج الياباني Lean Management. ولهذا السبب، فكرنا من خلال مشروع البحث هذا في اقتراح منهجية من أجل Lean Mining مسؤول، هدفه تحسين كفاءة وفعالية صناعة المعادن. جميع الطرق والمنهجيات ومفاهيم البرمجيات المقترحة في هذه الأطروحة يتم بناؤها على أساس تجارب منجزة على نظام الصناعة المعدنية لاستخراج الفوسفاط للمحور المركزي لـ OCP-SA. يتميز عملنا، الذي تم تنفيذه على شكل بحث-عملي، بمساهمات على 3 مستويات:مساهمات منهجية: نقترح منهجية ASCI-LM لتقييم تأثير تنفيذ أساليب على المنظمة الصناعية المتعلقة بالصناعة المعدنية. هذا النهج هو عبارة عن دليل منهجي للبحث-العملي في هذا المجال، الذي يشرح كيفية إضفاء الطابع الرسمي على نماذج المعرفة (رسم خرائط التدفقات) وكيفية تضمين النماذج المعلوماتية التي تجعل من الممكن تقييم سيناريوهات تنظيمية تتعلق بمشاكل التنسيق بين الأنشطة في سياق الصناعة المعدنية.أسس البرمجيات لدعم اتخاذ القرار: إن الترابط الزمكاني الذي يميز سلسلة التعدين اللوجستيكية يجعل من الصعب التنبؤ بأثر القرار المتخذ. هذا الترابط يعتبر العامل الرئيسي الذي يفسر إبطاء صناعة التعدين فيما يتعلق بتطبيق ونهج سياسة Lean Mining. يهدف نظام دعم القرار الخاص بصناعة التعدين إلى إعادة إنتاج الواقع ومن ثم اختبار أثر القرارات المتخذة، مع الأخذ بعين الاعتبار: هيئة المنجم، برنامج الصيانة، توفر الآلات، المطالب الواجب تلبيتها ... القرارات التي اتخذت في سلسلة عملية الاستخراج سيكون لها تأثير على: تطور مخزونات المادة الخام، مدى استعمال الآلات المخصصة لذلك، و تلبية المطالب ... نقترح اسسين اثنين من البرمجيات: يتناول الأول تخطيط التعدين لضمان الإدارة المتكاملة للمنجم والمساعدة في اتخاذ القرار في وقت قصير. أما الثاني فيهتم بتقييم / تحسين أساليب التنظيم في المنجم أثناء تكوين "خليط" انطلاقا من المواد الخام؛ ويعتبر هذا الأخير الناتج النهائي القابل للتسويق في إطار النظام اللوجستيكي للتعدين، ويتم إرساله إلى الزبناء الداخليين أو الخارجيين لسلسلة التوريد.أساليب جديدة للتنظيم الصناعي: لقد اقترحنا طريقة لتكوين خليط من المواد الخام والتي تختلف تماما عن الطريقة المستخدمة حاليًا. وتستند هذه الأخيرة على منطق التركيبة الثابتة في حين أننا نقترح تركيبات ديناميكية أطلقنا عليها إسم "المزج الديناميكي". تهدف هذه التسميات الديناميكية إلى تحديد الخلطات المثالية التي تتغير بتغير الوقت، اعتمادًا على المواد الخام المستخرجة وتركيبتها الكيميائية. وبالرغم من الإحجام عن تبني هذا النهج (وهو أمر طبيعي في إطار تنظيم ذو أسس "تاريخية عريقة")، فقد أظهر عمال المناجم اهتماما كبيرا بالنهج المقترح والذي تم التحقق من مصداقيته في هذا المجال والذي من الممكن تعميمه في مجال صناعي آخر
APA, Harvard, Vancouver, ISO, and other styles
30

Brogat, Marine. "Développement d'une méthode d'extraction sur multiples phases solides (MSP2E) de micropolluants organiques." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S003/document.

Full text
Abstract:
Lors de pollutions accidentelles ou d'actes de malveillance au sein des milieux aquatiques, des plans sont mis en place afin d'utiliser tous les recours et les outils nécessaires pour l'évaluation et la caractérisation de la pollution. La procédure standard consiste au prélèvement suivi d'une analyse en laboratoire. Cependant, lors d'une pollution importante, une prise de décision rapide est primordiale. Le projet de thèse s'inscrit dans cette problématique et a consisté au développement d'un analyseur rapide sur site permettant la détection de micropolluants organiques dans l'eau notamment dans le cadre de pollutions accidentelles. Les objectifs ont été de développer une méthode (MSP2E) de pré-concentration et de fractionnement sur des phases solides multiples suivies d'une étape d'élution et d'une détection UV. Les fractions d'élution sont caractéristiques des propriétés physico-chimiques des molécules cibles. Une approche prédictive a été établie permettant de déterminer a priori la fraction dans laquelle les molécules sont éluées. L'exploitation du spectre UV permet de déterminer la (les) molécule(s) présente(s). Une banque de données spectrales a été réalisée afin de répertorier les différentes caractéristiques (physico-chimiques, fraction d'élution, spectre UV) permettant ainsi la reconnaissance d'une molécule. Dans le cadre de ce travail, une centaine de molécules ont été étudiées, seules ou en mélange. Enfin, la méthodologie a également été transposée à une autre application de détermination de produits dopants dans l'urine<br>In case of accidental or intentional pollution in aquatic environments, plans are implemented to use any and all recourses and tools available in order to evaluate and to characterize pollution. The current method involves a sampling on site followed by laboratory analysis. But, in case of significant pollution, a rapid decision is clearly needed. The thesis project arises in this context and has been the development of a rapid on-site analyzer for the detection of organic micropollutants in water especially in the context of accidental pollution. The aims of this project were to develop a method (MSP2E) of pre-concentration and fractionation of multiple solid phases followed by a elution step and UV detection. Eluting fractions are related to physico-chemical properties of the target compounds. A predictive approach has been established to determine a priori the fraction in which the molecules are eluted. The UV spectrum analysis may identify the molecule in the different fractions. A database was performed to identify the different characteristics (physico-chemical, eluting fraction, UV spectrum) and for the recognition of a molecule. As part of this work, a hundred molecules were studied alone or in mixture. Finally, the methodology has also been transposed to another application for the determination of doping in urine
APA, Harvard, Vancouver, ISO, and other styles
31

Druart, Coline. "Effets des pesticides de la vigne sur le cycle biologique de l'escargot dans divers contextes d'exposition." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00662413.

Full text
Abstract:
De plus en plus de substances chimiques sont produites dans le monde et une grande partie d'entre elles entrent dans la composition des produits phytosanitaires. La France en est le premier consommateur européen et le troisième au niveau mondial. L'objectif de nos recherches est de comprendre le devenir et les effets de ces molécules dans l'environnement, notamment agricole, grâce à l'utilisation d'un invertébré bioindicateur, l'escargot Helix aspersa. Nous avons choisi de caractériser l'exposition, le transfert et les effets sur l'escargot de 8 formulations commerciales de fongicides et d'herbicides (Roundup® et Bypass® = glyphosate; Basta® = glufosinate; Valiant® Flash = folpel + cymoxanil + fosétyl-Al; Corail® = tébuconazole; Cabrio® Top = pyraclostrobine + métirame-Zn; Thiovit® = soufre; Bouillie bordelaise = cuivre), communément utilisées en viticulture. Une étude réalisée en conditions in situ a permis de quantifier les retombées au sol des pesticides appliqués sur la vigne, dans la parcelle et en périphérie mettant en évidence les dépôts suite à la dérive des substances. En parallèle, peu d'effets ont été démontrés sur la survie et la croissance d'escargots juvéniles placés en microcosmes et soumis aux différents traitements de pesticides, mis à part un effet inhibiteur du Roundup® sur la masse des organismes, probablement en relation avec d'importants dépôts au sol, l'accumulation et la métabolisation de la substance active dans les tissus. Une méthode d'extraction et d'analyse de deux herbicides (glyphosate et glufosinate) dans le sol a été développée afin de pouvoir mesurer les concentrations d'exposition pour diverses expériences et de caractériser leur persistance dans ce sol de vigne. Les effets du Bypass® et du Basta® ont été étudiés sur l'ensemble du cycle de vie de l'escargot en conditions contrôlées. Aucun effet significatif sur la survie et la croissance n'a été démontré bien qu'une accumulation de glyphosate ait été quantifiée chez des escargots (6 mg kg-1) nourris continuellement par de l'aliment contaminé (à 30 mg kg-1). Cependant, une exposition au glyphosate des escargots durant le développement embryonnaire semble perturber leur reproduction (diminution de la fertilité) du fait d'un effet différé de cet herbicide. Les cibles potentiellement affectées au niveau du contrôle neuroendocrine sont discutées. Tous les pesticides inhibent l'éclosion des œufs de l'escargot à des concentrations inférieures à celles appliquées au champ et l'influence des caractéristiques du sol sur leur toxicité a été démontrée. Ces effets ont été mis en évidence lors d'expériences réalisées en laboratoire dans le cadre d'un développement de bioessais d'embryotoxicité. Ces travaux de thèse ont apporté des connaissances sur le comportement, en surface et dans le sol, ainsi que dans l'escargot (transfert, toxicité), de plusieurs pesticides appliqués sur la vigne. Ils ont également permis de développer plusieurs outils (bioessais de laboratoire, dispositif d'exposition sur le terrain) visant à améliorer les procédures d'évaluation du risque des pesticides dans l'environnement terrestre. Les techniques d'analyse de ces composés mises au point pour des matrices complexes (sols, tissus animaux), constituent un apport original pour l'évaluation du risque environnemental et sanitaire. D'importantes difficultés analytiques ont été rencontrées et il n'a pas été possible de finaliser les méthodes de dosage pour la totalité des substances. Ainsi, la mesure des résidus de pesticides dans les tissus d'origine animale reste un challenge fort et qui plus est, au cœur des préoccupations environnementales actuelles.
APA, Harvard, Vancouver, ISO, and other styles
32

Lazure-Demers, Geneviève. "Mise au point d'une méthode rapide d'extraction des autolysines chez Lactobacillus bulgaricus ssp. delbrueckii." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape2/PQDD_0017/MQ55774.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Hachicha, Issameddine. "Contribution au développement d'une méthode d'extraction des paramètres technologiques et physiques de structures bipolaires." Bordeaux 1, 1995. http://www.theses.fr/1995BOR11424.

Full text
Abstract:
Dans cette these nous avons presente les profils reels issus des etapes technologiques classiques et nous les avons comparer a differents modeles plus ou moins sophistiques. L'impact de ces modeles sur les caracteristiques electriques de transistors bipolaires est alors etudie. Une etude des influences des modeles physiques sur les caracteristiques electriques est presentee dans le but de fixer le choix des modeles lors des simulations. Cette etude nous a permis d'elaborer un outil d'extraction des profils de dopage et des parametres dans un environnement logiciel de type davinci/iccap. Enfin nous avons presente quelques resultats experimentaux sur des composants discrets et integres. L'application de la methode offre des resultats qui sont ensuite compares a ceux issus d'une analyse traditionnelle par faisceau ionique de type sims
APA, Harvard, Vancouver, ISO, and other styles
34

Christian, Guy Emilien. "Sur une méthode de calcul des concentrations de contraintes." Paris 6, 1993. http://www.theses.fr/1993PA066730.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Rochette, Julie. "Optimisation d'une méthode d'extraction acide des éléments de terres rares (ÉTR) dans les résidus de bauxite." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30274.

Full text
Abstract:
Les éléments de terres rares (ÉTR) sont des minéraux présents dans un grand nombre de technologies émergentes. Les ÉTR sont composées de 16 éléments. Il s’agit des lanthanides (éléments 57 à 71 du tableau périodique) en plus du scandium et de l’yttrium. Contrairement à ce que leurs noms insinu, les éléments de terres rares ne sont pas si rares. En effet, ces éléments sont dispersés un peu partout dans la croûte terrestre, mais se retrouvent généralement en faibles quantités. Malheureusement, la production des ÉTR à l’aide de minerais tels que la monazite n’est pas bénin pour l’environnement puisque de grandes quantités de déchets aqueux sont générées en plus de quelques tonnes de déchets radioactifs. Ainsi, l’exploitation de ressources alternatives est envisageable pour minimiser l’impact environnemental de l’extraction minière de gisement des ÉTR. Parmi ces ressources, les résidus miniers produits par la fabrication d’aluminium (résidus de bauxite ou boues rouges) semblent être une alternative intéressante. Les boues rouges, issues du procédé Bayer, contiennent majoritairement du fer et de l’aluminium mais également, dans une proportion moindre du thorium, de l’uranium et des ÉTR. L’objectif de ce mémoire est de développer une méthode d’extraction acide qui permet de lixivier sélectivement les ÉTR tout en minimisant les éléments de la matrice des résidus de bauxite (RB). Initialement, une digestion complète a été effectuée afin de connaître les concentrations des éléments présents dans la matrice des RB. Par la suite, des mises en solution avec des acides dilués (chlorhydrique, nitrique et sulfurique) ont été effectuées à différents pH, températures et temps de chauffages. Les ÉTR et les éléments radioactifs ont été analysés par ICP-MS/MS tandis que les éléments majeurs l’ont été par ICP-OES. Dans le but de simplifier les mises en solution, une technique statistique a été utilisée, c’est-à-dire les plans d’expériences. Cette technique permet de varier plusieurs paramètres en même temps, en plus de vérifier l’interconnectivité des paramètres étudiés. Lors de ces mises en solution, un pourcentage acceptable des ÉTR est extrait préférentiellement aux autres constituants de la matrice. Suivant l’étape de mise en solution, une extraction liquide-liquide avec un ligand de type diglycolamide et une coprécipitation sont effectuées afin de séparer les ÉTR des éléments co-lixiviés.<br>The rare earth elements (REE) are minerals presents in a growing number of new technologies. The REE are composed of 16 elements. They are the lanthanides (elements 57 to 71 from periodic table) with the scandium and yttrium. Despite their names, these elements are not so rare. However, they are scattered throughout the earth crust and found in small quantities. Unfortunately, the production of the REE using ores such as monazite has significant environmental impacts since it is producing large quantities of wastes which some are radioactive. New alternative sources are now considered to minimize the environmental impact on the REE exploitation. Among the resources, the mining residues from the production of alumina (bauxite residues or red mud) are an interesting option. The red mud from the Bayer’s process contain mainly iron and alumina but also some thorium, uranium and REE. The objective of this work is to develop an acid based leaching method to perform the selective extraction of REE while minimizing the solubilisation extraction of matrix elements of the bauxite residues (BR). First, a complete digestion of the BR was done to determine the concentration of the constituting elements. Then, leaching experiments with diluted acids (hydrochloric, nitric and sulfuric) were done at different pH, temperatures and heating times. The REE and the radioactive elements were analysed by ICP-MS/MS whereas the matrix elements were analysed by ICP-OES. To simplify the investigation of the various solubilisation conditions, a statistical method was used e.g. the factorial design. This method enables the study of several parameters simultaneously and identifies the interconnectivity of the parameters. During the leaching investigation, a suitable percentage of REE were extracted over the other constituents of the matrix. After that, a liquid-liquid extraction with a diglycolamide ligand and a co-precipitation were done the separate the REE from the co-leached constituents of the matrix.
APA, Harvard, Vancouver, ISO, and other styles
36

Amer, Fawzy. "Les algorithmes d'extraction de contours ligne par ligne." Compiègne, 1986. http://www.theses.fr/1986COMPI235.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Leblanc, Yves. "Mise au point d'une méthode simultanée d'extraction et d'analyse du pentachlorophénol et de l'huile dans le bois traité." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq26686.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Al, Chami Jamal. "Développement d'une méthode d'extraction séquentielle de 36 composés phénoliques et 16 hydrocarbures aromatiques polycycliques à partir d'échantillons atmosphériques." Strasbourg, 2011. http://www.theses.fr/2011STRA6131.

Full text
Abstract:
Les hydrocarbures aromatiques polycycliques (HAP) sont des polluants organiques persistants émis dans l’atmosphère par de nombreux processus de combustion. Ils sont particulièrement étudiés en raison de leur potentiel cancérigène et mutagène. Les phénols fonctionnalisés (chloro- et nitrophénols principalement) sont rejetés dans l’atmosphère du fait de leur utilisation comme pesticides. Ils peuvent aussi provenir des combustions de déchets, du charbon, du bois et des émissions des véhicules diesel. Bien que certains d’entre eux soient toxiques pour l’homme et les végétaux, ils ne sont que très peu étudiés en France. Dans ce contexte, cette étude a pour objectif d’élaborer une méthode séquentielle d’extraction accélérée par solvant pressurisé à partir de la résine XAD-2 dopée. La première étape est l’extraction de 36 composés phénoliques avec de l’eau chaude alcaline à 150 °C, ensuite, l’extraction de 16 HAP se fait avec un mélange de n-hexane-acétone à 105 °C. Les composés phénoliques sont concentrés par micro-extraction sur phase solide, suivie d’une dérivation par silylation dans l’injecteur d’un chromatographe en phase gazeuse couplé à un spectromètre de masse pour l’analyse. Les HAP sont quantifiés par chromatographie liquide à détection par fluorescence. L’optimisation de la méthode d’extraction a permis d’obtenir des taux de recouvrement satisfaisants : 74-109% (chlorophénols), 60-101% (nitrophénols) et 85-114% (HAP). De plus, la méthode d’analyse validée est rapide, sélective, fiable et sensible avec des limites de détection de 0,03-26 ng. ML-1. Grâce à une consommation minimale de solvants organiques, la méthode est également moins polluante de l’environnement<br>Polycyclic aromatic hydrocarbons (PAH) are persistent organic pollutants. They are emitted into the atmosphere by many combustion processes and they have been particularly studied due to their potential carcinogenic and/or mutagenic properties. Functionalized phenols (e. G. Chloro- and nitro-phenols) are released into the atmosphere because of their use as pesticides. They can also be emitted from diesel engines, waste incineration, coal and wood combustions. Some of them are known or suspected to be highly toxic to human health and plants. However, they are poorly studied in France. In this laboratory study, accelerated solvent extraction was used for the sequential extraction of 36 phenolic compounds and 16 PAH from spiked XAD-2 resin. The procedure is based on hot alkaline water extraction (150 °C) of polar phenolic compounds, followed by acetone-n-hexane (1:1, v/v) extraction of PAH at 105 °C. The phenolic compounds in the aqueous extract are preconcentrated onto solid-phase microextraction fiber, followed by desorption and injection-port derivatization prior to gas chromatography analysis with mass spectrometry detection. The PAH, included in the second fraction, are preconcentrated by rotary evaporator and analyzed by liquid chromatography with fluorescence detection. Optimization of the extraction method allowed achieving high recoveries: 74-109% (chlorophenols), 60-101% (nitrophenols) and 85-114% (PAH). The validated analytical procedure is fast, selective, reliable and sensitive with detection limits of 0. 03-26 ng. ML-1. Furthermore, the method is environmentally friendly, as it consumes much less harmful organic solvents compared to conventional extraction methods
APA, Harvard, Vancouver, ISO, and other styles
39

Regad, Leslie. "Analyse statistique des boucles protéiques : développement d'une méthode d'extraction systématique de motifs récurrents au sein des régions en boucles." Paris 7, 2008. http://www.theses.fr/2008PA077110.

Full text
Abstract:
Comme les boucles protéiques sont très variables en termes de structure et de séquence elles sont souvent considérées comme des régions irrégulières. Au cours de ma thèse, j'ai développé une méthode statistique permettant d'analyser systématiquement des motifs structuraux récurrents extraits des boucles. Cette méthode utilise l'alphabet structural HMM-SA. HMM-SA est une description de la structure locale des protéines à l'aide de 27 prototypes de 4 résidus, appelés lettres structurales. A partir d'un jeu de structures des boucles simplifiées dans l'espace de HMM-SA, les motifs de 4 lettres structurales, correspondant à des fragments de 7 résidus, ont été extraits. 95% de ces fragments correspondent à des motifs structuraux vus au moins deux fois dans la banque de boucles. Nous avons montré que la majorité de ces motifs structuraux présentent une stabilité structurale et des préférences en acides aminés. Nous avons ensuite analysé le lien entre ces motifs et la fonction des protéines. Pour cela, nous avons recherché les motifs structuraux sur-représentés dans des échantillons de boucles extraites de protéines ayant une origine évolutive commune, c'est-à-dire appartenant à la même superfamille de la classification des protéines SCOP. Cette approche a permis de différencier deux types de motifs structuraux : les motifs ubiquitaires qui semblent avoir un rôle structural et les candidats fonctionnels, qui semblent être impliqués dans la fonction des protéines. Cette hypothèse a été confirmée par le fait que certains candidats fonctionnels correspondent à des sites biologiques annotés dans la banque de données Swiss-Prot<br>Protein loops are often considered as irregular region because they are variable both in terms of structure and sequence. During the course of my PhD, I developed a statistical method to perform a systematic analysis of recurrent structural motifs extrac-ted from loops. This method uses structural alphabet HMM-SA. HMM-SA is a description of protein local structures using 27 structural prototypes of 4 residues, called structural letters. From a set of loop structures simplified into the HMM-SA space, structural motifs of 4 structural letters, corresponding to 7 residue fragments, were extracted. 95% of these fragments correspond to structural motifs seen more than twice in the loop dataset. We showed that the majority of these structural motifs exhibit structural stability and amino acid preferences. Also, we analysed the link between these motifs and protein functions. To perform this analysis, we looked for over-represented motifs in loops extracted from proteins with an hypothetic common evolutive origin, i. E. , belonging to the same SCOP superfamily. This approach allowed to distinguish two types of structural motifs : ubiqui-tous motifs, with an hypothetical structural role, and functional candidates which seem to be involved in protein functions. This hypothesis was confirmed by the fact that some functional candidates correspond to biological functional sites annotated in the Swiss-Prot database
APA, Harvard, Vancouver, ISO, and other styles
40

Delprat, Nathalie. "Analyse temps-fréquence de sons musicaux : exploration d'une nouvelle méthode d'extraction de données pertinentes pour un modèle de synthèse." Aix-Marseille 2, 2001. http://www.theses.fr/1992AIX22053.

Full text
Abstract:
Cette these presente les resultats de l'exploration d'une nouvelle methode d'extraction de donnees a partir de l'analyse temps-frequence (ou temps-echelle) de sons musicaux en vue de leur resynthese par un modele non-lineaire. Plus precisement, l'idee est d'essayer de mettre en evidence et d'extraire dans le plan d'analyse une ou plusieurs trajectoires (les aretes) qui soient caracteristiques de la loi de modulation du modele choisi (ici la synthese par modulation de frequence). Dans ce but nous avons developpe une methode d'approximation semi-asymptotique des coefficients de la transformee de gabor (ou en ondelettes) d'un signal et defini les nouvelles notions d'arete et de squelette. Ceci nous a permis de determiner un critere d'extraction a partir de la phase de la transformee qui permet de visualiser des trajectoires dans le cas de sons naturels complexes. Une etude approfondie des nouvelles images obtenues a ete necessaire en particulier a cause des interactions entre aretes (phenomenes de fusion ou fission) et de la formation de ce que l'on a appele les bulles. L'interpretation de la forme et de l'evolution des aretes a notamment permis d'etablir des liens interessants entre aretes et diagrammes des phases, aretes et taille de la fonction analysante. Les interactions entre trajectoires, inevitables du fait de la non-adaptativite de la fenetre d'analyse, rendent difficile l'acces direct a l'information donc a l'estimation des parametres dans le cas d'un modele non-lineaire. Cependant, les differents essais de resynthese effectues et les methodes d'analyse adaptatives qui se developpent actuellement offrent des perspectives interessantes dans la poursuite de cette recherche
APA, Harvard, Vancouver, ISO, and other styles
41

Giannini, Fréderique. "Nouvelle méthode d'extraction des paramètres de bruit basée sur une analyse fréquentielle et temporelle des mesures de puissance de bruit." Cergy-Pontoise, 2003. http://www.theses.fr/2003CERG0183.

Full text
Abstract:
La conception des circuits à faible bruit repose sur la modélisation de chaque élément et sur leurs caractérisations. Ces deux étapes ne sont réalisables que par des mesures précises de quantification du bruit électrique. Plusieurs méthodes ont été développées pour mesurer les paramètres usuels de bruit. Les faibles niveaux de bruit que présentent les composants actuels montrent les limites en précisions de ces techniques. La plus classique, dite " multi-impédance ", nécessite du matériel onéreux comme un adaptateur d'impédance. La méthode de mesures de bruit présentée dans ce mémoire présente trois avantages : elle ne nécessite pas d'adaptateur d'impédance, elle ne requiert aucune hypothèse sur le quadripôle à mesurer et elle permet d'exploiter dans un temps raisonnable 801 points de mesures alors que les autres méthodes n'en exploitent qu'une ou deux dizaines. Elle se base sur l'interprétation en ondes de puissance du banc de mesures de bruit en présence ou non du quadripôle à mesurer. Cette approche originale permet d'avoir accès à les caractéristiques du banc et du quadripôle à partir de 5 mesures de bruit grâce à une analyse fréquentielle et temporelle. Les résultats de mesure sont prometteurs et une étude de la précision a été effectuée<br>Conception of low noise circuit requires characterizing and modeling of each component. These two conception stages are based on noise measurements. Several methods have been developed to measure noise parameters. Nowadays, components present noise levels reaching the limits of these methods. Moreover, the standard technique, called "multi-impedance " requires expensive adaptative impedance. The method described in this report presents mainly three advantages : First, it doesn't need any adaptative impedance. Then, there is no assumption on the measured two-port. Actually, noise parameters are given for 801 frequencies whereas others hardly give 20 or 30. Its principle is based on the interpretation of the bench flow chart with or without the measured device. From this original approach, bench and device characteristics are extracted from five noise measurements thanks to both temporal and spectral treatments. An optimization and a study of the precision have been realized. The method has been compared to the standard one in order to validate it
APA, Harvard, Vancouver, ISO, and other styles
42

Soukarieh, Banan. "Monitoring des HAPs et des PCBs dans le sol et les sédiments au Liban. Implantation d'une méthode optimisée et validée d'extraction et d'analyse." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0357.

Full text
Abstract:
Actuellement, le public et surtout dans les pays industrialisés est de plus en plus conscient du fait que la dégradation de l’environnement peut dépasser les avantages du progrès rapide dans les domaines industriels et technologiques et que des dommages sérieux et irréversibles peuvent être imposés aux futures générations. L'occurrence des POPs dans l'environnement, qui résulte essentiellement des activités anthropogéniques, est l'une des préoccupations permanentes chez les scientifiques. Ces composés ont été trouvés dans toutes les matrices environnementales telles que l'air, le sol, l'eau et les sédiments et en raison de leurs propriétés lipophiles, ils risquent de rebondir dans la chaîne alimentaire humaine. Durant cette dernière décennie, le Liban a connu une grande explosion démographique qui a été accompagnée par des activités anthropogéniques diverses. La dégradation de la qualité de l’environnement est bien ressentie par la population locale et les conséquences sur la santé humaine sont lourdes et affreuses. Les travaux de cette thèse ont permis d’évaluer concrètement l’effet de POPs sur la qualité de l’environnement au Liban, ces travaux ont abouti à la détermination des niveaux de quelques POPs les plus globalement étudiés tels que les HAPs, les PCBs et les OCPs dans les différents compartiments environnementaux au Liban. A cette fin, des protocoles d'analyse comprenant une méthode GC/MS pour la séparation et la détection des HAPs, une méthode UAE pour l'extraction des HAPs à partir du sol et des sédiments et une méthode SPE pour l'extraction des HAPs à partir de l'eau ont été développés. Ces méthodes ont été ensuite appliquées pour évaluer les niveaux de 17 HAPs dans des sols de différents usages et pour étudier la distribution de HAPs dans la phase aqueuse et les sédiments sur les côtes libanais et dans des rivières côtières et internes. Les principaux résultats ont montré que les niveaux de contamination des sols par les HAPs décroissent dans l’ordre suivant: industriels, urbains, transport et agricoles et que les sols industriels et urbains étaient 777 et 256 fois plus toxiques que les sols ruraux de référence selon l'approche TEF. De plus, l'eau et les sédiments des sites côtiers affectés par l'industrie et le transport maritime ont montré une contamination plus élevée par les HAPs. Certains échantillons de sédiments ont montré des niveaux de quelques HAPs individuels supérieures à l'ERL, ce qui pourrait occasionnellement provoquer des effets écologiques négatifs. Les travaux de cette thèse incluent aussi la détermination des niveaux des PCBs et des OCPs dans les sédiments de la rivière Litani qui est une source d’une grande préoccupation environnementale actuelle au Liban<br>Currently, the public and especially in industrialized countries is increasingly aware that environmental degradation can outweigh the benefits of rapid progress in the industrial and technological fields and that serious and irreversible damage can be imposed on the future generations. The occurrence of POPs in the environment, which results mainly from anthropogenic activities, is one of the permanent concerns of scientists. These compounds have been found in all environmental matrices such as air, soil, water and sediments and because of their lipophilic properties, they are likely to rebound in the human food chain. During the past decade, Lebanon has experienced a large population explosion that has been accompanied by various anthropogenic activities. The degradation of the quality of the environment is felt by the local population and the consequences for human health are heavy and horrendous. The work of this thesis allowed to evaluate concretely the effect of POPs on the quality of the environment in Lebanon, this work led to the determination of the levels of some POPs most widely studied such as PAHs, PCBs and OCPs in the different environmental compartments in Lebanon. To this end, analytical protocols including a GC/MS method for the separation and detection of PAHs, a UAE method for the extraction of PAHs from soil and sediments and an SPE method for the extraction of PAHs from water were developed. These methods were then applied to evaluate the levels of 17 PAHs in soils of different uses and study the distribution of PAHs in the aqueous phase and sediments on the Lebanese coasts and in coastal and inner rivers. The main results showed that soil contamination levels by PAHs decreased in the following order: industrial, urban, transport and agricultural and that industrial and urban soils were 777 and 256 times more toxic than rural reference soils according to the TEF approach. In addition, water and sediments from coastal sites affected by industry and shipping have shown higher contamination by PAHs. Some sediment samples showed concentrations of a few individual PAHs greater than the ERL, which could occasionally cause negative ecological effects. The work of this thesis also includes the determination of levels of PCBs and OCPs in the sediments of the Litani River which is a source of great environmental concern currently in Lebanon
APA, Harvard, Vancouver, ISO, and other styles
43

Dupont, Vincent. "Élaboration d'une méthode d'extraction de plans par croissance de régions dans un nuage de points bathymétriques servant à alimenter des estimateurs d'erreur hydrographique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66895.

Full text
Abstract:
En hydrographie, la bathymétrie est une technique de mesure permettant de visualiser le relief du fond de l’eau en créant un nuage de points 3D où chacun des points de sonde est géoréférencé dans un référentiel global tridimensionnel. Pour ce faire, une vedette hydrographique est équipée d’un SONAR, d’une centrale inertielle et d’un GNSS. Cependant, plusieurs sources d’incertitudes viennent altérer la qualité des points de sonde mesurés. C’est pourquoi, plusieurs efforts de recherche actuels visent l’élaboration d’estimateurs d’erreur permettant de détecter et de quantifier certaines erreurs systématiques en bathymétrie. Dans le contexte des ASV (Autonomous Surface Vehicles) ou véhicules autonomes de surface, ces estimateurs d’erreur ont pour but de rendre plus robustes les levés réalisés par ce type de véhicule, car les données acquises peuvent être validées en temps quasi-réel avant que le véhicule retourne à terre. Ceci permet d’assurer que les données respectent les spécifications demandées du levé hydrographique. Traditionnellement, de tels estimateurs d’erreur doivent être appliqués dans la zone de recouvrement d’au moins deux lignes de levé et représentant une région plane (i.e. un fond plat ou en pente). Ceci permet de vérifier la présence et la grandeur du biais de positionnement sur cette surface. Par ailleurs, de telles surfaces planes sont aussi d’intérêt pour la calibration automatique des systèmes d’acquisition bathymétrique. En effet, des plans sont nécessaires pour calculer les angles de visée entre la centrale inertielle et le sonar multifaisceaux. L’objectif de ce projet de maîtrise est d’élaborer une méthode robuste et fiable d’extraction de plans par croissance de régions dans un nuage de points bathymétriques. La solution élaborée permet d’obtenir la position et les paramètres des régions planes ainsi que leur qualité. Elle a été testée et validée avec différents jeux de données présentant une variété de morphologie du fond marin.<br>In hydrography, bathymetry is a measurement technique used to visualize the relief of the seabed by creating a 3D point cloud where each of the sounding points is georeferenced in a global three-dimensional reference frame. To do so, a hydrographic vessel is equipped with a SONAR, an inertial measurement unit (IMU) and a GNSS. However, several sources of uncertainty affect the quality of the measured sounding points. Therefore, current research efforts aim to develop error estimators to detect and quantify environmental and systematic bathymetric errors. In the context of Autonomous Surface Vehicles (ASVs), these error estimators aim to make the surveys more robust, since the data acquired can be validated in near real-time before the vehicle returns to the harbour. This ensures that the data meets the requested hydrographic survey specifications. Traditionally, such error estimators must be applied in the overlapping area of at least two survey lines and representing a flat region (i.e. a flat or slope bottom). On this surface, it is possible to check the presence and the magnitude of the positioning bias. Moreover, such flat surfaces are also of interest for automatic calibration of the bathymetric acquisition systems. Indeed, plans are needed to calculate the boresight angles between the inertial measurement unit and the multibeam sonar. The objective of this master’s project is to develop a robust and reliable method for extracting plans using region growing in a bathymetric point cloud. The developped solution provides the position and the parameters of the flat regions as well as their quality. It has been tested and validated with different datasets showing a variety of seabed morphology.
APA, Harvard, Vancouver, ISO, and other styles
44

Sellier, Virginie. "Développement de méthodes de traçage sédimentaire pour quantifier l'impact des mines de nickel sur l’hyper-sédimentation des rivières et l'envasement des lagons de Nouvelle-Calédonie Investigating the use of fallout and geogenic radionuclides as potential tracing properties to quantify the sources of suspended sediment in a mining catchment in New Caledonia, South Pacific Combining visible-based-colour parameters and geochemical tracers to improve sediment source discrimination in a mining catchment (New Caledonia, South Pacific Islands) Reconstructing the impact of nickel mining activities on sediment supply to the rivers and the lagoon of South Pacific Islands: lessons learnt from the Thio early mining site (New Caledonia)." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASV013.

Full text
Abstract:
La Nouvelle-Calédonie, île située au Sud-Ouest de l’Océan Pacifique et actuel 6e producteur mondial de nickel, est confrontée à une pollution sédimentaire sans précédent de ses cours d’eau. En effet, l’exploitation minière débutée dès les années 1880 a fortement amplifié les processus d’érosion des sols et de transport sédimentaire. Une hyper-sédimentation des hydro-systèmes calédoniens a notamment été constatée suite au déploiement de l’activité minière sur l’archipel. Bien que ce phénomène constitue un facteur aggravant les problèmes d’inondation caractéristiques de ces régions tropicales, les contributions sédimentaires générées par l’exploitation minière restent encore inconnues à ce jour et sont pourtant importantes pour guider la mise en œuvre de mesures visant à réduire ces apports sédimentaires.À cette fin, une étude de traçage sédimentaire qualifiée de fingerprinting a été menée sur un bassin « pilote » : le bassin versant de Thio (397 km²), considéré comme le « berceau » de l’activité minière en Nouvelle-Calédonie. Différents marqueurs tels que les radionucléides, la géochimie élémentaire ou la « couleur » ont été testés pour quantifier les contributions des sources minières aux apports sédimentaires générés par deux crues cycloniques récentes (dépression tropicale en 2015, cyclone Cook en 2017). Une carotte sédimentaire a également été prélevée dans la plaine inondable de la rivière Thio afin de reconstruire l’évolution temporelle des contributions des sources minières. Les résultats de cette étude montrent que les contributions des sources minières dominent, avec une contribution moyenne comprise entre 65-68% pour la crue de 2015 et entre 83-88% pour celle de 2017. L’impact de la variabilité spatiale des précipitations a notamment été mis en évidence pour expliquer les variations des contributions de ces sources. Les variations temporelles des contributions des sources minières déduites de l’analyse de la carotte sédimentaire ont, quant à elles, pu être associées aux différentes périodes historiques de l’exploitation minière sur le bassin versant de Thio (pré-mécanisation, mécanisation, post-mécanisation de l’activité minière). Les contributions des sources minières restent, là encore, dominantes avec une contribution moyenne le long du profil sédimentaire de 74%. La méthode de traçage validée a ensuite été testée sur quatre autres bassins versants de Nouvelle-Calédonie afin d’évaluer la transposabilité de cette approche<br>New Caledonia, an island located in the south-western Pacific Ocean and currently the world's sixth largest producer of nickel, is facing unprecedented sedimentary pollution of its river systems. Indeed, nickel mining that started in the 1880s accelerated soil erosion and sediment transport processes. Hyper-sedimentation of the Caledonian hydro-systems has been observed after the deployment of mining activities on the archipelago. Although this phenomenon exacerbates the flooding problems experienced in these tropical regions, the sediment contributions generated by nickel mining remain unknown and are nevertheless required to guide the implementation of control measures to reduce these sediment inputs.To this end, a sediment fingerprinting study was carried out in a "pilot" catchment: the Thio River catchment (397 km²), considered as one of the first areas exploited for nickel mining in New Caledonia. Different tracers such as radionuclides, elemental geochemistry or "colour" properties were tested to trace and quantify the mining source contributions to the sediment inputs generated during two recent cyclonic flood events (tropical depression in 2015, cyclone Cook in 2017). A sediment core was also collected in the floodplain of the Thio River catchment to reconstruct the temporal evolution of these mining source contributions. The results of this study show that mining sources dominated sediment inputs with an average contribution ranging from 65-68% for the 2015 flood event to 83-88% for the 2017 flood event. The impact of the spatial variability of precipitation was highlighted to explain the variations in the contributions of these sources across the catchment. The temporal variations in the contributions of the mining sources deduced from the analysis of the sediment core were interpreted at the light of the mining history in the Thio River catchment (pre-mechanization, mechanization, post-mechanization of mining activity). The contributions of mining sources were again dominant with an average contribution along the sedimentary profile of 74 %. Once validated, this tracing method has been tested in four other catchments of New Caledonia in order to evaluate the validity of the approach in other contexts
APA, Harvard, Vancouver, ISO, and other styles
45

Gutierrez, Luis Felipe. "Extraction et caractéristiques des huiles de l'argousier (Hippophaë rhamnoides L.). Une étude des effets de la méthode de déshydratation des fruits sur le rendement d'extraction et la qualité des huiles." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24426/24426.pdf.

Full text
Abstract:
Les huiles d’argousier (Hippophaë rhamnoides L.) ont été reconnues depuis longtemps pour leurs propriétés nutraceutiques. Les effets du séchage à l’air et de la lyophilisation sur les rendements d’extraction et la qualité des huiles de graines et de la pulpe d’argousier (cv. Indian-Summer) ont été étudiés. Les extractions ont été effectuées en utilisant l’hexane. Les graines séchées à l’air et celles lyophilisées ont donné des rendements d’extraction semblables (∼12%p/p), tandis que des différences significatives ont été trouvées entre les rendements d’extraction des pulpes séchées à l’air et lyophilisées (35.9±0.8 contre 17.1±0.6%p/p). Les acides α-linolénique (37.2-39.6%), linoléique (32.4-34.2%) et oléique (13.1%) furent les principaux acides gras trouvés dans les extraits des graines, alors que les extraits des pulpes furent riches en acides palmitoléique (39.9%), palmitique (35.4%) et linoléique (10.6%). Le fractionnement des huiles brutes, fait par extraction en phase solide, a donné principalement des lipides neutres (93.9-95.8%). Les indices de peroxyde des huiles des graines et des pulpes furent d’environ 1.8 et entre 3.0 et 5.4 meq/kg, respectivement. Les profiles de fusion des huiles ont été caractérisé par calorimétrie différentielle à balayage.<br>Sea buckthorn (Hippophaë rhamnoides L.) seeds and pulp oils have been recognized for their nutraceutical properties. The effects of air-drying and freeze-drying on extraction yields and quality of oils from sea buckthorn (cv. Indian-Summer) seeds and pulp were studied. Oil extractions were carried out using hexane. Air-dried (ADS) and freeze-dried (FDS) seeds, gave a similar extraction yields (∼12%w/w), whereas those of air-dried (ADP) and freeze-dried (FDP) pulps were significantly different (35.9±0.8 vs. 17.1±0.6%w/w). Fatty acid analysis revealed that α-linolenic (37.2-39.6%), linoleic (32.4-34.2%) and oleic (13.1%) acids were the main fatty acids in seed oils, while pulp oils were rich in palmitoleic (39.9%), palmitic (35.4%) and linoleic (10.6%) acids. Lipid fractionation of crude oils, obtained by solid phase extraction, yielded mainly neutral lipids (93.9-95.8%). The peroxide values of seed and pulp oils were circa 1.8 and between 3.0-5.4 meq/kg respectively. The melting behavior of oils was characterized by differential scanning calorimetry.
APA, Harvard, Vancouver, ISO, and other styles
46

Coussot, Gaëlle. "Etude de la biotransformation de pronucléotides à visée antivirale par couplage LC-MS et électrophorèse capillaire ; Conception d'une méthode d'extraction "on-line" appliquée à une drogue anticancéreuse : la 5-fluorouracile." Montpellier 2, 2003. http://www.theses.fr/2003MON20090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Gutiérrez, Alvarez Luis Felipe. "Extraction et caractéristiques des huiles de l'argousier (Hippophaë rhamnoides L.). Une étude des effets de la méthode de déshydratation des fruits sur le rendement d'extraction et la qualité des huiles." Master's thesis, Université Laval, 2007. http://hdl.handle.net/20.500.11794/19648.

Full text
Abstract:
Les huiles d’argousier (Hippophaë rhamnoides L.) ont été reconnues depuis longtemps pour leurs propriétés nutraceutiques. Les effets du séchage à l’air et de la lyophilisation sur les rendements d’extraction et la qualité des huiles de graines et de la pulpe d’argousier (cv. Indian-Summer) ont été étudiés. Les extractions ont été effectuées en utilisant l’hexane. Les graines séchées à l’air et celles lyophilisées ont donné des rendements d’extraction semblables (∼12%p/p), tandis que des différences significatives ont été trouvées entre les rendements d’extraction des pulpes séchées à l’air et lyophilisées (35.9±0.8 contre 17.1±0.6%p/p). Les acides α-linolénique (37.2-39.6%), linoléique (32.4-34.2%) et oléique (13.1%) furent les principaux acides gras trouvés dans les extraits des graines, alors que les extraits des pulpes furent riches en acides palmitoléique (39.9%), palmitique (35.4%) et linoléique (10.6%). Le fractionnement des huiles brutes, fait par extraction en phase solide, a donné principalement des lipides neutres (93.9-95.8%). Les indices de peroxyde des huiles des graines et des pulpes furent d’environ 1.8 et entre 3.0 et 5.4 meq/kg, respectivement. Les profiles de fusion des huiles ont été caractérisé par calorimétrie différentielle à balayage.<br>Sea buckthorn (Hippophaë rhamnoides L.) seeds and pulp oils have been recognized for their nutraceutical properties. The effects of air-drying and freeze-drying on extraction yields and quality of oils from sea buckthorn (cv. Indian-Summer) seeds and pulp were studied. Oil extractions were carried out using hexane. Air-dried (ADS) and freeze-dried (FDS) seeds, gave a similar extraction yields (∼12%w/w), whereas those of air-dried (ADP) and freeze-dried (FDP) pulps were significantly different (35.9±0.8 vs. 17.1±0.6%w/w). Fatty acid analysis revealed that α-linolenic (37.2-39.6%), linoleic (32.4-34.2%) and oleic (13.1%) acids were the main fatty acids in seed oils, while pulp oils were rich in palmitoleic (39.9%), palmitic (35.4%) and linoleic (10.6%) acids. Lipid fractionation of crude oils, obtained by solid phase extraction, yielded mainly neutral lipids (93.9-95.8%). The peroxide values of seed and pulp oils were circa 1.8 and between 3.0-5.4 meq/kg respectively. The melting behavior of oils was characterized by differential scanning calorimetry.
APA, Harvard, Vancouver, ISO, and other styles
48

Guadagnin, Moravia Marcus. "Approche MED du renforcement des sols granulaires par géogrilles." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI024.

Full text
Abstract:
Le travail de thèse porte sur la modélisation numérique par la méthode des éléments discrets (MED) du renforcement des sols granulaires par des géogrilles. L'objectif principal de ces travaux est d'améliorer la compréhension des mécanismes d'interaction entre la géogrille et les matériaux granulaires, en particulier ceux liés aux micro-mécanismes. En perspective, ces travaux peuvent contribuer au développement et à l'optimisation de nouveaux produits pour des applications spécifiques. Les géogrilles, en tant qu'éléments de renforcement des couches granulaires ont, par le passé, démontré leur efficacité à travers le monde. Dans de nombreux cas, ces structures apportent une solution le plus souvent économique, sûre et respectueuse de l'environnement. Cependant, le développement et l'optimisation de cette solution doivent tenir compte du comportement d'interaction complexe entre le renforcement et le matériau granulaire. Ainsi, l'utilisation de méthodes numériques capables de reproduire le comportement mécanique de la géogrille (étirement, flexion, cisaillement et torsion) et le comportement du sol à l'échelle du grain au voisinage de la géogrille (effet de roulement, de frottement et de butée) peut contribuer grandement à une meilleure compréhension de l'interaction sol-géogrille. Les modèles numériques basés sur la MED offre cette possibilité tout en ne nécessitant qu'un nombre relativement restreint de paramètres. Toutefois, la mise au point d'un modèle numérique de géogrilles représentatif des produits actuels reste une demande non satisfaite. Cette thèse comprend une nouvelle proposition de modélisation des géogrilles par la méthode des éléments discrets, basée sur l'utilisation d'éléments déformables. Les développements numériques ont été réalisés à partir du code open source YADE. Ils avaient pour objectif la définition d'une géométrie de géogrille générique constituée de brins de forme aplatie, comme c'est généralement le cas dans la pratique. Des simulations numériques d'essais d'extraction de géogrilles ont permis d'analyser le comportement d'interaction entre la grille et le sol granulaire et d'étudier la mobilisation progressive des forces de tension dans le renforcement. Des échantillons numériques comportant des particules sphériques ou non sphériques (clumps constitués de plusieurs sphères imbriquées) de différentes tailles ont été utilisés. Les résultats obtenus montrent que la forme des particules et leur taille relative (comparativement à la taille des ouvertures de la géogrille) ont une influence significative sur la mobilisation et l'intensité des forces d'extraction. Il a également été possible de vérifier que les efforts mobilisés dans les brins transversaux de la géogrille au cours des tests d'extraction sont nettement inférieurs à ceux des brins longitudinaux, mais qu'ils ne sont pas négligeables. Bien que la détermination des paramètres de contact reste une difficulté pour des applications à des cas réels, le modèle numérique discret semble être un outil pertinent et très prometteur pour l'étude de l'interaction entre tout type de géogrille et matériaux granulaires<br>The thesis topic is the geogrid-reinforced layer based on the Discrete Element Method (DEM). The main objective of the research is to improve the understanding of the interaction between generic geogrids and granular materials, especially those related to micromechanisms. The perspective is that this work can contribute to new studies related to the use of geogrids to optimize the design of such reinforcement. Geogrids as granular layer reinforcement elements have a successful application history throughout the world. In many cases, these structures provide a significantly economical, safe, and environmentally friendly solution. However, the development and optimization of this solution must deal with the complex behavior between the reinforcement and granular material. Thus, the use of numerical methods capable of reproducing the geogrid mechanical behavior (i.e., stretching, bending, shearing, and twisting) and the grain scale soil behavior at the vicinity of the geogrid (i.e., rolling, friction, and abutment effect) can contribute greatly to a better understanding of the soil-geogrid interaction. DEM-based models have this feature with a relatively small number of parameters. Despite this, representative geogrid modeling is still a demand. This thesis comprises a new proposal for discrete geogrid modeling using deformable elements. The numerical construction involved the extensible open-source framework for discrete numerical models YADE and focused on obtaining a realistic flat shape for members of a generic geogrid. Geogrid pullout simulations made it possible to verify the mechanical behavior of the samples and to evaluate the mobilization of forces in the reinforcement. The simulations comprised samples with different amounts of spherical and non-spherical particles. The results obtained were consistent and showed that the particle angularity and the relative size between geogrid openings and particles have a significant influence on the reinforcement strength mobilization. It was also possible to verify that the stresses mobilized in the transverse members of the geogrid during its pullout are significantly lower than those of the longitudinal members, but they are not negligible. Despite the determination of contact parameters is still a difficulty for real cases, the discrete numerical model presented contributes to future studies aiming at the interaction between geogrid and granular materials
APA, Harvard, Vancouver, ISO, and other styles
49

Maréchal, Romain. "Modélisation par méthode mixte analytique-numérique de la matrice de diffusion d'un conduit traité de longueur finie avec tubes Herschel-Quincke intégrés : application à la réduction du bruit de soufflante." Compiègne, 2011. http://www.theses.fr/2011COMP1988.

Full text
Abstract:
Dans l'industrie aéronautique, les traitements acoustiques placés en ras de paroi du réacteur commencent à atteindre leur limite en terme d'efficacité, notamment aux fréquences de passage de pâles (BPF) qui sont le résultat de l'Interaction entre les pales de la soufflante et les redresseurs Ainsi, des raies dans le spectre du bruit émis par le réacteur sont présentes durant toutes les phases de vol. En complément des matériaux absorbants, les tubes de Herschel-Quincke (HQ) offrent une alternative pour atténuer les raies émergentes aux BPF. Ces tubes sont placés en périphérie du conduit principal et déphasent les ondes acoustiques du conduit principal avec celles qui se propagent dans les tubes HQ afin d'atténuer le bruit transmis. Un modèle mixte analytique-numérique a été développé pour le calcul de la matrice de diffusion d'une couronne de tubes HQ intégrée à un conduit cylindrique traité de longueur finie. La technique développé permet de prendre en compte la forme exacte des tubes H Q que l'on met en périphérie du conduit principal ainsi que la possibilité d'avoir une vitesse acoustique non uniforme aux interfaces tube HQ-conduit principal. Le modèle permet une étude paramétrique sur les tubes HQ afin de cibler les fréquences à atténuer et et offre également un gain de temps par rapport à un modèle éléments finis<br>In aeronautic industry, the efficiency of acoustic liners in bypass and inter-stage regions of the turbofan engine is reached the limit, especially at the Blade Passage Frequencies (BPF), due to the interaction between the fan blades and the struts. Then, pure tones are produced in the noise spectrum for all flight phases, in addition of acoustic liners, Herschel-Quincke (HQ) tubes provide an alternative to improve the attenuation at the BPF. These tubes are placed in the periphery of the main duct and produce phase differences between acoustic waves in the main duct and in the HO tubes in order to attenuate the transmitted acoustic power. A mixed numerical-analytical model was developed for the fast computation of the scattering matrix of a ring of HO tubes integrated in a finite length line wall circular duct. This technic takes into account the exact shape of HO tube and the possibility of a non uniform acoustic velocity at the interfaces between the main duct and the HO tube. This model also allows a study of HQ tube parameters with a time swing compared to a standard element method. Finally, the mixed model has no frequency limit
APA, Harvard, Vancouver, ISO, and other styles
50

Valette, Marc. "Etude structurale du gisement salifère oligocène de Vauvert (Gard)." Montpellier 2, 1991. http://www.theses.fr/1991MON20037.

Full text
Abstract:
Les methodes de geologie de subsurface appliquees au gisement salifere oligocene de vauvert (sud-est de la france) revelent le redoublement et la superposition anormale d'une meme serie salifere sur un ensemble evaporitique autochtone. La deformation intra-salifere associe des structures soustractives et additives. Par ailleurs les evaporites assurent le decouplage des deformations entre leur substratum et leur couverture et cependant un meme processus distensif. L'interpretation sismique du secteur confirme d'importants mouvements halocinetiques associes a un decollement intra-salifere, a des failles listriques dans la couverture et a des failles normales antithetiques de la faille majeure de vauvert dans le substratum. Nous assimilons la structure salifere de vauvert a une loupe de glissement initiee dans un salifere multicouches par le jeu syn-sedimentaire continu de la faille de vauvert
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography