To see the other types of publications on this topic, follow the link: Méthode ICM.

Dissertations / Theses on the topic 'Méthode ICM'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode ICM.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Touzin, Matthieu. "Transport de charges dans les alumines polycristallines - Application à l'optimisation de la rigidité diélectrique." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2005. http://tel.archives-ouvertes.fr/tel-00012004.

Full text
Abstract:
Le claquage diélectrique constitue une limitation importante dans l'utilisation des matériaux isolants sous haute-tension puisqu'il conduit à la fusion et la sublimation locales du matériau. La microstructure (taille de grains, phase intergranulaire) joue un rôle important sur la capacité du matériau à résister à ce phénomène catastrophique. En effet, les interfaces entre les différentes phases constituent des sites potentiels de piégeage pour les charges. L'optimisation de la rigidité diélectrique passe donc nécessairement par le contrôle des paramètres microstructuraux. Ainsi, est montré qu'en maîtrisant les conditions d'élaboration (taux d'ajouts, granulométrie de la poudre et cycle thermique), il est possible de contrôler la densité (par la taille moyenne de grains) mais également la nature (par la cristallisation ou non de l'anorthite) des joints de grains. L'étude de l'influence de ces deux paramètres ainsi que de la température sur les propriétés de transport et de piégeage des charges a été réalisée par les méthode ICM et SEMME. Les résultats ainsi obtenus, interprétés à la lumière de la simulation numérique du comportement d'un isolant soumis à une irradiation électronique, ont permis de mettre en évidence des comportements, et les microstructures correspondantes, favorables à une bonne tenue au claquage diélectrique en fonction de la température considérée. Ainsi, à température ambiante une densité d'interfaces élevée (taille de grains faible et phase vitreuse cristallisée) permet au matériau de piéger durablement une quantité importante de charges, ce qui conduit à une rigidité diélectrique élevée. En revanche, à plus haute température, la présence de pièges de faible profondeur (phase intergranulaire vitreuse) favorise la diffusion des charges et permet de retarder le claquage.
APA, Harvard, Vancouver, ISO, and other styles
2

Boyer, Alexandre. "Méthode de prédiction de la compatibilité électromagnétique des systèmes en boîtier." Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000170/.

Full text
Abstract:
Afin de réaliser des circuits électroniques plus denses et plus performants, les industriels cherchent à intégrer dans un même boîtier plusieurs circuits. Néanmoins, la cohabitation entre un circuit bruyant et un circuit sensible du point de vue CEM pourrait révéler des incompatibilités dont il faut se prémunir. Ce mémoire décrit des méthodologies de prédiction de l’impact d’un couplage électromagnétique entre deux circuits proches, dans le cadre d’un rapprochement entre un microcontrôleur dédié à des applications automobiles et un composant puissance. Le premier chapitre est dédié à l’étude de l’origine et à la modélisation des émissions parasites et de la susceptibilité des circuits intégrés, et à la prise en compte de ces deux problèmes dans le cas d’un rapprochement entre plusieurs circuits. Ensuite, le deuxième chapitre est consacré à la modélisation des émissions rayonnées des circuits en champ proche produites tandis que le troisième s’intéresse à la prédiction de la susceptibilité des circuits soumis à des agressions rayonnées localisées. Enfin, dans le dernier chapitre, deux méthodologies de prédiction des risques de défaillances produites par le couplage entre deux circuits proches sont proposées à partir des modèles d’émission et de susceptibilité des composants, permettant de tester l’effet du placement et des conditions de fonctionnement sur la compatibilité électromagnétique<br>In order to achieve more powerful and denser electronic devices, the actual trend in microelectronic industry consists in integrating several circuits inside the same package. However it could involve electromagnetic incompatibility between the different circuits. This report describes some predictive methodologies dedicated to the impact of electromagnetic coupling between two nearby circuits, e. G. In the case of a module composed of a microcontroller and a power device. The first chapter is dedicated to the origin and the modelling of integrated circuit parasitic emission and susceptibility, and EMC problems related to system on package. Then the second chapter deals with integrated circuit near field radiated emission modelling, and the third chapter is dedicated to the susceptibility modelling of components disturbed by localized radiated aggression. Finally two methodologies aiming at predicting failure risks for two nearby components are proposed. They are based on the use of integrated circuit emission and susceptibility electrical models and allow testing the effect of placement and operating conditions on the electromagnetic compatibility
APA, Harvard, Vancouver, ISO, and other styles
3

Ponce, Anthony. "Raffinement de maillage adapté à la méthode Chimère." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD024.

Full text
Abstract:
L’essentiel du travail effectué consiste en l’intégration au sein du solveur NSMB d’une méthode de raffinement de maillage à partir d’ajout de blocs chimère. Dans un premier temps j’ai du adapter de la structure de données du code existant afin d’ajouter la modularité nécessaire à l’intégration de la méthode. Dans un second temps j’ai implanté la création de blocs de maillages chimères raffinés au cours de l’exécution du calcul. Le raffinement est modulable en fonction de paramètres d’entrées utilisateur. L’ajout de nouveaux blocs de maillages chimère peut être réalisé de manière séquentielle ou parallèle grâce à la parallélisation openMPI. Les maillages raffinés peuvent permettre d’affiner une partie de l’écoulement ou s’adapter à une géométrie plus complexe. Ce travail de développement a ensuite été éprouvé et validé sur différentes configurations planes<br>The main part of this work consists in the integration into the solver NSMB of a mesh refinement method based on the addition of chimera blocks. First, i had to adapt the data structure of the existing code in order to add the necessary modularity to integrate the method. In a second step i implemented the creation of refined chimera mesh blocks during the execution of the calculation. The refinement can be adjusted according to user input parameters. The addition of new chimera mesh blocks can be done sequentially or in parallel thanks to the parallelization openMPI. Refined mesh sizes can be used to refine part of the flow or to adapt to more complex geometry. This development work was then tested and validated on different flat configurations
APA, Harvard, Vancouver, ISO, and other styles
4

Grandchamp, Romain. "Electroencéphalographie et Interfaces Cerveau-Machine : nouvelles méthodes pour étudier les états mentaux." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00803635.

Full text
Abstract:
Avec les avancées technologiques dans le domaine de l'imagerie cérébrale fonctionnelle et les progrès théoriques dans la connaissance des différents éléments neuro-physiologiques liés à la cognition, les deux dernières décennies ont vu l'apparition d'interfaces cerveau-machine (ICM) permettant à une personne d'observer en temps réel, ou avec un décalage qui se limite à quelques secondes, sa propre activité cérébrale. Le domaine clinique en général, et plus particulièrement celui de la neuropsychologie et des pathologies conduisant à un handicap moteur lourd, pour lesquels les applications potentielles sont nombreuses qu'elles soient thérapeutiques ou en vue d'une réhabilitation fonctionnelle, a constitué un moteur important de la recherche sur ce nouveau domaine des neurosciences temps réel. Parmi ces applications, le neurofeedback, ou neurothérapie, qui vise l'acquisition par le sujet du contrôle volontaire de certains aspects de son activité cérébrale en vue de les amplifier ou au contraire les diminuer dans un but thérapeutique, voire d'optimisation cognitive, représente une technique prometteuse, alternative aux thérapies et traitements médicamenteux. Cependant, la validation de ce type d'intervention et la compréhension des mécanismes mis en jeux en sont encore à leurs balbutiements. L'entraînement par neurofeedback est souvent long, pouvant s'étaler sur plusieurs semaines. Il est donc très probable que ce type de rééducation cérébrale sollicite des phénomènes de plasticité qui s'inscrivent dans une dynamique lente, et de ce fait, requiert une durée relativement longue d'entraînement pour atteindre les effets à long terme recherchés. Cependant, à cela peuvent s'ajouter de nombreux éléments perturbateurs qui pourraient être à l'origine de la difficulté de l'apprentissage et des longs entraînements nécessaires pour obtenir les résultats attendus. Parmi eux, les perturbations qui viennent déformer le signal enregistré, ou les éléments artefactuels qui ne font pas partie du signal d'intérêt, sont une première cause potentielle. Le manque de spécificité fonctionnelle du signal retourné au sujet pourrait en constituer une deuxième. Nous avons d'une part développé des outils méthodologiques de traitement du signal en vue d'améliorer la robustesse des analyses des signaux EEG, principalement utilisés jusqu'à maintenant dans le domaine du neurofeedback et des ICM, face aux artefacts et au bruit électromagnétique. D'autre part, si l'on s'intéresse au problème de la spécificité fonctionnelle du signal présenté au sujet, des études utilisant l'IRM fonctionnelle ou des techniques de reconstruction de sources à partir du signal EEG, qui fournissent des signaux ayant une meilleure spécificité spatiale, laissent entrevoir de possibles améliorations de la vitesse d'apprentissage. Afin d'augmenter la spécificité spatiale et la contingence fonctionnelle du feedback présenté au sujet, nous avons étudié la stabilité de la décomposition de l'EEG en différentes sources d'activité électrique cérébrale par Analyse en Composantes Indépendantes à travers différentes séances d'enregistrement effectuées sur un même sujet. Nous montrons que ces décompositions sont stables et pourraient permettre d'augmenter la spécificité fonctionnelle de l'entraînement au contrôle de l'activité cérébrale pour l'utilisation d'une ICM. Nous avons également travaillé à l'implémentation d'un outil logiciel permettant l'optimisation des protocoles expérimentaux basés sur le neurofeedback afin d'utiliser ces composantes indépendantes pour rejeter les artefacts en temps réel ou extraire l'activité cérébrale à entraîner. Ces outils sont utiles dans le cadre de l'analyse et de la caractérisation des signaux EEG enregistrés, ainsi que dans l'exploitation de leurs résultats dans le cadre d'un entraînement de neurofeedback. La deuxième partie de ce travail s'intéresse à la mise en place de protocoles de neurofeedback et à l'impact de l'apprentissage. Nous décrivons tout d'abord des résultats obtenus sur une étude pilote qui cherche à évaluer chez des sujets sains l'impact d'un protocole de neuro-feedback basé sur le contrôle du rythme Mu. Les changements comportementaux ont été étudiés à l'aide d'un paradigme de signal stop qui permet d'indexer les capacités attentionnelles et d'inhibition de réponse motrice sur lesquelles on s'attend à ce que l'entraînement ICM ait une influence. Pour clore cette partie, nous présentons un nouvel outil interactif immersif pour l'entraînement cérébral, l'enseignement, l'art et le divertissement pouvant servir à évaluer l'impact de l'immersion sur l'apprentissage au cours d'un protocole de neurofeedback. Enfin, les perspectives de l'apport des méthodes et résultats présentés sont discutées dans le contexte du développement des ICMs de nouvelle génération qui prennent en compte la complexité de l'activité cérébrale. Nous présentons les dernières avancées dans l'étude de certains aspects des corrélats neuronaux liés à deux états mentaux ou classes d'états mentaux que l'on pourrait qualifier d'antagonistes par rapport au contrôle de l'attention : la méditation et la dérive attentionnelle, en vue de leur intégration à plus long terme dans un entraînement ICM par neurofeedback.
APA, Harvard, Vancouver, ISO, and other styles
5

Whitty-Léveillé, Laurence. "Développement d'une méthode d'analyse des éléments de terres rares (ETR) par ICP-MS/MS." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26700.

Full text
Abstract:
Ce mémoire présente les travaux effectués pour la mesure rapide des éléments des terres rares (ETR), comprenant Sc et Y, dans des matériaux géologiques. La digestion acide sur plaque chauffante, la digestion micro-onde et la digestion par fusion boratée ont été étudiées en tant que méthodes de digestion possibles pour les minéraux porteurs d’ETR. Une nouvelle procédure de digestion a été développée en utilisant un appareil de fusion. La température élevée de la digestion (1050 °C) et l'utilisation de LiBO2 comme fondant se sont montrées efficaces pour la digestion de chaque ETR. L'analyse par activation neutronique (NAA), la spectroscopie d’émission atomique par plasma micro-onde (MP-AES), la spectroscopie d’émission optique couplée à un plasma induit (ICP-OES) et la spectrométrie de masse en tandem couplée à un plasma induit (ICP-MS/MS) ont été explorées à titre des techniques d'analyse possibles pour la mesure des ETR dans divers échantillons de minerais. L'étude comparative a montré que les résultats obtenus par ICP-MS/MS sont en accord avec les résultats de matériaux de références certifiés, alors que les autres techniques d'analyse révèlent plusieurs interférences spectrales pour certains ETR. En outre, la spectrométrie de masse en tandem permet de nouvelles configurations de filtrage de masse, ce qui réduit les interférences polyatomiques lors de la détermination du Sc dans des matrices minérales. La conversion des ions Sc+ en ions ScO+ a fourni des conditions analytiques sans interférence et des limites de détections suffisamment basses, en bas de 3 ng/L, pour quantifier avec précision le Sc. La précision de la méthode proposée a été évaluée par l'analyse de cinq matériaux de référence certifiés différents (BX-N, 2-OKA, NIM-L, SY-3 et GH).<br>In this work, an innovative analytical protocol is introduced for rapid measurement of rare-earth elements (REE), including Sc and Y, in geological materials. Open-vessel acid digestion, microwave digestion and alkali digestion were investigated as possible digestion methods for minerals bearing REE. A new digestion procedure was developed using a fusion apparatus. The high digestion temperature (1050 ºC) and the use of LiBO2 as a flux were found to be effective for the digestion of every REE. Instrumental neutron activation analysis (NAA), microwave induced plasma atomic emission spectroscopy (MP-AES), inductively coupled plasma optical emission spectroscopy (ICP-OES), and inductively coupled plasma mass spectrometry (ICP-MS) were explored as possible analytical techniques for the measurement of REE in various mineral samples. The comparative study showed that the results obtained by ICP-MS are in good agreement with the certified reference materials (CRM) data, whereas the other analytical techniques reveal several spectral interferences for some REE. Furthermore, the tandem quadrupole instrument enables new mass filtering configurations, which can reduce polyatomic interferences during the determination of Sc in mineral matrices. Conversion of Sc+ ions into ScO+ ions provided interference-free conditions and sufficiently low limits of detection, down to 3 ng/L, to accurately quantify Sc. The accuracy of the proposed methodology was assessed by analyzing five different CRM (BX-N, OKA-2, NIM-L, SY-3 and GH).
APA, Harvard, Vancouver, ISO, and other styles
6

Sarkis, Bruno. "Étude numérique de la relaxation de capsules confinées par couplage des méthodes Volumes Finis - Éléments Finis via la méthode des frontières immergées IBM : influence de l'inertie et du degré de confinement." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS184/document.

Full text
Abstract:
Les capsules, formées d’une goutte protégée par une membrane élastique, sont très présentes naturellement et dans diverses applications industrielles, mais peu d’études ont exploré les phénomènes transitoires de leur relaxation. L’objectif est d’étudier l’influence de l’inertie et du confinement sur la relaxation d’une capsule sphérique (1) pré-déformée en ellipsoïde et relâchée dans un canal carré où le fluide est au repos, (2) sous écoulement dans un canal carré à expansion soudaine (‘marche’). La capsule est modélisée comme un fluide Newtonien dans une membrane hyper-élastique sans épaisseur ni viscosité, et simulée en couplant les méthodes Volumes Finis - Eléments Finis - frontières immergées. Sa relaxation dans un fluide au repos comporte 3 phases : amorçage du mouvement du fluide, phases rapide puis lente de rétraction de la membrane. Trois régimes existent selon le rapport de confinement et le rapport des nombres de Reynolds et capillaire : amortissements pur, critique ou oscillant. Un modèle de Kelvin-Voigt inertiel est proposé pour prédire les temps de réponse et aussi appliqué à une capsule en écoulement dans le canal microfluidique avec marche. La comparaison aux simulations 3D montre sa pertinence aux temps courts de la relaxation. Ces travaux ouvrent la voie à l’étude d’écoulements transitoires de capsules confinées dans des systèmes microfluidiques complexes<br>Capsules, made of a drop protected by an elastic membrane, are widly present in nature and in diverse industrial applications, but few studies have explored the transient phenomena governing their relaxation. The objective of the PhD is to study the influence of inertia and confinement on the relaxation of a spherical capsule (1) pre-deformed into an ellipsoid and released in a square channel where the fluid is quiescent, (2) flowing in a square channel with a sudden expansion (‘step’). The capsule is modeled as a Newtonian fluid in a hyperelastic membrane without thickness or viscosity and is simulated coupling the Finite Volume - Finite Element - Immersed Boundary Methods. Its relaxation in a quiescent fluid exhibits three phases: the initiation of the fluid motion, the rapid and then slow retraction phases of the membrane. Three regimes exist depending on the confinement ratio and the Reynolds to capillary number ratio: pure, critical or oscillating damping. A Kelvin-Voigt inertial model is proposed to predict the response time constants and also applied to a capsule flowing in the microfluidic channel with a step. The comparison to 3D simulations shows its relevance at short relaxation times. This work paves the way to the study of transient flows of capsules confined in microfluidic devices
APA, Harvard, Vancouver, ISO, and other styles
7

Grandchamp, Romain. "Électroencéphalographie et interfaces cerveau-machine : nouvelles méthodes pour étudier les états mentaux." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/2020/.

Full text
Abstract:
Avec les avancées technologiques dans le domaine de l'imagerie cérébrale fonctionnelle et les progrès théoriques dans la connaissance des différents éléments neurophysiologiques liés à la cognition, les deux dernières décennies ont vu l'apparition d'interfaces cerveau-machine (ICM) permettant à une personne d'observer en temps réel, ou avec un décalage qui se limite à quelques secondes, sa propre activité cérébrale. Le domaine clinique en général, et plus particulièrement celui de la neuropsychologie et des pathologies conduisant à un handicap moteur lourd, pour lesquels les applications potentielles sont nombreuses qu'elles soient thérapeutiques ou en vue d'une réhabilitation fonctionnelle, a constitué un moteur important de la recherche sur ce nouveau domaine des neurosciences temps réel. Parmi ces applications, le neurofeedback, ou neurothérapie, qui vise l'acquisition par le sujet du contrôle volontaire de certains aspects de son activité cérébrale en vue de les amplifier ou au contraire les diminuer dans un but thérapeutique, voire d'optimisation cognitive, représente une technique prometteuse, alternative aux thérapies et traitements médicamenteux. Cependant, la validation de ce type d'intervention et la compréhension des mécanismes mis en jeux en sont encore à leurs balbutiements. L'entraînement par neurofeedback est souvent long, pouvant s'étaler sur plusieurs semaines. Il est donc très probable que ce type de rééducation cérébrale sollicite des phénomènes de plasticité qui s'inscrivent dans une dynamique lente, et de ce fait, requiert une durée relativement longue d'entraînement pour atteindre les effets à long terme recherchés. Cependant, à cela peuvent s'ajouter de nombreux éléments perturbateurs qui pourraient être à l'origine de la difficulté de l'apprentissage et des longs entraînements nécessaires pour obtenir les résultats attendus. Parmi eux, les perturbations qui viennent déformer le signal enregistré, ou les éléments artefactuels qui ne font pas partie du signal d'intérêt, sont une première cause potentielle. Le manque de spécificité fonctionnelle du signal retourné au sujet pourrait en constituer une deuxième. Nous avons d'une part développé des outils méthodologiques de traitement du signal en vue d'améliorer la robustesse des analyses des signaux EEG, principalement utilisés jusqu'à maintenant dans le domaine du neurofeedback et des ICM, face aux artefacts et au bruit électromagnétique. D'autre part, si l'on s'intéresse au problème de la spécificité fonctionnelle du signal présenté au sujet, des études utilisant l'IRM fonctionnelle ou des techniques de reconstruction de sources à partir du signal EEG, qui fournissent des signaux ayant une meilleure spécificité spatiale, laissent entrevoir de possibles améliorations de la vitesse d'apprentissage. Afin d'augmenter la spécificité spatiale et la contingence fonctionnelle du feedback présenté au sujet, nous avons étudié la stabilité de la décomposition de l'EEG en différentes sources d'activité électrique cérébrale par Analyse en Composantes Indépendantes à travers différentes séances d'enregistrement effectuées sur un même sujet. Nous montrons que ces décompositions sont stables et pourraient permettre d'augmenter la spécificité fonctionnelle de l'entraînement au contrôle de l'activité cérébrale pour l'utilisation d'une ICM. Nous avons également travaillé à l'implémentation d'un outil logiciel permettant l'optimisation des protocoles expérimentaux basés sur le neurofeedback afin d'utiliser ces composantes indépendantes pour rejeter les artefacts en temps réel ou extraire l'activité cérébrale à entraîner. Ces outils sont utiles dans le cadre de l'analyse et de la caractérisation des signaux EEG enregistrés, ainsi que dans l'exploitation de leurs résultats dans le cadre d'un entraînement de neurofeedback. La deuxième partie de ce travail s'intéresse à la mise en place de protocoles de neurofeedback et à l'impact de l'apprentissage. Nous décrivons tout d'abord des résultats obtenus sur une étude pilote qui cherche à évaluer chez des sujets sains l'impact d'un protocole de neurofeedback basé sur le contrôle du rythme Mu. Les changements comportementaux ont été étudiés à l'aide d'un paradigme de signal stop qui permet d'indexer les capacités attentionnelles et d'inhibition de réponse motrice sur lesquelles on s'attend à ce que l'entraînement ICM ait une influence. Pour clore cette partie, nous présentons un nouvel outil interactif immersif pour l'entraînement cérébral, l'enseignement, l'art et le divertissement pouvant servir à évaluer l'impact de l'immersion sur l'apprentissage au cours d'un protocole de neurofeedback. Enfin, les perspectives de l'apport des méthodes et résultats présentés sont discutées dans le contexte du développement des ICMs de nouvelle génération qui prennent en compte la complexité de l'activité cérébrale. Nous présentons les dernières avancées dans l'étude de certains aspects des corrélats neuronaux liés à deux états mentaux ou classes d'états mentaux que l'on pourrait qualifier d'antagonistes par rapport au contrôle de l'attention : la méditation et la dérive attentionnelle, en vue de leur intégration à plus long terme dans un entraînement ICM par neurofeedback<br>With new technological advances in functional brain imaging and theoretical progress in the knowledge of the different neurophysiologic processes linked to cognition, the last two decades have seen the emergence of Brain-Machine Interfaces (BCIs) allowing a person to observe in real-time, or with a few seconds delay, his own cerebral activity. Clinical domain in general, and more particularly neuropsychology and pathologies leading to heavy motor handicaps, for which potential applications are numerous, whether therapeutic or for functional rehabilitation, has been a major driver of research on this new field of real-time neurosciences. Among these applications, neurofeedback, or neurotherapy, which aims the subject to voluntary control some aspects of his own cerebral activity in order to amplify or reduce them in a therapeutic goal, or for cognitive optimization, represents a promising technique, and an alternative to drug treatments. However, validation of this type of intervention and understanding of involved mechanisms are still in their infancy. Neurofeedback training is often long, up to several weeks. It is therefore very likely that this type of rehabilitation is seeking brain plasticity phenomena that are part of slow dynamics, and thus require a relatively long drive to achieve the desired long-term effects. However, other disturbing elements that could add up to the cause of the difficulty of learning and long training sessions required to achieve the expected results. Among them, the disturbances that come from recorded signal distortions, or artifactual elements that are not part of the signal of interest, are a first potential cause. The lack of functional specificity of the signal returned to the subject could be a second one. We have developed signal processing methodological tools to improve the robustness to artifacts and electromagnetic noise of EEG signals analysis, the main brain imaging technique used so far in the field of neurofeedback and BCIs. On the other hand, if one looks at the issue of functional specificity of the signal presented to the subject, studies using functional MRI or source reconstruction methods from the EEG signal, which both provide signals having a better spatial specificity, suggest improvements to the speed of learning. Seeing Independent Component Analysis as a potential tool to increase the spatial specificity and functional contingency of the feedback signal presented to the subject, we studied the stability of Independent Component Analysis decomposition of the EEG across different recording sessions conducted on the same subjects. We show that these decompositions are stable and could help to increase the functional specificity of BCI training. We also worked on the implementation of a software tool that allows the optimization of experimental protocols based on neurofeedback to use these independent components to reject artifacts or to extract brain activity in real-time. These tools are useful in the analysis and characterization of EEG signals recorded, and in the exploitation of their results as part of a neurofeedback training. The second part focuses on the development of neurofeedback protocols and the impact of learning. We first describe the results of a pilot study which seeks to evaluate the impact of a neurofeedback protocol based on the Mu rhythm control on healthy subjects. The behavioral changes were studied using a stop signal paradigm that indexes the attentional abilities and inhibition of motor responses on which the BCI training can possibly have influence. To conclude this section, we present a new tool for immersive interactive brain training, education, art and entertainment that can be used to assess the impact of immersion on learning during a neurofeedback protocol. Finally, prospects for methods and results presented are discussed in the context of next-generation BCI development which could take brain activity complexity into account. We present the latest advances in the study of certain aspects of the neural correlates associated with two mental states or classes of mental states that could be described as antagonistic with respect to the control of attention: meditation and mind wandering, for their integration in the longer term in an BCI training using neurofeedback
APA, Harvard, Vancouver, ISO, and other styles
8

Noël, Emeline. "Simulation numérique directe d’écoulements à l’aide d’une méthode de frontière immergée." Thesis, Rouen, INSA, 2012. http://www.theses.fr/2012ISAM0020/document.

Full text
Abstract:
Les travaux menés, depuis plusieurs années, au CORIA ont abouti à la construction d’un outil numérique (ARCHER) permettant la simulation numérique directe d’écoulements diphasiques et notamment l’atomisation d’un jet liquide à haute vitesse. Ce type de simulation permet de capturer les phénomènes d’atomisation au voisinage de l’injecteur difficilement caractérisables par les outils expérimentaux actuels. Ces simulations requièrent des conditions d’injection délicates à évaluer a priori car elles dépendent des caractéristiques de l’écoulement au sein de l’injecteur. Or, certains jets présentent une grande sensibilité à ces conditions d’injection. Dès lors, il est nécessaire de simuler l’écoulement au sein de l’injecteur afin d’appréhender la nature de cette sensibilité. L’utilisation d’un maillage cartésien par le code ARCHER conjuguée à la volonté de simuler le système d’atomisation dans son ensemble ont orienté ces travaux vers l’utilisation d’une méthode de frontière immergée. Ces travaux ont ainsi permis de reproduire des écoulements au sein d’injecteurs de forme quelconque tout en conservant le maillage cartésien d’origine, précieux tant pour l’efficacité du solveur que pour sa précision. Dans un premier temps, l’implantation dans le code ARCHER d’une méthode de frontière immergée a été réalisée et testée sur des configurations de canal et de conduite et de l’écoulement autour d’un cylindre. L’application de cette méthode a porté sur la simulation de l’écoulement au sein d’un injecteur triple disque mono-trou et a notamment permis de caractériser l’origine de l’écoulement secondaire formé dans l’orifice de décharge. Afin d’évoluer vers la construction d’un outil numérique capable de simuler le système d’atomisation dans son ensemble, un couplage entre la méthode de frontière immergée et la méthode Ghost fluid a été nécessaire. La version bi-dimensionnelle développée a été testée sur la relaxation d’une goutte posée sur une paroi. Cette version a permis de simuler des écoulements au sein de canaux à différents rapports de longueur sur diamètre et l’écoulement au sein d’une buse convergente. La simulation simultanée de l’écoulement interne et externe a permis de lier les fluctuations de vitesses des écoulements internes à la création de surface engendrée sur les écoulements externes<br>Since several years, the research conducted at the CORIA laboratory led to the development of a numerical tool (ARCHER) alllowing direct numerical simulations of two phase flows. In particular, the simulations of high speed liquid jet primary break-up have been strongly investigated. These simulations are able to capture primary break-up phenomena near the nozzle exit where experimental characterisations are difficult to conduct. These simulations need injection conditions tricky to gauge a priori, since they depend on the flow characteristics inside the nozzle. Moreover, some jets are highly sensitive to these injection conditions. Therefore, it becomes necessary to simulate the flow inside the nozzle to better understand this sensitive nature. The objective to simulate the whole atomization system guided the present work dedicated to the use of an immersed boundary method (IBM). Such an approach allows reproducing flows inside nozzles of arbitrary shape while keeping the original cartesian mesh valuable for numerical efficiency and accuracy. As a first step, the implementation of an IBM in ARCHER was carried out and tested on channels, pipes and uniform flows past a circular cylinder. An industrial application focused on the flow inside a triple disk compound injector. This work led to a refined description of the secondary flow origin in the discharge hole. In order to move towards the design of a numerical tool able to simulate the whole injection system, a coupling between IBM and the Ghost Fluid Method (GFM) has been found necessary. This allows accounting for two phase flows inside the nozzle where the dynamics of the triple line has to be considered. The bidimensional developments have been tested on drops released on walls. This version enabled to simulate flows inside channels with different ratios of length over diameter and the flow inside a convergent nozzle. The simultaneous computation of flows inside and outside nozzle has enabled to link the velocity fluctuations of internals flows to the surface setting-up gene-rated on external flows
APA, Harvard, Vancouver, ISO, and other styles
9

Ricard, Estelle. "Datation par ICP-MS des hydrocarbures accumulés dans un réservoir par la méthode uranium/thorium/plomb." Pau, 2010. http://www.theses.fr/2010PAUU3009.

Full text
Abstract:
La quantification des métaux traces dans les matrices organiques représente un challenge dans le domaine de la géochimie pétrolière afin d’étudier les corrélations huile-huile, huile source, et d’obtenir des informations concernant les migrations des hydrocarbures. Entre autre, l’estimation de l’âge d’expulsion des huiles brutes depuis la roche mère aura une implication importante pour la modélisation des systèmes pétroliers. Une nouvelle approche analytique a été développée, basée sur l’utilisation d’un laser IR-femtoseconde à haute cadence de tir couplé à une détection ICP-MS, afin de déterminer les teneurs en métaux traces dans les huiles brutes avec très peu de préparation d’échantillons préalable. Les limites de détection obtenues sont de l’ordre de la ppb. L’étude de l’uranium, du thorium et des rapports isotopiques du plomb dans les matrices pétrolières permet d’obtenir les informations suivantes : − Les huiles brutes sont très pauvres en uranium et en thorium (concentration &lt; 1 ppb) comparé au plomb (10 ppb – 10 ppm), ce qui implique des rapports U/Pb and Th/Pb très faible (&lt; 0,05). Ainsi, la détermination de l’âge d’expulsion à partir les huiles brutes est difficilement réalisable avec les isochrones U/Th/Pb classiquement utilisées, et nécessite donc de comparer les informations comprises dans les huiles brutes avec les kérogènes associés. − Les rapports isotopiques du plomb mesurés par ICP-MS multicollecteur, a permis de montrer le potentiel du système uranium/thorium/plomb pour l’estimation de l’âge d’accumulation des hydrocarbures<br>Trace metal quantification in organic matrices represents a challenge for organic geochemistry to study oil-to-oil correlation, oil-to-source correlation, or to obtain information on oil migration. Estimation of crude oil expulsion timing from the rock source will have an important implication for petroleum systems modelling. A new analytical approach using a high repetition rate IR-femtosecond laser coupled to an ICP-MS detection was developed, for the direct determination of trace elements in crude oil with limited sample preparation. Limits of detection in the range of the level were typically obtained. The study of uranium, thorium and lead isotopes in petroleum matrices gives the following information: − Crude oils are very low concentrated in uranium and thorium (concentration &lt; 1 ppb) compared to lead (10 ppb – 10 ppm) i. E. Very low U/Pb and Th/Pb ratios (&lt; 0,05). So the determination of crude oil expulsion time is hardly realizable with classical U/Th/Pb isochrones, and needs to be confronted to lead isotopes ratios obtained from source rocks and crude oils. − Lead isotopes ratios in crude oils and source rocks measured by multi-detection ICP-MS, shows the potential of the uranium/thorium/lead system for dating hydrocarbon accumulation
APA, Harvard, Vancouver, ISO, and other styles
10

Jouini, Ameur. "Méthodes et techniques de détection, identification et quantification des ultra-traces, application aux émetteurs alpha (Am et Pu)." Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4063/document.

Full text
Abstract:
La surveillance radiologique de l’environnement est un enjeu majeur pour étudier l Impact des activités industrielles et humaines mettant en œuvre des substances radioactives. Umalyse de l:tImet Pu présents à l’échelle des ultra-traces dans les sols et les sédiments (- mBq.kg-1) est souvent menée par spectrométrie (après séparation chimique. Ces méthodes souffrent de plusieurs inconvénients. Les objectifs de cette thèse sont par conséquent de simplifier la méthode de séparation et d'obtenir une limite de détection basse et un temps d’analyse relativement court en utilisant lICPMS-HR couplé au système d’introduction Apex-Q/ACM. Sur la base des données de la littérature, une méthode chimique utilisant une seule résine d’extraction chromatographique (DGA) est proposée pour isoler les concentrations ultra-traces d’Am et de Pu des différents types d'éléments interférents. La méthodologie proposée a été évaluée avec des solutions synthétiques avant l'utilisation de solutions de lixiviation d’échantillons préalablement analysés par spectrométrie alpha. La méthode retenue demande plusieurs procédure d’élution pour pouvoir séparer les majeurs, les interférents isobariques, les lanthanides, l’uranium et le thorium. Des rendements de chimie supérieurs à 90% pour Am et 60% pour Pu ont pu être mesurés. La robustesse de la méthode d’analyse a été validée avec un standard de référence certifié (AIEA-38S) .Enfin, le protocole analytique d’isolation et de dosage des ultra-traces d241Am et de 239Pu par ICP-MS-HR solution a été appliqué à des échantillons de sédiments échantillonnés dans l’estuaire de la Loire pour caractériser L’état radiologique du fleuve<br>Radiological monitoring of the environment is a key issue for studying the impact of industrial and human activities using radioactive substances. The analysis of Am and Pu present at ultra-trace concentrations in soils and sediments (-mBq.kg-l) is often carried out by spectrometry after chemical separation. This procedure suffers from several drawbacks (multi-step separation process and long coun.tingtime). The objectives of this PhD are consequently simplify separation process and to achieve a low limit of detection with a relatively short analysis time using a high-resolution plasma source mass spectrometer HR-ICP-MScoupled to the introduction system Apex-Q/ACM. Base on literature data, a chemical methodology using a single column extraction chromatography resin (DGA) is proposed for isolating ultra-trace concentrations of Am and Pu from different types of interfering elements. The proposed methodology is assessed with synthetic solutions prior to the use of real leaching solutions previously analyzed by alpha spectrometry. The chosen method requires several elution procedures in order to separate the majors element, isobaric interferes, lanthanides, uranium and thorium. Recovery yields greater than 90% for Am and 60% for Pu were determined. The robustness of the analytical method was validated with a certified reference standard sample (IAEA-385). Finally, the analytical process for isolation and analysis of 241Am and 239Pu at ultra-trace concentration by ICP-MS-HRsolution was applied to samples of sediment taken from Loire estuary to characterize the radiological status of this river
APA, Harvard, Vancouver, ISO, and other styles
11

Durrenberger, Daniel. "NSIBM : un solveur parallèle de Navier-Stokes avec raffinement automatique basé sur la méthode des frontières immergées." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD049/document.

Full text
Abstract:
Cette thèse, intitulée NSIBM : un solveur parallèle de Navier-Stokes avec raffinement automatique basé sur la méthode des frontières immergées, a été effectuée au sein du laboratoire iCube, département de mécanique, à Strasbourg, dans le quartier de l'Orangerie, sous la direction du professeur Yannick Hoarau. L'essentiel du travail effectué consiste en le développement d'un programme capable de résoudre numériquement l'équation de Navier-Stokes qui régit des fluides en mouvement. Une attention particulière a été portée à la production de maillages conformes aux géométries proposées et à leur génération. Les moyens mis en œuvre ici pour gérer l'éternel problème de la finesse du maillage opposée au trop grand nombre de cellules sont multiples : le raffinement, la parallélisation et les frontières immergées. Dans un premier temps, j'ai conçu un générateur de maillage en deux et trois dimensions en y intégrant la possibilité de diviser des cellules, et cela de manière automatique, par des critères géométriques, numériques ou physiques. Il permet également de supprimer des cellules, de manière à ne pas mailler le vide ou les parties solides de la géométrie.Dans un deuxième temps, j'ai rendu ce code parallèle en lui donnant la capacité d'utiliser plusieurs processeurs, afin de calculer plus vite et donc d'utiliser davantage de mailles. Cette étape fait appel à deux technologies : Metis, qui partage équitablement les mailles sur le nombre choisi de processeurs et OpenMPI, qui est l'interface de communication entre ces processeurs. Enfin, la méthode des frontières immergées a été introduite au code pour gérer les bords non verticaux ou horizontaux dans un maillage cartésien, c'est-à-dire formé de rectangles ou de pavés droits. Elle consiste à donner un caractère hybride à une cellule traversée par une frontière par l'introduction d'un terme numérique de forçage simulant la présence de la paroi.Ce travail de développement a ensuite été mis à l'épreuve et validé dans une série de cas tests en deux comme en trois dimensions. Des exemples de maillages complexes générés facilement sont donnés<br>This thesis, entitled NSIBM: a parallel Navier-Stokes solver with automatic mesh refinement based on immersed boundary method, has been conducted within the iCube laboratory dedicated to mechanics and located in Strasbourg. It has been supervised by Professor Yannick Hoarau. This work mainly deals with coding a program able to solve the Navier-Stokes equations that governs moving fluids, in a numerical way. Particular attention was paid to the production of meshes that suit given geometries and their generation.The means used here to handle the eternal problem of the fineness of the mesh opposed to too many cells are several~:refinement, parallelization and the immersed boundary method.Initially, I designed a two and three-dimensional mesh generator that includes the possibility of dividing cells,in an automatic way, by geometrical, numerical or physical criteria. It also allows to remove cells, where there is no point keeping it. Secondly, I parallelized the program by giving him the ability to use multiple processors to calculate faster and therefore use bigger meshes.This step uses two available libraries~: \textit{Metis}, which gives a optimal mesh partition, and \textit{openMPI}, which deals with communication between nodes. Finally, the immersed boundary method has been implemented to handle non-vertical or non-horizontal edges in a cartesian grid. Its principle is to confer a hybrid status to a cell which is crossed by an edge by adding a numerical force term simulating the presence of the boundary. This development work was then tested and validated in a serie of test cases in two and three dimensions. Examples of complex meshes easily generated are given
APA, Harvard, Vancouver, ISO, and other styles
12

Stankova, Alice. "Nouvelles méthodes de détermination des métaux dans les cendres volantes." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00839268.

Full text
Abstract:
Les déchets solides générés par notre société sont nombreux. Les cendres volantes sont des déchets solides produits lors de la combustion de déchets domestiques ou industriels dans des incinérateurs. Les cendres volantes sont également produites par la combustion du charbon dans les centrales à charbon. Les cendres volantes sont des résultats de ces combustions et représentent importante quantité de déchets produits chaque année par notre société. Les possibilités de recyclage de ces déchets sont nombreuses : dans la construction, l'industrie routière. Elles sont également stockées pour une utilisation ultérieure. Les origines différentes des charbons et déchets incinérés conduisent à une minéralogie et une composition élémentaire complexe. En tant que sous-produit le devenir des cendres volantes est important à déterminer, aussi la détermination de la composition élémentaire de ces cendres volantes est-elle indispensable.Les méthodes classiques de préparation des échantillons solides sont la minéralisation acide ou la fusion alcaline. Ces procédures prennent du temps et supposent l'utilisation de réactif, de plus la digestion complète n'est pas toujours assurée. Le risque de contamination par les réactifs employés est important au cours de ces méthodes classiques de préparation. Au cours de la dernière décennie, le développement d'analyse directe d'échantillons solides en utilisant des méthodes d'ablation laser a été important en raison de la nécessité de réduire le temps d'analyse et de réduire aussi la consommation de réactifs. Dans ce travail, deux méthodes basées sur l'ablation par laser seront étudiées pour l'analyse des cendres: Laser Induced Breakdown Spectroscopy (LIBS) et Laser Ablation Inductively Coupled Plasma Mass Spectrometry (LA-ICP-MS). La spectrométrie LIBS sera étudiée pour la détermination quantitative des éléments majeurs dans les échantillons de cendres alors que le couplage ablation laser ICP / MS sera employé pour détermination des éléments traces. L'optimisation de la sensibilité et les stratégies d'étalonnage sont les principaux problèmes traités dans ce travail. La préparation des échantillons et l'optimisation ont été effectuées pour déterminer les éléments tels que Al, As, Ba, Ca, Cr, Cu, Fe, Mg, Mn, Pb, Sr, V et Zn par les deux méthodes.Les performances analytiques telles que les limites de détection, justesse ont été obtenus à la suite d'optimisations appropriées des liants et de la sélection de l'étalon interne approprié. En conclusion, l'analyse directe de solides en utilisant les techniques basées sur l'ablation laser développées dans ce travail conduisent à une justesse acceptable pour la détermination des éléments majeurs et traces dans les cendres volantes
APA, Harvard, Vancouver, ISO, and other styles
13

Noël, Emeline. "Simulation numérique directe d'écoulements à l'aide d'une méthode de frontière immergée." Phd thesis, INSA de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00845203.

Full text
Abstract:
Les travaux menés, depuis plusieurs années, au CORIA ont abouti à la construction d'un outil numérique (ARCHER) permettant la simulation numérique directe d'écoulements diphasiques et notamment l'atomisation d'un jet liquide à haute vitesse. Ce type de simulation permet de capturer les phénomènes d'atomisation au voisinage de l'injecteur difficilement caractérisables par les outils expérimentaux actuels. Ces simulations requièrent des conditions d'injection délicates à évaluer a priori car elles dépendent des caractéristiques de l'écoulement au sein de l'injecteur. Or, certains jets présentent une grande sensibilité à ces conditions d'injection. Dès lors, il est nécessaire de simuler l'écoulement au sein de l'injecteur afin d'appréhender la nature de cette sensibilité. L'utilisation d'un maillage cartésien par le code ARCHER conjuguée à la volonté de simuler le système d'atomisation dans son ensemble ont orienté ces travaux vers l'utilisation d'une méthode de frontière immergée. Ces travaux ont ainsi permis de reproduire des écoulements au sein d'injecteurs de forme quelconque tout en conservant le maillage cartésien d'origine, précieux tant pour l'efficacité du solveur que pour sa précision. Dans un premier temps, l'implantation dans le code ARCHER d'une méthode de frontière immergée a été réalisée et testée sur des configurations de canal et de conduite et de l'écoulement autour d'un cylindre. L'application de cette méthode a porté sur la simulation de l'écoulement au sein d'un injecteur triple disque mono-trou et a notamment permis de caractériser l'origine de l'écoulement secondaire formé dans l'orifice de décharge. Afin d'évoluer vers la construction d'un outil numérique capable de simuler le système d'atomisation dans son ensemble, un couplage entre la méthode de frontière immergée et la méthode Ghost fluid a été nécessaire. La version bi-dimensionnelle développée a été testée sur la relaxation d'une goutte posée sur une paroi. Cette version a permis de simuler des écoulements au sein de canaux à différents rapports de longueur sur diamètre et l'écoulement au sein d'une buse convergente. La simulation simultanée de l'écoulement interne et externe a permis de lier les fluctuations de vitesses des écoulements internes à la création de surface engendrée sur les écoulements externes.
APA, Harvard, Vancouver, ISO, and other styles
14

Levis, Demian. "Two-dimensional Spin Ice and the Sixteen-Vertex Model." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00763350.

Full text
Abstract:
Cette thèse présente une étude complète des propriétés statiques et dynamiques du modèle à seize vertex en 2D, une version simplifiée de la glace de spin avec interactions dipolaires. Après une discussion générale sur le magnétisme frustré, et la glace de spin en particulier, on justifie l'introduction de notre modèle pour étudier le comportement collectif de la glace de spin. On utilise un algorithme de Monte Carlo à temps continu avec une dynamique locale qui nous permet d'analyser les phases d'équilibre et les propriétés critiques du modèle 2D. On compare nos résutats avec les resultats obtenus dans les cas où le système est intégrable. On définit ensuite le modèle sur des arbres orientés et on applique une approximation du type Bethe-Peierls. Afin de discuter le domaine de validité de cette approche, on compare les résultats ainsi obtenus avec les résultats exacts et numériques obtenus pour le modèle 2D. L'apparition récente des glaces de spin artificielles suggère un certain choix des paramètres du modèle. On montre que le modèle à seize vertex décrit de façon précise la thermodynamique de la glace de spin artificielle. On présente en détail le diagramme de phase et la nature des phases d'équilibre du modèle à seize vertex. Afin d' inclure l'effet des fluctuations thermiques responsables de apparaition de défauts ponc- tuels dans la glace de spin, on construit une extension stochastique du modèle intégrable à six vertex. On étudie, par l'intermédiaire de simulations Monte Carlo, comment le système s'ordonne dans le temps après différentes trempes. On analyse l'évolution de la densité de défauts et on iden- tifie les mécanismes dynamiques qui pilotent la relaxation vers ses différentes phases d'équilibre. On montre ainsi que la dynamique donne lieu à du "coarsening" et qu'elle vérifie l'hypothèse de "scaling" dynamique. On discute le rôle des défauts topologiques étendus et ponctuels présents dans le système au cours de l'évolution. Finalement, on étudie la présence d'un régime dynamique où le système reste gelé pendant de longues périodes de temps, ce qui à été observé dans la glace de spin dipolaire en 3D.
APA, Harvard, Vancouver, ISO, and other styles
15

Morente, Antoine. "Développement d'une méthode de pénalisation pour la simulation d'écoulements liquide-bulles." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19922/1/MORENTE_Antoine.pdf.

Full text
Abstract:
Ce travail est dédié au développement d'une méthode numérique pour la simulation des écoulements liquide-bulles. La présence des bulles dans l'écoulement visqueux et incompressible est prise en compte via une méthode de pénalisation. Dans cette représentation Euler-Lagrange, les bulles supposées indéformables et parfaitement sphériques sont assimilées à des objets pénalisés interagissant avec le fluide. Une méthode VOF (Volume Of Fluid) est employée pour le suivi de la fonction de phase. Une adaptation de la discrétisation des équations de Navier-Stokes est proposée afin d'imposer la condition de glissement à l'interface entre le liquide et les bulles. Une méthode de couplage entre le mouvement des bulles et l'action du liquide est proposée. La stratégie de validation est la suivante. Dans un premier temps, une série de cas-tests est proposée; les objets pénalisés sont supposés en non-interaction avec le fluide. L'étude permet d'exhiber la convergence et la précision de la méthode numérique. Dans un second temps le couplage est testé via deux types de configurations de validation. Le couplage est d'abord testé en configuration de bulle isolée, pour une bulle en ascension dans un liquide au repos pour les Reynolds Re=17 and Re=71. Les résultats sont comparés avec la théorie établie par la corrélation de Mei pour les bulles sphériques propres décrivant intégralement la dynamique de la bulle. Enfin, des simulations en configurations de nuage de bulles sont présentées, pour des populations mono- et bidisperses dans un domaine entièrement périodique pour des taux de vide s'établissant entre 1% et 15%. Les statistiques fournies par les simulations caractérisant l'agitation induite par les bulles sont comparées à des résultats expérimentaux. Pour les simulations de nuages de bulles bidisperses, de nouveaux résultats sont présentés.
APA, Harvard, Vancouver, ISO, and other styles
16

Camperi, Julien. "Développement de méthodes séparatives pour la caractérisation d’une glycoprotéine intacte : application à l’hormone chorionique gonadotrophine humaine." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLET018.

Full text
Abstract:
La glycosylation est la forme la plus courante de modification post-traductionnelle (PTM) des protéines humaines, puisque plus de 70% d’entre elles sont glycosylées. Celle-ci régule de nombreuses propriétés biologiques comme leur stabilité, leur demi-vie et leur activité. Néanmoins, les protéines peuvent également présenter d'autres types de PTM, ce qui peut conduire pour une protéine donnée à un très grand nombre d'isoformes variant par leur masse, leurs propriétés biologiques et physico-chimiques et leur concentration dans les échantillons biologiques. Ainsi, caractériser une glycoprotéine comporte de nombreux défis et nécessite la mise en œuvre de méthodes séparatives très performantes et de détection très sensibles et informatives.La gonadotrophine chorionique humaine (hCG) est l’hormone spécifique de la grossesse humaine. Elle est essentielle au développement du placenta et du fœtus. Elle est composée de deux sous-unités hCGα et hCGβ qui sont fortement glycosylées (4 sites de N-glycosylation et 4 sites d’O-glycosylation). Récemment, des travaux ont montré une corrélation entre sa glycosylation et une bonne implantation du fœtus. Une caractérisation des ces glycoformes s’avère donc nécessaire.Par conséquent, de nouvelles méthodes en LC/CE-MS ont été développées pour la caractérisation de la hCG à l’échelle intacte en utilisant deux médicaments à base de hCG ayant des glycosylations différentes. Alors que la méthode en CZE-MS (TQ) a permis de différencier les profils des glycoformes de la sous-unité hCGα des deux médicaments, la complémentarité des méthodes RP- et HILIC-MS (qTOF) a conduit à leur identification.Pour limiter les erreurs potentielles d’identification dues au chevauchement des profils isotopiques, le profil de chaque isoforme a été résolu par FT-ICR MS. Dans ce but, une séparation au format nanoLC en mode RP a été développée, améliorant ainsi la sensibilité de la méthode d’un facteur 500 par rapport au format conventionnel. Cette méthode a permis de confirmer l’identification des glycoformes de la sous-unité hCGα. D’autre part, il a été possible d’obtenir des profils différents de glycosylation de la sous-unité hCGβ en favorisant leur ionisation par réduction de la hCG. Enfin, un traitement à la PNGase a conduit à l’élimination des N-glycanes pour l’obtention des profils d’O-glycosylation de la sous-unité hCGβ<br>Glycosylation is the most common form of post-translational modifications (PTMs) of human proteins, since more than 70% are glycosylated. It regulates numerous biological properties including their stability, half-life, and activity. Nevertheless, proteins can also exhibit other types of PTMs that lead to a very large number of isoforms, varying in mass, properties and concentration in the biological samples. Therefore, the characterization of a glycoprotein is highly challenging and requires the use of powerful separation techniques and sensitive and informative detection modes.The human chorionic gonadotropin (hCG) is the hormone specific to human pregnancy. It is essential for the development of placenta and fetus. It is based on two heavily glycosylated subunits, hCGα and hCGβ, having 8 glycosylation sites (4 N- and 4 O-glycosylation sites). Some recent studies demonstrated that here is a correlation between the hCG glycosylation state and the fetus implantation. This is why the characterization of the hCG glycoformes is needed.Therefore, new LC/CE-MS methods were developed for the characterisation of hCG at the intact level using two hCG-based drugs having different glycosylation profiles. While the CZE-MS (TQ) method showed its potential for glycosylation fingerprinting, the complementarity of LC-(qTOF) MS methods in RP and HILIC modes allowed the identification of the glycoforms of the hCGα subunit.To limit the identification errors due to the overlapping of isotopic distribution patterns, the profile of each isoform was resolved by FT-ICR MS. For this purpose, a nanoLC separation in RP mode was developed, thus improving the sensitivity of the method by a factor 500 compared to the conventional format. This method allowed the confirmation of the identification of hCGα glycoforms. Then, it was possible to obtain different glycosylation patterns of the hCGβ by promoting its ionization after hCG reduction. Then, a PNGase treatment was carried out to remove the N-glycans in order to obtain the O-glycoprofiles of hCGβ isoforms
APA, Harvard, Vancouver, ISO, and other styles
17

Labussière, Cécile. "Le rayonnement électromagnétique des circuits Intégrés : techniques de caractérisation et méthodes de modélisation." Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000321/.

Full text
Abstract:
Les constantes avancées technologiques dans le domaine des semiconducteurs ont permis une augmentation des fréquences de fonctionnement des composants programmables, entraînant l’apparition d’émissions parasites à des fréquences supérieures au GigaHertz. Les progrès en terme d’intégration et de miniaturisation, tant au niveau composant qu’au niveau circuit imprimé, tendent à accroître les phénomènes de couplage parasite par rayonnement direct. Ces dernières années, de nouvelles techniques de mesure ont été proposées afin de caractériser les émissions parasites des circuits intégrés jusqu’à des fréquences atteignant 18 GHz. Après avoir analysé l’origine du rayonnement électromagnétique des circuits intégrés, ce mémoire présente ces nouvelles normes de mesure des émissions rayonnées – la cellule GTEM et le scan champ proche – et souligne la complémentarité de ces deux techniques. Le banc de scan champ proche pour composants développé dans le cadre de cette thèse est également présenté. Une méthodologie de simulation est proposée pour simuler, à partir du modèle ICEM (modèle comportemental permettant de décrire les émissions parasites d’un circuit intégré), les résultats des mesures d’émission rayonnée. Ce flot de simulation est ensuite appliqué pour prédire les émissions électromagnétiques d’un microcontrôleur 16 bits. Une très bonne concordance est observée entre résultats des simulations et données expérimentales. Enfin, ce travail pose les bases d’un modèle ICEM « hautes fréquences » utilisant des matrices de paramètres S pour modéliser les composants à des fréquences supérieures au GigaHertz<br>The continuous progress in the field of semiconductors makes possible the increase of the operating frequency of programmable components, which leads to the apparition of parasitic emissions at frequencies higher than 1 GHz. Because of the trend to integration and miniaturization, both at component level and at printed circuit board level, the parasitic coupling due to radiation phenomenon has to be more and more taken into account. These last years, new measurement techniques were proposed in order to characterize the parasitic emissions from an integrated circuit up to 18 GHz. After having analyzed the origin of the electromagnetic emissions from an integrated circuit, this document presents these new radiated emissions measurement standards – the GTEM cell and the surface scan method – and underlines the complementarities of the two techniques. The test bench that was developed for scan measurements at component level is also presented. A methodology based on the model ICEM (a behavioral model that describes the electromagnetic emissions from an integrated circuit) is proposed to simulate the results of radiated emission measurements. The simulation flow is then applied to predict the electromagnetic emissions from a 16-bit microcontroller. A very good agreement is achieved between simulation results and experimental data. Finally, the author investigates a "high-frequency" ICEM model that uses S-parameter matrices to model components at frequencies higher than 1 GHz
APA, Harvard, Vancouver, ISO, and other styles
18

Idbraim, Soufiane. "Méthodes d'extraction de l'information spatiale et de classification en imagerie de télédétection : applications à la cartographie thématique de la région d'Agadir (Maroc)." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/553/.

Full text
Abstract:
Les travaux de cette thèse s'articulent autour de deux axes : la classification pour la cartographie de l'occupation du sol et l'extraction du réseau routier à partir des images satellitaires et aériennes. Le premier axe a pour objectif de proposer une méthode de classification visant à prendre en compte le contexte spatial de l'information contenue dans une image satellitaire. Ainsi, nous avons développé une méthode de classification markovienne, avec recherche de la solution optimale par l'algorithme d'ICM (Iterated Conditional Mode). Cette méthode est paramétrée par un facteur de température qui va permettre, premièrement, de régler la tolérance des configurations désavantageuses dans le processus d'évolution de la classification, et deuxièmement, d'assurer la convergence de l'algorithme en un temps de calcul raisonnable. Parallèlement, nous avons introduit une nouvelle contrainte contextuelle de segmentation dans l'algorithme. Cette contrainte va permettre au fil des itérations d'affiner la classification en accentuant les détails détectés par les contours de segmentation. Le second axe de cette thèse est l'extraction du réseau routier à partir des images satellitaires et aériennes. Nous avons proposé une méthodologie complètement automatique à travers un système d'extraction par blocs qui agissent séparément et indépendamment sur l'image, le premier bloc opère un filtrage directionnel adaptatif, permettant ainsi de détecter les routes dans chaque fenêtre de l'image selon les directions dominantes. Quant au deuxième, il applique une segmentation, puis, il sélectionne les segments représentant des routes selon un critère de forme. Ces deux blocs apportent ainsi un type d'informations différent sur la scène étudiée. Ces résultats sont confrontés puis complétés dans un troisième bloc afin de générer une image du réseau routier. Les performances des méthodologies proposées sont vérifiées à travers des exemples sur des images satellitaires et aériennes. Les résultats expérimentaux sont encourageants<br>The work of this thesis focuses around two axes: the classification for the mapping of land cover and the extraction of roads from satellite and aerial images. The first axis aims to propose a method of classification which takes in account the spatial information contained in a satellite image. Thus, we developed a method of Markov classification with the search for the optimal solution by an ICM (Iterated Conditional Mode) algorithm. This method is parameterized by a new factor of temperature, this parameter will allow, first, to rule the tolerance of the disadvantageous configurations during the evolution of the classification process, and secondly, to ensure the convergence of the algorithm in a reasonable time of calculation. In parallel, we introduced a new contextual constraint of the segmentation in the algorithm. This constraint will allow, over the iterations, to refine the classification by accentuating the detected details by the segmentation contours. The second axis of this thesis is the extraction of roads from satellite and aerial images. We proposed a completely automatic methodology with an extraction system in blocks which act separately and independently on the image. The first block operates a directional adaptive filtering, allowing detecting roads in each window of the image according to the dominant directions. The second one applies segmentation, and then selects the segments representing roads according to a criterion of the segment form. These two blocks provide a different type of information on the studied image. These results are then complemented with a third block to generate an image of the road network. The performances of the proposed methodologies are verified through examples of satellite and aerial images. In general, the experimental results are encouraging
APA, Harvard, Vancouver, ISO, and other styles
19

Aguerre, Sandrine. "Développement de méthodes analytiques associant la SPME à des techniques couplées GC-détecteur spécifique (FPD, PFPD, MIP-AES, ICP-AES, ICP-MS) pour la spéciation de l'étain et du sélénium." Pau, 2001. http://www.theses.fr/2001PAUU3038.

Full text
Abstract:
La toxicité des métaux et métalloi͏̈des vis à vis des différentes parties de l'écosystème est fortement liée à leur forme physico-chimique. Aussi, la mise au point de méthodes de spéciation suffisamment sensibles pour assurer leur suivi systématique dans les milieux naturels est-elle indispensable. Ce travail présente en grande partie le développement de nouvelles méthodes analytiques pour la spéciation des composés organostanniques. Les innovations proposées reposent sur l'utilisation d'une technique de préconcentration, la SPME (ou microextraction sur phase solide) et sur le développement de couplages associant la chromatographie en phase gazeuse (GC) à divers détecteurs spécifiques (FPD, PFPD, MIP-AES, ICP-AES, ICP-MS). Les différents paramètres influençant les étapes de sorption et de désorption des butyl- et phénylétains en SPME ont été évalués et les conditions opératoires optimisées par le biais de la méthodologie des plans d'expériences. De nouvelles lignes de transfert entre la partie GC et l'ICP-MS / ICP-AES ont été testées et les performances des cinq détecteurs ont été comparées en terme de sensibilité et sélectivité. Toutes les méthodes permettent d'atteindre des limites de détection inférieures à 0. 5 ng(Sn). L-1 pour l'ensemble des composés étudiés, soit un gain de performances d'un facteur 100 à 700 par rapport à l'extraction liquide-liquide classiquement utilisée. L'analyse d'eaux, sédiments, tissus biologiques et boues de station d'épuration a permis d'évaluer les possibilités de ces méthodes dans le cas d'échantillons réels. Par ailleurs, une étude approfondie des phénomènes de sorption des organoétains en SPME a mis en évidence un comportement de désorption spontanée ainsi que l'influence importante des substances humiques sur leurs rendements d'extraction. Enfin, afin d'élargir les champs d'utilisation de la SPME, son potentiel en vue de la spéciation des formes volatiles et inorganiques du sélénium par GC-PFPD a été évalué<br>Toxicity of metals and metalloids towards the different parts of the ecosystem is highly dependent on their chemical form. Therefore, the development of sensitive speciation methods should be performed to allow their monitoring in the environment. A large part of this work deals with the development of new analytical procedures for the speciation of organotin compounds. The innovations are based on the use of a new preconcentration technique, SPME (solid phase microextraction) and on the hyphenation of gas chromatography (GC) with different specific detectors (FPD, PFPD, MIP-AES, ICP-AES, ICP-MS). Sorption and desorption steps in SPME have been studied and optimised using experimental design methodology. For the first time, new transfer lines (GC-ICP-MS and GC-ICP-AES) have been tested and the performances of all the detectors were compared in terms of selectivity and sensitivity. All the procedures allow detection limits lower then 0. 5 ng(Sn). L-1 to be reached for butyl- and phenyltins. Water samples, sediments, biological tissues and sludge from wastewater treatment plant have been analysed in order to evaluate the suitability of this method on real samples. A kinetic study of sorption-desorption behaviour of organotins during SPME has been performed. A spontaneous desorption behaviour has been noted. The influence of humic substances, representative of natural samples, on extraction yields has also been demonstrated. In a last part, potential of SPME for the sorption of methylated and inorganic forms of selenium followed by GC-PFPD analysis has been explored. First applications on water samples have been carried out
APA, Harvard, Vancouver, ISO, and other styles
20

Wang, Shuanglong. "Développement de méthodes analytiques basées sur la spectrométrie de masse de haute résolution pour l’étude de molécules contenant des métaux chez les organismes vivants." Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3007/document.

Full text
Abstract:
Les ions métalliques (Fe, Zn, Cu, Mn, Ni, Co, Mo…) jouent un rôle vital dans un grand nombre de processus biologiques. Leur carence et leur excès entraînent des défauts de croissance voire la mort. Pour survivre et croître, certaines bactéries ont développé des stratégies pour acquérir les métaux dans leur environnement basées sur la synthèse de ligands complexant les métaux. Les plantes, elles, stockent les métaux et les transportent entre les tissus sous des formes chimiques particulières et un rôle grandissant pour les petits complexes métalliques semble se révéler. La spéciation des métaux gouvernerait donc leur biodisponibilité pour les consommateurs en ce qui concerne les plantes comestibles. Cette thèse a pour but le développement de méthodes analytiques pour l’identification et la quantification des formes chimiques des métaux chez les bactéries et les plantes.Les techniques de séparation chromatographique, comme la chromatographie d’exclusion stérique (SEC) et la chromatographie d’interaction hydrophile (HILIC), furent couplées à la spectrométrie de masse (MS) avec une ionisation préalable par plasma induit (ICP MS) ou par électrospray pour une détection élémentaire et moléculaire respectivement. La méthodologie analytique développée ici, qui est basée sur l’utilisation de l’HILIC avec détection double par ICP MS et électrospray MS, s’est avérée cruciale pour la découverte et la caractérisation de deux nouveaux métallophores, la staphylopine chez Staphylococcus aureus et la pseudopaline chez Pseudomonas aeruginosa. Ces métallophores sont synthétisés et exportés par les bactéries et servent pour l’acquisition des métaux de transition divalents dans les milieux très pauvres en métaux grâce à leur pouvoir complexant.Des techniques dédiées de préparation d’échantillons, incluant le fractionnement des extraits solubles à l’eau, furent mises en place pour l’analyse du fer dans le maïs. Les approches instrumentales développées, notamment après le fractionnement du fer l’échantillon, permirent l’identification par spectrométrie de masse de complexes du fer avec le citrate, le muginéate et le phytate dans les grains de maïs. Il existe aussi une différence significative dans les concentrations de certaines polyamines entre certaines variétés de graines contenant du fer faiblement biodisponible et celles contenant du fer fortement biodisponible. La plus grande abondance de complexe fer-muginéate dans les extraits gastro-intestinaux des variétés à fer fortement biodisponible semblerait indiqué un rôle important pour ce complexe dans la biodisponibilité du fer. Finalement, des ratios molaires plus faibles entre le phytate extrait et le fer qui lui est associé sembleraient aussi être un des facteurs lié à une plus grande biodisponibilité du fer<br>Metal (Fe, Zn, Cu, Mn, Ni, Co, Mo…) ions play a vital role in a large number of biological processes. Both their deficiency and excess will lead to severe growth impairment or death. In order to survive and to grow, bacteria developed strategies to acquire metals from the environment based on the synthesis of metal complexing ligands. Plants store metals and transport them between tissues in particular chemical forms and a rising role for small metal complexes seems to be revealed. Therefore their speciation governs the bioavailability of the metals to consumers in the case of edible plants. This thesis aims at the development of analytical methods for the identification and quantification of metal chemical forms in bacteria and in plants.Chromatographic separation techniques, such as size exclusion chromatography (SEC) and hydrophilic interaction chromatography (HILIC) were coupled to mass spectrometry (MS) using ionization in an inductively coupled plasma (ICP MS) or electrospray for elemental and molecular detection, respectively. The developed analytical methodology based on HILIC with dual ICP MS and electrospray MS detection turned out to be crucial for the discovery and characterization of two novels metallophores, staphylopine in Staphylococcus aureus and pseudopaline in Pseudomonas aeruginosa. These metallophores are synthesized and exported by the bacteria and serve for the uptake of divalent transition metal in metal scarce conditions by means of chelation. Dedicated samples preparation techniques, including fractionation of water soluble extracts, were developed for iron analyses in maize. The developed instrumental approaches following the iron fractionation methods allowed the identification by mass spectrometry of citrate, mugineate and phytate complexes with iron in maize kernels. There was also a significant difference in some polyamine concentrations observed between some kernels with low and high bioavailable iron. The higher abundance of the iron-mugineate complex in the gastrointestinal extract in high bioavailable maize variety possibly indicates that iron-mugineate would have an important role in iron biodisponibility. Finally, lower molar ratios between extracted phytate and iron associated to it would seem to be also a key aspect for higher iron bioavailability
APA, Harvard, Vancouver, ISO, and other styles
21

Bras, Laurent. "Analyse théorique et empirique de la régulation des systèmes de production et de stock : la mise en oeuvre des méthodes à flux tendus dans l'entreprise IBM." Montpellier 1, 1992. http://www.theses.fr/1992MON10010.

Full text
Abstract:
After working according to planning logics, the western producers try to experiment the "just in time" japanese system. The thesis is beginning with the comparison of these two modes of production, that is pointing out that both systems provides full complement, and justify researches on a suitable management style, its test and its implementation. All these works have been used at ibm montpellier plant, that is manufacturing the largest systems of the catalog, and are now integrated in a european hybrid logistic system, which is more flexible, less expensive<br>Apres avoir fonctionne selon des logiques de planification, les producteurs occidentaux sont tentes aujourd'hui d'appliquer les methodes "juste a temps", developpees par les japonais. La these debute par une analyse comparee de ces deux approches, qui montre leur complementarite et motive la recherche, l'experimentation, puis l'industrialisation de principes et de supports de gestion appropries. Tous ces travaux ont ete appliques a la fabrication des grands ordinateurs ibm, a montpellier, et ont abouti a une logistique europeenne, desormais hydrique, plus flexible et moins couteuse
APA, Harvard, Vancouver, ISO, and other styles
22

Beuvier, Ludovic. "Développement d'une méthode de séparation chromatographique couplée aux spectrométries de masse à source d'ionisation électrospray (ESI-MS) et à source plasma à couplage inductif (ICP-MS) : application à l'analyse de spéciation des lanthanides." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066594/document.

Full text
Abstract:
Ces travaux de thèse concernent les développements d'une méthode de séparation chromatographique couplée simultanément à l'ESI-MS et l'ICP-MS afin de réaliser l'analyse de spéciation exhaustive des lanthanides en phase aqueuse représentative des phases de désextraction des procédés de traitement du combustible usé. Cette méthode analytique permet de séparer, caractériser et quantifier des complexes de lanthanides à ligands polyaminocarboxyliques comme le DTPA et l'EDTA, utilisés comme agents complexants dans ces procédés. La méthode de séparation par chromatographie HILIC des complexes de lanthanides a été mise au point avec la phase stationnaire à fonctions amide. Un criblage d'une large gamme de compositions de phase mobile a permis de déterminer que le mécanisme d'adsorption est prédominant lors l'élution des complexes de lanthanides et d'obtenir des conditions de séparation optimisées. Des conditions d'analyse plus rapides obtenues avec une colonne à fonctions amide de granulométrie sub-2 µm et de longueur plus faible ont permis de réduire le temps d'analyse d'un facteur 2,5 et la consommation de solvant de 25 %. La caractérisation structurale et isotopique par HILIC ESI-MS a été réalisée ainsi que la mise au point d'une méthode d'étalonnage externe. Les performances analytiques de la méthode de quantification ont été déterminées. Enfin, le développement d'un système de couplage de l'HILIC à l'ESI-MS et l'ICP-MS a été réalisé. Une méthode de quantification simultanée par ESI-MS et par ICP-MS a permis de déterminer la distribution quantitative des espèces en solution ainsi que les performances analytiques associées<br>This work focuses on the development of a chromatographic separation method coupled to both ESI-MS and ICP-MS in order to achieve the comprehensive speciation analysis of lanthanides in aqueous phase representative of back-extraction phases of advanced spent nuclear fuel treatment processes. This analytical method allowed the separation, the characterization and the quantitation of lanthanides complexes holding polyaminocarboxylic ligands, such as DTPA and ETDA, used as complexing agents in these processes. A HILIC separation method of lanthanides complexes has been developed with an amide bonded stationary phase. A screening of a wide range of mobile phase compositions demonstrated that the adsorption mechanism was predominant. This screening allowed also obtaining optimized separation conditions. Faster analysis conditions with shorter amide column packed with sub 2 µm particles reduced analysis time by 2.5 and 25% solvent consumption. Isotopic and structural characterization by HILIC ESI-MS was performed as well as the development of external calibration quantitation method. Analytical performances of quantitation method were determined. Finally, the development of the HILIC coupling to ESI-MS and ICP-MS was achieved. A simultaneous quantitation method by ESI-MS and ICP-MS was performed to determine the species quantitative distribution in solution. Analytical performances of quantitation method were also determined
APA, Harvard, Vancouver, ISO, and other styles
23

Bouville, Florian. "Self-assembly of anisotropic particles driven by ice growth : Mechanisms, applications and bioinspiration." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0155/document.

Full text
Abstract:
Les phénomènes d'auto-assemblage sont au premier plan de la recherche en sciences des matériaux car ils comblent le vide laissé entre les procédés d'assemblage à l'échelle macroscopique et nanoscopique. L'auto-assemblage est basé sur l'organisation spontanée de composants individuels en motifs et structures. Contrôler l’agencement de la matière peut accroître les propriétés de matériaux en introduisant une certaine anisotropie. Cet agencement, comme de nombreux matériaux naturels le prouvent, peut même sous certaines conditions faire émerger de nouvelles caractéristiques. Au cours de ces trois années, nous avons utilisé l’ « ice templating » (texturation à la glace) pour déclencher l’alignement de plaquettes de dimensions microniques, le but final étant de répliquer la microstructure de la nacre. Cette technique induit la ségrégation des constituants d’une suspension à l’échelle du micron tout en obtenant des échantillons de quelques centimètres cubes. Ce procédé a permis la création de matériaux inorganique avec une microstructure semblable à la nacre, en additionnant trois niveaux de contrôles successifs : l’alignement local des plaquettes, l’alignement à longue distance des cristaux de glaces et enfin le contrôle de l’interface entre ces-mêmes plaquettes. L’utilisation d’une modélisation par éléments discrets nous a permis d’étudier la dynamique de l’auto-assemblage des particules anisotropes. Ce modèle, parce qu’il tient compte de la dynamique du procédé, nous a révélé comment l’organisation de ces particules se produit. La tomographie par rayon X a permis de visualiser les structures finales des échantillons et d’attester de la pertinence du modèle. L’alignement local des plaquettes dans les parois générées par la solidification de la glace peuvent accroître les propriétés fonctionnelles et structurales de composites. Dans ce cadres deux applications ont été étudiées : la conduction thermique dans des composites nitrure de bore hexagonal / silicone et les propriétés mécaniques d’alumine macroporeuses. Une adaptation du procédé a permis d’obtenir l’alignement à longue distance (quelques centimètres) des cristaux de glaces. Différents outils ont été développés pour caractériser la réponse fonctionnelle de ce type de composite en fonction de leurs architectures aux deux échelles considérées (celles des macropores et parois). Enfin, après la mise en place de ces deux niveaux de contrôle sur la structure, l’addition d’une phase vitreuse inorganique et de nanoparticules aux joints de grains des plaquettes a introduit, de façon similaire à la nacre, des interfaces pouvant dévier et arrêter la propagation de fissures<br>Self-assembly phenomena are of prime interest in materials science, because they fill the gap between assembly of macrostructure and processing of nanomaterials. Self-assembly is based on the spontaneous organization of individual small constituents into patterns and structures. Controlling the spatial arrangement can possibly improve materials properties by maximizing its response in a given direction. Furthermore, particular types of spatial arrangement, such as found in natural structures, can even induce new properties. During the past three years, we have used ice templating process to trigger the assembly of platelet-shaped particles to replicate the hierarchical structure of nacre. Control over this technique allowed structural customization at different length-scales: local orientation of the platelets, ice crystal long range order, and the control if the interfaces between the platelets. This hierarchical process has set the ground for the creation of a new fully mineral nacre-like alumina. The local platelet self-assembly triggered by ice growth was investigated by Discrete Element Modelling which provided new insight into the dynamic phenomenon responsible for the particles alignment. Synchrotron X-ray tomography was used to validated the model results. The different architecture observed in the final samples are not the result of a percolation threshold, as one could expect, but is instead a consequence of the delicate balance between pushing and engulfment at the solidification front. The local alignment of platelets can be beneficial for the functional and structural characteristics of composites and relevant aspects for two potential applications were investigated: the thermal properties of the hexagonal boron nitride/silicon rubber composites and the mechanical properties of macroporous alumina. Further adaptation of the process allowed for long range ordering of the ice crystals (up to the centimeter scale). Different tools have also been developed in order to characterize the response of composites as a function of the architecture at the level of the macropores and particle organisation. Once those two levels of alignment were achieved, the addition of a glassy phase and nanoparticles to the grain boundaries of the platelets introduces, just like in nacre, interfaces capable of deflect and even stopping crack propagation
APA, Harvard, Vancouver, ISO, and other styles
24

Holste, Angela Sarah. "Développement des méthodes bio analytique pour l’analyse quantitative et qualitative des peptides et protéines marqués par le couplage de la chromatographie et la spectrométrie de masse." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3004/document.

Full text
Abstract:
Cette thèse est le résultat d’une cotutelle entre l'Université de Pau et des Pays de l'Adour (UPPA) à Pau, en France et l'Université Christian Albrecht (CAU) à Kiel, en Allemagne. Dans le cadre de cette collaboration internationale, des méthodes bio-analytiques sont développées pour analyser quantitativement et qualitativement des peptides et protéines marquées par le couplage de la chromatographie avec la spectrométrie de masse. Les peptides et les digestats des protéines sont marquées selon un protocole optimisé par des lanthanides en utilisant des composés à base de DOTA. La séparation des peptides est réalisée par IP-RP-nanoHPLC. Des données complémentaires sont acquises par MALDI-MS pour l'identification et par ICP-MS pour la quantification. Dans ce contexte, une étape de pré-nettoyage en ligne est développée et mise en œuvre dans le protocole de séparation par nanoHPLC. Cette étape permet l'élimination efficace des réactifs appliqués en excès et ainsi la diminution du bruit de fond lié à la présence de métaux lors des analyses par ICP-MS. Les données obtenues sont alors plus facile à interpréter, la sensibilité des signaux des peptides n’étant par ailleurs pas modifié. L'extraction en phase solide (SPE) appliquée comme alternative entraîne des pertes importantes de peptides et peut être considérée comme inadaptée pour l'analyse quantitative. Des additifs pour éluants de nanoHPLC, tels que l'EDTA et le HFBA sont testés et jugés non bénéfiques pour l'analyse des échantillons peptidiques normaux. HFBA peut être reconsidéré pour une application spéciale sur des peptides très hydrophiles. Des peptides marqués sont développés. Leur utilisation en quantité connue pourrait permettre la quantification rapide et simple d'un échantillon de digestat à faible complexité. De plus, cet ensemble de peptides permet la superposition fiable des chromatogrammes, et ainsi de comparer des données complémentaires obtenues par l’analyse d’échantillon par ICP-MS et MALDI-MS. Expériences d'application avec le couplage laser femtoseconde avec ICP-MS sont effectuées sur des plaques métalliques de MALDI MS et montrent des résultats très prometteurs. Pour cela, les échantillons préalablement identifiés par MALDI-MS sont analysés par fsLA-ICP-MS. Les premières tentatives de quantification sur la plaque en acier modifiée sont satisfaisantes et donnent des résultats répondant aux attentes. L’optimisation des paramètres de MALDI-MS facilite l’identification des peptides<br>This PhD thesis was a Cotutelle between the Université de Pau et des Pays de l’Adour (UPPA) in Pau, France and the Christian-Albrechts University (CAU) in Kiel, Germany. In the course of this international collaboration, bio-analytical methods for the quantitative and qualitative analysis of labelled peptides and proteins were developed, which were based on the hyphenation of chromatography with mass spectrometry. Peptides and protein digests were lanthanide labelled using DOTA-based compounds according to an optimised protocol. Separation on the peptide level was performed using IP-RP-nanoHPLC. Complementary data sets were acquired using MALDI-MS for identification and ICP-MS for quantification. In this context, an online precleaning step was developed and implemented in the nanoHPLC separation routine, which allowed for effective removal of excess reagents. This lead to lowered metal backgrounds during ICP-MS measurements and thus better data interpretability, while guarding peptide recovery at a maximum level. An alternative offline purification using solid phase extraction (SPE) resulted in important peptide losses and can be considered unsuitable for quantitative analysis. Additives to the nanoHPLC eluents, such as HFBA and EDTA were tested and not deemed beneficial for the analysis of normal peptide samples. HFBA can be reconsidered for special application on very hydrophilic peptide species. A set of labelled peptides was developed, which due to application of known quantities could be employed for quick and simple quantification of a low complexity digest sample. In addition this peptide set allowed for the reliable superposition of chromatograms, enabling sample comparability especially for complementary ICP-MS and MALDI-MS data. Experiments for application of fsLA-ICP-MS on MALDI-MS target plates were conducted and showed very promising results. For this purpose, samples that were already identified using MALDI-MS were supposed to be remeasured using fsLA-ICP-MS. First quantification attempts on the modified steel target plate were successful and in the range of expectance. Adjusted parameters for MALDI-MS allowed for proper peptide identifications
APA, Harvard, Vancouver, ISO, and other styles
25

Martinez-Rivas, Claudia. "Formulation and biological evaluation of nanomedicins with Cenizo Leucophyllum frutescens (BERL.) I.M. JOHNSTON (Scrophulariaceae) extract against Mycobacterium tuberculosis." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1027/document.

Full text
Abstract:
La tuberculose est une maladie d'urgence dans le monde, l'apparition de souches résistantes au traitement a produit l'utilisation de produits naturels comme alternative. Des études ont montré que les extraits de Leucophyllum frutescens présentaient un effet antimicrobien, mais l'inconvénient est que les extraits sont récupérés dans un véhicule qui contient des solvants organiques. La préparation de nanoparticules polymériques (NP) implique l'élimination du solvant dans lequel l'actif est solubilisé, ce qui permet les utiliser comme véhicules pour l'administration des extraits. Par conséquent, le but de cette étude a été design et développer des formulations de NP avec un extrait de L. frutescens et de la rifampicine (RIF), afin d'évaluer l'activité biologique in vitro contre M. tuberculosis. Premièrement, l'extrait méthanolique de feuilles et de racines de L. frutescens et ses fractions a été obtenu. L'activité contre M. tuberculosis a été déterminée, l'extrait de racines (EMR) et ses fractions hexanique (FHR et RF1) ont été les plus actives avec une CMI de 100, 40 et 40 μg/mL, respectivement. RIF, EMH, FHR et RF1 ont été incorporés dans NP par nanoprécipitation. Des NP de ≈180 nm avec une distribution de taille homogène ont été obtenus. Les NP ont été évaluées sur M. tuberculosis, les formulations de NP-PLGA-RIF (CMI=0,10 μg/mL) et NP-PLGA-RF1 (CMI=80 μg/mL) ont montré la meilleure activité. Finalement, l'activité des formulations combinées contre M. tuberculosis a été évaluée, la combinaison de RIF avec NP-PLGA-RF1 a produit le meilleur comportement, réduisant la CMI des deux sans montrer un effet toxique. Les études réalisées dans ce travail ont montré l'utilisation potentielle d'une formulation de NP contient une fraction végétale de L. frutescens en combinaison avec le RIF comme alternative contre M. tuberculosis<br>Tuberculosis is an emergency disease worldwide, the emergence of resistant strains to the treatment has produced the use of natural products as alternative. Studies have shown that Leucophyllum frutescens extracts present antimicrobial effect, but the disadvantage is that the extracts are recovered in a vehicle that contains organic solvents. The preparation of polymeric nanoparticles (NP) involves the elimination of the solvent in which the active is solubilized, which makes possible to use them as vehicles for the administration of the extracts. Therefore, the aim of this study was to design and develop formulations of NP with an extract of L. frutescens, and rifampicin (RIF), in order to evaluate the in vitro biological activity against M. tuberculosis. Firstly, the methanolic extract of leaves and roots of L. frutescens and its fractions were obtained. The anti-M. tuberculosis activity was determined, being the root extract (EMR) and its hexane fractions (FHR and RF1) the most actives with a MIC of 100, 40 and 40 μg/mL, respectively. RIF, EMH, FHR and RF1 were incorporated into NP by nanoprecipitation. NP of ≈180 nm with homogeneous size distribution were obtained. The NP were evaluated on M. tuberculosis, being the formulation of NP-PLGA-RIF (MIC=0.10 μg/mL) and NP-PLGA-RF1 (CMI=80 μg/mL) with better activity. Finally, the anti-M. tuberculosis activity of the combined form formulations was evaluated, the combination of RIF with NP-PLGA-RF1 produced better behavior, reducing the MIC of both without showing toxic effect. The studies carried out in this work showed the potential use of an NP formulation contains a vegetable fraction of L. frutescens in combination with RIF as an alternative against M. tuberculosis
APA, Harvard, Vancouver, ISO, and other styles
26

Chen, Yongmin. "A 2-D random walk model for predicting ice accretion on a cylindrical conductor + : Modélisation en 2-D de l'accumulation de glace sur un conducteur cylindrique par la méthode du cheminement aléatoire." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ65271.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Kaiser, Vojtech. "The Wien Effect in Electric and Magnetic Coulomb systems - from Electrolytes to Spin Ice." Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0942/document.

Full text
Abstract:
Les gaz ou fluides de Coulomb sont composés de particules chargées couplées entre elles par interaction coulombienne à longue portée. De part la nature de ces interactions, la physique du gaz de Coulomb est très riche, comme par exemple dans des électrolytes plus ou moins complexes, mais aussi à travers l'émergence de monopôles magnétiques dans la glace de spin. Dans cette thèse nous nous intéressons au comportement hors d'équilibre des gaz de Coulomb et de la glace de spin. Au centre de cette étude se trouve le deuxième effet de Wien, qui est une croissance linéaire de la conductivité en fonction du champ électrique appliqué à un électrolyte faible. Ce phénomène est une conséquence directe de l'interaction coulombienne qui pousse les charges à se lier par paires ; le champ électrique va alors aider à dissocier ces paires et créer des charges mobiles qui amplifient la conductivité. Le deuxième effet de Wien est un processus hors-équilibre non-linéaire, remarquablement décrit par la théorie de Onsager. Nos simulations sur réseau permettent de découvrir le rôle de l'environnement ionique qui agit contre le deuxième effet de Wien, ainsi que de caractériser la mobilité du système et sa dépendance en fonction du champ externe. Les simulations nous ont aussi donné accès aux corrélations de charges qui décrivent le processus microscopique à la base de l'effet Wien. Enfin, nous regardons plus précisément le gaz émergent de monopôles dans la glace de spin, aussi appelé « magnétolyte », capable de décrire de manière remarquable les propriétés magnétiques de glace de spin. Nous décrivons la dynamique complète hors-équilibre de cette magnétolyte soumise à une forçage périodique ou une trempe dans un champ magnétique en incluant à la fois le deuxième effet de Wien et la réponse du réseau de spins qui est à la base de l'émergence des monopôles magnétiques. Tout au long, nous utilisons une simple extension des simulations de gaz de Coulomb sur réseau pour préciser nos prédictions. Il est très rare de trouver une théorie analytique du comportement hors-équilibre d'un système hautement frustré au-delà de la réponse linéaire<br>A Coulomb gas or fluid comprises charged particles that interact via the Coulomb interaction. Examples of a Coulombic systems include simple and complex electrolytes together with magnetic monopoles in spin ice. The long-range nature of the Coulomb interaction leads to a rich array of phenomena.This thesis is devoted to the study of the non-equilibrium behaviour of lattice based Coulomb gases and of the quasi-particle excitations in the materials known as spin ice which constitute a Coulomb gas of magnetic charges. At the centre of this study lies the second Wien effect which describes the linear increase in conductivity when an electric field is applied to a weak electrolyte. The conductivity increases due to the generation of additional mobile charges via a field-enhanced dissociation from Coulombically bound pairs.The seminal theory of Onsager gave a detailed analysis of the Wien effect. We use numerical simulations not only to confirm its validity in a lattice Coulomb gas for the first time but mainly to study its extensions due to the role of the ionic atmosphere and field-dependent mobility. The simulations also allow us to observe the microscopic correlations underlying the Wien effect.Finally, we look more closely at the emergent gas of monopoles in spin ice—the magnetolyte. The magnetic behaviour of spin ice reflects the properties of the Coulomb gas contained within. We verify the presence of the Wien effect in model spin ice and in the process predict the non-linear response when exposed to a periodic driving field, or to a field quench using Wien effect theory. We use a straightforward extension of the lattice Coulomb gas simulations to refine our predictions. It is a highly unusual result to find an analytic theory for the non-equilibrium behaviour of a highly frustrated system beyond linear response
APA, Harvard, Vancouver, ISO, and other styles
28

Lestringant, Renaud. "Etude numérique et mathématique des transitions abruptes "fort frottement - faible frottement" : application aux transitions "calottes polaires - ice shelf"." Phd thesis, Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00759940.

Full text
Abstract:
La jonction "calotte -ice shelf" est le siège du transfert de masses glaciaires entre la calotte et l'ice shelf. Cette définition est déjà en soi une modélisation partielle de la masse de glace. On peut en effet considérer qu'elle est une combinaison de trois types de sous-systèmes: la calotte, l'ice stream, et l'ice shelf. Il est possible de discriminer chacun d'eux par le type de contrainte qui domine l'écoulement. La calotte constitue la plus grande partie en volume de la masse de glace et sa caractéristique essentielle -du moins en ce qui concerne sa dynamique réside dans le fait qu'elle repose sur un socle rocheux. L'ice shelf quant à lui repose entièrement sur l'océan: il flotte. La troisième composante, l'ice stream, peut être considérée comme un cas intermédiaire entre les deux autres. On est donc amené à distinguer deux types de régimes d'écoulement: - dans la calotte, un écoulement par cisaillement dû à l'interaction glace-socle rocheux. - dans l'ice shelf, un écoulement dominé par les contraintes déviatoriques longitudinales; on obtient alors un écoulement par extension.
APA, Harvard, Vancouver, ISO, and other styles
29

Petroiu, Nicoletta. "Implantation des nouvelles méthodes et techniques dans l'apprentissage des élèves sourds et malentendants." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2051/document.

Full text
Abstract:
Cette recherche propose d’étudier et de présenter des supports susceptibles d'améliorer le processus d'apprentissage des personnes malentendantes et sourdes par la médiation de nouveaux outils comme les tablettes tactiles. La question est de savoir si l’introduction de ces nouveaux outils, pourrait permettre la création de didacticiels adaptés aux spécificités cognitives des enfants sourds.Dans le contexte actuel, notre hypothèse est que les nouvelles technologies informatiques et les outils numériques (comme les tablettes tactiles) influenceraient positivement le processus d’apprentissage des élèves sourds et malentendants.En conséquence, nous avons créé un logiciel éducatif, Digisthésia, qui a été conçu et adapté aux besoins des élèves sourds et malentendants. Le but de cet outil était de développer et d’améliorer 4 des principales potentialités cognitives : l’attention, la mémoire, la vitesse de traitement et la résolution de problèmes.Notre protocole a mobilisé 80 élèves de 7 collèges de Lyon et de la périphérie lyonnaise : 40 élèves avec différents degrés de déficience auditive, des sujets implantés et appareillés (20 participants ont utilisé le logiciel éducatif Digisthésia / 20 personnes ont fait partie du groupe de contrôle) ainsi que 40 élèves sans déficiences auditives (20 participants qui ont utilisé notre logiciel éducatif sur tablette tactile / 20 élèves ont fait partie du groupe témoin). Les résultats indiquent que la médiation par les nouvelles technologies a renforcé les potentialités cognitives des élèves sourds et malentendants. Nous avons observé un progrès au niveau de l’apprentissage des participants sourds et malentendants suite à l’utilisation du logiciel éducatif Digisthésia sur tablette tactile<br>This research proposes to study and present materials that can improve the learning process for people who are hard of hearing and deaf by leveraging the use of new tools such as touch tablets. The question is whether the introduction of these new tools could allow the creation of software tools that more adapted to the cognitive specificities of deaf children.In the current context, our hypothesis is that new computer-base technologies and digital tools (such as touch tablets) would positively influence the learning process for students who are deaf and hard of hearing.As a result, we have created the educational software Digisthésia that has been designed and adapted to the needs of students who are deaf and hard of hearing. The aim of this tool was to develop and improve 4 important cognitive parameters such as attention, memory, processing speed and problem solving.Our protocol mobilized 80 students from grade schools from and near Lyon: 40 students suffering from different degrees of hearing impairment, with an without cochlear implants (20 subjects used the tablet/20 subjects were part of the control group). As well as 40 students with no hearing impairments (20 subjects who used the educational software Digisthésia and the tablet /20 subjects who were part of the control group).The results indicate that leveraging the new technologies has enhanced the cognitive potential of deaf and hard of hearing students. We have seen progress in the learning of deaf and hard of hearing participants as a result of the use of tablets and our software
APA, Harvard, Vancouver, ISO, and other styles
30

Chaix, Laurent. "Influence de la méthode de fabrication et de l'histoire thermique de la glace sur ses propriétés de surface : implications atmosphériques." Université Joseph Fourier (Grenoble ; 1971-2015), 1997. http://www.theses.fr/1997GRE10102.

Full text
Abstract:
L'influence de la methode de preparation de la glace et de son histoire thermique sur la structure de sa surface a ete mesuree a 77,15k en utilisant l'adsorption du methane a 77,15 et 87,1k. Les isothermes d'adsorption du methane ont ete obtenues pour des recouvrements de surface compris entre 0,1 et plusieurs monocouches et entre 10-6 et 10-2 mocouche. Nous avons ainsi pu constater que la methode de preparation et l'histoire thermique de l'echantillon de glace affectaient ses proprietes d'adsorption a faibles recouvrements ; par contre aucune influence n'a pu etre decelee pour des recouvrements de surface superieurs a 0,1 monocouche. Ces differences ont ete attribuees a la presence de faces cristallographiques pouvant adsorber plus fortement le methane, principalement des faces cristallographiques a indices de miller-bravais eleves. De ces observations nous avons conclu que la structure de la surface de la glace et ses proprietes d'adsorption dependaient fortement de son mode de formation et de son histoire thermique. Nous avons egalement entrepris une etude experimentale de l'adsorption de hci sur la glace a 195k dans le but de contribuer a la comprehension du mecanisme chimique implique dans la destruction de l'ozone stratospherique polaire.
APA, Harvard, Vancouver, ISO, and other styles
31

Darkawi, Abdallah. "Etude et mise en oeuvre de convertisseurs multicellulaires couplés à transformateurs intercellules pour application au diagnostic de câbles haute tension à courant continu." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20143/document.

Full text
Abstract:
L'objectif de cette thèse est l'étude et la réalisation d'une nouvelle application des convertisseurs multicellulaires parallèles. Le but est de concevoir un système pouvant injecter des forts courants transitoires (milliers d'Ampères) dans l'âme conductrice de câbles haute tension à courant continu afin de mesurer la répartition des charges électriques dans l'isolant par la méthode de l'onde thermique. La structure proposée est basée sur la mise en parallèle de modules de convertisseurs DC/DC à phases couplées utilisant des transformateurs intercellules (ICT). La solution proposée permet de concevoir un dispositif à faible encombrement (portabilité). Une approche de dimensionnement des ICT cycliques basée sur la détermination d'un modèle analytique généralisé permettant de quantifier le flux et la densité de flux à travers le circuit magnétique, est présentée. Une méthode d'optimisation consistant en une permutation des ordres de commande des phases est utilisée pour réduire l'encombrement du coupleur magnétique. Un prototype de convertisseur multicellulaire utilisant un ICT cyclique planar de puissance a été réalisé. Il s'agit d'un module 12 phases, fonctionnant comme une source de courant régulé de 1200 A (grâce à une boucle de régulation de courant), et dont la puissance est de 30 KW. Des résultats expérimentaux validant la possibilité d'utiliser la solution proposée pour la caractérisation diélectrique des câbles haute tension à courant continu sont présentés dans le mémoire<br>The purpose of this study is the design of a new application for parallel multi-cell converters. The aim is to setup a portable system that can inject a high current (several Amps current) within 2 s in the conducting core of a HVDC cable, and determinate the distribution of electrical space charge through the insulation using the Thermal Step Method (TSM). The proposed structure will be constituted of paralleled coupled multiphase buck converters using InterCell Transformers (ICT). A dimensioning theoretical approach of planar intercell transformer based on the magnetic core saturation condition is presented. The proposed method is based on calculating a generalized expression on the magnetic flux density matrix for any number of cells. Permutation method is used in order to reduce the magnetic core volume. Its principle is to reduce the flux concentration in the magnetic core by modifying the phase-shift of two successive cells.Finally, the experimental prototype (12-cells 30 kW power converter) using cyclic planar ICT is designed and tested. The converter is used to generate regulated current pulses of 1200 Amps (its operating mode is similar to a current source). Experimental results (thermal step current measurements) are includes in order to confirm the ability of using the proposed solution for power cable dielectric characterization
APA, Harvard, Vancouver, ISO, and other styles
32

Yang, Kai. "Fabrication and characterization of silicon nanowires for devices applications compatible with low temperature (≤300 ˚C) flexible substrates." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S123.

Full text
Abstract:
La fabrication et la caractérisation de nanofils de silicium à basse température (≤300 °C) a été menée suivant deux approches: par la méthode des espaceurs et par la méthode de croissance Solide Liquide Solide (SLS). La synthèse des nanofils de silicium a été étudiée à l'aide de deux technologies de dépôts: le dépôt CVD assisté par plasma (PECVD) et le dépôt à couplage inductif (ICP CVD). Les études ont démontré la faisabilité des nanofils de silicium par le procédé ICP-CVD. De plus, les propriétés d'isolation électrique des couches de SiO2 et la fabrication de transistors à effet de champ à couche mince ont été démontrées à l'aide de la technologie de dépôt plasma ICP. Par ailleurs, des nanofils de silicium ont été synthétisés par le procédé SLS à 250 ° C utilisant l'indium comme catalyseur. La croissance 3D de ces nanofils à partir de substrats de silicium (film mince de silicium monocristallin ou amorphe) a été démontrée. Les nanofils sont obtenus sous plasma d'hydrogène. Des études ont été menées en fonction de l'épaisseur de l'indium déposé, de la durée et de la température du plasma d'hydrogène. Les résultats originaux obtenus permettent d'envisager la possibilité de fabriquer des dispositifs électroniques à base de ces nanofils de silicium sur des substrats flexibles basse température<br>The fabrication and characterization of silicon nanowires (SiNWs) at low temperature (≤300° C) has been focused for two mainstream approaches: spacer method and Solid Liquid Solid method. The feasibility of such silicon nanowires has been explored using two deposition technologies: conventional plasma enhanced deposition (PECVD) and inductively coupled plasma deposition (ICP CVD). The studies demonstrated the feasibility of silicon nanowires using the ICP CVD process. In addition, the electrical insulation properties of SiO2 layers and the fabrication of thin-film field effect transistors were demonstrated using ICP plasma deposition technology. Furthermore, indium catalyzed SLS SiNWs were fabricated for the first time at 250 °C. Synthesis of 3D SiNWs by SLS process from silicon substrates (monocrystalline or amorphous silicon thin film) has been demonstrated. The growth of nanowires is obtained under hydrogen plasma. Studies were conducted based on the thickness of indium deposited, duration and temperature of the hydrogen plasma. All these results were concluded originally and they enable the possibility of fabrication of SiNWs based electronic devices onto low temperature flexible substrates
APA, Harvard, Vancouver, ISO, and other styles
33

Pitois, Aurélien. "Contribution au développement de nouvelles méthodes analytiques par le couplage entre l'électrophorèse capillaire et la spectrométrie de masse (ICP-MS et ESI-MS)Titre : Applications dans les domaines nucléaires et biologiques." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/PITOIS_Aurelien_2006.pdf.

Full text
Abstract:
Le couplage entre les techniques séparatives chromatographiques et électrophorétiques et la spectrométrie de masse est utilisé pour bénéficier de l’efficacité de la technique séparative et de la sélectivité et de la sensibilité des détecteurs. Dans ce travail, le champ d’application des couplages CE-MS a été élargi. De nouvelles méthodes analytiques trouvant leur application dans les domaines nucléaires et biologiques ont été mises en place. Dans un premier temps, de nouvelles méthodes d’analyse des produits de fission (césium et lanthanides) par CE-ICP-MS ont été développées. Elles permettent de déterminer la concentration et la composition isotopique des produits de fission pour des limites de détection très basses (ng/mL par CE-Q-ICP-MS, pg/mL par CE-HR-ICP-MS), puisque toutes les interférences isobariques sont résolues. De plus, seulement quelques nanolitres d’échantillon sont nécessaires pour réaliser l’analyse. Elles ont été appliquées avec succès à un échantillon simulé de combustible nucléaire irradié, à un échantillon nucléaire issu du procédé PUREX et à un lixiviat de combustible nucléaire de type MOX. Dans une seconde partie, les lanthanides ont été analysés par CE-ESI-MS et les capacités de l’ESI-MS à fournir des informations structurales ont été étudiées. Des informations élémentaires ont été obtenues pour de forts potentiels. Des informations structurales ont été obtenues pour de faibles potentiels. Enfin, dans le cadre de la thérapie basée sur la capture de neutrons par le bore, une nouvelle méthode d’analyse de la 10B-boronophénylalanine (10B-BPA) par CE-ESI-MS a été développée et appliquée aux lignes cellulaires F98 et HUVEC. Cette méthode a été validée par HR-ICP-MS. Elle permet de quantifier directement la 10B-BPA dans des échantillons de taille limitée (quelques nanolitres) et à des faibles concentrations (ng/mL). L’étude de la cinétique d’incorporation et de décorporation de la 10B-BPA par les cellules F98 a ainsi pu être effectuée<br>The coupling between chromatographic and electrophoretic separation techniques and mass spectrometry is used to combine the efficiency of the separation technique to the selectivity and sensitivity of the detectors. In this work, the number of applications of the CE-MS couplings has been increased. New analytical methods have been set up in the nuclear and biological fields. New analytical methods for the determination of fission products (cesium and lanthanides) have been developed by CE-ICP-MS. They enable to determine both concentration and isotopic composition of the fission products for very low detection limits (ng/mL by CE-Q-ICP-MS, pg/mL by CE-HR-ICP-MS), since all the isobaric interferences are resolved. Moreover, only some nanoliters of sample are necessary to perform the analysis. These method have been applied with success to a simulated sample of spent fuel, to a nuclear sample from PUREX process and to a leaching of MOX fuel. Then, lanthanides have been analysed by CE-ESI-MS and the capability of ESI-MS to provide structural information has been studied. Elementary information has been obtained for strong potentials. Structural information has been obtained for low potentials. Finally, a new analytical method by CE-ESI-MS for the determination of 10B-boronophenylalanine (10B-BPA) has been developed for Boron Neutron Capture Therapy (BNCT). It has been applied to the cellular lines F98 and HUVEC. This CE-ESI-MS method has been validated by HR-ICP-MS. It enables a direct quantification of the chemical form 10B-BPA in samples of limited size (some nanoliters) and for low concentrations (ng/mL). As a consequence, this CE-ESI-MS method has enabled the study of the kinetics of 10B-BPA release and uptake for the F98 cells
APA, Harvard, Vancouver, ISO, and other styles
34

Morlighem, Mathieu. "Détermination de propriétés des glaciers polaires par modélisation numérique et télédétection." Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00697004.

Full text
Abstract:
Les calottes polaires, ou inlandsis, sont parmi les principaux contributeurs à la montée des océans. Ces systèmes dynamiques gagnent de la masse par accumulation de neige, et en perdent par fonte au contact de l'océan et à la surface, ainsi que par le vêlage d'icebergs. Depuis plus de trois décennies, les observations ont montré que les calottes polaires de l'Antarctique et du Groenland perdent plus de masse qu'ils n'en gagnent. L'évolution des glaciers suite à ce déséquilibre de masse est devenue aujourd'hui l'une des problématiques les plus importantes des implications du changement climatique. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a identifié la contribution des glaciers comme l'un des facteurs clés d'incertitude de prédiction de l'élévation du niveau des mers. La modélisation numérique est le seul outil efficace pour répondre à cette question. Cependant, modéliser l'écoulement de glace à l'échelle du Groenland ou de l'Antarctique représente un défi à la fois scientifique et technique. Deux aspects clés de l'amélioration de la modélisation des glaciers sont abordés dans cette thèse. Le premier consiste à déterminer certaines propriétés non mesurables de la glace par méthode inverse. La friction ou la rigidité des barrières de glace, sont des paramètres qui ne peuvent être mesurés directement et doivent donc être déduits à partir d'observations par télédétection. Nous appliquons ici ces inversions pour trois modèles d'écoulement de glace de complexité croissante: le modèle bidimensionnel de MacAyeal/Morland, le modèle dit d'ordre supérieur de Blatter/Pattyn et le modèle full-Stokes. Les propriétés ainsi calculées sont ensuite utilisées pour initialiser des modèles grande-échelle et pour déterminer le degré de complexité minimum nécessaire pour reproduire correctement la dynamique des glaciers. Le second aspect abordé dans ce travail est l'amélioration de la consistance des données pour la modélisation numérique. Les données disponibles sont souvent issues de campagnes de mesures s'étalant sur plusieurs années et dont résolutions spatiales varient, ce qui rend leur utilisation pour des simulations numériques difficiles. Nous présentons ici un algorithme basé sur la conservation de la masse et les méthodes inverses pour construire des épaisseurs de glace qui sont consistantes avec les mesures de vitesse. Cette approche empêche la redistribution artificielle de masse qu'engendrent généralement les autres méthodes de cartographie de l'épaisseur de glace, ce qui améliore considérablement l'initialisation des modèles d'écoulement de glace. Les avancées présentées ici sont des étapes importantes afin de mieux caractériser de manière précise les glaciers et de modéliser leur évolution de manière réaliste.
APA, Harvard, Vancouver, ISO, and other styles
35

Yao, Lan. "Experimental and numerical study of dynamic crack propagation in ice under impact loading." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI043/document.

Full text
Abstract:
Les phénomènes liés au comportement à la rupture de la glace sous impact sont fréquents dans le génie civil, pour les structures offshore, et les processus de dégivrage. Pour réduire les dommages causés par l'impact de la glace et optimiser la conception des structures ou des machines, l'étude sur le comportement à la rupture dynamique de la glace sous impact est nécessaire. Ces travaux de thèse portent donc sur la propagation dynamique des fissures dans la glace sous impact. Une série d'expériences d'impact est réalisée avec un dispositif de barres de Hopkinson. La température est contrôlée par une chambre de refroidissement. Le processus dynamique de la rupture de la glace est enregistré avec une caméra à grande vitesse et ensuite analysé par des méthodes d'analyse d'images. La méthode des éléments finis étendus complète cette analyse pour évaluer la ténacité dynamique. Au premier abord, le comportement dynamique de la glace sous impact est étudié avec des échantillons cylindriques afin d'établir la relation contrainte-déformation dynamique qui sera utilisée dans les simulations numériques plus tard. Nous avons observé de multi-fissuration dans les expériences sur les échantillons cylindriques mais son étude est trop difficile à mener. Pour mieux comprendre la propagation des fissures dans la glace, des échantillons rectangulaires avec une pré-fissure sont employés. En ajustant la vitesse d'impact on aboutit à la rupture des spécimens avec une fissure principale à partir de la pré-fissure. L'histoire de la propagation de fissure et de sa vitesse sont évaluées par analyse d'images basée sur les niveaux de gris et par corrélation d'images. La vitesse de propagation de la fissure principale est identifiée dans la plage de 450 à 610 m/s ce qui confirme les résultats précédents. Elle varie légèrement au cours de la propagation, dans un premier temps elle augmente et se maintient constante ensuite et diminue à la fin. Les paramètres obtenus expérimentalement, tels que la vitesse d'impact et la vitesse de propagation de fissure, sont utilisés pour la simulation avec la méthode des éléments finis étendus. La ténacité d'initiation dynamique et la ténacité dynamique en propagation de fissure sont déterminées lorsque la simulation correspond aux expériences. Les résultats indiquent que la ténacité dynamique en propagation de fissure est linéaire vis à vis de la vitesse de propagation et semble indépendante de la température dans l'intervalle -15 à -1 degrés<br>The phenomena relating to the fracture behaviour of ice under impact loading are common in civil engineering, for offshore structures, and de-ice processes. To reduce the damage caused by ice impact and to optimize the design of structures or machines, the investigation on the dynamic fracture behaviour of ice under impact loading is needed. This work focuses on the dynamic crack propagation in ice under impact loading. A series of impact experiments is conducted with the Split Hopkinson Pressure Bar. The temperature is controlled by a cooling chamber. The dynamic process of the ice fracture is recorded with a high speed camera and then analysed by image methods. The extended finite element method is complementary to evaluate dynamic fracture toughness at the onset and during the propagation. The dynamic behaviour of ice under impact loading is firstly investigated with cylindrical specimen in order to obtain the dynamic stress-strain relation which will be used in later simulation. We observed multiple cracks in the experiments on the cylindrical specimens but their study is too complicated. To better understand the crack propagation in ice, a rectangular specimen with a pre-crack is employed. By controlling the impact velocity, the specimen fractures with a main crack starting from the pre-crack. The crack propagation history and velocity are evaluated by image analysis based on grey-scale and digital image correlation. The main crack propagation velocity is identified in the range of 450 to 610 m/s which confirms the previous results. It slightly varies during the propagation, first increases and keeps constant and then decreases. The experimentally obtained parameters, such as impact velocity and crack propagation velocity, are used for simulations with the extended finite element method. The dynamic crack initiation toughness and dynamic crack growth toughness are determined when the simulation fits the experiments. The results indicate that the dynamic crack growth toughness is linearly associated with crack propagation velocity and seems temperature independent in the range -15 to -1 degrees
APA, Harvard, Vancouver, ISO, and other styles
36

Potvin, Léna. "Effet de l'isradipine sur le INa(tr), le ICa(T), et les activités calciques spontanées des cellules ventriculaires des embryons de poulet âgés de trois et dix jours, obtenu par la méthode de patch clamp et de fluorescence." Mémoire, Université de Sherbrooke, 1993. http://hdl.handle.net/11143/12069.

Full text
Abstract:
Certaines cellules ventriculaires isolées des embryons de poulet âgés de trois et dix jours montrent des activités calciques spontanées. Ces augmentations calciques transitoires spontanées peuvent être classifiées selon trois types de fréquence. Ces trois types de fréquence sont dits fréquence lente de longue durée (FLD), fréquence lente (FL) et fréquence rapide (FR). Ils sont classifiés selon la durée de l'augmentation transitoire spontanée. Par contre, au niveau des cellules ventriculaires des embryons de poulet de dix jours, un type de fréquence dit FL n'est pas rencontré seul, il coexiste avec le type FLD. Peu importe le type de fréquence, le PN200-110 bloque ces activités calciques spontanées chez les deux types de préparation. Cet antagoniste des canaux calciques, le PN200- 110, est beaucoup plus efficace chez les embryons de poulet âgés de trois jours. Celui-ci bloque à une concentration de 10-10M au niveau des embryons de poulet âgés de trois jours et à une concentration de 10-9M. Un second antagoniste des canaux calciques, la nifédipine, utilisée à une concentration très élevée de 10-6M et 10-5M, n'affecte que les activités calciques des cellules ventriculaires des embryons de poulet âgés de trois jours. Au niveau des courants macroscopiques, le PN200-110, à une concentration près de 10-10M bloque le INa(tr) insensible à la TTX et au Mn2+ des cellules ventriculaires isolées des embryons de poulet âgés de trois jours. Le PN200-110 agit de façon similaire pour le ICa(T) des cellules ventriculaires isolées des embryons de poulet de dix jours. Ces résultats obtenus par la méthode de microfluorométrie et de patch clamp suggèrent que l'oscillation peut être due indirectment au INa(tr) chez les embryons de poulet âgés de trois jours et directement au ICa(T) chez les embryons de poulet âgés de dix jours.
APA, Harvard, Vancouver, ISO, and other styles
37

Aubourg, Gautier. "La démarche Smart City comme nouveau cadre d'intégration des méthodes issues du génie industriel dans les chaînes logistiques de la fonction publique." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19623/1/AUBOURG_Gautier.pdf.

Full text
Abstract:
Le secteur public est un domaine en perpétuelle mutation, de par la pression économique actuelle mais aussi du fait des progrès technologiques constants. C'est en particulier le cas des collectivités territoriales, dans lesquelles les agents du secteur public sont soumis à de fortes pressions, notamment par la nécessité d'assurer un service de qualité aux usagers tout en minimisant les coûts engagés, mais également du fait de devoir développer de nouvelles compétences pour répondre à des exigences en évolution. Les projets actuels, impliquant de multiples technologies et le besoin de travailler en synergie avec les acteurs territoriaux, sont devenus primordiaux pour la gestion des chaînes logistiques du secteur public. Le domaine du génie industriel a développé diverses méthodes pouvant répondre à ces nouveaux besoins. Ces méthodes englobent différentes théories et pratiques allant du progrès permanent à la gestion de la chaîne logistique jusqu’à la gestion de la relation client. Ces pratiques visent avant tout à améliorer la coordination et l'intégration de toutes les activités nécessaires à l'élaboration d’un produit ou un service. L’apparition de nouvelles démarches, telles que la Smart City, légitime la mise en pratique de méthodes industrielles pour la gestion de services répondant à l’intérêt général d’un territoire. Dès lors, l'objectif de ce travail a été de transposer aux collectivités territoriales des méthodes issues du génie industriel, en s’appuyant sur la démarche de la Smart City, afin de permettre une synergie entre les partenaires, tout en augmentant la productivité de l’organisation dans la fourniture de services publics plus performants.
APA, Harvard, Vancouver, ISO, and other styles
38

Brabant, Frédéric. "Physical and biogeochemical controls on the DMS/P/O cycle in Antarctic sea ice." Doctoral thesis, Universite Libre de Bruxelles, 2012. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209587.

Full text
Abstract:
Il a récemment été démontré que la glace de mer antarctique pouvait jouer un rôle significatif dans la dynamique des gaz à effet climatique (dont le dimethylsulfure ou DMS) dans les régions polaires. Ce travail s’est d’abord attaché à la mise au point d’une méthode de mesure fiable du diméthylsulfoxyde (DMSO) dans la glace de mer, supprimant les interférences générées par la production de DMS au sein de l’échantillon en réponse au choc osmotique subi lors de la fonte de l’échantillon de glace. Une procédure de détermination séquentielle du DMS, par broyage à sec, puis du dimethylsulfoniopropionate (DMSP) et du DMSO sur le même échantillon de glace a été développée et utilisée à large échelle dans ce travail. Les données du présent travail ont été acquises dans le cadre de deux programmes d’observation intégrés menés sur la glace de mer antarctique à des saisons différentes mais avec une méthodologie commune :1) choix de sites d’étude homogènes afin de minimiser l’impact de la variabilité spatiale sur l’interprétation des résultats dans une optique d’évolution temporelle et 2) priorité à la caractérisation du cadre physico-chimique (texture, température, salinité, couvert de neige, susceptibilité au drainage des saumures,….) avant toute autre analyse. L’étude menée dans le cadre du programme ISPOL (nov.–dec. 2004) a permis d’observer que la stratification des saumures a un impact positif sur la conversion du DMSP en DMS au sein de la glace mais ralentit les flux de DMS et DMSP vers l’océan. Le couvert de glace est caractérisé à cette période de l’année par une perte nette de DMSP et génère des flux combiné de DMS et DMSP du même ordre de grandeur que les flux de DMS atmosphériques mesurés dans le cadre d’autres études. L’étude menée dans le cadre du programme SIMBA (sept.–oct. 2007) a permis de mettre en évidence l’importance du forçage atmosphérique sur le régime thermique et la dynamique du DMS/P/O dans la glace. Les communautés d’algues de surface produisent de fortes concentrations de DMS/P/O en réponse au stress thermique, osmotique et potentiellement radiatif durant les périodes de refroidissement et la mise en place d’un régime soutenu de drainage des saumures contribue à évacuer périodiquement les hautes concentrations de DMS/P/O produites dans la glace vers l’océan sous-jacent. Le couvert de glace affichant une production nette de DMS/P/O à cette période de l’année génère des flux combinés de DMS et DMSP plus de dix fois supérieurs à ceux observés pour la glace estivale. L’étude menée sur de la glace artificielle a permis de mettre en évidence l’impact des processus physico-chimiques sur la signature en gaz de la glace en croissance constituant un premier pas vers la modélisation des transports de gaz dans la glace de mer et leurs échanges au travers des interfaces glace-océan et glace-atmosphère. <p><p><p>SUMMARY - It has recently been demonstrated that Antarctic sea ice recently demonstrated plays a potentially significant role in the dynamics of climatically significant gases (amongst which dimethylsulphide or DMS) in Polar Regions. This research work has initially focused on the development of a reliable method for the determination of dimethylsulphoxide (DMSO) within sea ice, avoiding interferences generated by DMS production within the sample in response to the osmotic shock caused by melting. A sequential determination procedure of DMS, dimethlsulphoniopropionate (DMSP) and DMSO on the same ice sample has been developed and used on a large amount of samples in the present work. Data presented in this research project have been collected in the framework of two integrated sea ice observation programs focused on Antarctic sea ice at different seasons but following a common approach: 1) choice of homogeneous study sites to minimize the impact of spatial variability on the interpretation of the results in a time series perspective and 2) priority given to the characterization of the physicochemical framework (texture, temperature, salinity, snow cover, susceptibility to brine drainage,…) prior to any other study. The study conducted in the framework of the ISPOL experiment (Nov.–Dec. 2004) demonstrated that stratification of the brine inclusions network positively influenced the conversion of DMSP into DMS but decreased fluxes of DMS and DMSP towards the ocean. The ice cover at that time of the year is characterised by a net DMSP loss and generates combined DMS and DMSP fluxes whose values fall in the range of atmospheric DMS flux from sea ice measured in the frame of other studies. The study conducted in the framework of the SIMBA experiment (sept.–oct. 2007) emphasized the importance of atmospheric thermal forcing on the sea ice thermal regime and DMS/P/O dynamics. The surface community of algae produced elevated levels of DMS/P/O in response to thermal, osmotic and potentially radiative stress during periods of atmospheric cooling while the development of an intense brine drainage regime contributed to periodically release the elevated levels of DMS/P/O produced in the sea ice towards the underlying ocean. The ice cover exhibited at that time of the year a net production of DMS/P/O and produced combined DMS and DMSP fluxes more than ten times higher than those observed for summer sea ice. The study conducted on laboratory prepared growing sea ice emphasised the impact of physicochemical processes on the gas signature of growing sea ice and represents a first step towards modelling gas exchanges within sea ice and across its interfaces with the ocean and the atmosphere.<p><br>Doctorat en Sciences agronomiques et ingénierie biologique<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
39

Eon, David. "GRAVURE ET TRAITEMENT PAR PLASMA DE MATERIAUX ORGANOSILICIES SIOC(H) POUR DES APPLICATIONS EN LITHOGRAPHIE AVANCEE ET COMME ISOLANT D'INTERCONNEXION EN MICROELECTRONIQUE." Phd thesis, Université de Nantes, 2004. http://tel.archives-ouvertes.fr/tel-00096781.

Full text
Abstract:
L'objet de cette étude est la gravure par plasma de matériaux hybrides SiOC(H) qui sont de nouveaux composés émergents. Leurs propriétés ajustables entre composés organiques et inorganiques leurs donnent de grandes potentialités. Ce travail est dédié à deux applications particulières en microélectronique.<br />Dans un premier temps, notre étude s'est portée sur leurs applications en lithographie optique dans le cadre d'un projet européen (157 CRISPIES n° 2000 30-143) où sont développés de nouveaux polymères contenant un nanocomposé, la molécule POSS (Si8O12) (Polyhedral oligomeric silsesquioxane). Ces polymères pourraient être utilisés dans un procédé de lithographie bicouche car ils sont faiblement absorbants pour les futurs rayonnements, UV à 157 nm, ou X à 13,5 nm. L'analyse de leur surface avant gravure a été particulièrement poussée grâce à une utilisation avancée des mesures XPS. Ce travail a mis en évidence la ségrégation en surface de la molécule POSS. Afin de caractériser la phase de développement plasma du procédé bicouche, ces matériaux ont été gravés en plasma d'oxygène. Des analyses XPS et ellipsométriques montrent le rôle joué par la couche d'oxyde qui se forme à la surface de ces matériaux. Une corrélation est faite entre l'épaisseur de l'oxyde mesurée par XPS et la consommation totale du polymère mesurée par ellipsométrie. L'ensemble de ces résultats nous a amené à développer un modèle cinétique permettant de comprendre les mécanismes de gravure de ces nouveaux composés en plasmas oxydants.<br />Dans un deuxième temps, nous avons étudié l'utilisation de SiOC(H) comme isolant d'interconnexion. En effet, ces matériaux présentent une permittivité électrique plus faible que celle de l'oxyde de silicium classiquement utilisé en microélectronique, on les appelle low-k. Ils permettent d'améliorer les vitesses de transmission des informations au sein des puces. Les plasmas fluorocarbonés (C2F6) avec différents additifs (O2, Ar, H2) ont été utilisés à la fois pour obtenir une vitesse de gravure élevée mais aussi une sélectivité importante avec la couche d'arrêt SiC(H). L'addition d'hydrogène permet d'augmenter la sélectivité tout en conservant une vitesse de gravure élevée. Les caractérisations de surface par XPS quasi in situ montrent tout d'abord que la composition du matériau est modifiée sur quelques nanomètres, avec une diminution de la quantité de carbone. Ensuite, pour les plasmas de C2F6/H2 et C2F6/Ar, une couche fluorocarbonée se superpose à cette couche modifiée et son épaisseur est corrélée aux vitesses de gravure. Des mesures du flux ionique et de la quantité de fluor atomique permettent de mieux appréhender les mécanismes de gravure qui régissent ces matériaux.
APA, Harvard, Vancouver, ISO, and other styles
40

Zaman, Mustafeed Al Ridwaan. "Mesure de l'innovativité et facteurs d'adoption des innovations Web : le cas des Organismes de Gestion de Destination (OGD) français." Thesis, Perpignan, 2018. http://www.theses.fr/2018PERP0032.

Full text
Abstract:
Le développement des TIC et les innovations numériques qui en découlent ont radicalement changé le comportement des consommateurs. Les organisations s’adaptent à ces changements en transformant leurs pratiques. L’objet de cette recherche est l’innovativité Web comprise comme la capacité des organisations à adopter les innovations Web. La recherche interroge les pratiques d’adaptation des organisations en faveur du numérique : Comment piloter le changement numérique dans les organisations ? Le champ de recherche porte sur les Organismes de Gestion de Destination Touristique (OGD) qui ont la responsabilité du management du tourisme sur leur territoire de compétence. Cette thèse s’articule en deux parties. La première partie se focalise sur la mesure de l’innovativité des sites Web des OGD. Une grille d’analyse de l’innovativité est proposée et les méthodes de l’Aide Multi-Critères à la Décision (AMCD) sont employées afin d’évaluer la performance relative des sites Web de 30 OGD français. La logique du benchmarking est adoptée. Les résultats hétérogènes de cette approche quantitative nous poussent à chercher dans un second temps les facteurs explicatifs de l’innovativité. Pourquoi certains OGD sont-ils plus innovants que d’autres ? Quels sont les facteurs qui facilitent l’adoption des innovations Web par les OGD ? A cet égard, notre seconde partie traite des facteurs d’adoption des innovations Web dans les organisations. Une analogie entre PME et OGD est proposé afin d’identifier théoriquement les facteurs d’adoption des innovations Web. La méthodologie de recherche retenue pour cette seconde partie est de nature exploratoire et qualitative et correspond à un positionnement épistémologique de type interprétativiste. Des entretiens semi-directifs sont menés auprès d’experts en Management du Tourisme et l’étude du cas d’un OGD particulier permet de comprendre en profondeur le pilotage du changement numérique dans les organisations. Cette thèse en sciences de gestion s’inscrit en Management du Tourisme et présente des apports théoriques, méthodologiques et managériaux. Nous proposons un cadre théorique d’analyse de l’innovation Web et nous proposons une méthodologie robuste pour l’opérationnaliser. Cette méthodologie utilise les nombres flous, encore peu employés dans les sciences de gestion et pourtant porteurs de sens lors d’évaluations utilisant des échelles linguistiques. Les résultats de cette approche quantitative sont autant de perspectives d’amélioration des pratiques par les responsables d’OGD. Enfin, nous étudions le pilotage du changement dans les OGD en identifiant les facteurs d’adoption des innovations Web<br>The development of ICT has radically changed the customer behaviour and their decision making process. Therefore, the organisations/companies should adapt themselves to these changes by transforming their practices. This thesis has two parts. In the first part, we explore the website-service innovativeness of 30 French DMO websites. An empirical approach is used to establish a structured framework of six evaluation criteria for website’s innovativeness. Fuzzy logic is employed in order to objectively evaluate the service-innovativeness and overall e-service quality of the DMO websites by using the linguistic variables. The TOPSIS method enables a comparison of the relative rankings of DMO websites, and also facilitates an objective metric as a benchmark to compare innovativeness overtime. The heterogeneous results oblige us to conduct an exploratory study in order to understand the reason behind this ranking. In this regard, in the 2nd part, we have focused on the factors of ICT adoption. Semi-structured interviews have been done with the tourism experts in order to understand the factors that facilitate the ICT adoption by the French DMO. Finally, we present the case of one of our benchmarks (Bordeaux Tourist Office) in order to illustrate the ICT adoption process
APA, Harvard, Vancouver, ISO, and other styles
41

Modica, Paola. "From astrophysics to astrobiology : significance of laboratory organic residues from photo-irradiation of cosmic ice analogs." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112329/document.

Full text
Abstract:
Les expériences de laboratoire ont montré que la photo-irradiation ultraviolette d'analogues de glaces astrophysiques suivie de leur réchauffement à température ambiante mène à la formation de résidus organiques réfractaires. Ces résidus, solubles dans l'eau, consistent en un riche mélange de composés organiques incluant entre autres des acides aminés, molécules potentiellement importantes pour la chimie prébiotique. Ces résidus sont considérés comme des analogues de la matière organique réfractaire que l'on pense être synthétisée sur les grains de poussière dans les nuages moléculaires et/ou dans les disques protoplanétaires, produit de l'évolution des glaces, et qui pourra être accrétée plus tard en comètes ou en astéroïdes et finalement délivrée sur la Terre primitive. Ainsi, l'étude de ces analogues, produits dans des conditions astrophysiques pertinentes, représente un outil efficace pour explorer les processus à l'origine de la formation des molécules organiques complexes dans le Système Solaire et en particulier la possible introduction d'excès énantiomériques dans les molécules chirales.Ce travail de thèse est consacré à l'étude de ces résidus organiques, leur caractérisation et les applications astrophysiques de ces résultats. Nous avons utilisé différentes techniques d'analyse comme la chromatographie en phase gazeuse couplée à la spectrométrie de masse (GC MS, classique et multidimensionnelle), la spectrométrie de masse par résonnance cyclotronique ionique à transformée de Fourier (FT ICR MS) ou encore la spectroscopie infrarouge. Nous avons mesuré les excès énantiomériques induits dans cinq acides aminés par irradiation de nos analogues avec de la lumière UV polarisée circulairement (UV CPL) et insérons nos résultats dans le cadre d'un scénario astrophysique cohérent pour expliquer l'origine des excès énantiomériques observés dans les acides aminés météoritiques. Nous avons étudié le contenu en acides aminés de la météorite de "Paris" et montré des similarités avec la distribution en acides aminés de nos résidus organiques. Nous avons également produit des analogues plus réalistes de grains interstellaires en incluant une surface silicatée, afin de tester l’effet potentiel de cette surface sur la formation et la nature des résidus organiques. Enfin, nous effectuons une discussion générale à propos de la pertinence de ces résultats dans le contexte astrophysique et soulignons le possible lien entre astrochimie et chimie prébiotique<br>Laboratory experiments have shown that ultraviolet photo-irradiation of astrophysical ice analogs and their following warm-up until room temperature lead to the formation of refractory organic residues. These residues consist of rich mixtures of organic compounds, including amino acids, which have a potential importance for prebiotic chemistry. They are considered as analogs of the organic refractory materials that are thought to be synthesized on dust grains in molecular clouds and/or in protoplanetary disks, as a product of ices evolution, and that could be later accreted into comets and asteroids and eventually be delivered to the early Earth. Hence, the study of these analogs, produced under astrophysically relevant conditions, represents a valid tool to investigate the processes at work for the origin of complex organic molecules in the Solar System and in particular the possible introduction of enantiomeric excesses in chiral molecules. This PhD work is devoted to the study of these laboratory organic residues, their characterization and the astrophysical applications of the results. We used different analytical techniques such as gas chromatography mass spectrometry (GC MS, classical and multidimensional), Fourier transform ion cyclotron resonance mass spectrometry (FT ICR MS), and infrared spectroscopy. We measured the enantiomeric excesses induced in five chiral amino acids by UV circularly polarized light (UV CPL) irradiation of our analogs and insert our result in a coherent astrophysical scenario for the origin of the enantiomeric excesses observed in meteoritic amino acids. We studied the amino acid content of the Paris meteorite and evidence some similarities with the distribution of the amino acids in our organic residues. We also produced more realistic analogs of interstellar grains, including a silicate surface, to test the potential effect of such a surface on the formation and nature of organic residues. Finally, we discuss the significance of these results in the astrophysical context and the possible relationship between astrochemistry and prebiotic chemistry
APA, Harvard, Vancouver, ISO, and other styles
42

Alawad, Hiba. "De l'aménagement numérique des territoires à l'intégration du Web dans l'analyse géographique : nouvelles méthodes et perspectives pour les Systèmes d'Information Géographiques (SIG), la cartographie et la télédétection." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00569413.

Full text
Abstract:
Les Technologies d'Information et de Communication (TIC) facilitent la collecte et le traitement d'informations numériques, aussi nombreuses que variées, et sont de plus en plus sollicitées dans différents domaines (géographie, informatique, économie, statistiques etc.). La thèse a pour objectif de montrer les apports des TIC dans l'étude d'objets ou phénomènes géographiques dont la distribution est variable dans l'espace. Dans un premier temps, des inégalités territoriales de diffusion d'infrastructures Internet sont observées à différentes échelles, ce qui est communément appelé " la fracture numérique ". Pour remédier à ces inégalités, en particulier dans des espaces peu densément peuplés, la solution proposée est d'envisager une desserte maximale du territoire par la technologie non-filaire (Wi-Fi). Cette solution a été appliquée pour une commune drômoise (La Roche-sur-le-Buis). Les données (bâti) sont de type images et nécessitent un dispositif de repérage et de collecte approprié qui fait l'objet du second temps de la recherche. L'objectif a été de trouver une méthode relativement simple et accessible d'extraction de données du bâti sous un logiciel de géo-localisation en accès libre (type Google Earth). Ce logiciel permet d'accéder à des bases de données d'images raster grand public couvrant le monde entier. A une échelle fine, les méthodes habituelles de télédétection n'étant pas assez satisfaisantes, une autre méthode basée sur une stratégie de choix de la cible, de l'image (bonne résolution spatiale) et de la méthode de détection de l'objet spatial (bâti) à l'aide d'un Système d'Information Géographique (SIG) est proposée en mode vecteur. Elle est testée en France et en Syrie à différentes échelles. Les résultats montrent que la qualité de cette approche semi-automatique, voire automatique, est liée à certains paramètres dans les trois phases de la méthode : phase de choix des données, phase de traitement et phase d'analyse
APA, Harvard, Vancouver, ISO, and other styles
43

Januel, Jean-Marie. "Les données de routine des séjours d’hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d’indicateurs de la sécurité des patients." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10355/document.

Full text
Abstract:
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d’indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d’indicateurs de la sécurité des patients – les Patient Safety Indicators (PSIs) – par l’Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d’établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l’utilisation d’autres sources de données pour les valider (i.e., données de registre), ainsi que l’utilisation de modèles d’ajustement utilisant l’index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays<br>Assessing safety among hospitalized patients is a major issue for health services. The development of indicators to measure adverse events related to health care (HAE) is a crucial step, for which the main challenge lies on the performance of the data used for this approach. Based on the limitations of the measurement in terms of reproducibility and on the high cost of studies conducted using medical records audit, the development of Patient Safety Indicators (PSI) by the Agency for Healthcare Research and Quality (AHRQ) in the United States, using codes from the clinically modified 9th revision of the International Classification of Diseases (ICD) shows interesting prospects. Our work addressed five key issues related to the development of these indicators: nosological definition; feasibility and validity of codes based algorithms; quality of medical diagnoses coding using ICD codes, comparability across countries; and possibility of establishing a benchmark to compare these indicators. Some questions remain, and we suggest several research pathways regarding possible improvements of PSI based on a better definition of PSI algorithms and the use of other data sources to validate PSI (i.e., registry data). Thus, the use of adjustment models including the Charlson index, the average number of diagnoses coded and a variable of the positive predictive value should be considered to control the case-mix variations and differences of quality of coding for comparisons between hospitals or countries
APA, Harvard, Vancouver, ISO, and other styles
44

Balasoiu, Dimitri. "Modélisation et simulation du comportement mécanique de floes de glace." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM045.

Full text
Abstract:
Cette thèse s'inscrit dans un projet global de recherche sur la modélisation de la banquise, mené conjointement par TOTAL S.A. et l'université Grenoble Alpes. Ce projet à ammené au développement d'un modèle granulaire pour simuler l'évolution de la banquise, ainsi que le comportement mécanique des floes de glace. Une implémentation informatique du modèle permet de simuler les collisions d'un million de blocs de glace, ainsi que leurs interactions avec des structures rigides. La présente thèse améliore ce modèle granulaire, en proposant un modèle efficace de fracture des blocs de glace. Dans une première partie, on propose un modèle de fracture d’un floe de glace lorsque celui-ci est soumis à un déplacement de son bord. Notre modèle est un modèle variationnel, dans la lignée du modèle de Francfort et Marigo, et consiste à minimiser l'énergie totale du matériau. On montre que, sous certaines hypothèses, cette fonctionnelle d'énergie possède bien un minimum. Le modèle proposé est efficace, et peut être intégré dans le modèle de collision, qui gère le comportement d'un grand nombre de blocs. Cette efficacité repose sur une hypothèse géométrique forte, bien qu'atténuée par l'utilisation d'un chargement quasi-statique : nous supposons que les seules fractures admissibles sont des segments de droites. Dans une seconde partie, on cherche à dériver les conditions au bord lors de la percussion à partir d'un modèle mécanique discret. Pour ce faire, on se propose de considérer un matériau élastique comme la limite d'un réseau isotrope de masses, reliées entre elles par des ressorts. Sur un réseau discret, on connaît l'équation différentielle qui régit le mouvement de chaque masse ; on peut espérer en dériver une expression du déplacement au bord. Une première étape est de montrer que l'état d'équilibre du réseau discret approche l'état d'équilibre d'un matériel élastique, lorsqu'on fixe un déplacement du bord. On présente plusieurs résultats de Gamma-convergence de fonctionnelles discrètes, définies sur différents réseaux de ressorts, vers la fonctionnelle d'énergie élastique classique. On utilisera en particulier un réseau isotrope, obtenu à partir d'un processus stochastique ponctuel sur lequel on construit une triangulation de Delaunay. Dans ce cas, on proposera un résultat de Gamma-convergence presque sûre<br>This doctoral dissertation is part of a research project on sea ice modeling, initiated by TOTAL S.A. and the Université Grenoble Alpes.This project lead to the development of a granular model for the evolution of sea ice, and in particular the mechanical behavior of ice floes in the marginal ice zone.The implementation of the model can simulate the collisions of one million ice floes, and their interaction with rigid structures.This PhD thesis improves the current granular model by adding an efficient model for ice floe fracture.Firstly, we present a fracture model for an ice floe subject to a boundary displacement.This model is a brittle fracture model, relying on the work of citeauthor{GRIFFITH1921}.It is written in a variational framework inspired from that of citeauthor{FM98}'s model: we minimize the total energy of the material.We show that, under some hypothesis, the total energy of the ice floe has a minimum.This variational model is efficient, and can be used in the collision model which simulates the behavior of a large number of floes.This efficiency relies on a strong geometric hypothesis, although mitigated by the use of a quasistatic loading : we restrict the space of admissible fractures to the set of segment lines.Secondly, we present a research strategy to obtain an expression of the boundary displacement during the percussion of two ice floes.The strategy is the following : we consider the ice floe as the limit of an isotropic mass-spring lattice.For a given lattice, we can write the differential equation verified by each mass, and thus we hope to derive an expression of the boundary displacement.We identify three mathematical limits which we deem necessary to the understanding of the percussion phenomenon, and we obtain two of them.Doing so, we prove two Gamma-convergence results of discrete functionals, defined on different lattices, to the classical elastic energy.In particular, we work with a stochastic isotropic lattice, built as the Delaunay triangulation of a stochastic point process.In that case, we will prove the almost-sure Gamma-convergence
APA, Harvard, Vancouver, ISO, and other styles
45

Nouveau, Léo. "Adaptive residual based schemes for solving the penalized Navier Stokes equations with moving bodies : application to ice shedding trajectories." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0410/document.

Full text
Abstract:
La prédiction de mouvement de solide évoluant dans un fluide présente un réel intérêt pour des applications industrielles telle que l’accrétion de glace sur des surfaces aérodynamiques. Dans ce contexte, en considérant des systèmes de dégivrage, la prévision des trajectoire de glace est nécessaire pour éviter des risques de collision/ingestion de glace sur/dans des zones sensibles de l’avion. Ce type d’application soulève de nombreux challenges d’un point de vue numérique, en particulier concernant la génération/l’adaptation de maillage au cours du mouvement du solide dans le domaine. Pour gérer ces difficultés, dans cette étude, les solides sont définis de manière implicite via une fonction level set. Une méthode de type frontière immergée, appelée Pénalization, est utilisée pour imposer les conditions de bords. Pour améliorer la précision de l’interface, les équations sont résolues sur des maillages non structurés adaptatifs. Cela permet d’obtenir un raffinement proche des bords du solide et ainsi d’améliorer sa définition, permettant un meilleure impositions des conditions de bord. Pour économiser du temps de calcul, et éviter de coûteuses étapes de remaillage/interpolation, la stratégie adoptée pour les simulations instationnaires est d’utiliser une adaptation de maillage à connectivité constante, aussi appelée r-adaptation<br>The prediction of solid motion evolving in a fluid presents a real interest for engineering application such as ice accretion on aerodynamics bodies.In this context, considering de-icing systems, the ice shedding trajectory is needed to prevent the risk of collision/ingestion of the ice in/with some sensitive part of the aircraft. This application raises many challenges from a numerical point of view, especially concerning mesh generation/adaptation as the solid moves in the computational domain. To handle this issue, in this work the solids are known implicitly on the mesh via a level set function. An immersed boundary method, called penalization, is employed to impose the wall boundary conditions. To improve the resolution of these boundaries, the equations are solved on adaptive unstructured grids. This allows to have are finement close to the solid boundary and thus increases the solid definition,leading to a more accurate imposition of the wall conditions. To save computational time, and avoid costly remeshing/interpolation steps, the strategy chosen for unsteady simulations is to use a constant connectivity mesh adaptation,also known as r-adaptation
APA, Harvard, Vancouver, ISO, and other styles
46

Fry, Benjamin. "Modélisation multi-échelle d'un lit granulaire entraîné par un écoulement cisaillé." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0132.

Full text
Abstract:
Dans cette thèse, on étudie le transport granulaire par charriage en régime établi d’un lit de grains soumis à un écoulement de Couette laminaire pour un rapport de densité fluide-grain de 2.5 et une gamme de nombre de Reynolds particulaire, Re p [0.1, 10], et de nombre de Shields, [0.1,0.7]. Toutes les échelles de cet écoulement diphasique (à l’exception des effets de lubrification) sont décrites via la résolution numérique des équations de Navier-Stokes en prenant en compte la présence des particules par une méthode de frontières immergées (IBM) couplée à un solveur granulaire (méthode des éléments discrets - DEM) qui résout les équations de Newton pour chaque particule ainsi que les contacts et frottements entre grains (résolution à l’échelle microscopique). Un changement d’échelle est ensuite effectué afin d’obtenir une description de l’écoulement via des champs continus équivalents (description à l’échelle mésoscopique). Les simulations IBM-DEM permettent de quantifier chacun des termes du modèle dit mésoscopique et de caractériser la rhéologie de chaque phase ainsi que du mélange. On effectue finalement un second changement d’échelle afin de réduire l’écoulement de grains observé à une singularité, qui correspond à une condition limite du point de vue de l’écoulement du fluide. Cette condition est du type de Navier. Les simulations IBM-DEM montrent que la longueur dite de glissement "équivalente" est directement proportionnelle au nombre de Shields<br>In this work, we consider the steady transport of a granular medium by a laminar Couette flow for a fixed density ratio of 2.5 and a range of particle Reynolds number, Re p [0.1, 10], and Shields number [0.1, 0.7]. All scales of this two-phase flow are captured (except for the lubrication effects). By solving the Navier-Stokes equations, taking into account the presence of particles using an Immersed Boundary Method (IBM) coupled to a granular solver (Discrete Elements Method - DEM) which solves the Newton equations for each particle, in particular grain-grain interactions (resolution at the microscopic scale). Up-scaling is then performed to describe the flow via equivalent continuous quantities (description at the mesoscopic scale). IBM-DEM simulations allow to quantify all the terms of the so-called mesoscopic model and to characterize the rheology of each phase and that of the equivalent mixture. A second up-scaling is finally performed to reduce the granular flow to a singularity, which corresponds to a boundary condition from the fluid view point. The boundary condition is of Navier’s type. The IBM-DEM simulations suggest that the corresponding "equivalent" slip-lenght scales as
APA, Harvard, Vancouver, ISO, and other styles
47

Dansereau, Véronique. "Un modèle Maxwell-élasto-fragile pour la déformation et dérive de la banquise." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU003/document.

Full text
Abstract:
De récentes analyses statistiques de données satellitales et de bouées dérivantes ont révélé le caractère hautement hétérogène et intermittent de la déformation de la banquise Arctique, démontrant de ce fait que le schéma rhéologique visco-plastique utilisé traditionnellement en modélisation climatique et opérationnelle ne simule pas adéquatement le comportement dynamique des glaces ainsi que les efforts mécaniques en leur sein.Un cadre rhéologique alternatif, baptisé "Maxwell-Élasto-Fragile" (Maxwell-EB) est donc développé dans le but de reproduire correctement la dérive et la déformation des glaces dans les modèles continus de la banquise à l'échelle régionale et globale. Le modèle se base en partie sur un cade de modélisation élasto-fragile utilisé pour les roches et la glace. Un terme de relaxation visqueuse est ajouté à la relation constitutive d'élasticité linéaire ainsi qu'une viscosité effective, ou "apparente", laquelle évolue en fonction du niveau d'endommagement local du matériel simulé, comme son module d'élasticité. Ce cadre rhéologique permet la dissipation partielle des contraintes internes par le biais de déformations permanentes, possiblement grandes, le long de failles (ou "leads") lorsque le matériel est fortement endommagé ainsi que la conservation de la mémoire des contraintes associées aux déformations élastiques dans les zones où le matériel reste relativement peu endommagé.The schéma numérique du modèle Maxwell-EB est basé sur des méthodes de calcul variationnel et par éléments finis. Une représentation Eulérienne des équations du mouvement est utilisée et des méthodes dites Galerkin discontinues sont implémentées pour le traitement des processus d'advection.Une première série de simulations idéalisées et sans advection est présentée, lesquelles démontrent que la rhéologie Maxwell-Élasto-Fragile reproduit les caractéristiques principales du comportement mécanique de la banquise, c'est-à-dire la localisation spatiale, l'anisotropie et l'intermittence de la déformation ainsi que les lois d'échelle qui en découlent. La représentation adéquate de ces propriétés de la déformation se traduit par la présence de très forts gradients au sein des champs de contrainte, de déformation et du niveau d'endommagement simulés par le modèle. Des tests visant à évaluer la diffusion numérique découlant de l'advection de ces gradients extrêmes ainsi qu'à identifier certaines contraintes numériques du modèle sont ensuite présentés. De premières simulations en grandes déformations, incluant les processus d'advection, sont réalisées, lesquelles permettent une comparaison aux résultats d'une expérience de Couette annulaire sur de la glace fabriquée en laboratoire. Le modèle reproduit en partie le comportement mécanique observé. Par ailleurs, les différences entre les résultats des simulations et ceux obtenus en laboratoire permettent d'identifier certaines limitations, numériques et physiques, du modèle en grandes déformations. Finalement, le modèle rhéologique est utilisé pour modéliser la dérive et la déformation des glaces à l'échelle de la banquise Arctique. Des simulations idéalisées de l'écoulement de glace dans un chenal étroit sont présentées. Le modèle simule une propagation localisée de l'endommagement, définissant des failles en forme d'arche, et la formation de ponts de glace stables<br>In recent years, analyses of available ice buoy and satellite data have revealed the strong heterogeneity and intermittency of the deformation of sea ice and have demonstrated that the viscous-plastic rheology widely used in current climate models and operational modelling platforms does not simulate adequately the drift, deformation and mechanical stresses within the ice pack.A new alternative rheological framework named ''Maxwell-Elasto-Brittle” (Maxwell-EB) is therefore developed in the view of reproducing more accurately the drift and deformation of the ice cover in continuum sea ice models at regional to global scales. The model builds on an elasto-brittle framework used for ice and rocks. A viscous-like relaxation term is added to a linear-elastic constitutive relationship together with an effective viscosity that evolves with the local level of damage of the material, like its elastic modulus. This framework allows for part of the internal stress to dissipate in large, permanent deformations along the faults/leads once the material is highly damaged while retaining the memory of small, elastic deformations over undamaged areas. A healing mechanism is also introduced, counterbalancing the effects of damaging over large time scales.The numerical scheme for the Maxwell-EB model is based on finite elements and variational methods. The equations of motion are cast in the Eulerian frame and discontinuous Galerkin methods are implemented to handle advective processes.Idealized simulations without advection are first presented. These demonstrate that the Maxwell-EB rheological framework reproduces the main characteristics of sea ice mechanics and deformation : the strain localization, the anisotropy and intermittency of deformation and the associated scaling laws. The successful representation of these properties translates into very large gradients within all simulated fields. Idealized numerical experiments are conducted to evaluate the amount of numerical diffusion associated with the advection of these extreme gradients in the model and investigate other limitations of the numerical scheme. First large-deformation simulations are carried in the context of a Couette flow experiment, which allow a comparison with the result of a similar laboratory experiment performed on fresh-water ice. The model reproduces part of the mechanical behaviour observed in the laboratory. Comparison of the numerical and experimental results allow identifying some numerical and physical limitations of the model in the context of large-deformation and laboratory-scale simulations. Finally, the Maxwell-EB framework is implemented in the context of modelling the drift and deformation of sea ice on geophysical scales. Idealized simulations of the flow of sea ice through a narrow channel are presented. The model simulates the propagation of damage along arch-like features and successfully reproduces the formation of stable ice bridges
APA, Harvard, Vancouver, ISO, and other styles
48

Luchini, Coralie. "Complexation d'actinides (III, V et VI) par des ligands polyaminocarboxyliques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS328/document.

Full text
Abstract:
Le comportement des actinides dans l’environnement (site miniers, sites de stockagedes déchets et sites contaminés) dépend de l’interaction de ces éléments avec des ligandsprésents dans les différents milieux (air, sol, eaux superficielles et souterraines). Lesinteractions des actinides avec des ligands organiques polyfonctionnels peuvent piéger ceséléments ou au contraire favoriser leur migration.Dans ce travail, le comportement d’actinides aux degrés d’oxydation III, V et VI ensolution aqueuse a été étudié en présence de deux ligands polyaminocarboxyliques : l’acidenitrilotriacétique (NTA) et l’acide iminodiacétique (IDA).L’étude de la complexation du protactinium pentavalent par NTA et IDA a été conduiteselon une double approche : une étude thermodynamique réalisée par extraction par solvant,avec le protactinium à l’échelle des traces (C233Pa &lt; 10-10 M) et une étude structurale, avecle protactinium en quantité pondérable (C231Pa ≈ 10-3 M), réalisée par Spectroscopied’Absorption des rayons X (SAX) et complétée par des calculs de chimie quantique.Les variations du coefficient de distribution de Pa(V) dans le systèmeTTA/Toluène/ HClO4 / NaClO4 /Pa(V)/ligand en fonction de la concentration de ligands àplusieurs températures et/ou acidités ont permis de déterminer la stœchiométrie maximale et lacharge moyenne des complexes Pa(V)-NTA et Pa(V)-IDA ainsi que les constantes de formationassociées à chaque espèce. Une stœchiométrie maximale de 2 a été observée pour les deuxsystèmes. Pour le système Pa-NTA, les deux complexes successifs prédominants dans la phaseaqueuse sont une espèce neutre PaO(NTA) pour le complexe (1:1) et une espèce de charge -3pour le complexe (1:2) qui pourrait correspondre à PaO(NTA) -:R. Une étude complémentairepar Electrophorèse Capillaire couplé à un spectromètre de masse (EC-ICP-MS) a permis deconfirmer la charge (-3) du complexe Pa − (NTA)-. Pour le système Pa-IDA, les résultats ontmontré la formation successive de deux complexes positifs PaO(IDA)3+ et PaO(IDA)+2.Lagéométrie de coordination et les distances interatomiques des complexes de stœchiométriemaximale ont été déterminés à partir de calculs DFT ou de dynamique moléculaire.L’étude de la complexation d’actinides trivalents (Am et Cf) et hexavalents (Np et Pu)par IDA a été réalisée par EC-ICP-MS. Les variations de la mobilité électrophorétique globaleen fonction de la concentration en IDA-R ont permis de déterminer les constantes de formationdes actinides avec IDA. Les constantes de formation des complexes de stœchiométrie (1:1)sont rapportées pour Am (III) et Cf (III). Concernant les complexes Np (VI) et Pu (VI) avecl'acide iminodiacétique, les constantes de formation des complexes de stœchiométriques (1:1)et (1:2) ont été déterminées<br>The behaviour of actinides in the environment (in the surroundings of uranium miningsites, waste storage or contaminated sites) depends on the interaction of these elements with theorganic ligands present in these different systems. The interactions of actinides withpolyfunctional organic ligands could trap the element or inversely, favour their migration.In this work, the behaviour of actinides (III, V and VI) in aqueous solution was studied in thepresence of two polyaminocarboxylic ligands: nitrilotriacetic acid (NTA) and iminodiaceticacid (IDA).The study of the complexation of pentavalent protactinium by NTA and IDA was conductedaccording to a dual approach. A thermodynamic study carried out by liquid-liquid extraction inthe system TTA/Toluene/HClO4/NaClO4/Pa(V)/ligand, with protactinium at tracer scale (C233Pa&lt; 10−10 M), has been implemented in order to determine the stoichiometry, the mean charge ofcomplexes and the associated formation constants. A structural approach with protactiniumin weighable quantity (C231Pa≈ 10−3 M) was conducted in order to determine the coordination geometry of complexes and interatomic distances.The variations of the distribution coefficient D of Pa(V) as a function of nitrilotriacetateconcentration enabled to determine that the maximum stoichiometry for the Pa-NTA and Pa-IDA systems is 2. For the Pa-NTA system, the two successive complexes predominant in theaqueous phase are a neutral species for (1:1) complex PaO(NTA) and charge -3 for the (1:2)which may correspond to PaO(NTA) -:R. In addition, Capillary Electrophoresis InductivelyCoupled Plasma Mass Spectrometry experiments have been performed to confirm the charge (-3) for the maximum stoichiometry complex. For the Pa-IDA system, the results have shownthe successive formation of two positive complexes PaO(IDA)3+ and PaO(IDA)+2. Optimized structures of Pa-NTA and Pa-IDA complexes were established using DFT or molecular dynamics calculations.The complexation of trivalent (Am and Cf) and hexavalent (Np and Pu) actinides with IDA was performed by Capillary Electrophoresis coupled with Inductively Coupled Mass Spectrometry(CE-ICP-MS). The variations of overall electrophoresis mobility of actinides species as function of CIDA2 allow the determination of the formation constants of actinides IDAcomplexes. The formation constants of complexes with (1:1) stoichiometry are reported forAm(III) and Cf(III). Concerning the complexes Np(VI) and Pu(VI) with iminodiacetic acid,formation constants of (1:1) and (1:2) stoichiometry complexes were determined
APA, Harvard, Vancouver, ISO, and other styles
49

Bou, Khouzam Rola. "Développement de la méthodologie analytique et surveillance des contaminants dans le panier de la ménagère au Liban." Thesis, Pau, 2011. http://www.theses.fr/2011PAUU3016/document.

Full text
Abstract:
L’objectif du travail est d’évaluer le niveau des contaminants (éléments à l’état de traces et pesticides) dans quatre types de produits alimentaires (pain, fromage, végétaux et fruits) et eau potable considérés parmi les produits les plus consommés par les Libanais suivant l’étude du panier de la ménagère faite en 2006. Une méthode analytique pour l’analyse multi élémentaire a été optimisée pour augmenter la sensibilité et réduire les interférences polyatomiques en utilisant la technique de spectrométrie de masse de haute résolution par plasma induit pour la détermination de 20 éléments mineurs et à l’état de trace afin d’évaluer la valeur nutritive et le niveau de contamination. Pour l’analyse des résidus de pesticides, une méthode analytique a été développé pour la détermination des résidus dans des fromages riches en matières grasses (2-25%). La détermination des résidus de pesticides dans le pain, les végétaux et les fruits a été accomplie suivant la méthode QuEChERS. La surveillance du taux des contaminants a été faite sur des échantillons collectés dans des marches de cinq régions géographiques au Liban durant les saisons humide et sèches<br>The objective of this work was to evaluate the level of food contaminants, trace elements and pesticides residues, in four types of commodities bread, white cheese, vegetables and fruits, and drinking water considered as the most consumed by the Lebanese population based on the Food Basket Study on 2006. A multielemental method was optimized in terms of sensitivity and inference elimination by using high resolution sector field inductively coupled plasma mass spectrometry (HR ICP/MS) for the determination of 20 minor and trace elements in the selected foods to assess the nutritional contribution and the level of contamination. For pesticides residues analysis, an analytical method was developed for the quantification of residues in cheese (2-25% fat). Bread, vegetables and fruit were analysed according to the QuEChERS method. For the monitoring study, the samples were collected during two seasons, wet and dry, from five geographical regions in Lebanon
APA, Harvard, Vancouver, ISO, and other styles
50

Le, Yaouanq Sébastien. "Co-simulation redondante d'échelles de modélisation hétérogènes pour une approche phénoménologique." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0032/document.

Full text
Abstract:
Deux points de vue sont souvent opposés dans le cadre de la modélisation des systèmes complexes.D’un côté, une modélisation microscopique cherche à reproduire précisément le comportement des nombreuses entités qui composent le système, ce qui impose des temps de calculs prohibitifs pour le passage à l’échelle de système réels. À l’inverse, l’approche phénoménologique consiste à nous concentrer sur le comportement global du système. Ces modèles macroscopiques reposent sur des lois descriptives qui autorisent des simulations plus rapides mais impliquent l’introduction de paramètres qui peuvent être difficilement identifiables dans le contexte. Pour répondre à ce problème, nous proposons de combiner les différents points de vue de modélisation et d’utiliser des simulations microscopiques pour nourrir un modèle macroscopique incomplet.L’objectif est d’obtenir une simulation descriptive rapide tout en profitant de la précision d’un modèle microscopique. Pour cela, nous proposons une architecture logicielle qui s’appuie sur la technique de la co-simulation pour généraliser la démarche de simulation redondante d’échelles de modélisation hétérogènes.Nous distinguons deux stratégies de co-simulation qui permettent de piloter un modèle macroscopique en cours de simulation. La première consiste à estimer dynamiquement, et de manière explicite, de nouvelles valeurs pour un paramètre critique donné à l’aide d’un simulateur microscopique dédié. La seconde stratégie permet de déterminer implicitement un jeu de paramètres interdépendants sur la base d’une sortie commune des différents niveaux de description simulés. Nous appliquons nos travaux au problème concret du design de structures offshore pour des conditions polaires. Nous détaillons dans un premier temps l’implémentation d’un simulateur phénoménologique d’interactions glace-structure. Dans un second temps, nous illustrons l’intérêt et l’intégration de nos stratégies de co-simulation pour, d’une part améliorer la précision des simulations des phénomènes hydrodynamiques, et d’autre part guider un modèle de plus haut niveau à des fins de prototypage rapide<br>There are usually two opposite points of view for the modelling of complex systems. First, microscopical models aim at reproducing precisely the behavior of each entity of the system. In general, their great number is a major obstacle both to simulate the model in a reasonable time and to identify global behaviors. By contrast, the phenomenological approach allows the construction of efficient models from a macroscopic point of view as a superposition of phenomena. A drawback is that we often have to set empirical parameters in these descriptive models. To respond to this problem, we want to make joint use of different levels of description and to use microscopical simulations to feed incomplete macroscopical models.We would then obtain enhanced descriptive simulations with the precision of microscopical models in this way. To this end, we propose a redundant multiscale architecture which is based on the co-simulation methodology in order to generalize the redundant multiscale approach. We suggest two specific co-simulation strategies to guide a macroscopical simulation.The first one consists in dynamically and explicitly estimating critical parameters of a macroscopical model thanks to a dedicated microscopical simulator The second one allows to implicitly determine a full set of dependant parameters on the basis of an output shared by the different levels of description. Then we apply our works to the effective problem of the design offshore structures for arctic conditions. We first describe the implementation of an ice-structure simulation tool by means of a phenomenological and multi-model approach. In a second phase, we show the benefits of our co-simulation strategies to improve the precision of hydrodynamics simulations on the one hand, and on the other to pilot a more macroscopical model for the purpose of fast prototyping
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography