To see the other types of publications on this topic, follow the link: Méthode qualitative et méthode quantitative.

Dissertations / Theses on the topic 'Méthode qualitative et méthode quantitative'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode qualitative et méthode quantitative.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ould, Ely Telmoudy Elbar. "Etude qualitative et quantitative de problèmes de coques élastiques non linéaires." Phd thesis, Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00344971.

Full text
Abstract:
Dans la première partie, on fait une approche du verrouillage en élasticité non linéaire. Nous étudions déplacements d'une coque cylindrique peu profonde de longueur infinie. Sous des hypothèses raisonnables on peut supposer que le problème est modélisé par une arche circulaire soumise à une pression F. On montre comment calculer analytiquement, toutes ses solutions, moyennant une paramétrisation des solutions. On donne deux critères pour mettre en évidence le phénomène de verrouillage en élasticité non linéaire ; le premier est basé sur l'utilisation d'une abscisse curviligne sur les branches de solutions, et le second sur la résolution d'un problème de minimisation en utilisant l'inverse de Moore-Penrose. Après avoir retenu le critère de Moore-Penrose, pour caractériser le verrouillage en non linéaire, nous avons approché le problème par une méthode d'éléments finis, combinée à la méthode de Moore-Penrose. Ceci nous a permis d'établir différents diagrammes de convergence montrant le phénomène de verrouillage et l'efficacité des méthodes à le traiter. Dans la deuxième partie, on étudie le flambage d'une coque cylindrique verticale, soumise à un champ de forces volumiques de densité f et en sa partie supérieure, soumise à une densité de forces surfaciques λ. Nous utilisons un modèle de coques minces élastiques, en théorie non linéaire, en se référant aux travaux de Koiter (1966). On s'intéresse uniquement aux solutions axisymétriques de ce modèle. On montre l'existence de solution pour toute valeur des charges et on donne une condition suffisante d'unicité. On fait une étude détaillée de la bifurcation de ce problème. Cette étude qualitative est complétée par une étude quantitative
APA, Harvard, Vancouver, ISO, and other styles
2

Guillot, Ludovic. "Spectrométrie gamma aéroportée : étude de nouvelles méthodes de traitement spectral et de calibration permettant une interprétation qualitative et quantitative des mesures." Dijon, 1996. http://www.theses.fr/1996DIJOS062.

Full text
Abstract:
La spectrométrie gamma aéroportée, tout d'abord utilisée pour la prospection minière, s'affirme aujourd'hui comme un moyen de diagnostic efficace et rapide pour la surveillance radiologique de l'environnement ou l'intervention en cas d'incident nucléaire. Les mesures se singularisent par une statistique de comptage très pauvre et des détecteurs d'iodure de sodium de résolution médiocre. Un algorithme de détection et de calcul des pics d'absorption adapté à ces caractéristiques a été développé. Les performances obtenues sont comparables à celles de la méthode de déconvolution par fenêtres énergétiques, traditionnellement utilisée pour la mesure des radioéléments naturels. Ce nouveau traitement a la particularité de ne pas nécessiter d'hypothèse sur le nombre ou la nature des radioéléments présents. La mesure en laboratoire des composantes spectrales induites par chaque radioélément a également permis d'étendre la méthode de déconvolution par fenêtres à l'ensemble du spectre. Un dispositif expérimental de simulation des conditions de survol d'une surface active a été réalisé au laboratoire afin d'étudier l'évolution des profils spectraux avec l'altitude de détection. L'influence de l'extension verticale de la source dans le sol a ensuite été établie numériquement par méthode de Monte-Carlo. Cette méthode de calibration originale permet d'obtenir en laboratoire l'ensemble des données nécessaires à l'analyse qualitative et quantitative des mesures. Les techniques d'analyse spectrale et de calibration élaborées au cours de ces travaux sont complémentaires des méthodes existantes. Leur association permettra une détection en temps réel et un calcul de l'activité des radioéléments dont les raies d'émission sont comprises entre 50 et 2800 keV
APA, Harvard, Vancouver, ISO, and other styles
3

Ponnusamy, Sangeeth saagar. "Simulation product fidelity : a qualitative & quantitative system engineering approach." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30398/document.

Full text
Abstract:
La modélisation informatique et la simulation sont des activités de plus en plus répandues lors de la conception de systèmes complexes et critiques tels que ceux embarqués dans les avions. Une proposition pour la conception et réalisation d'abstractions compatibles avec les objectifs de simulation est présentée basés sur la théorie de l'informatique, le contrôle et le système des concepts d'ingénierie. Il adresse deux problèmes fondamentaux de fidélité dans la simulation, c'est-à-dire, pour une spécification du système et quelques propriétés d'intérêt, comment extraire des abstractions pour définir une architecture de produit de simulation et jusqu'où quel point le comportement du modèle de simulation représente la spécification du système. Une notion générale de cette fidélité de la simulation, tant architecturale et comportementale, est expliquée dans les notions du cadre expérimental et discuté dans le contexte des abstractions de modélisation et des relations d'inclusion. Une approche semi-formelle basée sur l'ontologie pour construire et définir l'architecture de produit de simulation est proposée et démontrée sur une étude d'échelle industrielle. Une approche formelle basée sur le jeu théorique et méthode formelle est proposée pour différentes classes de modèles des systèmes et des simulations avec un développement d'outils de prototype et cas des études. Les problèmes dans la recherche et implémentation de ce cadre de fidélité sont discutées particulièrement dans un contexte industriel
In using Modeling and Simulation for the system Verification & Validation activities, often the difficulty is finding and implementing consistent abstractions to model the system being simulated with respect to the simulation requirements. A proposition for the unified design and implementation of modeling abstractions consistent with the simulation objectives based on the computer science, control and system engineering concepts is presented. It addresses two fundamental problems of fidelity in simulation, namely, for a given system specification and some properties of interest, how to extract modeling abstractions to define a simulation product architecture and how far does the behaviour of the simulation model represents the system specification. A general notion of this simulation fidelity, both architectural and behavioural, in system verification and validation is explained in the established notions of the experimental frame and discussed in the context of modeling abstractions and inclusion relations. A semi-formal ontology based domain model approach to build and define the simulation product architecture is proposed with a real industrial scale study. A formal approach based on game theoretic quantitative system refinement notions is proposed for different class of system and simulation models with a prototype tool development and case studies. Challenges in research and implementation of this formal and semi-formal fidelity framework especially in an industrial context are discussed
APA, Harvard, Vancouver, ISO, and other styles
4

Do, Thi Kieu Tiên. "Évaluation des performances de la chromatographie sur couche mince haute performance (HPTLC) dans l’analyse (qualitative et quantitative) des métabolites secondaires dans les extraits naturels." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4096/document.

Full text
Abstract:
L’analyse des extraits naturels est de nos jours réalisée à l’aide de nombreuses techniques d’analyse plus ou moins complexes. Parmi ces techniques, l’HPTLC est bien connue en tant qu’outil d’identification phytochimique. Le but de cette thèse a été d’étudier l’apport de cette technique dans l’analyse des extraits naturels en dehors de son aspect « identification ». Ce travail a conduit à différentes études permettant de mettre en évidence des applications peu connues de l’HPTLC comme par exemple son utilisation comme technique semi-preparative. De plus, sa capacité à avoir une phase stationnaire résistante à différente matrices a été testée. Il a ainsi pu être démontré que cette caractéristique lui donnait l’avantage de procéder à des préparations d’échantillon plus minimaliste que les autres techniques de chromatographie. L’aspect quantitatif a été évalué et comparé à l’HPLC et a ainsi pu démontrer que des résultats équivalents sont obtenus, néanmoins, le manque de résolution et de précision ne permet pas à l’HPTLC d’attendre les exigences parfois demandées. Enfin, l’analyse d’un grand nombre d’échantillon a permis de montrer un des avantages de l’HPTLC dans le retraitement de données, que ce soit par regroupement visuel des profils obtenus ou par retraitement statistique
The analysis of natural extracts is nowadays performed with numerous techniques more or less complex. Among these techniques, the HPTLC is well known as a tool for phytochemical identification. The aim of this thesis was to study the contribution of this technique in the analysis of natural extracts outside its "identification" appearance. This work led to various studies to highlight little known applications of HPTLC such as its use as a semi-preparative technique. In addition, its ability to have a robust stationary phase to different matrices was tested. It has been demonstrated that this characteristic gave the advantage of proceeding more minimalist sample preparation than other chromatographic techniques. The quantitative aspect was evaluated and compared with HPLC and was able to demonstrate that similar results are obtained, however, the lack of resolution and accuracy do not allow the HPTLC has to wait sometimes requested requirements. Finally, the analysis of a large number of samples has allowed to show an advantage of the HPTLC in the data reprocessing, whether by visual grouping or obtained by statistical retreatment profiles
APA, Harvard, Vancouver, ISO, and other styles
5

Dolez, Charlotte. "L'écume des news : sociologie politique des usages des informations à partir d'entretiens de couple." Thesis, Paris, Institut d'études politiques, 2013. http://www.theses.fr/2013IEPP0037.

Full text
Abstract:
Comment les citoyens reçoivent-ils et interprètent-ils les informations politiques auxquelles ils sont exposés quotidiennement ? Cette thèse s’intéresse au contexte d’exposition aux informations et met en évidence la diversité des interprétations dont celles-ci font l’objet. Elle porte une attention aux usages et en explore les implications politiques. Les résultats sont énoncés à partir d’un regard croisé entre une démarche d’analyses quantitative et qualitative. L’approche qualitative met en place un protocole d’enquête original, qui s’appuie sur des entretiens de couple réalisés en France. Les résultats portent sur l’exposition aux informations, l’attention qui leur est accordée et enfin leur interprétation. L’exposition aux informations s’inscrit, pour l’ensemble des citoyens, dans une routine quotidienne et s’imbrique dans leurs emplois du temps familiaux et professionnels. Les citoyens, quel que soit leur niveau de politisation ou leur origine sociale, ne font pas état d’une démarche intentionnelle de recherche d’informations. En conséquence, leur attention est variable car dépendante de ce contexte. Elle est tributaire des intérêts qu’ils déploient vis-à-vis du champ politique et de l’action publique mais aussi des caractéristiques de l’offre médiatique. Quatre processus d’interprétation sont identifiés. Leur diversité s’appuie sur l’existence de convictions politiques ancrées, qui guident l’interprétation, et sur les modalités de combinaison des expériences personnelle et médiatique. La thèse met ainsi en évidence les grilles de lecture que les citoyens mobilisent pour donner sens au monde qui les entoure et témoigne du rôle des informations dans leur construction
How do citizens receive and interpret political news to which they are daily exposed? This PhD thesis deals with the context in which people are exposed to news and sheds light on the diversity of their interpretation. Emphasis is put on media uses and on the investigation of their political implications. The results are based on a mixed method approach (quantitative and qualitative). The qualitative approach offers an inventive interview protocol with French couples, in Paris region and in the North of France. The results focus on exposure to news, attention to news and interpretation. All citizens are exposed to news in daily routine, within their work and family lives. They do not seek for information, regardless of their level of political interest or their social background. Consequently, their attention to news is variable because it is dependent on this context. Not only is attention reliant on citizens’ interests in the political scene and public action but also on the way the media present and construct news. I identify four types of interpretation. Their diversity relies on deeply rooted political convictions, which guide the interpretation, and on the way personal and media experiences are combined. This PhD thesis also singles out the frameworks of interpretation used by citizens to make sense of the world around them and how information contributes to their construction
APA, Harvard, Vancouver, ISO, and other styles
6

Demri, Amel. "Contribution à l'évaluation de la fiabilité d'un système mécatronique par modélisation fonctionnelle et dysfonctionnelle." Phd thesis, Université d'Angers, 2009. http://tel.archives-ouvertes.fr/tel-00467277.

Full text
Abstract:
Cette thèse porte sur l'étude des systèmes complexes tels que les systèmes mécatroniques, en tenant compte de leur aspect dynamique, hybride, reconfigurable et multitechnologies. Le premier chapitre est consacré au contexte actuel des systèmes mécatroniques et la nécessité qu'ils soient conçus et développés de manière collaborative afin d'obtenir des systèmes sûrs de fonctionnement. La démarche systémique aide à l'étude de ces systèmes complexes. Le second chapitre expose les différentes méthodes utilisées dans l'analyse qualitative ainsi que dans l'analyse quantitative. Le choix se porte alors sur les méthodes SADT et SA-RT pour l'analyse fonctionnelle, l'AMDE et l'AEEL pour l'analyse dysfonctionnelle et sur les réseaux de Petri pour l'analyse quantitative. Le dernier chapitre expose la méthodologie proposée pour l'estimation de la fiabilité des systèmes mécatroniques ainsi que l'application de cette méthodologie sur un système ABS. Finalement, les conclusions et les perspectives de l'approche proposée sont émises.
APA, Harvard, Vancouver, ISO, and other styles
7

Tamisier-Karolak, Laurence. "Application de la modélisation gaussoexponentielle du pic chromatographique à l'étude de l'influence du vieillissement des colonnes chromatographiques sur la validation d'une méthode de dosage." Paris 11, 1993. http://www.theses.fr/1993PA114828.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Rosier, Philippe. "La Fasciathérapie Méthode Danis Bois et la récupération physique, mentale et somato-psychique du sportif de haut niveau: Evaluation quantitative et qualitative auprès d’une population de sportifs de haut niveau." Doctoral thesis, [s.n.], 2013. http://hdl.handle.net/10284/4248.

Full text
Abstract:
Tese apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Doutor em Ciências Sociais, especialidade em Psicopedagogia
This work focuses on fasciatherapy applied to the recovery of high level athletes and attempts to answer the question “How and in what way does fasciatherapy participate in the physical, mental and somato-psychic recovery of high level athletes?” In order to do this, I have presented the theoretical side of the therapies addressing the fascia and in particular the Danis Bois fasciatherapy method, as well as the theoretical side of physical, psychological and somato-psychic recovery in the field of sports. I have approached this research from the viewpoint of a practitioner-researcher in order to gain better understanding of the somato-psychic impact of fasciatherapy on the recovery of ten high level athletes who are deemed to be "in good shape" and who practice sports intensively on a daily basis. This research uses a mixed methodology. The first one is qualitative and is based on interviews. It develops an analysis inspired by phenomenology on a case by case basis and a transverse hermeneutic interpretation. The second one is quantitative and uses a questionnaire based on Likert scales. This research translates the impact of fasciatherapy on seventeen indicators of physical, psychological and somato-psychic recovery.
Ce travail porte sur la fasciathérapie appliquée à la récupération des sportifs de haut niveau et tente de répondre à la question « En quoi et comment la fasciathérapie participe-t-elle à la récupération physique, mentale et somato-psychique des sportifs de haut niveau ? » Pour cela, j’ai présenté le champ théorique des thérapies s’adressant aux fascias et notamment la fasciathérapie méthode Danis Bois, ainsi que le champ théorique de la récupération physique, psychique et somato-psychique dans le domaine du sport. J’ai abordé cette recherche avec une posture de praticien-chercheur afin de mieux comprendre les impacts somato-psychiques de la fasciathérapie sur la récupération de dix sportifs de haut niveau réputés « en pleine forme », confrontés à leur pratique sportive intensive quotidienne. Cette recherche déploie une méthodologie mixte. La première, qualitative, est basée sur des entretiens et développe une analyse d’inspiration phénoménologique cas par cas et une interprétation herméneutique tranversale. La seconde, quantitative, est basée sur un questionnaire à base d’échelles de Likert. Cette recherche traduit l’impact de la fasciathérapie sur dix-sept indicateurs de la récupération physique, psychique et somato-psychique.
Este trabalho sobre a fasciaterapia aplicada à recuperação dos atletas de alto nível, tenta responder à questão "De que forma a fasciaterapia participa na recuperação física, psicológica e somático-psíquica dos atletas de alta competição?" Para tal, o trabalho teórico apresentado incide nas terapias fasciais (fascia), nomeadamente a fasciaterapia método Danis Bois, e na recuperação física, psicológica e somáticopsíquica no domínio desportivo. Assumi esta investigação adoptando uma postura de praticante-investigador no âmbito de compreender melhor os impactos somatopsíquicos da fasciaterapia na recuperação de 10 atletas considerados "em boa forma" e confrontados a uma prática desportiva quotidiana. Esta investigação desenvolve uma metodologia mista. A primeira, qualitativa, é baseada em entrevistas e desenvolve uma análise de inspiração fenomenológica caso a caso e uma interpretação hermenêutica transversal. A segunda, quantitativa, é baseada num questionário baseado nas escalas de Likert. Esta pesquisa reflecte o impacto da fasciaterapia sobre 17 indicadores de recuperação física, psicológica e somático-psíquica.
APA, Harvard, Vancouver, ISO, and other styles
9

Ben, Younes Ridha. "Contribution à l'amélioration qualitative et quantitative des images de médecine nucléaire en tomographie d'émission à simple photon." Besançon, 1989. http://www.theses.fr/1989BESA2008.

Full text
Abstract:
Reconstruction tomographique de la distribution radioactive d'un traceur placé dans le milieu non atténuant puis atténuant. Différentes méthodes de reconstruction, performances et contrôle de la qualité du détecteur, dégradation des images. Méthode de détection automatique des contours
APA, Harvard, Vancouver, ISO, and other styles
10

Mathieu, Sassolas. "Méthodes qualitatives et quantitatives pour la détection d'information cachée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00683086.

Full text
Abstract:
Les systèmes informatiques sont devenus omniprésents et sont utilisés au quotidien pour gérer toujours plus d'information. Ces informations sont de plus en plus souvent confidentielles: informations stratégiques militaires ou financières, données personnelles. La fuite de ces informations peut ainsi avoir des conséquences graves telles que des pertes humaines, financières, des violations de la vie privée ou de l'usurpation d'identité. Les contributions de cette thèse se découpent en trois parties. Tout d'abord, nous étudions le problème de synthèse d'un canal de communication dans un système décrit par un transducteur. Malgré les limites imposées par ce modèle, nous montrons que le problème de synthèse est indécidable en général. Cependant, lorsque le système est fonctionnel, c'est-à-dire que son fonctionnement externe est toujours le même, le problème devient décidable. Nous généralisons ensuite le concept d'opacité aux systèmes probabilistes, en donnant des mesures groupées en deux familles. Lorsque le système est opaque, nous évaluons la robustesse de cette opacité vis-à-vis des informations données par les lois de probabilités du système. Lorsque le système n'est pas opaque, nous évaluons la taille de la faille de sécurité induite par cette non opacité. Enfin, nous étudions le modèle des automates temporisés à interruptions (ITA) où les informations sur l'écoulement du temps sont organisées en niveaux comparables à des niveaux d'accréditation. Nous étudions les propriétés de régularité et de clôture des langages temporisés générés par ces automates et proposons des algorithmes de model-checking pour des fragments de logiques temporelles temporisées.
APA, Harvard, Vancouver, ISO, and other styles
11

Sassolas, Mathieu. "Méthodes qualitatives et quantitatives pour la détection d'information cachée." Paris 6, 2011. http://www.theses.fr/2011PA066581.

Full text
Abstract:
Les systèmes informatiques sont devenus omniprésents et sont utilisés au quotidien pour gérer toujours plus d'information. Ces informations sont de plus en plus souvent confidentielles: informations stratégiques militaires ou financières, données personnelles. La fuite de ces informations peut ainsi avoir des conséquences graves telles que des pertes humaines, financières, des violations de la vie privée ou de l'usurpation d'identité. Les contributions de cette thèse se découpent en trois parties. Tout d'abord, nous étudions le problème de synthèse d'un canal de communication dans un système décrit par un transducteur. Malgré les limites imposées par ce modèle, nous montrons que le problème de synthèse est indécidable en général. Cependant, lorsque le système est fonctionnel, c'est-à-dire que son fonctionnement externe est toujours le même, le problème devient décidable. Nous généralisons ensuite le concept d'opacité aux systèmes probabilistes, en donnant des mesures groupées en deux familles. Lorsque le système est opaque, nous évaluons la robustesse de cette opacité vis-à-vis des informations données par les lois de probabilités du système. Lorsque le système n'est pas opaque, nous évaluons la taille de la faille de sécurité induite par cette non opacité. Enfin, nous étudions le modèle des automates temporisés à interruptions (ITA) où les informations sur l'écoulement du temps sont organisées en niveaux comparables à des niveaux d'accréditation. Nous étudions les propriétés de régularité et de clôture des langages temporisés générés par ces automates et proposons des algorithmes de model-checking pour des fragments de logiques temporelles temporisées.
APA, Harvard, Vancouver, ISO, and other styles
12

Achard, Antoine. "Analyse de la politique industrielle de la Région Nouvelle-Aquitaine : apports des méthodes quantitatives et qualitatives." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0212/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre théorique de l’analyse des politiques publiques pour proposer une analyse de la politique industrielle régionale. Pour ce faire, nous menons une analyse appliquée qui s’appuie sur des approches quantitative et qualitatives. Ce travail s’inscrit dans un contexte où l’on assiste à une régionalisation des politiques publiques, par le phénomène de décentralisation enclenché par l’Etat français, et sous l’influence de l’Union Européenne qui tend à régionaliser sa politique. Nous cherchons alors à savoir si la politique menée par les Régions constitue un retour de l’interventionnisme, hérité de la politique du plan, empreint de colbertisme mais également du modèle allemand centré sur les entreprises de taille intermédiaire. Nous proposons d’observer la politique industrielle de la Région Nouvelle-Aquitaine, reconnue comme très volontariste par des travaux antérieurs, à travers le prisme des subventions allouées aux entreprises industrielles de son territoire. Une analyse quantitative, qui mobilise des indicateurs d’économie géographique, et met en évidence un phénomène de concentration sur un groupe restreint d’entreprises. Nous prolongeons ce travail quantitatif en réintroduisant de la complexité dans l’analyse grâce à la richesse de matériaux qualitatifs : des entretiens auprès des acteurs industriels et institutionnels, ainsi que des archives de presse et notre travail en tant qu’observateur-participant
This thesis takes public policy analysis as theoretical framework to propose an analysis of regional industrial policy. Our analysis is based on historic, quantitative and qualitative methods.In a context where industrial public policy leans towards regionalization, under the influence of French decentralization and regionalization of European Union policies, we try to understand the mechanics of regional industrial policy through the case of Region Nouvelle-Aquitaine. A policy inherited of the “planning policy”, and influenced by Colbertism and German model focused on mid-sized companies.Our first approach is quantitative and studies public grants allocated to industrial firms by the Region Nouvelle-Aquitaine. This analysis combines economic geography indicators and demonstrate a concentration phenomenon on a small group of regional companies.We extend by reintroducing complexity in the analysis thanks to rich qualitative materials: interviews with industrial leaders and institutional managers, and press archives
APA, Harvard, Vancouver, ISO, and other styles
13

Villeneuve, Véronique. "Détermination de l'endommagement du béton par méthode pétrographique quantitative." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27962/27962.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Legrand, Nathalie. "Modèle multiphysique et méthodes d'analyse in-situ, non destructives, qualitatives et quantitatives de diverses sources de vieillissement d'accumulateurs lithium-ion." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0240.

Full text
Abstract:
L'optimisation de la durée de vie d'une batterie nécessite la prédiction de son vieillissement et donc l'identification des mécanismes de vieillissement qui en sont à l'origine. Pour pallier les limitations des outils de caractérisation du vieillissement classiquement utilisés (mesures intermittentes de performance au cours du vieillissement et tests de caractérisation post-mortem), des outils d'étude non destructive de l'état des électrodes en cours de vie ont été mis au point et testés. Il s'agit d'un modèle multiphysique de fonctionnement de la batterie lithium-ion et de deux méthodes d'extraction de paramètres in-situ : la première basée sur le traitement de la dérivée du profil de tension et la seconde sur la différence des pentes de profils de tension entre l'état neuf et l'état considéré. Les paramètres non disponibles mais nécessaires à l'établissement du modèle multiphysique d'un élément ont été estimés pour différents états de charge et différentes températures. Ce modèle a été validé par comparaison avec des mesures expérimentales. L'application de ces outils est illustrée dans le cas de trois mécanismes de vieillissement différents. En outre, ces outils ont été plus particulièrement appliqués au vieillissement par dépôt de lithium. L'utilisation du modèle de l'élément commercial VL41M Saft a permis de dresser un abaque de ses courants limites de fonctionnement et a fait l'objet d'une validation expérimentale mettant en oeuvre la méthode dite de la dérivée
Optimisation of a battery life time requires the prediction of its ageing and the identification of the involved ageing mechanisms. In order to avoid the limitations due to standard ageing characterisation methods (performance evaluations conducted regularly along ageing and post-mortem characterisations), other tools allowing assessment of the electrode state without deterioration along the life time, have been tested. It concerns a multiphysic model of lithium-ion battery and two methods for in-situ parameter extraction: the first is based on the study of the derivative of the tension profile and the second one, on the difference between the slope of the tension profiles at the fresh state and at the considered state. The non-available parameters required for set up of the multiphysic model for one battery have been evaluated for different states of charge and various temperatures. This model has been validated by comparison with experimental measurements. The application of these tools is illustrated for three different ageing mechanisms. Moreover these methods have been especially applied for the case of lithium plating ageing. Use of the VL41M Saft model allowed to set up an abacus of the limiting charge currents and an experimental validation has been performed in using the method so-called derivation method
APA, Harvard, Vancouver, ISO, and other styles
15

Ly, Henri. "Troubles d'apprentissage et dépression chez les enfants à « hautes potentialités » : Analyse qualitative et quantitative." Paris 7, 2014. http://www.theses.fr/2014PA070133.

Full text
Abstract:
Les enfants intellectuellement précoces ou à haut potentiel (HP) représenteraient 1 % de la population générale, mais seulement 3 à 5 % d'entre eux seraient détectés. Notre étude concerne leurs problèmes de troubles d'apprentissage et de dépression. A partir d'une enquête rétrospective nationale à l'aide d'un questionnaire pour les parents et une auto évaluation de la dépression (MDI-C) pour leurs enfants surdoués, et avec l'aide de l'Association National pour les Enfants Intellectuellement Précoces (ANPEIP; une base de données a été édifiée. Nous essayons de trouver quelques éléments ayant un impact sur les troubles d'apprentissage et sur la dépression avec les outils statistiques. Nous avons aussi construit deux modèles logistiques
High potental Children reprsent 1% of the population. But only 3% to 5% of them were detected. Our Study concerns their leaning disability and depression. From a national inquiry with a questionnaire for the gifted children (MDI-C) and for their parents as well, and with the help of ANPEIP (A french national association for gifted children), a data base was set up. We try to find out some elements impacting leaning disability and depression with statistic tools and have also build two logistic models
APA, Harvard, Vancouver, ISO, and other styles
16

Marques, Manata Sofia. "Le développement et la mise en application de la créativité relationnelle en contexte d’impasses relationnelles : une étude heuristique." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11336.

Full text
Abstract:
La recension de la littérature sur la créativité en psychothérapie renseigne principalement sur trois axes : la personne, le produit et le processus créatifs. D’abord, plusieurs modèles d’études sur la personne créative semblent s’accorder sur certaines qualités du thérapeute créatif, notamment la flexibilité, l’ouverture à l’expérience et la persistance face à une tâche. Au regard du deuxième axe, certains auteurs évoquent la relation thérapeutique comme principal produit créatif en contexte clinique et donc comme cible prioritaire à laquelle s’intéresser. Dans cette optique, le troisième axe que représente le processus créatif, fréquemment défini comme un processus de résolution de problèmes, permettrait en principe aux thérapeutes d’exercer leur propre créativité au profit de la relation thérapeutique, notamment pour résoudre des impasses relationnelles. Toutefois, peu de recherches outillent concrètement les thérapeutes quant aux moyens ou à la manière de développer et d’exercer leur créativité en ce sens. La présente étude, bien qu’elle s’intéresse aussi aux deux premiers axes, se propose d’offrir des pistes pour pallier cette lacune liée au troisième axe. Un devis qualitatif heuristique et, plus spécifiquement, l’application heuristic self-search inquiry (HSSI) ont été privilégiés afin de proposer un modèle personnel des facteurs favorables au processus de développement et de mise en pratique de la créativité relationnelle du thérapeute pour résoudre les situations d’impasses relationnelles. La question de recherche propose d’explorer comment le thérapeute peut développer et mettre en pratique sa créativité face aux impasses relationnelles de sa vie courante, tant au niveau professionnel que personnel. Les sous-questions suivantes ont permis d’approfondir les analyses : 1) Quelles caractéristiques personnelles permettent de favoriser le dénouement d’impasses relationnelles? 2) Comment se manifeste concrètement la créativité relationnelle lorsqu’une situation d’impasse survient en contexte relationnel? 3) Quels moyens peuvent être pris pour nourrir l’habileté à assumer un processus créatif de résolution de problèmes face aux impasses relationnelles? Deux instruments de cueillette de données ont été privilégiés pour cette étude, soit le journal de recherche et l’entretien d’explicitation. Puis, les données ont été soumises à une analyse en mode écriture. Deux principaux apports de la thèse se dégagent des résultats obtenus. D’abord, ils mettent en lumière des caractéristiques de l’individu créatif rarement évoquées dans la littérature, soit la capacité à nourrir l’espoir et la croyance en un potentiel créatif, tant face à soi-même qu’envers autrui. Deuxièmement, ils proposent un modèle d’application de la créativité relationnelle, incluant des pistes d’action concrètes pour favoriser le développement d’une telle créativité et y recourir en situations d’impasses relationnelles. La discussion établit des liens entre ces résultats et la documentation existante. Elle aborde également comment le modèle proposé peut servir d’appui concret aux thérapeutes, tant dans leur vie personnelle que professionnelle. Les contributions particulières de la méthode HSSI privilégiée dans la thèse, tant pour l’avancement des connaissances scientifiques que pour le développement professionnel des thérapeutes, sont également discutées. Enfin, les retombées des résultats notamment au niveau de la formation des thérapeutes, ainsi que de nouvelles avenues de recherche sur la créativité relationnelle sont abordées.
APA, Harvard, Vancouver, ISO, and other styles
17

Hussein, Saïd. "Définition des besoins en intelligence économique par profils de PME : une étude combinant les deux méthodes quantitative et qualitative sur des PME de Midi-Pyrénées." Toulouse 1, 2004. http://www.theses.fr/2004TOU10029.

Full text
Abstract:
Cette thèse est centrée sur l'analyse des besoins en intelligence économique (IE) dans les Petites Moyennes Entreprises (PME). En effet, si les grandes entreprises françaises semblent avoir appréhendé la nécessité de l'IE, ceci n'est pas toujours le cas pour les PME. La recherche porte sur la phase de définition des besoins informationnels sur l'environnement de l'entreprise et sur le contenu de ces besoins. Cette thèse représente une contribution à la conception d'une méthode de définition de systèmes d'information pour l'intelligence économique (MEDESIIE). Le travail a porté sur : 1) la définition des profils types de PME, 2) l'identification des besoins types en IE des dirigeants de PME, 3) et l'identification de corrélations existant entre les besoins en IE exprimés par les dirigeants des PME et les caractéristiques "objectives" de leurs entreprises. Une étude empirique auprès d'un échantillon d'environ 65 PME a été menée dans le cadre de cette recherche,en suivant une démarche alliant les deux méthodes quantitative et qualitative
This thesis highlights the requirements for the competitive intelligence (CI) in small medium-sized enterprises (SME). However, even though the large French enterprises understood the need for CI, it is still not the case for SME yet. Our research relates the definition phase of the international requirements to both the environment of the SME and to the contents of these requirements. This work contributes to the design of a method defining information systems for CI systems (MEDESIIE). This work is more specifically focused on : 1)the definition of typical profiles for SME, 2)the identification of the types of requirements in CI for the leaders of SME, 3) and the identification of existing correlations between these requirements in CI expressed by the leaders for SME on one hand, and the "objective" characteristics of their enterprises, on the other hand. An empirical study of sixty five SME was performed in the framework of this research following to a combination of two methods : quantitative and qualitative
APA, Harvard, Vancouver, ISO, and other styles
18

Fanchon, Louise. "Autoradiographie quantitative d'échantillons prélevés par biopsie guidée par TEP/TDM : méthode et applications cliniques." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0018.

Full text
Abstract:
Au cours des dix dernières années, l’utilisation de l’imagerie par tomographie par émission de positrons (TEP) s’est rapidement développée en oncologie. Certaines tumeurs non visibles en imagerie anatomique conventionnelle sont détectables en mesurant l'activité métabolique dans le corps humain par TEP. L’imagerie TEP est utilisée pour guider la délivrance de traitements locaux tels que par rayonnement ionisants ou ablation thermique. Pour la délivrance de ces traitements, segmenter la zone tumorale avec précision est primordial. Cependant, la faible résolution spatiale des images TEP rend la segmentation difficile. Plusieurs études ont démontré que la segmentation manuelle est sujette à une grande variabilité inter- et intra- individuelle et est fastidieuse. Pour ces raisons, de nombreux algorithmes de segmentation automatiques ont été développés. Cependant, peu de données fiables, avec des résultats histopathologiques existent pour valider ces algorithmes car il est expérimentalement difficile de les produire. Le travail méthodologique mis en place durant cette thèse a eu pour but de développer une méthode permettant de comparer les données histopathologiques aux données obtenue par TEP pour tester et valider des algorithmes de segmentation automatiques. Cette méthode consiste à réaliser des autoradiographies quantitatives de spécimens prélevés lors de biopsies guidées par TEP/tomodensitométrie (TDM); l’autoradiographie permettant d’imager la distribution du radiotraceur dans les échantillons avec une haute résolution spatiale. Les échantillons de tissus sont ensuite finement tranchés pour pouvoir être étudiés à l’aide d’un microscope. L’autoradiographie et les photomicrographes de l’échantillon de tissus sont ensuite recalés à l’image TEP, premièrement en les alignant avec l’aiguille à biopsie visible sur l’image TDM, puis en les transférant sur l’image TEP. Nous avons ensuite cherché à utiliser ces données pour tester deux algorithmes de segmentation automatique d'images TEP, le Fuzzy Locally Adaptive Bayesian (FLAB) développé au Laboratoire de Traitement de l'Information Médicale (LaTIM) à Brest, ainsi qu’une méthode de segmentation par seuillage. Cependant, la qualité de ces données repose sur la précision du recalage des images TEP, autoradiographiques et des micrographes. La principale source d’erreur dans le recalage de ces images venant de la fusion des images TEP/TDM, une méthode a été développée afin de quantifier la précision du recalage. Les résultats obtenus pour les patients inclus dans cette étude montrent que la précision de la fusion varie de 1.1 à 10.9 mm. En se basant sur ces résultats, les données ont été triées, pour finalement sélectionner les données acquises sur 4 patients jugées satisfaisantes pour tester les algorithmes de segmentation. Les résultats montrent qu’au point de la biopsie, les contours obtenus avec FLAB concordent davantage avec le bord de la lésion observé sur les micrographes. Cependant les deux méthodes de segmentation donnent des contours similaires, les lésions étant peu hétérogènes
During the last decade, positron emission tomography (PET) has been finding broader application in oncology. Some tumors that are non-visible in standard anatomic imaging like computerized tomography (CT) or ultrasounds, can be detected by measuring in 3D the metabolic activity of the body, using PET imaging. PET images can also be used to deliver localized therapy like radiation therapy or ablation. In order to deliver localized therapy, the tumor border has to be delineated with very high accuracy. However, the poor spatial resolution of PET images makes the segmentation challenging. Studies have shown that manual segmentation introduces a large inter- and intra- variability, and is very time consuming. For these reasons, many automatic segmentation algorithms have been developed. However, few datasets with histopathological information are available to test and validate these algorithms since it is experimentally difficult to produce them. The aim of the method developed was to evaluate PET segmentation algorithms against the underlying histopathology. This method consists in acquiring quantitative autoradiography of biopsy specimen extracted under PET/CT guidance. The autoradiography allows imaging the radiotracer distribution in the biopsy specimen with a very high spatial accuracy. Histopathological sections of the specimen can then obtained and observed under the microscope. The autoradiography and the micrograph of the histological sections can then be registered with the PET image, by aligning them first with the biopsy needle seen on the CT image and then transferring them onto the PET image. The next step was to use this dataset to test two PET automatic segmentation algorithms: the Fuzzy Locally Adaptive Bayesian (FLAB) developed at the Laboratory of Medical Information Processing (LaTIM) in Brest, France, as well as a fix threshold segmentation method. However, the reliability of the dataset produced depends on the accuracy of the registration of the PET, autoradiography and micrograph images. The main source of uncertainty in the registration of these images comes from the registration between the CT and the PET. In order to evaluate the accuracy of the registration, a method was developed. The results obtained with this method showed that the registration error ranges from 1.1 to 10.9mm. Based on those results, the dataset obtained from 4 patients was judged satisfying to test the segmentation algorithms. The comparison of the contours obtained with FLAB and with the fixed threshold method shows that at the point of biopsy, the FLAB contour is closer than that to the histopathology contour. However, the two segmentation methods give similar contours, because the lesions were homogeneous
APA, Harvard, Vancouver, ISO, and other styles
19

Martel, Dimitri. "Spectroscopie 2D de corrélation quantitative : Méthode de quantification, études expérimentales et applications in vivo." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0004/document.

Full text
Abstract:
En spectroscopie de résonance magnétique (SRM) in vivo, les principales méthodes utilisées permettent la quantification des concentrations de métabolites en utilisant des signaux à une dimension spectrale. Les travaux réalisés dans le cadre de cette thèse portent sur le développement de méthodes de SRM à deux dimensions spectrales (SRM 2D) de corrélation localisée afin d’accroître le pouvoir de résolution spectrale et la précision de la quantification de la SRM in vivo. Le premier axe de cette thèse concerne le développement d’une méthode fondée sur la spectroscopie 2D de corrélation localisée pour l’exploration des métabolites cérébraux. La séquence L-COSY (spectroscopie de corrélation localisée) est implantée sur imageur petit animal et étudiée. Une procédure de quantification dédiée aux signaux de corrélation acquis est développée. Cette dernière opère dans le domaine d’acquisition du signal, et s’appuie sur : 1) une connaissance a priori forte obtenue par simulation de l’effet quantique des séquences sur les spins des composés présents dans le spectre 2) un modèle de pondération lié aux effets de relaxation agissant sur le signal de SRM 2D. 3) une contrainte sur la relaxation liée aux effets d’inhomogénéités supposés toucher tous les spins de la même manière. Les résultats présentés s’attachent à étudier les performances quantitatives de la SRM 2D de corrélation, en comparaison à la SRM 2D dite J-résolue (avec la séquence JPRESS), de manière expérimentale, sur fantômes de métabolites mais aussi à travers la théorie des bornes de Cramér-Rao (CRBs). La quantification des signaux L-COSY, bien que défavorisée par une perte théorique du rapport signal sur bruit par unité de temps, présente des CRBs théoriques relatives du même ordre de grandeurs voire, pour certains métabolites couplés (e.g la glutamine, le GABA) plus petites que celles correspondantes à la spectroscopie J-résolue pour un même temps d’acquisition. Le second axe de cette thèse porte sur l’adaptation la SRM 2D de corrélation pour l’étude in vivo du métabolisme lipidique du foie et des tissus adipeux sous-cutanés sur un modèle de souris obèse à 7T. Cette application inédite montre la faisabilité de la SRM 2D de corrélation à être acquise sur un tel organe mouvant et sa capacité à être quantitative pour l’étude et la caractérisation des triglycérides hépatiques et sous-cutanées
In in vivo Magnetic Resonance Spectroscopy (MRS), the main methods used allow metabolite concentration quantification using signals having one spectral dimension. This work focuses on the development of in vivo two dimensional correlated MRS in order to increase spectral resolution and quantification precision. The first axis is about the development of a method based on a 2D localized correlation MRS (L-COSY) for brain metabolite exploration. The L-COSY is implemented and studied on a small animal scanner. A dedicated quantification procedure operating in the acquisition domain is described. This latter is based on 1) a strong prior knowledge obtained by quantum mechanically simulate the effect of sequence on metabolite spin systems 2) a model function taking into account the relaxation weighting 3) constraints on the relaxation term linked to the field inhomogeneity effects which are assumed to act the same way on all the spins. Results are given experimentally using metabolites phantoms and through a comparison to other existing 2D MRS method, namely the J-resolved MRS (with the JPRESS sequence) using the Cramer Rao Lower Bounds (CRBs) theory. Although its inherent loss of signal to noise ratio is a disadvantage compared to J-PRESS, L-COSY quantification shows theoretically competitive relative CRBs, and even smaller CRBs for some coupled metabolites (e.g Glutamine or GABA), for an acquisition time similar to JPRESS. Second axis is about the adaptation of the 2D correlation MRS for the in vivo lipid metabolism study in the liver and subcutaneous adipose tissues of obese mice at 7T. This application shows the feasibility of 2D correlated MRS to be acquired on a moving organ and its quantitative relevance for triglyceride quantification and characterization in fatty liver and subcutaneous tissue
APA, Harvard, Vancouver, ISO, and other styles
20

Vera, Vincent. "Etude et développement d'une méthode rapide et quantitative pour évaluer les mélanges d'herbicides appliqués sur céréales." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30029.

Full text
Abstract:
L'utilisation de plus en plus importante des melanges de pesticides impose la mise en place de nouvelles methodes pour evaluer l'efficacite des nouveaux melanges. La methode des droites paralleles permet de comparer des courbes de reponse, issues de la realisation d'essais biologiques et de l'utilisation de l'equation logistique. Utilisee au danemark, aux pays-bas, au royaume-uni, elle permet d'evaluer l'efficacite d'un herbicide en fonction des conditions climatiques, de culture, d'application, etc. La recherche du parallelisme des courbe de reponses permet de quantifier, grace aux doses equivalentes et a l'efficacite relative, les differences observees entre les courbes. Elle permet aussi la detection de synergie, antagonisme ou additivite chez les melanges. Son utilisation sur le melange flupyrsulfuron-methyle/prosulfocarbe a permis de montrer que ce dernier ne presentait ni synergie ni antagonisme lorsqu'il etait pulverise sur lolium multiflorum l. (ray-grass) ou du ble tendre (triticum aestivum l. ). Une observation identique etait realisee avec le melange clodinafop-propargyl/diclofop-methyl sur l. Multiflorum. Quand un herbicide etait additionne d'un ou plusieurs adjuvants (par exemple une huile vegetale), les resultats ont permis de montrer qu'il etait alors possible de diminuer les doses employees. Ainsi, sur alopecurus myosuroides huds. (vulpin), l'addition d'une huile vegetale (actirob b) au diclofop-methyl permettait de diminuer la dose de 5,3 fois dans nos conditions d'experimentation. Une etude du flupyrsulfuron-methyle a aussi ete realisee au cours de ce travail. Elle montrait que sa penetration foliaire etait faible chez les graminees et qu'elle augmentait en presence de prosulfocarbe formule. L'efficacite de cette matiere active dependait des conditions de temperature et d'application (foliaire ou global). Enfin, en conditions controlees ou semi-controlees, l'efficacite observee etait plus basse qu'en conditions non controlees.
APA, Harvard, Vancouver, ISO, and other styles
21

Holste, Angela Sarah. "Développement des méthodes bio analytique pour l’analyse quantitative et qualitative des peptides et protéines marqués par le couplage de la chromatographie et la spectrométrie de masse." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3004/document.

Full text
Abstract:
Cette thèse est le résultat d’une cotutelle entre l'Université de Pau et des Pays de l'Adour (UPPA) à Pau, en France et l'Université Christian Albrecht (CAU) à Kiel, en Allemagne. Dans le cadre de cette collaboration internationale, des méthodes bio-analytiques sont développées pour analyser quantitativement et qualitativement des peptides et protéines marquées par le couplage de la chromatographie avec la spectrométrie de masse. Les peptides et les digestats des protéines sont marquées selon un protocole optimisé par des lanthanides en utilisant des composés à base de DOTA. La séparation des peptides est réalisée par IP-RP-nanoHPLC. Des données complémentaires sont acquises par MALDI-MS pour l'identification et par ICP-MS pour la quantification. Dans ce contexte, une étape de pré-nettoyage en ligne est développée et mise en œuvre dans le protocole de séparation par nanoHPLC. Cette étape permet l'élimination efficace des réactifs appliqués en excès et ainsi la diminution du bruit de fond lié à la présence de métaux lors des analyses par ICP-MS. Les données obtenues sont alors plus facile à interpréter, la sensibilité des signaux des peptides n’étant par ailleurs pas modifié. L'extraction en phase solide (SPE) appliquée comme alternative entraîne des pertes importantes de peptides et peut être considérée comme inadaptée pour l'analyse quantitative. Des additifs pour éluants de nanoHPLC, tels que l'EDTA et le HFBA sont testés et jugés non bénéfiques pour l'analyse des échantillons peptidiques normaux. HFBA peut être reconsidéré pour une application spéciale sur des peptides très hydrophiles. Des peptides marqués sont développés. Leur utilisation en quantité connue pourrait permettre la quantification rapide et simple d'un échantillon de digestat à faible complexité. De plus, cet ensemble de peptides permet la superposition fiable des chromatogrammes, et ainsi de comparer des données complémentaires obtenues par l’analyse d’échantillon par ICP-MS et MALDI-MS. Expériences d'application avec le couplage laser femtoseconde avec ICP-MS sont effectuées sur des plaques métalliques de MALDI MS et montrent des résultats très prometteurs. Pour cela, les échantillons préalablement identifiés par MALDI-MS sont analysés par fsLA-ICP-MS. Les premières tentatives de quantification sur la plaque en acier modifiée sont satisfaisantes et donnent des résultats répondant aux attentes. L’optimisation des paramètres de MALDI-MS facilite l’identification des peptides
This PhD thesis was a Cotutelle between the Université de Pau et des Pays de l’Adour (UPPA) in Pau, France and the Christian-Albrechts University (CAU) in Kiel, Germany. In the course of this international collaboration, bio-analytical methods for the quantitative and qualitative analysis of labelled peptides and proteins were developed, which were based on the hyphenation of chromatography with mass spectrometry. Peptides and protein digests were lanthanide labelled using DOTA-based compounds according to an optimised protocol. Separation on the peptide level was performed using IP-RP-nanoHPLC. Complementary data sets were acquired using MALDI-MS for identification and ICP-MS for quantification. In this context, an online precleaning step was developed and implemented in the nanoHPLC separation routine, which allowed for effective removal of excess reagents. This lead to lowered metal backgrounds during ICP-MS measurements and thus better data interpretability, while guarding peptide recovery at a maximum level. An alternative offline purification using solid phase extraction (SPE) resulted in important peptide losses and can be considered unsuitable for quantitative analysis. Additives to the nanoHPLC eluents, such as HFBA and EDTA were tested and not deemed beneficial for the analysis of normal peptide samples. HFBA can be reconsidered for special application on very hydrophilic peptide species. A set of labelled peptides was developed, which due to application of known quantities could be employed for quick and simple quantification of a low complexity digest sample. In addition this peptide set allowed for the reliable superposition of chromatograms, enabling sample comparability especially for complementary ICP-MS and MALDI-MS data. Experiments for application of fsLA-ICP-MS on MALDI-MS target plates were conducted and showed very promising results. For this purpose, samples that were already identified using MALDI-MS were supposed to be remeasured using fsLA-ICP-MS. First quantification attempts on the modified steel target plate were successful and in the range of expectance. Adjusted parameters for MALDI-MS allowed for proper peptide identifications
APA, Harvard, Vancouver, ISO, and other styles
22

Almeida, Mathieu. "Caractérisation de flores microbiennes intestinale humaine et fromagère par méthode de métagénomique quantative." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112076/document.

Full text
Abstract:
La flore microbienne est un ensemble de micro-organismes comme les bactéries, archées, eucaryotes inférieurs et virus, jouant un rôle important dans l’équilibre d’un écosystème. Cette flore reste encore mal définie car en 2012, seules ~30% des micro-organismes de la flore intestinale humaine étaient caractérisés, et moins de 50% des micro-organismes de la flore fromagère traditionnelle étaient caractérisés au niveau fonctionnel. Depuis 2006, les séquenceurs à ADN de seconde génération permettent d’analyser directement le contenu génique d’un prélèvement de flore sans contrainte d’isolement ou de culture. Toutefois, les séquences d’ADN générées ne sont pas structurées en génome et sont hautement fragmentées, freinant considérablement l’analyse et l’exploitation de ces données. Dans ce travail, nous avons développé de nouvelles méthodes dites de métagénomiques quantitatives, car elles permettent de regrouper les courtes séquences d’ADN ayant la même abondance au sein de plusieurs échantillons métagénomiques, pouvant provenir d’une même espèce microbienne.Au niveau du microbiote intestinal humain, nous avons structuré un catalogue de 3,9 millions de gènes de la flore intestinale humaine en 741 unités ou « clusters » correspondant à des génomes de bactéries, d’archées et d’eucaryotes, que nous appelons espèces métagénomiques (MGS) et 6640 unités correspondant principalement à des génomes de virus, plasmides et divers ilots génomiques comme des CRISPR, que nous appelons unités métagénomiques (MGU). Cette méthode de structuration a ensuite été utilisée pour faciliter des analyses d’associations de la composition de la flore intestinale avec des maladies humaines comme la maladie de Crohn, l’obésité ou le diabète de type 2. Enfin, au niveau des flores alimentaires, nos méthodes ont été utilisées pour constituer un catalogue de 134 génomes d’espèces bactériennes fromagères et caractériser la flore de surface de fromages traditionnels. Ceci nous a permis de détecter la présence de nouvelles bactéries alimentaires, pouvant enrichir la liste des bactéries à possible intérêt technologique dans les produits laitiers fermentés
The microbial flora is a micro-organism complex containing for example bacteria, archaea, lower eukaryotes and viruses, which play an important role in ecosystem equilibrium. This flora remains poorly defined as in 2012, only ~30% of the intestinal flora micro-organisms have been characterized, and less than 50% of traditional cheese floras were characterized at the functional level. Since 2006, the second generation of DNA sequencers have allowed the direct analysis of the genetic content from a microbial flora sample without isolation or culture limitation. However, the DNA reads generated are not structured with respect to genomes and also are highly fragmented, slowing down dramatically the exploitation and analysis of these data.In this work, a new methodology based on quantitative metagenomic are described., This allows the clustering of short DNA sequences with the same abundance in multiple metagenomic samples, which should originate from the same microbial species. A 3.9 million gene catalog has been built from the human intestinal tract microbiota and divided into 741 units or clusters corresponding to bacteria, archaea and eukaryote genomes. These have been defined as metagenomic species (MGS) and 6640 units of them corresponds mainly to viral genomes, plasmids and genetic islands like CRISPR, with the sub-name of metagenomic units (MGU). This methodology was then used to facilitate the association analysis of the intestinal flora composition with human diseases such as Crohn’s disease, obesity or type 2 diabetes. Within, the alimentary flora, our methods have also been used to constitute a 134 genomic catalog of cheese bacteria and characterize them from the surface of traditional cheeses. This allowed the detection of new alimentary bacteria, that will enriched the list of bacteria with potential interest for the commercial exploitation of fermented products
APA, Harvard, Vancouver, ISO, and other styles
23

Zhang, Xiaoyun. "Développement d'un système d'imagerie qualitatif et quantitatif microonde pour le contrôle de l'écoulement de l'eau dans une colonne de sol." Aix-Marseille 1, 2010. http://theses.univ-amu.fr.lama.univ-amu.fr/2010AIX11015.pdf.

Full text
Abstract:
Nous présentons une nouvelle méthode d’imagerie micro-ondes sondage qui vise à retrouver la variation de la teneur en eau du sol au niveau des racines des plantes. Dans cette technique, la permittivité diélectrique joue un rôle important. En effet, elle est directement liée à la teneur en eau du sol et de nombreux modèles liant la teneur en eau à la permittivité existent. D’un point de vue électromagnétique si l’on est capable de retrouver cette permittivité grâce à la résolution d’un problème inverse on sera alors à même de remonter aux cartes de teneur en eau dans le sol. La configuration bidimensionnelle d’étude que nous avons utilisée correspond à un dispositif d’imagerie microondes que nous possédons au laboratoire et qui permet de mesurer l’interaction d’une onde électromagnétique avec une colonne de sol bidimensionnelle. Ces études numériques nous ont permis de tester différentes méthodes d’imagerie qualitatives ou quantitatives. Les premières méthodes permettent d’obtenir très rapidement des informations sur le support de l’objet et nous avons pu comparer essentiellement trois méthodes : la Décomposition de l’Opérateur de Retournement Temporel, La méthode MUSIC (Multiple Signal Classification) et la LSM (Linear Sampling Method). Nous avons de plus proposé une extension de la méthode DORT pour des cibles étendues. Deux méthodes quantitatives, permettant de retrouver la valeur de la permittivité de l’objet diffractant et basées sur un algorithme de minimisation de type gradient conjugué sont aussi analysées. L’influence de l’apport d’information a-priori sur la nature du diffuseur est étudiée. Cette information est introduite en utilisant un formalisme de type fonction de niveaux où la permittivité de l’objet est représentée de manière globale. Afin de tester ces algorithmes, l'équation de Richards est résolue, les cartes de teneur en eau dans le sol sont stockées est convertie en cartes de permittivité utilisées ensuite dans l’outil de modélisation de diffraction. Des tests sur des données expérimentales acquises en laboratoire avec une colonne de sol reconstitué sont aussi éffectués
We present a new microwave probing technique which aims to monitor the variation of the soil water content at the depth of the crop roots. The dielectric permittivity plays a key role in this technique. Indeed, it is directly related to the soil water content and numerous models are formed to reveal their relationship. Meanwhile, it determines the interactions between the medium and the electromagnetic field which are governed by the Helmholtz equation. Besides, recovering the permittivity profile of the medium from the electromagnetic field is an inverse scattering problem. Therefore, one can access the map of water content in soil by solving an inverse scattering problem. A circular scanner which is designed for studying the 2D problem is employed to send and receiver back the electromagnetic signal which interacts with a soil column placed inside its cavity. The direct propagation problem corresponding to this configuration is formulated and solved with the FEM method. It serves to calibrate the imaging system and to generate the simulated data which will be useful to test the inversion methods discussed during this PhD work. In order to reduce the ill-posedness of the inverse scattering problem, we studied both qualitative imaging methods and quantitative ones. The support information of the scatterers provided by the qualitative methods may be of interest when used as an initial guess in the quantitative methods which can retrieve the refractive index of the medium. Three qualitative methods are studied, the DORT (Decomposition of the time reversal operator) method, the MUSIC (MUltiple-Signal-classification) method and the LSM (Linear sampling method) method. We also proposed the EDORT method which can cope with extended-size targets. Two quantitative methods based on the CG (Conjugate Gradient) minimization scheme are provided. The first one does not use any a priori information. The second one use some shape a priori information which is introduced into the inversion scheme by means of a modified Heaviside function coupled with a level set formalism. In order to test the ability of these inversion methods to monitor the variation of the soil water content, we simulate the water diffusive process in a soil column by solving the Richards equation and couple these simulations with the FEM software, and then the ‘measured’ fields with respect to time are obtained. The LSM method and the two quantitative methods are tested with this synthetic data. Besides, a controlled water diffusive process which occurs in a soil column was experimentally realized. The associated electromagnetic fields were measured using the circular scanner. The imaging results of the LSM method on the experimental data are also presented
APA, Harvard, Vancouver, ISO, and other styles
24

Coullomb, Alexis. "Développement de substrats actifs et d'une méthode d'analyse de FRET quantitative pour décoder la mécanotransduction." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAY044/document.

Full text
Abstract:
Les cellules vivantes sont capables de réagir aux signaux mécaniques tels que la rigidité de la surface sur laquelle elles adhèrent, les forces de tractions ou compressions auxquelles elles sont soumises, le flux de liquide à la surface de leur membrane ou encore la géométrie de leurs adhésions ou de leur forme globale. Ces signaux influent sur des processus cellulaires tels que la prolifération, la différenciation, la migration et la mort cellulaire. Ces processus sont finement régulés par des réactions biochimiques qui forment un réseau de signalisation. La mécanotransduction est la traduction du signal mécanique en signal biochimique.C’est dans le but d’étudier la mécanotransduction que nous avons étudié l’utilisation d’ultrasons pour stimuler mécaniquement les cellules à des fréquences temporelles et spatiales relativement élevées. De nombreux montages expérimentaux et de nombreuses voies ont été considérées dans cette partie très exploratoire. Nous en retenons finalement des pistes prometteuses pour la continuation future de ce projet.Nous avons développé ce que nous nommons des substrats actifs, qui nous permettent de contrôler à la fois spatialement et temporellement la stimulation mécanique appliquée à des cellules vivantes. Ces substrats actifs consistent en des micropiliers de fer incrustés dans un élastomère peu rigide (PDMS) et manipulés par deux électroaimants. Nous pouvons contrôler dynamiquement le déplacement des piliers qui vont déformer localement et de manière continue la surface. Cette déformation va ensuite déformer en traction ou en compression les cellules vivantes étalées sur la surface à proximité. En employant des marqueurs fluorescents nous pouvons réaliser de la Microscopie de Forces de Traction et surveiller la contrainte appliquée par les piliers aux cellules à travers la surface de PDMS, et nous pouvons étudier la réponse mécanique des cellules. De plus, ces substrats sont compatibles avec la microscopie de fluorescence en cellule vivante, ce qui rend possible l’observation de la réponse cellulaire au niveau morphologique (forme des adhésions focales, activité protrusive, …) et surtout biochimique.En effet, pour étudier la réponse biochimique des cellules après une stimulation mécanique, nous observons par microscopie de fluorescence des biosenseurs portant des paires de fluorophores donneur/accepteur. Ces biosenseurs nous permettent d’observer l’activité de protéines impliquées dans la signalisation cellulaire en calculant l’efficacité de Transfert d’Énergie Résonnant de Förster (FRET) de ces biosenseurs. Pour ce faire, les échantillons sont illuminés alternativement aux longueurs d’ondes d’excitation des fluorophores donneurs puis accepteurs. Le signal de fluorescence est collecté simultanément dans un canal d’émission du donneur et un canal d’émission de l’accepteur. Une grande partie de ma thèse a été consacrée à la mise au point d’une méthode quantitative pour analyser les images de fluorescence afin de mesurer une efficacité de FRET qui ne dépende pas de facteurs expérimentaux ni de la quantité de biosenseurs présents dans les cellules. Nous évaluons alors les différentes méthodes pour déterminer les facteurs de correction répandus corrigeant le débordement de spectre du donneur dans le canal accepteur et l’excitation directe de l’accepteur à la longueur d’onde d’excitation du donneur. Pour obtenir des mesures plus quantitatives, nous avons mis au point une nouvelles méthode pour déterminer 2 facteurs de correction supplémentaires. Nous comparons cette méthode à la seule préexistante et évaluons l’influence des paramètres de traitement des images sur les valeurs d’efficacité de FRET mesurées
Living cells can react to mechanical signals such as the rigidity of the surface they adhere on, the traction or compression forces applied on them, the liquid flow at their membrane surface or the geometry of their adhesions or of their overall shape. Those signals influence cellular processes such as proliferation, differentiation, migration or cell death. Those processes are tightly regulated by biochemical reactions that constitute a signaling network. Mechanotransduction is the translation of the mechanical signal into the biochemical one.In order to study mechanotransduction, we have considered the use of ultrasounds to mechanically stimulate cells at relatively high temporal and spatial frequencies. Numerous setups and options have been considered in this very exploratory project. Finally, we will retain some promising leads for the continuation of this project.We have developed what we call active substrates that allows us to control both spatially and temporally the mechanical stimulation on living cells. Those active substrates consist of iron micropillars embedded in a soft elastomer and actuated by 2 electromagnets. We can control dynamically the displacement of the pillar that will deform locally and continuously the surface. This deformation will then deform in traction or in compression the living cells spread on the surface nearby. Thanks to fluorescent trackers we can perform Traction Force Microscopy and monitor the stress applied by the pillars to the cells through the PDMS surface, and we can look at the mechanical response of the cells. Moreover, those substrates are compatible with live cell fluorescence microscopy, which makes possible the observation of the cellular response at the morphological level (focal adhesions, protrusive activity, …) and most importantly at the biochemical level.Indeed, in order to study the cellular biochemical response after a mechanical stimulation, we use fluorescence microscopy to observe biosensors containing pairs of donor/acceptor fluorophores. Those biosensors allow us to monitor the activity of proteins implied in cellular signaling by computing the Förster Resonance Energy Transfer (FRET) efficiency of those biosensors. To do so, samples are alternatively excited at donor and acceptor excitation wavelengths. The fluorescence signal is then simultaneously measured in donor and acceptor emission channels. A substantial part of my thesis has been dedicated to the development of a quantitative method to analyze fluorescence images in order to measure FRET efficiencies that do not depend on experimental factors or biosensors concentration in cells. We assess different methods to compute standard correction factors that account for spectral bleed-through and direct excitation of acceptors at donor excitation wavelength. To obtain more quantitative measurements, we have developed a new method to compute 2 additional correction factors. We compare this method with the only one preexisting, and we assess the influence of image processing parameters on FRET efficiency values
APA, Harvard, Vancouver, ISO, and other styles
25

Le, Duff Franck. "Enrichissement quantitatif et qualitatif de relations conceptuelles des bases de connaissances médicales par extraction et héritage automatique par des méthodes informatiques et probabilistes." Rennes 1, 2006. http://www.theses.fr/2006REN1B094.

Full text
Abstract:
Le projet de Système du Langage Unifié Médical (UMLS) vise à élaborer un entrepôt de termes, concepts et rapports entre concepts à partir de plusieurs classifications médicales. Cette thèse décrit la possibilité d'enrichir automatiquement avec des liens "sensés" la base de connaissances UMLS en employant la description des maladies d'autres bases de connaissance, dans notre cas l'ADM (Aide au Diagnostic Médical) et la SNOMED internationale. Malgré les contraintes et les difficultés pour qualifier les liens interconceptuels, les résultats prouvent qu'il est possible de trouver, de créer et de typer de nouveaux liens et de les intégrer ensuite automatiquement dans la base UMLS. Un des intérêts de ce travail est que l'étude automatisée des rapprochements entre bases pourrait être employé avec d'autres bases de connaissances comme des bases de données de systèmes experts et permettre la navigation sémantique dans un réseau de concepts actuellement encore trop dépourvu d'intelligence.
APA, Harvard, Vancouver, ISO, and other styles
26

Parret, Frederic. "Méthode d'analyse sélective et quantitative d'un mélange gazeux à partir d'un microcapteur à oxyde métallique nanoparticulaire." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2006. http://tel.archives-ouvertes.fr/tel-00012018.

Full text
Abstract:
Cette thèse a été effectuée dans le cadre dun contrat Européen « Nanosensoflex » au sein du laboratoire LAAS-CNRS de Toulouse, qui visait à améliorer la technologie capteur et à optimiser la sélectivité grâce notamment à un nouveau mode opératoire associé à une nouvelle technique de traitement des réponses. Pour cela, nous avons démontré expérimentalement que la forme de la réponse transitoire de ces capteurs, au cours de variations très rapides de température, était fonction du mélange gazeux environnant de manière très reproductible. Aussi, nous avons pu définir un profil thermique adapté à la détection du CO dans le mélange de NO2 et propane. Il comporte 6 paliers de température compris entre 100°C et 500°C et nexcède pas au total 12s. Par la prise en compte des formes et temps associés issus des réponses normalisées dun capteur et dune méthode multifactorielle, nous avons discriminé chaque mélange gazeux et quantifier le CO entre 1 et 200 ppm indépendamment du taux dhumidité.
APA, Harvard, Vancouver, ISO, and other styles
27

Parret, Frédéric. "Méthode d'analyse sélective et quantitative d'un mélange gazeux à partir d'un microcapteur à oxyde métallique nanoparticulaire." Phd thesis, Toulouse, INPT, 2006. http://oatao.univ-toulouse.fr/7430/1/parret.pdf.

Full text
Abstract:
Cette thèse a été effectuée dans le cadre d'un contrat Européen "Nanosensoflex" au sein du laboratoire LAAS-CNRS de Toulouse, qui visait à améliorer la technologie capteur et à optimiser la sélectivité grâce notamment à un nouveau mode opératoire associé à une nouvelle technique de traitement des réponses. Pour cela, nous avons démontré expérimentalement que la forme de la réponse transitoire de ces capteurs, au cours de variations très rapides de température, était fonction du mélange gazeux environnant de manière très reproductible. Aussi, nous avons pu définir un profil thermique adapté à la détection du CO dans le mélange de NO2 et propane. Il comporte 6 paliers de température compris entre 100°C et 500°C et n'excède pas au total 12s. Par la prise en compte des formes et temps associés issus des réponses normalisées d'un capteur et d'une méthode multifactorielle, nous avons discriminé chaque mélange gazeux et quantifier le CO entre 1 et 200 ppm indépendamment du taux d'humidité.
APA, Harvard, Vancouver, ISO, and other styles
28

Djerboua, Abdelatif. "Prédétermination des pluies et crues extrêmes dans les Alpes franco-italiennes : prévision quantitative des pluies journalières par la méthode des analogues." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0030.

Full text
Abstract:
Le but de ce travail, en première partie est de construire un atlas expérimental des précipitations extrêmes à pas de temps de 1 à 24 heures dans les Alpes franco-italiennes (Alpes françaises, le Piémont, la Ligurie). Les caractéristiques statistiques des précipitations extrêmes sont déterminées en ajustant soit une loi de Gumbel, soit par l’utilisation d’une méthode appelée TCEV, basée sur la régionalisation des paramètres statistiques de la loi. Ensuite, différentes méthodes d’interpolation spatiale (krigeage, régression multiple,…) sont utilisées. Ensuite, on compare, sur deux bassins versants proches des méthodes de calcul de prédétermination des crues, dont l’une utilise les méthodes sur les pluies (méthode du GRADEX), et l’autre méthode italienne VAPI utilise l’information donnée par les débits. Enfin, on présente une méthode de prévision quantitative des précipitations journalières (méthode des Analogues). Cette méthode a été appliquée en temps réel
APA, Harvard, Vancouver, ISO, and other styles
29

Klaes, Benjamin. "Nouvelle méthode d'imagerie 3D et d'analyse quantitative des défauts ponctuels et amas de défauts pour l'étude du vieillissement des matériaux." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR048.

Full text
Abstract:
Le microscope ionique à effet de champ est un instrument qui peut fournir une image de la surface d’un échantillon métallique à l’échelle atomique. La technique présente donc un intérêt en sciences de matériaux pour quantifier et caractériser les défauts cristallins les plus fins. L’échantillon utilisé se présente sous forme d’une pointe très fine portée à un potentiel de plusieurs kilovolts. L’image de la surface est obtenue par ionisation d’un gaz image sous l’effet du champ électrique régnant à l’extrémité de la pointe. Sous l’effet de ce champ électrique la pointe peut également être progressivement érodée pour permettre de réaliser une série d’images de l’échantillon à différentes profondeurs. L’objectif de ce travail est d’utiliser ces images pour obtenir une reconstruction 3D à l’échelle atomique de l’échantillon analysé. L’algorithme de post-traitement, développé dans ce travail, menant à la reconstruction 3D du volume est basé sur différents processus de traitement d’images. Les reconstructions faites sur un matériau pur (tungstène) donnent des résultats très encourageants. Dans les zones les mieux reconstruites, le rendement de détection atteint les 100% et les résolutions spatiales atteintes sont de 0.35Å dans la direction d’analyse et 1.25Å dans la direction orthogonale à la direction d’analyse. Quelques défauts, tels des joints de grain ou des cavités, ont pu être reconstruits et observés dans les volumes 3D. Des outils de détection et de caractérisation automatiques du réseau et des défauts cristallins ont également été développés
The field ion microscope is an instrument that can provide an image of the surface of a metallic sample at the atomic scale. The technique is therefore interest in materials sciences to quantify and characterized the finest crystalline defects. The sample used is a sharp needle carried at a potential of several kilovolts. The image of the surface is obtained by ionization of an image gas under the effect of the electric field at the apex of the tip. Under the effect of this electric field the tip can also be progressively eroded to allow a series of images of the sample at different depths. The objective of this work is to use these images to obtain a 3D reconstruction at the atomic scale of the analyzed sample. The post-processing algorithm, developed in this work, leading to the 3D reconstruction of the volume, is based on different image processing. Reconstructions made on a pure material (tungsten) give very encouraging results. In the best reconstructed areas, the detection efficiency reaches 100% and the spatial resolutions achieved are 0.35Å in the direction of analysis and 1.25Å in the orthogonal direction to the direction analysis. Some defects, such as grain boundaries or cavities, could be reconstructed and observed in the 3D volumes. Automatic detection and characterization tools for crystallographic lattice and defects were also developed
APA, Harvard, Vancouver, ISO, and other styles
30

Truc, Loïc. "Développement et application d'une méthode de reconstitution paléoclimatique quantitative basée sur des données polliniques fossiles en Afrique australe." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20200/document.

Full text
Abstract:
Idéalement située à la confluence entre climat tropical et climat tempéré, l'Afrique australe est une zone très sensible aux variations des conditions climatiques. Cette région fait cependant preuve d'un manque de données paléoclimatiques important, et les méthodes de reconstruction traditionnelles trouvent rapidement leurs limites face aux conditions particulières qui y sévissent. Les méthodes de reconstruction quantitatives communément employées se révèlent inutilisables face aux conditions d'aridité extrêmes qui ne permettent que très rarement l'accumulation et la préservation de pollen moderne et fossile et se confrontent également aux particularités de la végétation abritée par cette région. L'objectif de ces travaux de thèse vise à développer une méthode de reconstruction quantitative basée sur des données polliniques fossiles, à partir de la relation entre la distribution actuelle des taxons polliniques et le climat en Afrique australe. Nous avons développé une fonction de transfert utilisant les propriétés des fonctions de densité de probabilité (pdfs), permettant de transformer l'information contenue dans un assemblage pollinique en estimation quantitative du climat. En parallèle, cette étude a permis de développer une méthode permettant de sélectionner les espèces les plus probables à inclure dans chaque type pollinique qui compose un assemblage. Cette méthode de sélection des espèces (SSM) a permis de pallier la faible résolution taxonomique des données polliniques de cette région caractérisée par une biodiversité élevée et d'affiner la méthode des espèces indicatrices, afin de la rendre utilisable en Afrique australe. Cette méthodologie a été appliquée aux données polliniques du site de Wonderkrater (Afrique du Sud). Les résultats observés et leur comparaison avec ceux provenant de sites régionaux ont permis de déterminer que les températures estivales et hivernales étaient 6±2°C inférieure au cours du LGM et du Younger Dryas et que les précipitations au cours de la saison humide étaient 50% moins importantes qu'actuellement. Ces résultats montrent que les SST enregistrées dans le canal du Mozambique régissent les conditions hydrologiques du continent adjacent, en opposition avec la possible implication de l'ITCZ sous ces latitudes. Les résultats indiquent également que les deux tropiques montrent des tendances climatiques similaires au cours des derniers 20 000 ans. La méthode a ensuite été appliquée à un enregistrement pollinique provenant de la région du fynbos (Afrique du Sud). Les résultats ont montré les limites de la méthode au vu de la faible amplitude de reconstruction obtenue pour les températures entre le LGM et l'Holocène (~2°C). Les résultats ont néanmoins permis de mettre en évidence que les températures montraient un pattern similaire à celui observé en Antarctique. Nous avons également pu montrer que les périodes glaciaires coïncidaient avec les périodes les plus humides, en accord avec le modèle de Cockroft (1987). Ce modèle dérive du mécanisme de migration des « westerlies » vers l'équateur au cours des périodes glaciaires, en réponse au déplacement du vortex circcum polaire. Les travaux issus de cette thèse ont montré qu'il était possible d'utiliser la distribution actuelle des plantes pour estimer les variations quantitatives des changements climatiques passés, dans la plupart des configurations botaniques et climatiques rencontrées en Afrique australe. La méthode de sélection des espèces se révèle être un outil indispensable dans cette région de haute biodiversité. Ces travaux offrent des perspectives intéressantes dans cette zone actuellement dépourvue de reconstructions climatiques quantitatives. Cependant, les résultats émanant des deux cas d'études ont mis en évidence des faiblesses et des limites méthodologiques qui devront faire l'objet d'études supplémentaires afin d'en améliorer les performances
Located at the interface between tropical and temperate climate systems, southern Africa is a particularly sensitive region in terms of long-term climate change. However, few reliable paleoclimatic records exist from the region – largely as a result of the arid climate with precludes the preservation of wetland sequences - , and virtually no quantitative reconstructions are available.The aim of this thesis is to develop quantitative palaeoclimate reconstruction method based the relation between modern plant distributions and climate in southern Africa. We develop botanical-climatological transfer functions derived from probability density functions (pdfs), allowing for quantitative estimates of the palaeoclimatic variables to be calculated from fossil pollen assemblages. In addition, a species-selection method (SSM) based on Bayesian statistics is outlined, which provides a parsimonious choice of most likely plant species from what are otherwise taxonomically broad pollen-types. This method addresses limitations imposed by the low taxonomic resolution of pollen identification, which is particularly problematic in areas of high biodiversity such as many regions of southern Africa.This methodology has been applied to pollen record from Wonderkrater (South Africa). Results indicate that temperatures during both the warm and cold season were 6±2°C colder during the Last Glacial Maximum and Younger Dryas, and that rainy season precipitation during the Last Glacial Maximum was ~50% of that during the mid-Holocene. Our results also imply that changes in precipitation at Wonderkrater generally track changes in Mozambique Channel sea-surface temperatures, with a steady increase following the Younger Dryas to a period of maximum water availability at Wonderkrater ~3-7 ka. These findings indicate that the northern and southern tropics experienced similar climatic trends during the last 20 kyr, and highlight the role of variations in sea-surface temperatures over the more popularly perceived role of a shifting Intertropical Convergence Zone in determining long-term environmental trends.This method has also been applied to a pollen record from Pakhuis Pass, in the Fynbos Biome (South Africa). Results show the limitations of quantitative methods, with only unrealistically low amplitude being reconstructed between the Last Glacial Maximum and Holocene (~2°C). However, results indicate that the reconstructed temperature trends, if not amplitudes, are similar to trends observed in Antarctic ice core records. Further, in reconstructing past humidity, we show that over the last 18 kyr, cooler conditions appear to be generally wetter at the site. These results are consistent with Cockcroft model (1987), derived from equatorward shift of the westerlies resulting from expansions of the circum-polar vortex.This study shows the potential of using modern plant distributions to estimates past climate parameters in southern Africa, and the species selection method proves to be a useful tool in region with high biodiversity. This work provides a novel perspective in the region, where no quantitative paleoclimatic reconstructions have been available. However, results from Pakhuis Pass highlight some of the limitations of this methodology, which will be subject of future work in this promising field of inquiry
APA, Harvard, Vancouver, ISO, and other styles
31

Abraham, Grégory. "Etude et développement d'une méthode d'analyse par spectroscopie infrarouge appliquée à la pyrolyse d'hydrocarbures en conditions supercritiques et transitoires." Thesis, Orléans, 2009. http://www.theses.fr/2009ORLE2056/document.

Full text
Abstract:
Un système d'échangeur à contre-courant, utilisant un carburant –endothermique-, est envisagé pour répondre au refroidissement d’un super statoréacteur. La mesure du débit de carburant décomposé et chauffé ainsi que celle de la composition chimique est nécessaire. Ceci permettra de contrôler et optimiser le fonctionnement d’un tel moteur, puisque sa poussée est principalement déterminée par la nature et le débit des espèces brûlées. La mise en place d’une méthode de caractérisation du fluide fait l’objet de cette étude. L’utilisation d’un spectromètre infrarouge à transformée de Fourier permet une analyse non intrusive des produits de pyrolyse. Cette technique est associée à un banc expérimental permettant la dégradation thermique d’un hydrocarbure en condition supercritique (jusque 60 bar, de 550°C à 900°C). Une méthode est réalisée pour obtenir une mesure quantitative et en ligne des produits majoritaires de la phase gazeuse. Celle-ci est basée sur un étalonnage avec les gaz majoritaires (méthane, éthylène, éthane, propylène et propane) et un traitement quantitatif de type CLS (Classical Least Square). La méthode est ensuite appliquée à l’étude de la pyrolyse en condition supercritique de différents hydrocarbures (alcanes linéaires purs et kérosènes du commerce). Les résultats de cette méthode sont comparés à ceux donnés par une technique chromatographique, et présentent de bonnes concordances (généralement moins de 5 % d'écart). Une approche en transitoire de la décomposition du n-dodécane par spectroscopie infrarouge a permis de suivre qualitativement l’évolution des produits de pyrolyse
A system of heat hexchanger against the current, using an endothermic fuel, is considered to answer the cooling of a SCRAMJET engine. The measure of the mass flow rate of pyrolysed and heated fuel as well as the chemical composition is necessary. This will allow to control and to optimize the functioning of such engine, as his thrust is in most cases determined by the nature and the flow rate of burned species. This study bears on the development of a method of characterization of fluid. The use of a Fourier transformed infrared spectrometer allows a not interfering analysis of the products of pyrolysis. This technology is linked to an experimental bench allowing the thermal degradation of a hydrocarbon in supercritical condition (to 60 bar, from 550°C to 900°C). A method is accomplished to acquire a quantitative and online measure of the majority products of gaseous phase. This one is based on a calibration with majority gases (methane, ethylene, ethane, propylene and propane) and a quantitative treatment of CLS type (Classical Least Square). Method is then applied to study pyrolysis in supercritical condition of different hydrocarbons (linear alkanes and kerosenes of trade). The results of this method are compared with those given by a chromatographic technique, and introduce good agreement (less than 5 % of distance). An approach in transitional of the decomposition of the n-dodécane by infrared spectroscopy allowed to follow qualitatively the evolution of the pyrolysis products
APA, Harvard, Vancouver, ISO, and other styles
32

MALLARD, Fanny. "Développement d'une méthode d'évaluation quantitative des effets des projets d'infrastructures de transport terrestre sur les milieux naturels." Phd thesis, Ecole Centrale de Nantes (ECN), 2014. http://tel.archives-ouvertes.fr/tel-01006355.

Full text
Abstract:
Les Infrastructures de Transport Terrestre (ITT), c'est-à-dire les routes et les lignes ferroviaires, sont une des principales causes du déclin de la biodiversité. En France, les évaluations environnementales des projets d'ITT ont permis des progrès dans la prise en compte des impacts sur les milieux naturels, mais elles présentent des limites. Leur contenu est basé sur des données qualitatives prenant encore peu en considération les processus écologiques et leurs échelles spatio-temporelles. La thèse élabore trois méthodes complémentaires permettant le développement d'une évaluation quantitative des impacts des projets sur les milieux. Celles-ci sont définies suivant trois échelles écologiques, l'état prévisionnel des habitats, la sensibilité des écosystèmes, et l'organisation spatiale de l'écocomplexe dans le territoire. La première est basée sur un modèle spatio-temporel de taux de dégradation des écosystèmes. Elle identifie l'ensemble des effets potentiels des projets aux stades construction, exploitation et entretien afin d'en caractériser les effets majeurs. La seconde méthode élabore des indicateurs basés sur les impacts. La chaîne de causalité des effets sur les cibles de l'écosystème est quantifiée par l'algorithme PageRank® et identifie la plus pertinente pour la recherche d'indicateurs. Certains indicateurs, peu documentés dans la bibliographie internationale donnent lieu à des études de terrain sur les populations d'arthropodes, de rhopalocères et de chiroptères en milieu forestier. La troisième méthode replace les écosystèmes dans un paysage et propose la notion de coût écologique des projets. Le coût représente l'ensemble des vulnérabilités des milieux naturels traversés.
APA, Harvard, Vancouver, ISO, and other styles
33

Grandjean, Lapierre Émilie. "Enseignement et apprentissage autorégulé : une étude qualitative." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27496.

Full text
Abstract:
La présente recherche porte sur le développement de la gestion du temps en tant que composante de l'apprentissage autorégulé chez des élèves de cinquième et de sixième année fréquentant une école à pédagogie Montessori. Cette étude qualitative réalisée auprès de trois élèves, un de leur parent et leur enseignant nous permet de mettre en lumière le niveau actuel de développement de leur compétence de gestion du temps dans un contexte d'interaction autour d'un outil de gestion du temps inclut dans un plan de travail. La source et le mode de transmission des médiations établis par Buysse (2012a) sont analysés et permettent d'identifier les processus de monitoring et d'évaluation déjà intériorisées par les élèves et celles qui nécessitent encore le soutien de l'enseignant et/ou de l'outil.
APA, Harvard, Vancouver, ISO, and other styles
34

Dulais-Szkolnik, Florence. "Mise au point et validation d'une méthode de dosage d'acides aminés dans une pommade par HPLC." Bordeaux 2, 1997. http://www.theses.fr/1997BOR2P096.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Bamouni, Charles Karosy. "Décentralisation de l’éducation secondaire au Burkina Faso : perspectives et expériences d’appropriation des directeurs régionaux et des chefs d’établissements secondaires publics." Thèse, Université d'Ottawa / University of Ottawa, 2013. http://hdl.handle.net/10393/24117.

Full text
Abstract:
La recension des écrits tend à démontrer que la mise en œuvre réussie de la décentralisation dépend de l’appropriation du changement par les principaux acteurs. La présente étude exploratoire et qualitative vise à explorer l’appropriation de la réforme de décentralisation auprès des cadres scolaires du ministère des enseignements secondaires et supérieur du Burkina Faso. L’analyse a porté sur la manière dont les participants intègrent les « réalités substantielles » de la décentralisation dans leur gestion quotidienne et s’attache à répondre à la question suivante : Comment les directeurs régionaux et les chefs d’établissements secondaires publics du Burkina Faso s’approprient leurs prérogatives et actualisent leurs pratiques de gestion ? Le but de la recherche étant de comprendre le vécu et le ressenti des cadres scolaires, la collecte des données s’est faite selon diverses techniques qualitatives, entrevue semi-directive, observation et collecte de documents d’archives, auprès de huit participants. L’analyse des données a permis de découvrir que les participants adhèrent aux réformes de décentralisation. Ils perçoivent de façon pertinente leur démarche appropriative. Les principaux aspects liés à l’appropriation du changement se rapportent à : a) une bonne connaissance des textes, des personnes et de soi; b) un développement de nouvelles compétences et attitudes; c) et un ajustement perpétuel aux exigences nouvelles et au contexte. Il ressort de l’analyse comparée de l’appropriation et de la mise en œuvre de la décentralisation des récurrences convergentes et divergentes entre les participants. De façon plus détaillée, les résultats indiquent que leur démarche appropriative est sous-tendue par des facteurs individuels, législatifs et contextuels. Cette recherche contribue également à informer le monde scientifique et les décideurs politiques sur les difficultés qu’éprouvent les cadres scolaires en matière de gestion et d’appropriation du changement. À cet égard, elle retrace la manière dont les participants à l’étude y font face.
APA, Harvard, Vancouver, ISO, and other styles
36

Coron, Clotilde. "L’appropriation, les effets et l’évolution des politiques d’égalité professionnelle entre les femmes et les hommes dans les grandes entreprises : combiner les approches qualitative et quantitative pour appréhender ces politiques." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC0054/document.

Full text
Abstract:
Réalisée dans le cadre d’un contrat CIFRE, cette thèse étudie la construction, l’appropriation et les effets de la politique d’égalité professionnelle entre les femmes et les hommes chez Orange. Mobilisant la perspective appropriative des dispositifs de gestion enrichie par le concept de logiques institutionnelles, ce travail repose sur un matériau riche et varié : entretiens, données RH, séquences d’observation, documents internes, notamment. Nous montrons que la coexistence de plusieurs conceptions de l’égalité professionnelle au sein de l’entreprise structure fortement l’application de la politique au niveau local, mais également sa construction, qu’il s’agisse de l’accord d’entreprise ou de la politique non négociée. L’analyse conjointe de l’application de la politique et de ses effets, permise par la combinaison de matériaux et de méthodes qualitatifs et quantitatifs, nous donne de plus l’opportunité de comprendre les effets quantifiables (ou l’absence d’effets quantifiables) d’une mesure à l’aune de la manière dont elle est appliquée au niveau local. Nous mettons enfin en exergue les spécificités de la négociation sur l’égalité professionnelle par rapport à d’autres négociations, dues notamment à la transversalité de l’égalité professionnelle à de nombreux processus RH ; et nous soulignons l’importance de la coexistence et de l’articulation de l’accord d’entreprise et de la politique non négociée sur l’égalité professionnelle
This thesis, written while working under a CIFRE contract, studies the construction, the implementation and the effects of the gender equality policy at Orange. Using the appropriative perspective of management tools enriched by the concept of institutional logics, this work is based on various data, in particular: interviews, HR data, observations, internal documents. We show that the coexistence of various conceptions of gender equality within the company strongly affects the implementation of the gender equality policy within the entities, but also its construction, for both the collective bargaining agreement and the non-negotiated policy. The joint analysis of the implementation and of the effects of the policy, made possible by a mixed-method design, allows us to understand the quantifiable effects (or the absence of quantifiable effects) of a measure according to the way it is implemented within the entities. We underline the specificities of the collective bargaining about gender equality, notably due to the fact that gender equality cuts across various HR processes. Finally, we show the importance of the coexistence and articulation of the collective bargaining agreement and non-negotiated gender equality policy
APA, Harvard, Vancouver, ISO, and other styles
37

Mansilla, Juan Camilo. "Résistance culturelle hybride des jeunes des quartiers populaires à l’ère du numérique : étude de cas et analyse quali-quantitative comparée (AQQC-QCA) de Medellin, Paris et Sao Paulo." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCA123/document.

Full text
Abstract:
À partir d’une analyse quali-quantitative comparée (AQQC-QCA), conçue par Ragin (1987), nous proposons un modèle théorique sur l’émergence et la transmission des pratiques de résistance culturelle des jeunes des quartiers populaires de Medellín (Colombie), Paris (France) et São Paulo (Brésil). Nos résultats indiquent que les pratiques de résistance culturelle hybride de ces jeunes se produisent selon deux scénarios. Le premier (i.e., M[P+A] → R) apparaît lorsque des communautés morales à forte identité collective (i.e., dont les membres ne sont pas nécessairement localisés dans la même zone géographique) se nourrissent des flux d’information de stigmatisation en provenance de la sphère médiatique centrale de la ville (SMCV), et disposent soit de ressources informationnelles offertes par la mise en place de politiques publiques d’intervention populaire, soit d’un accès libre et répandu aux technologies d’information et communication liées à Internet (TICi). Le second (i.e., OA → R), émerge lorsque l’utilisation des TICi par ces jeunes augmente et qu’ils ont la perception que le gouvernement ne s’intéresse pas à eux, à leurs demandes et besoins. Le contexte actuel globalisé d’échanges présentiels/virtuels d’informations a) modifie les réseaux culturels hybrides des communautés morales, et ; b) construit l’expérience urbaine des individus à partir d’espaces publics hybrides. Notre proposition théorique sert, plus largement, à comprendre l’évolution de la « symbole-sphère » des communautés morales périphériques de la ville à l’ère du numérique, ainsi que la nature de l’information développée par Schumann et Logan (2005) et Logan (2012)
Based on a qualitative comparative analysis (QQA), a method developed by (Ragin, 1987), we propose a theoretical model of the emergence of transmission of the cultural resistance practices of the low income youth from popular neighborhoods of Medellín (Colombia), Paris (France) and São Paulo (Brazil). Our results indicate that the cultural resistance practices of this population appears in two different settings. The first one (M[P+A] → R) happens when the moral communities (that is, not necessarily located in the same geographical area) reach a strong cultural identity, feeds on stigmatizing information flows from the central media sphere of the city (SMCV), and have either information resources offered by the set of public policies of popular intervention or widespread and free use of information and communication technologies related to the Internet. The second one (OA → R), occurs when the use of the TICs by this youth wins density following the growing perception that the government is not interested in attending theirs demands and needs. The current context of global exchange of real and virtual information a) modifies the cultural hybrid networks associated with moral communities and b) builds an urban experience of individuals starting with hybrid public spaces. Our theoretical proposition serves a better understanding of the evolution of the symbolosphere of the peripheral moral communities in the cities of the digital age and the nature of the information as developed by Schumann et Logan (2005) et Logan (2012)
A partir de un análisis cualitativo comparado (QCA), método concebido por Ragin (1987), proponemos un modelo teórico sobre la emergencia y la transmisión de las prácticas de resistencia cultural de los jóvenes de barrios populares de Medellín (Colombia), Paris (Francia) et São Paulo (Brasil). Nuestros resultados indican que las prácticas de resistencia cultural híbrida de estos jóvenes se producen en dos escenarios. El primero (M[P+A] → R) aparece cuando las comunidades morales (i.e., no necesariamente ubicadas en la misma zona geográfica) con una fuerte identidad colectiva, se alimentan de flujos de información estigmatizantes procedentes de la esfera mediática central de la ciudad (SMCV), y disponen ya sea de recursos informacionales ofrecidos por la existencia de políticas públicas de intervención popular, o bien de un acceso generalizado y libre a las tecnologías de la información y la comunicación relacionadas con Internet (TICi). El segundo (OA → R) emerge cuando el uso de las TICi por parte de estos jóvenes aumenta y tienen la percepción de que el gobierno no se interesa en ellos, ni en sus demandas ni en sus necesidades. El contexto global actual de intercambio presencial y virtual de información a) modifica las redes culturales híbridas asociadas a las comunidades morales, y; b) construye la experiencia urbana de los individuos a partir de espacios públicos híbridos. Nuestra propuesta teórica sirve, de manera general, para entender la evolución de la “simbolosfera” de las comunidades morales periféricas urbanas en la era digital, así como la naturaleza de la información propuesta por Schumann et Logan (2005) et Logan (2012)
Com base em uma análise qualitativa comparativa ou “Qualitative Comparative Analysis” (QCA), método desenvolvido por (Ragin, 1987), propomos um modelo teórico da emergência e da transmissão de práticas de resistência cultural entre jovens de baixa renda em territórios populares de Medellín (Colômbia), Paris (França) e São Paulo (Brasil). Nossos resultados indicam que as práticas de resistência cultural híbrida desses jovens seguem dois roteiros. O primeiro (M[P+A] → R), quando as comunidades morais (ou seja, não necessariamente localizados na mesma área geográfica) alcançam forte identidade coletiva, alimenta-se de fluxos de informação estigmatizantes oriundos da esfera de mídia central da cidade (SMCV) e dispõem seja de recursos de informação oferecidos pelo conjunto de políticas públicas de intervenção popular, seja de um aceso generalizado e livre as tecnologias de informação e comunicação relacionadas à Internet (TICi). O segundo (OA → R), quando o uso das TICs por esses jovens ganha densidade na medida em que amadurecem a percepção de que o governo não está interessado em atender suas demandas e necessidades. O atual contexto global de troca presencial e virtual de informações a) modifica as redes culturais híbridas associadas a comunidades morais e b) constrói a experiência urbana de indivíduos a partir de espaços públicos híbridos. Nossa proposta teórica serve, mais amplamente, para entender a evolução da “simbolosfera” das comunidades morais periféricas das cidades na era digital e a natureza da informação tal como desenvolvida por Schumann e Logan (2005) e Logan (2012)
APA, Harvard, Vancouver, ISO, and other styles
38

Martial, Frédérique. "Détection et évolution des additifs du polypropylène à l'aide de la SFC et du couplage SFE/SFC : influence sur les propriétés physiques du polypropylène." Rouen, 1995. http://www.theses.fr/1995ROUES050.

Full text
Abstract:
Le polypropylène (PP) est un matériau polyvalent de plus en plus utilisé. Pour éviter qu'il se dégrade rapidement, on lui ajoute des additifs de stabilisation. Au cours du temps, ils sont consommés et on observe parallèlement le vieillissement du PP qui se caractérise par une évolution de ses propriétés. L'objectif de nos travaux était de relier la disparition des additifs avec l'évolution des propriétés mécaniques du PP vieilli, dans le but de prévoir son temps de vie en fonction de sa stabilisation et d'appliquer ces résultats au problème du recyclage. Nous avons dans un premier temps optimisé une méthode d'extraction et d'analyse des additifs en utilisant le couplage SFE/SFC (extraction par fluide supercritique/chromatographie par fluide supercritique). L'étude de l'influence des différents paramètres nous a permis de mettre au point une technique de caractérisation fiable et reproductible et d'obtenir des rendements d'extraction appréciables. Nous avons dans un deuxième temps appliqué cette technique à l'évolution d'un antioxydant contenu dans le polypropylène. Nous avons d'une part étudié la disparition de l'additif par couplage SFE/SFC, et d'autre part suivi les propriétés mécaniques du PP au cours de son vieillissement thermique. Des corrélations entre allongement et contrainte à la rupture avec la concentration en additif ont été établies et peuvent être utilisées dans le cadre du recyclage du PP. Les différents résultats obtenus nous ont donc permis d'atteindre notre objectif pour l'antioxydant étudié
APA, Harvard, Vancouver, ISO, and other styles
39

Mesradi, Mohammed Reda. "Mesures expérimentales et simulation Monte Carlo de la fonction de réponse d'un détecteur Si(Li) : application à l'analyse quantitative multi-élémentaire par XRF et PIXE." Strasbourg, 2009. http://www.theses.fr/2009STRA6188.

Full text
Abstract:
Dans le but de diversifier les chaines de mesures quantitatives dans le group RaMsEs, les méthodes d’analyse XRF (X-ray fluorescence) et PIXE (Particle Induced X-ray Emession) ont été développées pour la mesure des échantillons environnementaux. Dans une grande partie de ce travail de thèse la simulation Monte-Carlo a été utilisée pour valider l’ensemble des résultats expérimentaux. La methode XRF a été utilisé a l’aide d’une source radioactive d’241Am émettant des rayonnements Gamma de 60 keV. La methode PIXE est développée a l’aide d’un accélérateur 4 MV de type Van de Graaff, qui délivre des protons d’énergies entre 2 et 4 MeV auprès du laboratoire InESS (Institut d'Electronique du Solide et des Systèmes) à Strasbourg. La détermination de la composition de l’échantillon est base sur la mesure des rayonnements de fluorescence X émis par ce dernier a l’aide du détecteur Si(Li). Pour la methode XRF l’auto-absorption des rayonnements de fluorescence a été déterminée expérimentalement par la methode décrite dans [Leroux et al. , 1966; Tertian and Claisse, 1982], est vérifiée par simulation en utilisant les deux codes MCNP et GEANT. Pour PIXE l’auto-absorption est déterminée par MCNP. L’efficacité intrinsèque du détecteur a été déterminée par trois méthodes : avec des sources radioactives, XRF en utilisant la source d’ 241Am et PIXE par des protons de 2 et 3. 8 MeV. Les résultats expérimentaux ont été comparé avec des calcules effectuée par MCNP et GEANT
In order to diversify the analytical capabilities of the RaMsEs group by the X-ray fluorescence methods XRF and PIXE, quantitative analyses are being developed for environmental samples. Monte Carlo simulations are being used to validate some of the results. The XRF experiments are being performed using 241Am as the primary source of electromagnetic radiation. PIXE experiments are done with protons delivered by the 4 MV Van de Graaff accelerator of the Institut d'Electronique du Solide et des Systèmes (InESS) Laboratory of Strasbourg. Determination of the elemental composition of a sample is based on the measurement of X-rays emitted by the elements present in the sample in conjunction with the detector response and, for all except thin targets, the self-absorption of X-rays in the target (matrix effect). In XRF the self-absorption was experimentally determined by a method described in [Leroux et al. , 1966; Tertian and Claisse, 1982] and by simulations with the MCNP code. For PIXE the self-absorption was determined by MCNP. The intrinsic efficiency of the Si(Li) detector has been determined by three methods: with calibrated radioactive sources, XRF by 241Am of metal foils and PIXE with 2 and 3. 8 MeV protons. The experimental results were comforted with MCNP and GEANT simulations
APA, Harvard, Vancouver, ISO, and other styles
40

Clément, Valérie. "Mise au point et validation d'une méthode quantitative pour évaluer le nombre de copies de régions chromosomiques spécifiques (CNV) dans de grands échantillons." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27987/27987.pdf.

Full text
Abstract:
Dans le génome humain, les variations génétiques se présentent, entre autres, sous forme de polymorphismes ponctuels (SNP), de microsatellites ou de moyennes ou grandes délétions et/ou duplications, appelées CNV pour copy-number variant. L’ensemble de ces variations contribue en partie aux différences phénotypiques normales de la population en général. Mais aussi elles peuvent être à l’origine de pathologies héréditaires ou à composante génétique. OBJECTIF : L’objectif de mes travaux était de mettre au point une méthodologie simple et efficace pour déterminer le nombre de copies de régions chromosomiques, connues pour être variables, dans un grand échantillon d’individus. MÉTHODE : La recherche des régions cibles dans la base de données des variations génomiques (http://projects.tcga.ca/variation/) a permis d’identifier les coordonnées chromosomiques des sites variables d’intérêt. Parmi soixante gènes ou régions sélectionnés, nous avons identifié vingt CNVs à étudier. Le Multiplex Ligation-dependent Probe Amplification (MLPA) (une méthode de quantification du nombre de copies pour les régions chromosomiques ciblées) a été développé pour chacun des marqueurs CNVs et un échantillon de 30 individus canadiens français a été testé pour vérifier si une fréquence d’au moins 5% était observée dans cette population. CONCLUSION : Le MLPA s’est avéré très sensible, ayant une bonne reproductibilité et facile à utiliser pour tester plusieurs séquences en multiplex. Les résultats obtenus ont été validés avec succès par PCR quantitative (TaqMan®). Nous avons donc adapté, optimisé et standardisé cette méthode pour l’étude des CNVs dans un grand échantillon d’individus. Pour faciliter l’analyse des résultats générés, un outil Excel® a été développé pour automatiser les calculs nécessaires à l’obtention d’un ratio du nombre de copies pour un locus donné. Finalement, six CNVs présentant une fréquence supérieure à 5% ont été analysés dans un échantillon de 715 femmes canadiennes françaises dans le cadre d’un projet sur les marqueurs génétiques de l’ostéoporose.
APA, Harvard, Vancouver, ISO, and other styles
41

Voznyuk, Ivan. "Méthodes de décomposition de domaines pour la modélisaton électromagnétique et l'imagerie micro-onde quantitative dans des configurations tridimensionnelles de grande taille." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4732/document.

Full text
Abstract:
Cette thèse porte sur la modélisation des ondes électromagnétiques en milieu complexe et à haute fréquence. Ceci reste un défi, de part les besoins en temps de calcul et en place mémoire que cela suscite. L'idée de la méthode Finite Element Tearing and Interconnect (FETI) est de diviser le domaine en sous-domaines distincts dans lesquels des problèmes électromagnétiques peuvent être résolus de manière indépendante. Une modification de la méthode classique, appelée FETI-DPEM2-full, est ici proposée afin d'améliorer le processus numérique. Les champs diffractés par différents objets ont ainsi été simulés et comparés avec succès à des champs expérimentaux. A partir de ces champs, les techniques d'imagerie micro-onde permettent de déterminer les paramètres électromagnétiques des objets illuminés. Ce problème inverse peut être réécrit sous la forme d'un problème d'optimisation faisant appel à la résolution de deux problèmes directs à chaque itération. Une méthode de type quasi-Newton a donc été couplée efficacement avec la méthode FETI-DPEM2-full. Des reconstructions obtenues à partir de champs mesurés sont présentées et valident la chaîne méthodologique proposée
This PhD work is devoted to the electromagnetic modeling of threedimensional large-scale wave propagation problems, which is very challenging in terms of memory and computation time. The main idea of the Finite Element Tearing and Interconnect (FETI) method is to divide the domain into non-overlapping subdomains where each electromagnetic problem can be independently solved. A modification of the classical FETI method, called the FETI-DPEM2-full method, is proposed herein to improve the numerical process. The fields scattered by various structures have thus been computed and successfully compared with measured fields. From these experiments, quantitative microwave imaging algorithms attempt to estimate the physical parameters of the illuminated target. This inverse problem is recasted into a minimization problem where two forward problems are required at each iteration step. A quasi-Newton algorithm has thus been efficiently coupled with the FETI-DPEM2-full method. Reconstructions of various targets from measured scattered fields have been successfully performed, which validates the effectiveness of the proposed methodology
APA, Harvard, Vancouver, ISO, and other styles
42

Al, Chami Jamal. "Développement d'une méthode d'extraction séquentielle de 36 composés phénoliques et 16 hydrocarbures aromatiques polycycliques à partir d'échantillons atmosphériques." Strasbourg, 2011. http://www.theses.fr/2011STRA6131.

Full text
Abstract:
Les hydrocarbures aromatiques polycycliques (HAP) sont des polluants organiques persistants émis dans l’atmosphère par de nombreux processus de combustion. Ils sont particulièrement étudiés en raison de leur potentiel cancérigène et mutagène. Les phénols fonctionnalisés (chloro- et nitrophénols principalement) sont rejetés dans l’atmosphère du fait de leur utilisation comme pesticides. Ils peuvent aussi provenir des combustions de déchets, du charbon, du bois et des émissions des véhicules diesel. Bien que certains d’entre eux soient toxiques pour l’homme et les végétaux, ils ne sont que très peu étudiés en France. Dans ce contexte, cette étude a pour objectif d’élaborer une méthode séquentielle d’extraction accélérée par solvant pressurisé à partir de la résine XAD-2 dopée. La première étape est l’extraction de 36 composés phénoliques avec de l’eau chaude alcaline à 150 °C, ensuite, l’extraction de 16 HAP se fait avec un mélange de n-hexane-acétone à 105 °C. Les composés phénoliques sont concentrés par micro-extraction sur phase solide, suivie d’une dérivation par silylation dans l’injecteur d’un chromatographe en phase gazeuse couplé à un spectromètre de masse pour l’analyse. Les HAP sont quantifiés par chromatographie liquide à détection par fluorescence. L’optimisation de la méthode d’extraction a permis d’obtenir des taux de recouvrement satisfaisants : 74-109% (chlorophénols), 60-101% (nitrophénols) et 85-114% (HAP). De plus, la méthode d’analyse validée est rapide, sélective, fiable et sensible avec des limites de détection de 0,03-26 ng. ML-1. Grâce à une consommation minimale de solvants organiques, la méthode est également moins polluante de l’environnement
Polycyclic aromatic hydrocarbons (PAH) are persistent organic pollutants. They are emitted into the atmosphere by many combustion processes and they have been particularly studied due to their potential carcinogenic and/or mutagenic properties. Functionalized phenols (e. G. Chloro- and nitro-phenols) are released into the atmosphere because of their use as pesticides. They can also be emitted from diesel engines, waste incineration, coal and wood combustions. Some of them are known or suspected to be highly toxic to human health and plants. However, they are poorly studied in France. In this laboratory study, accelerated solvent extraction was used for the sequential extraction of 36 phenolic compounds and 16 PAH from spiked XAD-2 resin. The procedure is based on hot alkaline water extraction (150 °C) of polar phenolic compounds, followed by acetone-n-hexane (1:1, v/v) extraction of PAH at 105 °C. The phenolic compounds in the aqueous extract are preconcentrated onto solid-phase microextraction fiber, followed by desorption and injection-port derivatization prior to gas chromatography analysis with mass spectrometry detection. The PAH, included in the second fraction, are preconcentrated by rotary evaporator and analyzed by liquid chromatography with fluorescence detection. Optimization of the extraction method allowed achieving high recoveries: 74-109% (chlorophenols), 60-101% (nitrophenols) and 85-114% (PAH). The validated analytical procedure is fast, selective, reliable and sensitive with detection limits of 0. 03-26 ng. ML-1. Furthermore, the method is environmentally friendly, as it consumes much less harmful organic solvents compared to conventional extraction methods
APA, Harvard, Vancouver, ISO, and other styles
43

Morillon, Laurent. "Contribution à la maitrise de la qualité des documents de communication interne : Une méthode d'écoute pour l'identification du besoin et le retour d'expériences." Valenciennes, 2000. https://ged.uphf.fr/nuxeo/site/esupversions/8e6ae0ea-27d7-405d-a36f-14054bb4b035.

Full text
Abstract:
Les entreprises françaises, depuis la crise profonde qu'elles ont traversée dans les années 90, cherchent plus que jamais à mobiliser leur personnel. Le service de communication interne dont la principale mission est la motivation et la fédération des salariés se trouve des lors particulièrement sollicité. Mais la crise a souligné les limites d'une communication interne qui ne parvient plus à satisfaire les attentes de ses utilisateurs, à savoir la direction et les salaries de l'entreprise. Pour atteindre les objectifs qui leur ont été fixés, les services de communication interne doivent replacer leurs utilisateurs au centre des processus de conception, de production et d'exploitation des documents de communication. Or, que ce soit pour l'identification du besoin dans la phase de conception ou pour le retour d'expériences dans celle d'exploitation, les méthodes complètes et rigoureuses manquent. Le travail présenté dans ce mémoire propose donc une méthode d'écoute des utilisateurs, à développer en interne, susceptible d'apporter aux charges de communication les informations leur permettant d'accroitre la qualité des documents de communication interne générale. Cette méthode, pour s'adapter aux exigences de la communication, adopte une approche qualitative. Elle associe les entretiens individuels et l'analyse thématique qualitative de contenu. Cette méthode d'écoute a fait l'objet entre 1997 et 2000 d'une dizaine d'expérimentations au sein de la direction de la communication interne de Castorama, une entreprise française de grande distribution. Elle a ainsi apporté la preuve de son opérationnalité et de son efficacité dans l'amélioration de la qualité des documents.
APA, Harvard, Vancouver, ISO, and other styles
44

Trauchessec, Mathieu. "Développement d'une méthode de quantification absolue et multiplexe par spectrométrie de masse, pour les enzymes du métabolisme central d'Escherichia coli : application à des problématiques d'ingénierie métabolique." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENV081/document.

Full text
Abstract:
L'ingénierie métabolique vise à développer des souches très performantes permettant de produire des composés d'intérêts. Pour cela, des modèles de prédiction des flux métaboliques sont développés (GEMs = GEnome-scale Models), intégrant un ensemble de données OMICS. En particulier, l'estimation des quantités exactes d'enzymes est cruciale afin de déterminer les paramètres cinétiques, mais reste difficile à obtenir de manière multiplexe et exacte. Ces travaux de doctorat ont permis de développer une méthode analytique afin de générer des données protéomique quantitative exactes et multiplexes, basée sur l'utilisation de protéines standards couplée à une technique de spectrométrie de masse appellée « Selected Reaction Monitoring ». Cette méthode analytique a été appliquée à une souche référence et deux souches modifiées d'E. coli, optimisées pour produire des quantités élevées de NADPH. Les résultats obtenus démontrent que ce type de données, couplées à des données de flux, permettent de distinguer différents niveaux de régulation, soit au niveau de la quantité d'enzyme, soit de l'activité enzymatique. De plus, la mesure exacte et multiplexe des quantités d'enzyme est une avancée technique majeure dans le développement de modèles prédictifs dynamiques en ingénierie métabolique
Metabolic engineering aims at designing high performance strains to produce compounds of interest. For this purpose and to predict metabolic fluxes, GEnome-scale Models (GEMs) are developed, integrating multi-OMICS experimental data. Particularly, accurate enzymes amounts are crucial data to determine kinetic parameters but remain difficult to obtain in a multiplexed and accurate fashion. In this Ph.D work we developed a highly accurate and multiplexed workflow for generating quantitative proteomic data, using full length protein labelled standards coupled to a mass spectrometry-based technique called Selected Reaction Monitoring. This workflow was applied to E. coli strains: a wild-type strain and two other strains optimized for higher NADPH production. Results demonstrated that such data combined with measurements of metabolic fluxes, allow apprehending different levels of regulation, namely enzyme abundance and activity. In addition, accurate measurement of enzyme concentration is a key technology for the development of predictive kinetic models in the context of metabolic engineering
APA, Harvard, Vancouver, ISO, and other styles
45

Sway, Cortés Ricardo. "Proposition d'une méthode pour la représentation et l'interprétation de la dynamique de projets socio-techniques en agronomie : application au cas des serres." Montpellier, ENSA, 2003. http://www.theses.fr/2003ENSA0015.

Full text
Abstract:
Au moyen d'une démarche de recherche qualitative, un outil d'analyse et de représentation de la dynamique des projets socio-techniques dans le monde agricole, cas des serres en particulier, a été construit. Il a la forme d'un tableau de bord avec quatre indices : le temps physique et les phases du projet, la représentation graphique du réseau d'acteurs et de leurs liens, la caractérisation et l'analyse de ce réseau, et finalement la dynamique du projet. Cet outil a été confronté à un cas de projet socio-technique, le projet «abris froids» en Agenais. Le tableau de bord répond aux principaux objectifs de cette recherche: tous les acteurs du projet socio-technique y trouvent une place, les liens formels, de compétition et de conflit y apparaissent, la dynamique du projet est dûment représentée, aussi bien par l'évolution des différents indices le long du développement du projet, que par le diagramme de la trajectoire du projet qui illustre la distance à la situation finale envisagée
By means of a qualitative method of research, a device has been developed for the analysis and representation of the dynamics of socio-technical projects on agriculture, particularly on greenhouses. It consists of a control panel with four indicators: the physical time and the project phases, the graphical representation of the actors network and links, the characterization and analysis of such network, and finally the project dynamics. The device has been tested in a real case of socio-technical project known as "cold shelters", carried out in the region of Agen, France. The control panel fulfils the initial objectives of this research work: it gathers ail the actors of the project. It also gathers the formal relations as well as those in competition and relations of conflict. Finally, it represents the dynamics of the project in two different but complementary ways, by comparison of the indicators between stages of the project and in respect of the desired target
APA, Harvard, Vancouver, ISO, and other styles
46

Kadimpeul, Dieudonné. "Devenir NEET (Not in Education, Employment or Training) : une étude sur les jeunes ni en emploi, ni en formation de l'arrondissement de Lille." Thesis, Artois, 2016. http://www.theses.fr/2016ARTO0105.

Full text
Abstract:
Cette thèse analyse le comportement sur le marché du travail local de185 jeunes peu ou pas qualifiés âgés de 16 à 29 ans de l’arrondissement de Lille. Elle met en lumière les difficultés d’insertion professionnelle qu’ils rencontrent eu égard à l’absence ou un faible niveau de diplôme, de qualification, d’expérience professionnelle. Aussi met-elle en exergue leurs méconnaissances des réalités du marché du travail local à travers leurs prétentions salariales, leurs techniques de recherche d’emploi, leurs projets ; et leurs stratégies pour rester ou se maintenir hors de ce marché. La démarche qualitative a permis une vérification empirique des facteurs répertoriés par l’Eurofound qui ont un impact sur le risque de devenir NEET (not in education, employment or training : les jeunes qui ne sont ni scolarisés, ni en emploi, ni en formation). Une typologie de trajectoires qui conduisent à être NEET dans l’arrondissement de Lille est établie. L’hétérogénéité caractérise la catégorie de NEET. Cette disparité relève d’abord des sous-groupes qui existent au sein des NEET. Aussi, se matérialise-t-elle suivant les systèmes éducatifs, les politiques sociales, les réalités socioéconomiques et culturelles qui sont spécifiques aux territoires (départements, régions, pays). La connaissance de la catégorie des NEET via sa construction sociale dans l’arrondissement de Lille va permettre aux différents acteurs locaux (région, départements, associations, etc.) d’avoir une visibilité claire sur les stratégies à adopter et/ou les politiques à mettre en œuvre pour l’inclusion sociale de ces derniers
This thesis analyzes the behavior of the local labor market of 185 young people low-skilled aged 16 to 29 years of the district of Lille. It puts in light of the difficulties they encounter employability given the absence (or low levels) of qualification, qualification, professional experience. She also puts highlight their misconceptions of the local labor market realities through their salary expectations, their job search techniques, their projects; and strategies to stay or keep out of the market. The qualitative approach enabled an empirical verification of the factors listed by Eurofound which impact on the risk of becoming NEET (Not in Education, Employment or Training: young people who are neither in education nor in employment or training). A typology of trajectories that lead to be NEET in the district of Lille is established. The heterogeneity characterizes the NEET category. This disparity is primarily a matter of subgroups that exist within the NEET. Also, according to context, it materializes educational systems, social policies, socio-economic and cultural realities which are specific territories (departments, regions, countries). Knowing the NEET category via its social construction in the district of Lille will allow different local actors (region, departments, associations, etc.) to have a clear visibility on the strategies to adopt and/or policies implement for social inclusion of the latter
APA, Harvard, Vancouver, ISO, and other styles
47

Nougadère, Alexandre. "Surveillance des expositions alimentaires aux résidus de pesticides : développement d’une méthode globale d’appréciation quantitative du risque pour optimiser l’évaluation et la gestion du risque sanitaire." Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0031/document.

Full text
Abstract:
L'évaluation des produits phytopharmaceutiques, leur mise sur le marché et la surveillance des résidus de pesticides dans les aliments sont harmonisés au niveau européen. Les estimations des expositions alimentaires a posteriori réalisées en Europe sont cependant incomplètes au regard du nombre de denrées et de pesticides évalués, et les données de consommation utilisées sont souvent anciennes. L’amélioration des connaissances sur les risques alimentaires liés aux pesticides constitue l’un des enjeux majeurs de santé publique. L’objectif de cette thèse est de construire un système national de surveillance a posteriori des expositions et des risques alimentaires afin de guider (1) d’une part les gestionnaires du risque dans le cadre de l’élaboration de leurs programmes de surveillance et des mesures préventives et correctives ; (2) d’autre part les évaluateurs du risque dans l’orientation des travaux de recherche et d’expertise en métrologie, expologie et toxicologie. Ce système de surveillance comprend deux outils complémentaires : (1) une méthode d’appréciation quantitative du risque dite « globale » basée sur quatre indicateurs chroniques et aigus actualisés annuellement à partir des résultats des derniers plans de surveillance et des limites maximales de résidus ; (2) des études pluriannuelles dites études de l’alimentation totale (EAT) dont la première EAT française sur les pesticides. Ces deux approches sont basées sur les données de l’étude individuelle et nationale des consommations alimentaires Inca 2 de l’Anses. La méthode globale annuelle intègre une échelle de priorités ayant permis de hiérarchiser les risques pour 519 pesticides. Les niveaux d’exposition estimés dans l’EAT2 sont globalement plus réalistes que ceux issus de la méthode annuelle. Cependant, les deux outils n’ont pas permis initialement d’affiner suffisamment l’évaluation pour certains pesticides. Par conséquent, la méthode a été ajustée afin de mieux gérer les résultats d’analyse censurés. Après ajustement, 14% des pesticides sont identifiés comme prioritaires en termes d’évaluation et/ou de gestion du risque (niveaux 2 à 6), compte tenu de dépassements des valeurs toxicologiques de référence. A partir des couples prioritaires pesticide/denrée, un plan d’échantillonnage est défini pour les prochains plans de surveillance. Des mesures de gestion correctives et une intensification des contrôles à la production et à la distribution sont recommandés pour 11 pesticides de niveau de risque maximal (niveau 6) en lien avec 16 couples pesticide/denrée. Au final, ce système national est plus complet et plus adapté à la population française que l’évaluation communautaire annuelle. Les résultats obtenus sont par ailleurs cohérents avec ceux de la première étude nationale de biosurveillance sur les pesticides. Enfin, la méthode globale annuelle intégrera les évolutions méthodologiques communautaires récentes pour l’évaluation des risques cumulés
The evaluation of plant protection products, their marketing and the monitoring of pesticide residues in food are harmonized in the European Union. Nevertheless, the assessment of dietary exposure at post-regulation level is incomplete due to the small number of foods and pesticides taken into account. In addition, consumption data are often obsolete. Improving knowledge on the dietary risk of pesticide residues is one of the major challenges to public health. The aim of this thesis is to build a national system for the ex post monitoring of dietary exposure and risk to the general population in order to guide (1) risk managers in the development of their monitoring programmes and preventive and corrective measures; (2) risk assessors in guiding research and expertise in metrology, exposure assessment and toxicology. This monitoring system includes two complementary tools: (1) an annual method of quantitative risk assessment based on four chronic and acute indicators updated each year and based on the results of the latest monitoring plans and maximum residue levels; (2) multi-year total diet studies (TDS), including the first TDS on pesticide residues (TDS2). These two approaches are based on the results of ANSES’s INCA2 individual and national consumption survey. This annual method includes a 6-level risk scale that enables the prioritization of risk for 519 pesticides. The exposure levels estimated in TDS2 are in general more realistic than those of the annual method. However, for certain pesticides it was not possible to sufficiently refine exposure levels using these two tools. Consequently, the annual method was adjusted to improve management of left-censored analytical results. After adjustment, 14% of pesticides were identified as a priority in terms of risk assessment and/or risk management (levels 2 to 6), given that they exceeded the toxicological reference values. Based on priority pesticide/foodstuff pairs, a sampling plan has been established for subsequent monitoring programmes. Corrective management measures and intensified controls of production and distribution are recommended for 11 pesticides scored at maximal risk level (level 6) in association with 16 pesticide/foodstuff pairs. In the end, this national system is more comprehensive and better suited to the French population than the annual EU assessment. The results are also consistent with those of the first national biomonitoring study on pesticides. The annual method will also incorporate recent European methodological developments for cumulative risk assessment
APA, Harvard, Vancouver, ISO, and other styles
48

Houel, Nicolas. "Pédagogie de la sobriété lumineuse : étude des enjeux et méthodes de la requalification du parc d'éclairage public de la métropole nantaise au travers de la récolte d'indicateurs qualitatifs et quantitatifs des ambiances nocturnes en ville." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0032.

Full text
Abstract:
Dans le cadre d’un financement CIFRE accompagnant la définition du Schéma de Cohérence d’Aménagement Lumière (SCAL) de la Métropole de Nantes, la thèse de Nicolas Houel contribue à identifier les enjeux de la sobriété énergétique et lumineuse dans la gestion du parc d’éclairage public. La recherche porte sur la méthodologie d’élaboration du SCAL et se focalise sur l’identification des controverses actuelles dans la pratique de l’éclairage artificiel, en vue d’une sensibilisation et d’une implication de l’usager de l’espace public dans l’évaluation et la production des ambiances urbaines nocturnes. Le travail comprend une série d’enquêtes de terrain dédiées à l’évaluation et à l’itération d’une méthode de récolte d’indicateurs sensibles. En plus de sa partie analytique, la recherche propose un outil cartographique numérique inédit pour l’aide au suivi des installations et permettant en temps réel la collecte d’indicateurs physiques et sensibles directement identifiés par l’usager. La posture de recherche aborde la notion d’expertise d’usage, potentiellement complémentaire des expertises politiques, artistiques et techniques qui gouvernent actuellement l’éclairage public. Ils soulignent la place prépondérante de l’éclairage artificiel dans la culture collective et la très faible représentativité de la notion d’obscurité. La pédagogie de la sobriété lumineuse, en réponse à l’enjeu de sobriété énergétique et lumineuse initialement poursuivi au travers de la démarche de sensibilisation des usagers à l’éclairage public, s’oriente finalement vers celui d’une forme de pédagogie à l’obscurité, dans laquelle la sobriété lumineuse pourra durablement s’installer
As part of a CIFRE contract associated with the definition of the Lighting Development Coherence Scheme (SCAL) of the city of Nantes, Nicolas Houel’s thesis contributes to identifying the stakes of better energy and light sobriety in the management of its public lighting park. The research deals with the development methodology of the SCAL and focuses on the identification of current controversies in the artificial lighting practice, to raise awareness and involve the users of public spaces in the evaluation and production of nocturnal urban ambiances. It includes a series of field surveys dedicated to the evaluation and iteration of a method for the collection of sensitive indicators. Beyond its analytical part, the thesis proposes an unprecedented digital mapping tool to monitor the installations and to in real time the collection of physical and sensitive indicators identified by the users. The research addresses the concept of expertise of use, potentially complementary of political, artistic and technical ones that currently govern public lighting. They highlight the prominent place of artificial lighting in collective culture and the very low representativity of the concept of darkness. The pedagogy of light sobriety, regarding the challenge of energy and light sobriety originally pursued through an approach of awareness to public lighting for users, is ultimately oriented towards a form of pedagogy of darkness, in which light sobriety could settle lastingly
APA, Harvard, Vancouver, ISO, and other styles
49

Hurault-Delarue, Caroline. "Approche longitudinale et quantitative de l'exposition aux médicaments dans les études de pharmaco-épidémiologie : développement méthodologique et application aux expositions au cours de la grossesse dans la cohorte EFEMERIS." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30041.

Full text
Abstract:
Des études de pharmaco-épidémiologie ont montré le rôle de la dose et de la durée d'exposition à un médicament dans la survenue d'effets indésirables. Toutefois, ces différents paramètres sont rarement pris en compte simultanément dans les travaux visant à étudier le risque lié à une exposition médicamenteuse, notamment au cours de la grossesse. Les bases de données administratives de santé permettent d'appréhender ces paramètres et de retracer de façon précise l'historique de l'exposition de chaque patient aux médicaments. L'objectif de ce travail est de développer une nouvelle méthode de mesure d'exposition visant à classifier les individus en tenant compte de l'intensité et de l'évolution de cette exposition au cours du temps. L'application en pharmaco-épidémiologie permet une approche quantitative de l'exposition des patients (à travers la prise en compte des doses de médicaments délivrés) et longitudinale au cours du temps définissant ainsi des trajectoires individuelles d'exposition. La classification des individus en groupes homogènes selon ces trajectoires est mise en oeuvre grâce à l'utilisation d'une méthode de classification non supervisée fondée sur le principe de la méthode des K-means adaptée aux données longitudinales. Cette " Méthode des Trajectoires d'Exposition " a été appliquée à l'exposition aux psychotropes au cours de la grossesse, en utilisant les données de la cohorte EFEMERIS. Elle a mené, lors d'une première phase, à la constitution de clusters aux profils d'exposition homogènes. Lors de la deuxième phase d'application, les clusters issus de la classification des femmes exposées aux anxiolytiques et hypnotiques ont pu être utilisés comme variable explicative dans l'étude des risques pour le nouveauné et l'enfant liés une exposition in utero à ces médicaments. La mise en évidence d'une relation de type dose-effet au sein des 4 clusters identifiés laisse penser qu'un niveau élevé d'exposition à ces médicaments au cours de la grossesse augmenterait notamment le risque de pathologie néonatale. En opposition, les résultats concernant les femmes exposées ponctuellement ou à de faibles doses étaient rassurants. L'application à des données réelles a été l'occasion de valider cette méthode et de montrer l'intérêt de la prise en compte de l'intensité et de l'évolution des expositions médicamenteuses au cours du temps dans les études de pharmaco-épidémiologie. La méthode proposée peut être adaptée à d'autres populations, d'autres classes de médicaments mais également d'autres types d'exposition. Cette approche " trajectorielle " de l'exposition ouvre de nouvelles perspectives pour les futures études épidémiologiques
The intensity and duration of drug exposure may contribute to the occurrence of drug adverse effects. However, these parameters are rarely simultaneously addressed in studies of risks associated to drug exposure, in particular during pregnancy. Administrative databases give the opportunity to apprehend these parameters and to reconstruct the history of patient drug exposure. The aim of this research is to develop a new method of exposure measurement in order to cluster individuals, taking into account both the intensity and the evolution of exposure. The application to pharmaco-epidemiological studies allow a quantitative approach of drug exposure and longitudinal over time defining individual trajectories of exposure. We used an unsupervised clustering method based on an implementation of K-means adapted to longitudinal data analysis to cluster individuals in homogeneous groups according to their trajectories. This "trajectory method" was applied to psychotropic drug exposure during pregnancy, using EFEMERIS database. The first phase of this application led to the identification of clusters with homogeneous profiles. During the second phase, clusters of women exposed to anxiolytic and hypnotic drugs were used as independent variables to study the effects of in utero exposure to these drugs on newborns and children. The study especially indicates a dose-response relationship between the 4 clusters and an increased risk of neonatal pathologies after an exposure to a heavy drug burden. By contrast, results concerning women punctually exposed or exposed to a light drug burden were reassuring. This application to real-clinical-data has validated this method and demonstrates the interest value of considering intensity and evolution of drug exposure over time in pharmaco-epidemiological studies. The proposed method could be adapted to other populations, classes of drugs and other types of exposure. This "trajectorial" approach of exposure opens up new prospects for future epidemiological studies
APA, Harvard, Vancouver, ISO, and other styles
50

Weinmann, Pierre. "Mise au point d'une méthode d'analyse quantitative du cholestérol et de ses esters dans les lésions d'athérosclérose humaine par spectrométrie de diffusion Raman dans le proche infrarouge." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0503.

Full text
Abstract:
Au cours de l'athérosclérose, le contenu en lipides de la paroi artérielle augmente très fortement. La composition de ces lipides est connue et elle a été établie par l'utilisation de la méthode de Folch, seule technique permettant d'extraire les lipides au sein d'un milieu biologique. Il s'avère ainsi que l'essentiel des lipides rencontrés dans les lésions d'athérosclérose est composé de cholestérol et d'esters de cholesteryle. La méthode de Folch, fiable mais laborieuse, nécessite de broyer les échantillons biologiques au préalable. Pour avancer dans la compréhension de l'athérosclérose, le besoin d'une technique rapide, fiable et non destructrice est donc bien réel. C'est dans cette optique que nous avons développé une méthode d'analyse quantitative du cholestérol et de ses esters dans les lésions d'athérosclérose humaine fondée sur la spectrométrie de diffusion Raman dans le proche infrarouge. Cette technique permet en effet l'analyse discriminative de différents composants dans un milieu complexe et a déjà fait l'objet de plusieurs travaux dans le domaine biomédical. Ainsi des travaux préliminaires avaient montré que la spectrométrie Raman est capable de reconnaitre le cholestérol et ses esters dans les lésions d'athérosclérose humaine et qu'une analyse quantitative est possible dans des milieux synthétiques et dans des modèles d'athérosclérose animale simplifiée, en utilisant une méthode mathématique d'analyse factorielle, la méthode PLS (partial least squares). Nous avons dans un premier temps constitué une banque de spectres Raman sur 31 broyats d'aorte atherosclereuses deshydratees. Puis, nous avons effectué les analyses biochimiques de référence du cholestérol et de ses quatre principaux esters (linoleate, oleate, palmitate, stéarate). Ceci nous a permis d'améliorer très sensiblement la technique de Folch en utilisant un anti-oxydant, de tester sa reproductibilité (coefficient de variation égal à 5%) et de mettre au point une technique de quantification enzymatique du cholestérol et de ses esters dans les broyats d'aortes déshydratées. La spectrométrie de diffusion Raman, couplée à la méthode PLS, s'est révélée être une méthode de quantification rapide et reproductible, souffrant cependant d'une imprécision encore un peu trop importante, semblant être due au nombre restreint d'échantillons utilises. En effet, le protocole expérimentale d'extraction biochimique s'est révélé long, car nous avons pratiqué la technique de Folch en triple exemplaires pour chaque échantillon, afin de tester sa reproductibilité. Les développements de la méthode devraient permettre d'améliorer la fiabilité de cette technique déjà rapide, non destructrice et reproductible. La possibilité de quantifier le cholestérol et ses esters dans les lésions d'athérosclérose offrira ainsi un outil précieux à la recherche sur l'athérosclérose.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography