To see the other types of publications on this topic, follow the link: Imagerie en direct.

Dissertations / Theses on the topic 'Imagerie en direct'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Imagerie en direct.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hassan, Mohamed. "Imagerie géoélectrique tri-dimensionnelle en contexte volcanique." Brest, 2009. http://www.theses.fr/2009BRES2011.

Full text
Abstract:
L’imagerie électrique (ou tomographie électrique) est la reconnaissance multidimensionnelle des propriétés électriques intrinsèques du milieu étudié. En géophysique, cette technique permet de traduire des données acquises en surface ou en sub-surface en une image interprétable en termes géologiques. L’imagerie électrique est fréquemment employée dans différents domaines (hydrogéologie, génie civil, environnement, archéologie) avec une approche bi-dimensionnelle (2D). En supposant l’objet bidimensionnelle, Cette approche 2D est loin de décrire correctement l’objet imagé, puisque dans la nature la plupart des structures géologiques sont en tri-dimensionnelles (3D). Dans ces conditions, puisque les données contiennent les informations concernant la présence d’éventuelle structures 3D, une alternative à l’imagerie électrique 2D pour extraire le maximum d’informations aux données est d’utiliser une approche 3D. Pour un milieu à géométrie complexe, par exemple en milieu volcanique, une approche 3D est indispensable. La première partie des travaux de cette thèse est consacrée à un développement méthodologique d’un outil de modélisation (direct et inverse) 3D pour interpréter des données électriques collectées avec une distribution quelconque de quadripôles de type Schlumberger. Généralement une procédure d’interprétation en géophysique consiste à résoudre deux problèmes le problème direct (calcul direct) et le problème inverse. Dans cette étude, notre code d’interprétation utilise un programme qui consiste à résoudre le problème direct via la méthode des différences finies. Pour la partie minimisation nous avons utilisé une variante de la méthode de plus grande pente qui permet de déterminer une solution du problème inverse sans calculer la matrice sensibilité. Cet outil d’interprétation 3D est testé et validé avec des données synthétiques et appliqué à des données réelles collectées à grande échelle (km) sur la plaine de Djibouti. Les modèles de résistivité ainsi obtenus sont interprétés en termes hydrogéologiques et mettent en évidence des unités conductrices, probablement des réservoirs d’eau saumâtre isolés par une structure résistante NO-SE
Electrical imaging (or electrical tomography) is a multidimensional imaging of intrinsic electrical properties of the geolocical environment. In geophysics, this technique allows to convert surface or sub-surface electric data into interpretable images in geological terms. Electrical imaging is frequently used in different fields (hydrogeology, civil engineering, environment, archeology) in a two-dimensional (2d) approach. Assuming the two-dimensional object, this approach may not properly describe the imaged object since most geological structures are three-dimensional (3d). Hence, as the data contain information about the existence of possible 3d structures, an alternative to 2d electrical imaging in order to extract the maximum information from the data is to use a 3d approach. Moreover, for a medium with complex geometry, for example a volcanic environment, a 3d approach is essential. The first part of this dissertation is devoted to methodological development of a 3d modeling tool (direct and inverse) to interpret electrical data collected with undefined distribution of Schlumberger array. A procedure in geophysical interpretation consists of solving two problems: the direct problem and thee inverse problem. In this study, our interpretation algorithm uses a program to solve the direct problem using finite difference. For the minimization part we used a variant of maximum slope method to determine a solution of the inverse problem without the computation of the sensitivity matrix. This 3d interpretation tool is tested and validated wite synthetic data. Then we have applied the technique to real data collected at a large scale (km) on the Djibouti plain. The resulting resistivity models obtained by the 3d inversion of the field electrical data are interpreted in hydrogeological terms. The results highlight conductive units probably brackish water reservoirs isolated by resistive NW-SE structures. The second part of this dissertation deals with an application at a smaller scale, at a Hydrological Experimental Site (SEH) set up within the framework of the Mawari project, on the plain of Djibouti city. A high resolution electrical imaging survey was carried out to understand some characteristics of the aquifer of Djibouti City and the origin of the invasive brackish water. Data collected on this experimental site were interpreted by a 2D and 3D inversion approach using commercial inversion codes (Res2dinv and Res3dinv). The results revealed the presence of a small basin oriented SW-NE which geometry is controlled by a near surface SW-NE fault. The resistivity models obtained also highlighted a conductor in-depth which we associated to a brackish water aquifer. This brackish water aquifer is very localized in the SEH and its reservoir is mainly composed of very porous scoria
APA, Harvard, Vancouver, ISO, and other styles
2

Randriantsoa, Daorolala Alexandre. "Estimation du mouvement fondée sur un schéma direct et rétrograde : application à la segmentatio." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12562.

Full text
Abstract:
Cette thèse traite de la détection et de l'estimation du mouvement dans le contexte de l'analyse de séquence d'images. Plus précisèment, le but de ce manuscrit est le développement d'algorithmes d'estimation et de segmentation du flot optique, qui tendent à déterminer les changements relatifs de position des objets visibles dans une scène. Un problème majeur de l'estimation du mouvement est l'insuffisance des contraintes pour rendre l'estimation robuste. Dans notre cas, nous proposons un formalisme qui permet de renforcer les contraintes dans la mise en équation du mouvement. Le formalisme est construit à partir de l'information spatio-temporelle causale et anti-causale (mouvement direct et rétrograde) de deux trames consécutives. Dans un premier temps, le formalisme direct-rétrograde est testé sur un mouvement de translation. Le second volet dédié à l'estimation consiste en l'extension du formalisme proposé sur un modèle plus général. Pour la segmentation spatio-temporelle, deux catégories de méthode sont évoquées. La première est l'application du schéma drect-rétrograde à la segmentation markovienne. La deuxième catégorie est basée sur la classification utilisant les nuées dynamiques. Pour cela, nous développons une méthode de segmentation qui consiste à associer la méthode K-moyens et le formalisme direct-rétrograde. Le dernier point concerne l'application sur des données réelles. Cette application est réalisée dans le contexte de l'analyse en imagerie sismique fournie par la société GDF
APA, Harvard, Vancouver, ISO, and other styles
3

Bujoreanu, Denis. "Échographie compressée : Une nouvelle stratégie d’acquisition et de formation pour une imagerie ultrarapide." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI098/document.

Full text
Abstract:
Il ne fait aucun doute que le coût relativement faible des échographes, la procédure rapide et la capacité d’imager des tissus biologiques mous ont permis à l’échographie de devenir l’un des outils de diagnostic médical les plus courants. Malheureusement, l’imagerie ultrasonore présente encore des inconvénients par rapport à d’autres techniques d’imagerie médicale, principalement en termes de qualité d’image et de détails fournis. Dans le souci d’améliorer la qualité d’image, le prix à payer est généralement la baisse de la cadence d’acquisition. Ce compromis profondément enraciné entre la qualité d'image fournie et le temps d'acquisition est peut-être l'un des plus difficiles verrous de la recherche dans le domaine de l’échographie et son dépassement pourrait mener à des meilleures performances des applications existantes et même à des nouvelles utilisations de l’échographie. Ce travail de thèse porte sur l’amélioration du compromis précédemment indiqué entre la qualité d’image et la cadence d’acquisition. En combinant des concepts tels que l’imagerie par ondes planes, les systèmes à entrées multiples / sorties multiples et les problèmes inverses, ce travail vise à acquérir simultanément des images ultrasonores du tissu insonifié, ce qui permet d’augmenter la cadence d’acquisition sans réduire la qualité de l’image fournie. À travers cette étude, nous avons mis au point un modèle mathématique permettant de modéliser la propagation des ondes ultrasonores dans les tissus mous. Ce modèle a été utilisé pour passer en revue un grand nombre de schémas d’acquisition en échographie déjà existants et pour exposer leurs avantages et leurs inconvénients. Nous avons proposé de surmonter le compromis qualité / cadence d’acquisition d'images en utilisant des ondes ultrasonores codées temporellement émises simultanément, et le modèle direct généré a permis l'utilisation des différentes approches de problèmes inverses afin de reconstruire la réponse impulsionnelle pulse / écho du milieu insonifié et donc de son image. De plus, nous avons encore amélioré le modèle direct, ce qui nous a permis de relier directement les échos rétrodiffusés à la position / magnitude des diffuseurs à l'intérieur du milieu imagé. Les résultats fournies par les approches de problèmes inverses basées sur ce modèle amélioré nous ont mis devant une méthode de pointe qui non seulement améliorent d’un facteur conséquent la qualité de l'image en termes de résolution et de cohérence du speckle, mais permettent également d'améliorer la cadence d'acquisition d’images
It is beyond doubt that the relative low cost of ultrasound scanners, the quick procedure and the ability to image soft biological tissues helped ultrasound imaging to become one of the most common medical diagnostic tools. Unfortunately, ultrasound still has some drawbacks when compared to other medical imaging techniques mainly in terms of the provided image quality and details. In the quest for an improved image quality, usually, the price to pay is the drop in the frame acquisition rate. This deep rooted trade-off between the provided image quality and the acquisition time is perhaps one of the most challenging in today’s ultrasound research and its overcoming could lead to diagnostic improvements in the already existing ultrasound applications and even pave the way towards novel uses of echography. This study addresses the previously stated trade-off. Through a mix of such concepts as plane wave imaging, multiple-input /multiple-output systems and inverse problems, this work aims at acquiring ultrasound images of the insonified tissue simultaneously, thus providing an increased frame rate while not degrading the image quality. Through this study we came up with a mathematical model that allows modelling the ultrasound wave propagation inside soft tissues. This model was used to review a great number of existing ultrasound acquisition schemes and to expose their advantages and drawbacks. We proposed to overcome the image quality / frame rate trade-off by using temporally encoded ultrasound waves emitted simultaneously, and the generated direct model enabled the use of different inverse problem approaches in order to reconstruct the pulse-echo impulse response of the insonified medium and thus its image. Moreover, we further improved the direct model, which allowed us to directly link the backscattered echoes to the position / magnitude of the scatterers inside the imaged medium. The results yielded by the inverse problem approaches based on the former model put us face to face with state of the art method that not only increase the image quality several times in terms resolution and speckle coherence but also provide a boost in frame acquisition rate
APA, Harvard, Vancouver, ISO, and other styles
4

Milli, Julien. "Caractérisation des disques de débris par imagerie directe et haute résolution angulaire : les performances de NaCo et SPHERE." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENY048/document.

Full text
Abstract:
Les vingt-cinq dernières années ont connu une véritable révolution dans notre connaissance des systèmes planétaires avec plus de 1800 planètes extrasolaires connues à ce jour. L'étude observationnelle des disques de débris constitue l'approche proposée dans ce travail de thèse pour éclairer les processus de formation et d'évolution des systèmes planétaires. Ces disques circumstellaires sont constitués de particules de poussière générées par des collisions de petits corps appelés planétésimaux, en orbite autour d'une étoile de la séquence principale. La lumière stellaire qu'elles diffusent représente une observable particulièrement riche en informations sur l'architecture du système, mais difficile d'accès en raison du contraste élevé et de la faible séparation angulaire avec leur étoile. Le développement récent de nouveaux instruments à haut contraste équipés d'optique adaptative extrême représente un formidable potentiel pour l'étude de ces systèmes. Cette thèse se place dans le cadre de ces nouveaux développements et porte sur la caractérisation des disques de débris grâce à deux instruments qui équipent le VLT (Very Large Telescope) : NaCo et SPHERE (Spectro Polarimetric High contrast Exoplanet REsearch). NaCo est en opération depuis plus de 10 ans et a connu plusieurs améliorations successives. SPHERE a été conçu et développé dans la même période, testé intensivement en laboratoire en 2013 et est actuellement en cours de vérification opérationnelle sur le télescope. Le caractère novateur de ce travail consiste à associer à l'étude des propriétés physiques des disques de débris, une expertise instrumentale poussée pour tirer le meilleur profit des observations. La première partie vise à développer et caractériser des méthodes de réduction de données innovantes adaptées aux observations de disques en lumière diffusée et au comportement de l'instrument. En particulier les atouts, performances et biais des techniques d'imagerie différentielle angulaire, polarimétrique et de soustraction de référence sont quantifiés. Ces méthodes sont appliquées, dans une seconde partie, à l'étude et la caractérisation de deux prototypes de disques de débris entourant les étoiles beta Pictoris et HR 4796A. Elles permettent une analyse poussée de la morphologie de ces disques et révèlent de nouvelles asymétries, interprétées en terme de perturbateurs gravitationnels ou de propriétés de diffusion de la lumière par la poussière. Enfin une évaluation prospective des performances attendues et observées avec l'instrument SPHERE est détaillée dans la dernière section, basée sur des simulations et des mesures en laboratoire ou sur le ciel. Une comparaison avec NaCo révèle les points forts de SPHERE avant de conclure sur les questions scientifiques auxquelles les observations de disques de débris avec SPHERE pourront apporter des réponses
Over the last two and a half decades, the discovery of more than 1800 exoplanets has been a major breakthrough in our understanding of planetary systems. To shed light on the formation and evolution processes of such systems, I have chosen an observational approach based on the study of debris discs. These circumstellar discs are composed of dust particles constantly generated by collisions of small rocky bodies called planetesimals, orbiting a main-sequence star. The stellar light they scatter can be studied from the Earth and reveal a wealth of information on the architecture of the system. These observations are challenging because of the high contrast and the small angular separation between the disc and the star. The recent developments of new high-contrast instruments with extreme adaptive optic systems are therefore bringing new expectations for the study of these systems and set the framework of this PhD thesis. My work aims at characterising debris discs thanks to two instruments installed on the Very Large Telescope: NaCo and SPHERE (Spectro Polarimetric High contrast Exoplanet REsearch). NaCo has been in operation for more than a decade and has undergone many improvements. SPHERE has been designed and assembled in the same period, was intensively tested in laboratory in 2013, and is currently being commissioned on the telescope. The innovative approach of this PhD work is to combine the study of debris discs with strong instrumental expertise to get the best science results from the observations. The first part of the study aims at developing innovative data reduction techniques adapted to the observations of discs in scattered light and to the behaviour of the instrument. I quantify in particular the performances, advantages, and biases of the angular, polarimetric and reference-star differential imaging technique. In a next step, I apply those techniques to characterise two prototypes of debris discs, around the stars beta Pictoris and HR 4796A. A detailed analysis of the morphology is carried out, which reveals new asymmetries interpreted in terms of gravitational perturbers or of dust scattering properties. Lastly, I detail the expected and measured performances of SPHERE, from simulations, laboratory and on-sky measurements. A comparison with NaCo reveals the assets of SPHERE and I conclude with the scientific questions SPHERE will be able to answer with new debris disc observations
APA, Harvard, Vancouver, ISO, and other styles
5

Zurlo, Alice. "Characterization of exoplanetary systems with the direct imaging technique : towards the first results of SPHERE at the Very Large Telescope." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4721/document.

Full text
Abstract:
Aujourd’hui, plus de 1800 planètes qui orbitent autour d’étoiles en dehors du système solaire ont été découvertes. La plupart des planètes découvertes actuellement a été révélée grâce aux méthodes indirectes. Par contre, avec ce type de techniques, la caractérisation des planètes ne peut pas être complète si on n’utilise pas plusieurs techniques simultanément. Aussi, pour obtenir le spectre de la planète, il doit y avoir un transit et même dans ce cas là,le signal est très faible par rapport au signal de l’étoile. L’observation directe de ces objets, appellée imagerie directe, est maintenant possible grâce à des systèmes très avancés d’optique adaptative installés sur des télescopes de classe 8m. L’imagerie directe permet l’observation des planètes sufisamment lumineuses et éloignées de l’étoile principale en utilisant un masque qui cache la lumière de la dernière. Cette technique est donc efficace en particulier pour des systèmes jeunes et voisins car la luminosité intrinsèque de la planète diminue avec l’âge et la séparation réelle de la planète dépend de la distance du système. Dans le VLT au Paranal (Chili), deux instruments sont dédiés à ce type de recherche : NACO et SPHERE. SPHERE a vu sa première lumière en Mai 2014, et est maintenant prêt à commencer une enquête consacrée à la découverte de planètes autour de systèmes jeunes et voisins, NIRSUR. Cet instrument se compose de trois sous-systèmes : IRDIS, IFS et ZIMPOL
In the year of the 20th anniversary of the discovery of the first extrasolar planet we can count more than 1800 companions found with different techniques. The majority of them are indirect methods that infer the presence of an orbiting body by observing the parent star (radial velocity, transits, astrometry). In this work we explore the technique that permits to directly observe planets and retrieve their spectra, under the conditions that they are bright and far enough from their host star. Direct imaging is a new technique became possible thanks to a new generation of extreme adaptive optics instruments mounted on 8m class telescopes. On the Very Large Telescope two instruments dedicated to the research for exoplanets with direct imaging are now operative: NACO and SPHERE. This thesis will describe the development and results of SPHERE from its predecessor NACO to its integration in laboratory and the final on sky results
APA, Harvard, Vancouver, ISO, and other styles
6

Billotey, Claire. "Etude des propriétés des nanoparticules magnétiques anioniques pour l' application au marquage cellulaire direct et la détection in vivo par imagerie par résonance magnétique." Paris 7, 2003. http://www.theses.fr/2003PA077015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

El, Khalifa Moulay Ahmed. "Amélioration de la qualité des images en tomographie microonde : contribution à une imagerie quantitative." Paris 11, 1989. http://www.theses.fr/1989PA112203.

Full text
Abstract:
L'imagerie microonde ou "tomographie par diffraction" est abordée ici sur deux plans : - la résolution du problème physique, intégrant à la fois la résolution du problème direct par la méthode des moments et le problème inverse basé sur une méthode spectrale. Les principes théoriques de la méthode d'imagerie active, microonde, par transmission ou par réflexion, sont décrits. Des simulations numériques sur des objets de caractéristique donnée permettent d'évaluer la sensibilité de la méthode de reconstruction à certains paramètres tels que la longueur de la ligne de mesure. Nous abordons également le problème de la détermination quantitative des paramètres à partir de la connaissance des sources induites dans l'hypothèse de l'approximation de Born et en dehors de celle-ci. - l'application de la synthèse de Fourier pour l'amélioration de la qualité des images. Etant donné que le problème inverse est un problème dit mal-posé, on a recours aux deux méthodes de régularisation suivantes : - l'approche déterministe qui utilise une connaissance a priori. - l'approche Bayésienne qui définit tout en termes de probabilité. L'outil utilisé est le principe du maximum d'entropie.
APA, Harvard, Vancouver, ISO, and other styles
8

Ratovoson, Domoina. "Propriétés thermomécaniques de la peau et de son environnement direct." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2011. http://tel.archives-ouvertes.fr/tel-00716268.

Full text
Abstract:
Le but de cette étude est de proposer un modèle combiné au transfert de chaleur dans les veines et les tissus de la peau humaine. Ce modèle permet de mieux comprendre les comportements thermomécaniques de la peau et de son environnement direct lorsqu'ils sont exposés à de fortes variations thermiques. Le travail est basé sur des études expérimentales et numériques. La première étape expérimentale consiste à placer une barre d'acier cylindrique refroidie ou réchauffée sur la peau d'un avant-bras humain et de mesurer l'évolution de température en utilisant une caméra infrarouge. L'influence de la circulation sanguine dans les veines sur la diffusion de la chaleur est très nettementmise en évidence. La deuxième étape expérimentale consiste à mesurer les propriétés géométriques des veines et la vitesse du sang en utilisant une sonde d'écho-Doppler. Ces mesures expérimentales servent à l'élaboration et à la validation d'un modèle numérique de la peau et de son environnement direct. Ce modèle tridimensionnelmulticouche utilise l'équation de Pennes pour modéliser les tissus et celle de la chaleur dans un fluide pour modéliser le sang. Les propriétés des matériaux sont tirées de la littérature et validées par notre expérimentation. Le modèle numérique permet de retrouver lesmesures expérimentales, mais aussi d'accéder à la température et à la vitesse du sang dans les veines. Enfin, un modèle numérique d'endommagement thermique, couplé aumodèle multicouche de la peau, a été développé dans cette étude. Il permet de simuler l'endommagement suite à une brûlure de la peau et de tester l'efficacité de différents traitements visant à limiter les lésions.
APA, Harvard, Vancouver, ISO, and other styles
9

Lei, Ming. "Imagerie 3D d'impédance bioélectrique : problème direct, problème inverse : détermination des lignes de courant en 3D et application de la méthode de la matrice de sensibilité pour la reconstruction d'une image en 3D dans un volume conducteur inhomogène sphérique." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT010H.

Full text
Abstract:
L'utilisation du courant electrique a des fins therapeutiques est une technique tres repandue en milieu medical, mais les mecanismes d'action du courant electrique dans le corps humain posent des problemes tres complexes. Ce travail cherche a apporter une contribution a une meilleure connaissance de ces mecanismes en analysant la distribution des densites de courant dans un volume conducteur de forme arbitraire inhomogene, quand le courant est injecte par des electrodes placees sur sa surface. La determination des lignes de courant electrique a l'interieur d'un volume conducteur inhomogene spherique, soumis a des injections de courant au moyen d'electrodes constitue le probleme direct. En utilisant la methode des elements frontiere, les distributions de potentiel sur la surface et a l'interieur du volume sont calculees, ce qui permet de determiner les lignes de courant dans le domaine etudie. Un logiciel a ete developpe pour cette determination. L'imagerie d'impedance est une nouvelle technique d'imagerie medicale, qui a pour but de reconstruire une image de la distribution de conductivite electrique au sein d'un milieu physiologique, a partir d'informations recueillies a la peripherie de ce meme milieu. Elle apparait comme potentiellement complementaire aux autres techniques d'imagerie medicale et constitue le probleme inverse. Un algorithme de reconstruction en 2d et en 3d, utilisant la methode de la matrice directe de sensibilite, a ete realise. Cette methode est basee sur la relation existant entre la variation de conductivite d'un pixel donne c a l'interieur du domaine et la variation des perturbations de difference de potentiel de la frontiere du domaine. L'application en 3d de cette methode, qui s'affranchit de l'utilisation d'images de sections planes, a ete demontree a l'issue de cette etude. Enfin, une etude approfondie de la methode de retroprojection filtree a permis de developper un filtrage specifique ameliorant la qualite des images reconstruites
APA, Harvard, Vancouver, ISO, and other styles
10

Gharsalli, Leila. "Approches bayésiennes en tomographie micro-ondes : applications à l'imagerie du cancer du sein." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112048/document.

Full text
Abstract:
Ce travail concerne l'imagerie micro-onde en vue d'application à l'imagerie biomédicale. Cette technique d'imagerie a pour objectif de retrouver la distribution des propriétés diélectriques internes (permittivité diélectrique et conductivité) d'un objet inconnu illuminé par une onde interrogatrice connue à partir des mesures du champ électrique dit diffracté résultant de leur interaction. Un tel problème constitue un problème dit inverse par opposition au problème direct associé qui consiste à calculer le champ diffracté, l'onde interrogatrice et l'objet étant alors connus.La résolution du problème inverse nécessite la construction préalable du modèle direct associé. Celui-ci est ici basé sur une représentation intégrale de domaine des champs électriques donnant naissance à deux équations intégrales couplées dont les contreparties discrètes sont obtenues à l'aide de la méthode des moments. En ce qui concerne le problème inverse, hormis le fait que les équations physiques qui interviennent dans sa modélisation directe le rendent non-linéaire, il est également mathématiquement mal posé au sens de Hadamard, ce qui signifie que les conditions d'existence, d'unicité et de stabilité de la solution ne sont pas simultanément garanties. La résolution d'un tel problème nécessite sa régularisation préalable qui consiste généralement en l'introduction d'information a priori sur la solution recherchée. Cette résolution est effectuée, ici, dans un cadre probabiliste bayésien où l'on introduit une connaissance a priori adaptée à l'objet sous test et qui consiste à considérer ce dernier comme étant composé d'un nombre fini de matériaux homogènes distribués dans des régions compactes. Cet information est introduite par le biais d'un modèle de « Gauss-Markov-Potts ». De plus, le calcul bayésien nous donne la distribution a posteriori de toutes les inconnues connaissant l'a priori et l'objet. On s'attache ensuite à déterminer les estimateurs a posteriori via des méthodes d'approximation variationnelles et à reconstruire ainsi l'image de l'objet recherché. Les principales contributions de ce travail sont d'ordre méthodologique et algorithmique. Elles sont illustrées par une application de l'imagerie micro-onde à la détection du cancer du sein. Cette dernière constitue en soi un point très important et original de la thèse. En effet, la détection du cancer su sein en imagerie micro-onde est une alternative très intéressante à la mammographie par rayons X, mais n'en est encore qu'à un stade exploratoire
This work concerns the problem of microwave tomography for application to biomedical imaging. The aim is to retreive both permittivity and conductivity of an unknown object from measurements of the scattered field that results from its interaction with a known interrogating wave. Such a problem is said to be inverse opposed to the associated forward problem that consists in calculating the scattered field while the interrogating wave and the object are known. The resolution of the inverse problem requires the prior construction of the associated forward model. This latter is based on an integral representation of the electric field resulting in two coupled integral equations whose discrete counterparts are obtained by means of the method of moments.Regarding the inverse problem, in addition to the fact that the physical equations involved in the forward modeling make it nonlinear, it is also mathematically ill-posed in the sense of Hadamard, which means that the conditions of existence, uniqueness and stability of the solution are not simultaneously guaranteed. Hence, solving this problem requires its prior regularization which usually involves the introduction of a priori information on the sought solution. This resolution is done here in a Bayesian probabilistic framework where we introduced a priori knowledge appropriate to the sought object by considering it to be composed of a finite number of homogeneous materials distributed in compact and homogeneous regions. This information is introduced through a "Gauss-Markov-Potts" model. In addition, the Bayesian computation gives the posterior distribution of all the unknowns, knowing the a priori and the object. We proceed then to identify the posterior estimators via variational approximation methods and thereby to reconstruct the image of the desired object.The main contributions of this work are methodological and algorithmic. They are illustrated by an application of microwave imaging to breast cancer detection. The latter is in itself a very important and original aspect of the thesis. Indeed, the detection of breast cancer using microwave imaging is a very interesting alternative to X-ray mammography, but it is still at an exploratory stage
APA, Harvard, Vancouver, ISO, and other styles
11

El, Kanfoud Ibtissam. "Résolution de problèmes de rayonnement électromagnétique appliqués à l’imagerie médicale avec FreeFEM++." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4000/document.

Full text
Abstract:
L'utilisation des microondes pour le diagnostic est en plein essor dans le domaine médical. Une des toutes dernières applications concerne la détection d'AVC (Accident vasculaire Cérébral) par imagerie microonde. La Société EMTensor GmbH basée à Vienne en Autriche étudie actuellement un tel système en collaboration avec le LEAT, le LJAD de l’Université Côte d’Azur et le LJLL de Sorbonne Université, pour le diagnostic et le contrôle de l'efficacité de traitement. Le but de ce travail était de modéliser le système de mesure de l'imagerie du cerveau, développé par la société EMTensor GmbH. Il s'agit d'un système d'émission/réception composé de 160 antennes disposées en 5 couronnes de 32 antennes réparties sur une cuve métallique cylindrique de section circulaire semi-ouverte. Un des enjeux majeurs de ce travail consiste en la modélisation et la simulation électromagnétique (EM) du système complet incluant un modèle réaliste de cerveau. La difficulté réside à la fois dans la taille du problème EM à simuler en raison du rapport entre la taille considérable du système et la taille très faible de certaines inhomogénéités à l’intérieur du cerveau, et dans la grande hétérogénéité des permittivités diélectriques présentes à l’intérieur du cerveau. Nous avons décidé d’utiliser un code open source, FreeFem++ pour cette modélisation car il permet de déployer du calcul hautement parallèle et la décomposition de domaines, qui sont bien adaptés à la complexité du problème EM. Dans un premier temps, nous avons comparé les résultats de simulation du système de mesure à vide (sans le cerveau) aux mesures et aux résultats obtenus par le logiciel de simulation EM HFSS basé sur la FEM comme FreeFem++. Nous avons ensuite simulé un modèle de tête tridimensionnel virtuel, à partir de coupe d’image du cerveau (scanner et IRM), en partenariat avec EMTensor en recherchant la position et le type d'AVC (ischémique et hémorragique). L'influence du bruit de mesure, la valeur du gel d'adaptation utilisé, le couplage entre les capteurs et le couplage entre la tête et les capteurs sont également étudiés. Afin de valider ces modèles, deux cas simples ont été étudiés. Un grand tube et un petit tube en plastique sont remplis de liquide d'adaptation symbolisant les caractéristiques diélectriques d'un cerveau afin de retrouver la forme du tube utilisé. Nous avons montré qu’il est possible de développer des algorithmes de reconstruction pour montrer permettant de retrouver la forme des objets par imagerie qualitative. Enfin, avec les partenaires et l'entreprise d'EMTensor nous avons appliqué une méthode quantitative à la détection d’un AVC ischémique par la tomographie microonde. Le problème direct repose sur l’utilisation de FreeFem++, en utilisant des éléments d'ordre supérieur et des préconditionneurs parallèles pour la méthode de décomposition de domaine. Nous avons résolu le problème inverse par un algorithme de minimisation, afin de reconstruire des images tomographiques du cerveau dans des temps compatibles avec les impératifs médicaux définis par les cliniciens
The use of microwaves for diagnosis is booming in the medical field. One of the latest applications is the detection of strokes by microwave imaging. The company EMTensor GmbH based in Vienna, Austria is currently studying such a system in collaboration with LEAT, the LJAD of the Côte d’Azur University and the LJLL of Sarbonne University, for the diagnosis and control of the treatement efficiency. The purpose of this work is to model the brain imaging measurement system developed by EMTensor GmbH. It is a transmission/ reception system consisting of 160 antennas arranged in 5 rings of 32 antennas distributed on a cylinder metal tank of semi-open circular section. One of the major issues of this work is the modeling and electromagnetic simulation (EM) of the complete system including a realistic brain model. The difficulty lies both in the size of the EM problem to be simulated beacause of the relationship between the considerable size of the system and the the very small size of certain inhomogeneities within the brain, and the great heterogeneity of the dielectric permittivities present inside the brain. We decided to use an open source software, FreeFem++ for this modelling because it is well adapted to high performance computing through domain decomposition methods, which is mandatory for the complexity of the EM problem. First, we compared the simulation results of the vacuum matching measurement system (without the brain) to the measurements and the results obtained by the FEM-based EM HFSS simulation software to those obtained by FreeFem++. We then simulated a virtual threedimensional head model, from brain imaging system cuts (CT scan and MRI), in partnership with EMTensor, looking for the position and type of stroke (ischemic and hemorragic). The influence of the measurement noise, the value of the adaptation gel used, the coupling between the sensors and the coupling between the head and the sensors are also studied. In order to validate these models, two simple cases have been studied. A large tube and a small plastic tube are fielld with adaptation liquid with the dielectric characteristic of a brain to find the shape of the tubes used by qualitative imaging. Finally, with the MEDIMAX project partners and the EMTensor company we applied a quantitative method to the detection of ischemic stroke by the microwave tomography. The direct problem has been solved with the help of FreeFem++, using hight order elements and parallel preconditioners for the domain decomposition method. We solved the inverse problem by a minimization algorithm, in order to reconstruct tomographic images of the brain in times compatible with medical imperatives defined by clinicians.”
APA, Harvard, Vancouver, ISO, and other styles
12

Lagueux, Émilie. "Efficacité thérapeutique de l’ajout de la stimulation transcrânienne par courant direct (tDCS) à l’imagerie motrice progressive (IMP) pour le traitement du syndrome douloureux régional complexe (SDRC) de type I." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/8040.

Full text
Abstract:
Introduction: Selon les plus récentes lignes directrices de pratiques exemplaires pour la gestion du syndrome douloureux régional complexe (SDRC), l’imagerie motrice progressive (IMP) est la modalité qui présente le niveau de preuve scientifique le plus élevé quoique son effet soit modeste. Une nouvelle technique de neurostimulation non invasive, la stimulation transcrânienne par courant direct (tDCS), lorsque combinée à une autre modalité thérapeutique, elle a le potentiel d’accroître l’efficacité analgésique de la modalité initiale. L’objectif principal était d’explorer l’efficacité de la combinaison des traitements par IMP et tDCS en comparaison à l’IMP et la tDCS placebo auprès de personnes atteintes d’un SDRC de type I. Méthode: Afin d’établir une preuve initiale d’efficacité, une étude randomisée de type preuve de concept, à l’insu du participant, comportant deux options de traitement (IMP + tDCS ; IMP + tDCS placebo) a été menée. L’IMP comprenait trois phases de deux semaines chacune combinées à 14 séances de tDCS. L'efficacité a été mesurée en comparant les résultats entre le T0 et après six semaines de traitement (T1) ainsi qu’entre le T1 et un mois après le traitement (T2) avec comme variable principale la sévérité de la douleur (BPI-sf). Résultats: Vingt-deux participants (n=11/groupe) ont complété l’étude. Au T1, 82 % des participants du groupe IMP + tDCS ont rapporté une différence minimale cliniquement importante (DMCI) de la sévérité de la douleur comparativement à 27 % des patients du groupe IMP + tDCS placebo (p=0,003). Une diminution de l’intensité de la douleur présente (BPI-sf) de 29,75 % a été observée pour le groupe intervention (p=0,046) comparativement à une augmentation non-significative de 1,48 % pour le groupe témoin. Les données issues du journal de bord ont permis de capter une réduction plus rapide de l’intensité de la douleur auprès des participants du groupe intervention. Également, nos résultats au T1 ont démontré une réduction significative de la kinésiophobie (TSK) (p=0,012), des pensées catastrophiques (PCS) (p=0,049) et de l’état anxieux (IASTA) (p=0,046). Toutefois, l’effet ne s’est pas maintenu au T2. Conclusion: L'efficacité démontrée pour réduire la sévérité de la douleur à court terme de cette combinaison IMP + tDCS est le premier jalon et des études subséquentes permettront d'en confirmer la pertinence.
APA, Harvard, Vancouver, ISO, and other styles
13

Fonteneau, Clara. "Impact of a single frontal transcranial direct current stimulation on the dopaminergic network in healthy subjects." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1079/document.

Full text
Abstract:
La stimulation transcrânienne par courant continu (tDCS) sert à moduler l’activité neuronale. Elle consiste à appliquer un faible courant constant entre deux électrodes placées sur le cuir chevelu. Deux montages semblent efficaces pour moduler les capacités cognitives et/ou soulager des symptômes cliniques. Cependant, les effets neurobiologiques de la tDCS sont encore mal connues. Ce travail de thèse a tenté de clarifier les mécanismes cérébraux de la tDCS chez les sujets sains, en particulier en lien avec le système dopaminergique. En utilisant un design randomisée en double aveugle, nous avons combiné une session de tDCS online avec plusieurs modalités d'imagerie (PET ou PET-IRM simultanée) chez le sujet au repos. Une première étude (n=32, 2mA, 20min) a montré que la tDCS bifrontale induit une augmentation de la dopamine extracellulaire dans le striatum ventral, impliqué dans le réseau de récompense-motivation, après la stimulation. Une seconde étude (n=30, 1mA, 30min) a montré que la tDCS fronto-temporale induit une augmentation de la dopamine extracellulaire dans la partie exécutive du striatum et une diminution de la perfusion dans une région du réseau du default mode (DMN), après la stimulation. L'analyse des données de cette étude est toujours en cours. Dans l’ensemble, ce travail fournit la preuve qu'une seule session de tDCS frontale peut impacter le système dopaminergique dans des régions connectées aux zones corticales stimulées. Par conséquent, les niveaux d'activité et réactivité dopaminergique doivent être de nouveaux éléments à considérer dans l’hypothèse globale de modulation de l’activité cérébrale par la tDCS frontale
Transcranial direct current stimulation (tDCS) is used to modulate neuronal activity in the brain. It consists in applying a small constant current between two electrodes placed over the scalp. Two frontal tDCS montages have shown promises in modulating cognitive abilities and/or helping to alleviate clinical symptoms. However, the effects of tDCS on brain physiology are still poorly understood. The aim of this thesis work was to clarify brain mechanisms underlying frontal tDCS in healthy subjects, specifically in relation to the dopaminergic system. Using a double blind sham-controlled design, we combined a single session of tDCS online with several imaging techniques (PET or simultaneous PET-MRI) with the subject at rest. A first study (n=32, 2mA, 20min) showed that bifrontal tDCS induced an increase in extracellular dopamine in the ventral striatum, involved in the reward-motivation network, after the stimulation period. A second study (n=30, 1mA, 30min) showed that fronto-temporal tDCS induced an increase in extracellular dopamine in the executive part of striatum as well as a decrease in perfusion in a region part of the default mode network (DMN), after the stimulation period. The data analysis of this study is still ongoing. Overall, the present work provides evidence that a single session of frontal tDCS impacts the dopaminergic system in regions connected to the stimulated cortical areas. Therefore, levels of dopamine activity and reactivity should be new elements to consider for a general hypothesis of brain modulation by frontal tDCS
APA, Harvard, Vancouver, ISO, and other styles
14

Bor, Julie. "Une nouvelle approche de la physiopathologie de la schizophrénie : imagerie des modifications cérébrales biochimiques et fonctionnelles induites par des thérapeutiques non pharmacologiques." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10147.

Full text
Abstract:
Malgré le développement de nouvelles générations d’antipsychotiques, certains symptômes schizophréniques ne répondent pas à ces traitements. S’appuyant sur des hypothèses physiopathologiques sous tendant ces symptômes, de nouvelles thérapeutiques comme la thérapie de remédiation cognitive et les techniques de neurostimulation externe ont été développées. Cette approche était restée essentiellement clinique. Dans ce travail, l’étude en imagerie des mécanismes biologiques sous tendant les effets bénéfiques de ces thérapeutiques non pharmacologiques nous a permis de tester des hypothèses physiopathologiques. L’IRM fonctionnelle (IRMf) et la spectroscopie par résonance magnétique (SRM) ont été utilisées pour rechercher les effets d’une thérapie de remédiation cognitive (TRC), de la stimulation magnétique transcrânienne (TMS) et de la stimulation électrique transcrânienne en courant continu (tDCS). Nous avons mis en évidence (1) que la TRC modifie les activations cérébrales durant une tâche de mémoire de travail chez des patients schizophrènes (2) que la TMS modifie la biochimie cérébrale de la zone stimulée et de régions cérébrales profondes chez un patient schizophrène, (3) que la tDCS modifie les réseaux de connectivité fonctionnelle d’une tâche de repos chez des volontaires sains
Despite the development of new generation antipsychotic drugs, some symptoms of schizophrenia do not respond to these treatments. Based on the pathophysiological hypothesis underlying these symptoms, new therapies such as cognitive remediation therapy and neurostimulation techniques have been developed. This approach remained essentially clinical. In this work, the study of biological mechanisms tending benefits of these non-pharmacological treatment has allowed us to test these pathophysiological hypotheses. Functional MRI (fMRI) and magnetic resonance spectroscopy (MRS) were used to investigate the effects of cognitive remediation therapy (CRT), transcranial magnetic stimulation (TMS) and transcranial direct current stimulation (tDCS). We demonstrated (1) that CRT modifies cerebral activations during a working memory task in patients with schizophrenia, (2) that TMS modifies brain biochemistry of the stimulated area and of deep brain regions in a patient with schizophrenia and (3) that tDCS modifies the functional connectivity in resting state networks of healthy volunteers
APA, Harvard, Vancouver, ISO, and other styles
15

Hadj-Youcef, Mohamed Elamine. "Spatio spectral reconstruction from low resolution multispectral data : application to the Mid-Infrared instrument of the James Webb Space Telescope." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS326/document.

Full text
Abstract:
Cette thèse traite un problème inverse en astronomie. L’objectif est de reconstruire un objet 2D+λ, ayant une distribution spatiale et spectrale, à partir d’un ensemble de données multispectrales de basse résolution fournies par l’imageur MIRI (Mid-InfraRed Instrument), qui est à bord du prochain télescope spatial James Webb Space Telescope (JWST). Les données multispectrales observées souffrent d’un flou spatial qui dépend de la longueur d’onde. Cet effet est dû à la convolution par la réponse optique (PSF). De plus, les données multi-spectrales souffrent également d’une sévère dégradation spectrale en raison du filtrage spectral et de l’intégration par le détecteur sur de larges bandes. La reconstruction de l’objet original est un problème mal posé en raison du manque important d’informations spectrales dans l’ensemble de données multispectrales. La difficulté se pose alors dans le choix d’une représentation de l’objet permettant la reconstruction de l’information spectrale. Un modèle classique utilisé jusqu’à présent considère une PSF invariante spectralement par bande, ce qui néglige la variation spectrale de la PSF. Cependant, ce modèle simpliste convient que dans le cas d’instrument à une bande spectrale très étroite, ce qui n’est pas le cas pour l’imageur de MIRI. Notre approche consiste à développer une méthode pour l’inversion qui se résume en quatre étapes : (1) concevoir un modèle de l’instrument reproduisant les données multispectrales observées, (2) proposer un modèle adapté pour représenter l’objet à reconstruire, (3) exploiter conjointement l’ensemble des données multispectrales, et enfin (4) développer une méthode de reconstruction basée sur la régularisation en introduisant des priori à la solution. Les résultats de reconstruction d’objets spatio-spectral à partir de neuf images multispectrales simulées de l’imageur de MIRI montrent une augmentation significative des résolutions spatiale et spectrale de l’objet par rapport à des méthodes conventionnelles. L’objet reconstruit montre l’effet de débruitage et de déconvolution des données multispectrales. Nous avons obtenu une erreur relative n’excédant pas 5% à 30 dB et un temps d’exécution de 1 seconde pour l’algorithme de norm-l₂ et 20 secondes avec 50 itérations pour l’algorithme norm-l₂/l₁. C’est 10 fois plus rapide que la solution itérative calculée par l’algorithme de gradient conjugué
This thesis deals with an inverse problem in astronomy. The objective is to reconstruct a spatio-spectral object, having spatial and spectral distributions, from a set of low-resolution multispectral data taken by the imager MIRI (Mid-InfraRed Instrument), which is on board the next space telescope James Webb Space Telescope (JWST). The observed multispectral data suffers from a spatial blur that varies according to the wavelength due to the spatial convolution with a shift-variant optical response (PSF). In addition the multispectral data also suffers from severe spectral degradations because of the spectral filtering and the integration by the detector over broad bands. The reconstruction of the original object is an ill-posed problem because of the severe lack of spectral information in the multispectral dataset. The difficulty then arises in choosing a representation of the object that allows the reconstruction of this spectral information. A common model used so far considers a spectral shift-invariant PSF per band, which neglects the spectral variation of the PSF. This simplistic model is only suitable for instruments with a narrow spectral band, which is not the case for the imager of MIRI. Our approach consists of developing an inverse problem framework that is summarized in four steps: (1) designing an instrument model that reproduces the observed multispectral data, (2) proposing an adapted model to represent the sought object, (3) exploiting all multispectral dataset jointly, and finally (4) developing a reconstruction method based on regularization methods by enforcing prior information to the solution. The overall reconstruction results obtained on simulated data of the JWST/MIRI imager show a significant increase of spatial and spectral resolutions of the reconstructed object compared to conventional methods. The reconstructed object shows a clear denoising and deconvolution of the multispectral data. We obtained a relative error below 5% at 30 dB, and an execution time of 1 second for the l₂-norm algorithm and 20 seconds (with 50 iterations) for the l₂/l₁-norm algorithm. This is 10 times faster than the iterative solution computed by conjugate gradients
APA, Harvard, Vancouver, ISO, and other styles
16

Gueth, Pierre. "Formation directe de champs de déplacement en imagerie ultrasonore." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00684136.

Full text
Abstract:
Dans le domaine de l'imagerie médicale ultrasonore, la connaissance du déplacement du milieu imagé est une donnée clinique très importante dans de nombreux examens, parmi lesquels nous pouvons citer les examens Doppler ou les examens d'élastographie. Dans la littérature, les deux principales familles de méthodes permettant d'estimer le déplacement sont les méthodes de mise en correspondance de blocs et les méthodes Doppler. Les méthodes de mise en correspondance de blocs estiment le déplacement en comparant des vignettes prises dans les images ultrasonores avant et après déplacement. Elles dépendent donc de la méthode utilisée pour former les images. Les méthodes Doppler mesurent quant à elles le déplacement suivant une direction particulière, ce qui limite leur gamme d'utilisation à l'estimation de champs de déplacements simple. Dans cette thèse, nous avons proposé un formalisme, ainsi que trois méthodes, permettant d'estimer le déplacement 2D directement à partir de ces signaux bruts. Cette approche permet de s'affranchir de la dépendance envers la méthode de formation d'images, tout en permettant l'estimation de champs complexes. Nous avons mis en évidence le concept de vecteur normal, liant le déplacement réel de milieu aux décalages temporels de long des signaux bruts. Le formalisme général est appliqué à plusieurs séquences ultrasonores: la première méthode d'estimation utilise des signaux acquis à l'aide d'éléments uniques de la sonde; la deuxième est basée sur l'utilisation d'ondes planes et la troisième méthode s'appuie sur une séquence utilisant des faisceaux focalisés. Les méthodes d'estimation directe du mouvement ont été validées en simulation et expérimentalement, et leurs performances ont été comparées à une méthode de référence: la mise en correspondance de blocs. Les méthodes proposées améliorent significativement la précision de l'estimation du champ de déplacement par rapport à la méthode standard, en atteignant une précision de 1.5µm dans la direction transverse et une précision de 2.5µm dans la direction axiale pour une fréquence de travail de 5MHz. Nous avons également développé une méthode de formation d'images améliorant la résolution spatiale. Cette méthode utilise les spectres de signaux RF acquis avec des ondes planes pour former le spectre de l'image ultrasonore. Elle fournit les images utilisées par la méthode d'estimation du mouvement de référence.
APA, Harvard, Vancouver, ISO, and other styles
17

Lencrerot, R. "Outils de modélisation et d'imagerie pour un scanner micro-onde : Application au contrôle de la teneur en eau d'une colonne de sol." Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2008. http://tel.archives-ouvertes.fr/tel-00438308.

Full text
Abstract:
L'évaluation de la teneur en eau est actuellement un objectif important pour la caractérisation des sols et la compréhension des mécanismes liés au transfert hydrique et à l'absorption racinaire. Il existe un lien entre les variations de la teneur en eau et la permittivité des sols. L'objectif de ces travaux est d'exploiter ce couplage pour définir un protocole d'imagerie active micro-onde d'un monolithe. En effet, lorsqu'une onde électromagnétique rencontre un objet ayant des dimensions caractéristiques de l'ordre de sa longueur d'onde, celle-ci après interactions, va induire un courant qui à son tour générera un champ électromagnétique diffracté. La mesure de ce champ va permettre de revenir aux informations relatives à l'objet, en particulier sa permittivité. Nous nous appuierons ici sur un système de mesure hyperfréquence constitué d'une cavité métallique cylindrique. Il a donc fallu mettre au point des outils numériques de modélisation et d'imagerie de permettant de décrire le phénomène de diffraction dans un tel environnement. L'imagerie micro-onde quantitative est un problème inverse non-linéaire mal posé. De plus, les mesures du champ électromagnétique sont perturbées, ce qui va induire de l'instabilité dans le problème inverse. C'est pourquoi il est nécessaire de mettre en place un algorithme itératif avec ajout d'informations a priori (polynômes de Zernike) pour obtenir une solution stabilisée. Des reconstructions obtenues à partir de champ mesurés sur différents fantômes sont discutées. De plus, les informations fournies par l'étude du comportement de l'opérateur de diffraction renseignent sur la quantité de données accessibles et les informations a priori qui peuvent être légitimes de considérer.
APA, Harvard, Vancouver, ISO, and other styles
18

Vigan, Arthur. "Détection et Caractérisation des Exoplanètes par Imagerie Directe avec IRDIS." Phd thesis, Université de Provence - Aix-Marseille I, 2009. http://tel.archives-ouvertes.fr/tel-00460567.

Full text
Abstract:
Depuis la découverte de la première exoplanète autour d'une étoile de la séquence principale en 1995, seule une poignée d'exoplanètes ont été détectées par imagerie directe du fait de la grande différence de contraste qui existe entre les étoiles et les planètes. L'instrument SPHERE pour le VLT fait partie d'une nouvelle génération d'instruments dédiés à la détection directe de planètes géantes gazeuses qui combine un système d'OA extrême et des coronographes de dernière génération pour allier haute résolution angulaire et haut contraste. IRDIS, le spectro-imageur différentiel de SPHERE, offre plusieurs modes d'observation dans le proche infrarouge, dont les deux principaux sont l'imagerie différentielle (DBI) et la spectroscopie longue fente (LSS). Durant ma thèse j'ai étudié au moyen de simulations numériques détaillées les performances des modes DBI et LSS pour la détection et la caractérisation des exoplanètes. En mode DBI j'ai utilisé les méthodes SDI et ADI pour éliminer les speckles qui limitent intrinsèquement les données, puis j'ai estimé les limites de détection et la précision photométrique de IRDIS en imagerie afin de déterminer une séquence de paires de filtres optimale pour la caractérisation des exoplanètes. En utilisant cette séquence, j'ai pu estimer les températures effectives des planètes qui seront effectivement caractérisables avec IRDIS. En mode LSS, j'ai développé une méthode d'analyse des données spécifique pour les spectres dominés par les speckles et j'ai étudié ses performances en détail pour la caractérisation des exoplanètes. Enfin, j'ai travaillé sur la stratégie d'observation à adopter pour la caractérisation des exoplanètes avec IRDIS au moyen de tests en aveugle en imagerie et en spectroscopie. Ces tests m'ont permis de confirmer les résultats obtenus dans le cadre du travail détaillé sur les modes DBI et LSS, et en particulier d'étudier la discrimination des contaminants stellaires dans les données de IRDIS.
APA, Harvard, Vancouver, ISO, and other styles
19

Batmaz, Anil Ufuk. "Speed, precision and grip force analysis of human manual operations with and without direct visual input." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ056/document.

Full text
Abstract:
Le système perceptif d’un chirurgien doit s’adapter aux contraintes multisensorielles liées à la chirurgie guidée par l’image. Trois expériences sont conçues pour explorer ces contraintes visuelles et haptiques pour l’apprentissage guidé par l’image. Les résultats montrent que les sujets sont plus rapides et plus précis avec une vision directe. La stéréoscopie 3D n’améliore pas les performances des débutants complets. En réalité virtuelle, la variation de la longueur, largeur, position et complexité de l'objet affecte les performances motrices. La force de préhension appliquée sur un système robotique chirurgical dépend de l'expérience de l'utilisateur. En conclusion, le temps et la précision sont importants, mais la précision doit rester une priorité pour un apprenti. L'homogénéité des groupes d'étude est important pour la recherche sur la formation chirurgicale. Les résultats ont un impact direct sur le suivi des compétences individuelles pour les applications guidées par l'image
Perceptual system of a surgeon must adapt to conditions of multisensorial constrains regard to planning, control, and execution of the image-guided surgical operations. Three experimental setups are designed to explore these visual and haptic constraints in the image-guided training. Results show that subjects are faster and more precise with direct vision compared to image guidance. Stereoscopic 3D viewing does not represent a performance advantage for complete beginners. In virtual reality, variation in object length, width, position, and complexity affect the motor performance. Applied grip force on a surgical robot system depends on the user experience level. In conclusion, both time and precision matter critically, but trainee gets as precise as possible before getting faster should be a priority. Study group homogeneity and background play key role in surgical training research. The findings have direct implications for individual skill monitoring for image-guided applications
APA, Harvard, Vancouver, ISO, and other styles
20

Denis, Gauthier. "Implication des dimensions neurocognitives dans le maintien de l’effort physique au travers du rôle endossé par le cortex préfrontal et de la perspective coûts/bénéfices." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4091.

Full text
Abstract:
Le cortex préfrontal (CPF), habituellement connu pour son implication dans le contrôle cognitif supérieur, apparaît particulièrement impliqué dans le maintien de l’effort physique. Si cette implication suggère l’existence d’une composante psychologique dans la capacité à tolérer et maintenir l’exercice, les mécanismes neurocognitifs sous-jacents demeurent relativement méconnus. Des propositions théoriques récentes envisagent que l’arrêt de l’exercice soit déterminé par un processus décisionnel contrôlé par le CPF. L’intégration et l’évaluation consciente des coûts (i.e, sensations désagréables de fatigue) et des bénéfices (e.g., récompenses) associés à la tâche d’effort conditionneraient cette décision. Le maintien de l’effort serait dynamisé lorsque les bénéfices estimés augmentent ou que les coûts perçus diminuent. Toutefois, la manière dont le fonctionnement cognitif et le CPF pourraient moduler l’intégration de ces informations pour favoriser une décision orientée vers la poursuite de l’exercice reste à clarifier. Le niveau d’attention accordée aux coûts et aux bénéfices jouerait un rôle dans ce processus. De plus, les sensations désagréables de fatigue seraient limitées via une fonction inhibitrice implémentée au niveau du CPF. L’objectif de ce travail doctoral était de préciser l’implication des dimensions neurocognitives et notamment du CPF dans l’intégration et le traitement des coûts et des bénéfices susceptibles de moduler le maintien de l’effort. Les résultats de l’étude 1 n’ont pas permis de révéler l’implication du CPF dans l’endurance physique via l’engagement de sa fonction cognitive d’inhibition. Toutefois, les résultats des études 2, 3 et 4 ont indiqué que l’orientation de l’attention, plus ou moins dirigée vers les coûts ou les bénéfices, modulait les performances d’endurance et l’activité des régions du CPF impliquées dans l’intégration et la régulation de ces informations. Une focalisation de l’attention sur les bénéfices monétaires a amélioré les performances comparativement à une focalisation sur les coûts de l’effort ou à une tâche de distraction cognitive. Les focalisations sur les coûts et les bénéfices ont induit une intensification de l’activité des régions antérieures et inférieures du CPF impliquées dans l’interprétation de ces informations (étude 3). De plus, la réalisation d’une tâche de distraction cognitive a repoussé la décision d’arrêter l’exercice et a entrainé une diminution de l’activité inhibitrice de régions préfrontales susceptibles de réguler les coûts de l’effort (étude 2). Cette partie de nos résultats suggère la capacité de l’attention à repousser l’arrêt de l’exercice en favorisant l’intégration consciente des bénéfices (via une focalisation vers ces informations) et en perturbant celle des coûts (via une distraction cognitive). Elle tend aussi à souligner l’implication du CPF dans la régulation des coûts perçus et le traitement des coûts et des bénéfices associés à l’effort d’endurance. De manière relativement contradictoire, une focalisation sur les coûts n’a pas nécessairement conduit à un arrêt plus précoce de l’effort (comparativement à une condition de distraction cognitive) mais à une amélioration de l’endurance musculaire chez les individus disposant des meilleures capacités aérobies (étude 4). Faciliter l’intégration consciente des coûts de l’effort s’avérerait ainsi favorable au maintien de l’exercice chez certains individus. Les résultats de ce travail renforcent l’idée d’une implication des processus neurocognitifs dans le maintien de l’effort physique. Chercher à identifier les stratégies attentionnelles favorisant l’engagement dans l’exercice physique et le maintien de l’effort chez différentes populations constitue une perspective de recherche intéressante, notamment chez des individus sédentaires pour qui la pratique physique représente un réel enjeu de santé
The prefrontal cortex (PFC), usually known for its involvement in higher cognitive control, appears to be particularly involved in maintaining physical effort. While this involvement suggests the existence of a psychological component in the ability to tolerate and maintain exercise, the underlying neurocognitive mechanisms remain relatively unknown. Recent theoretical proposals speculate that exercise termination is determined by a decision-making process, controlled by the PFC. The integration and conscious evaluation of the costs (i.e., unpleasant feelings of fatigue) and benefits (e.g., rewards), associated with the physical task, would control this decision. Maintaining an effort would be facilitated when estimated benefits increase or perceived costs decrease. However, how cognitive functioning and the PFC may modulate the integration of this information to support a decision to continue exercise remains to be clarified. The level of attention given to costs and benefits could play a role in this process. In addition, the unpleasant sensations of fatigue would be limited via an inhibitory function implemented at the level of the PFC. The objective of this doctoral work was to clarify the involvement of the neurocognitive dimensions and in particular of the PFC in the integration and processing of costs and benefits likely to modulate maintaining an effort. The results of study 1 failed to reveal the involvement of the PFC through the engagement of its inhibitory cognitive function in physical endurance. However, the results of studies 2, 3 and 4 indicated that the orientation of attention, more or less directed towards the costs or the benefits, modulated the endurance performance and the activity of the regions of the PFC involved in the integration and regulation of this information. Attention focused on monetary benefits improved performance compared to a focus on the costs of the effort or a cognitive distraction task. The focus on costs and benefits led to increased activity in the anterior and inferior regions of the PFC involved in interpreting this information (study 3). In addition, performing a cognitive distraction task delayed the decision to stop the exercise and resulted in decreased inhibitory activity in prefrontal regions that may regulate exercise costs (study 2). These results suggest the ability of attention to delay exercise cessation by facilitating the conscious integration of benefits (through focusing on that information) and disrupting that of costs (through cognitive distraction). It also tends to emphasize the involvement of the PFC in the regulation of perceived costs and the processing of costs and benefits associated with endurance effort. In a relatively contradictory way, a focus on costs did not necessarily lead to an earlier cessation of the effort (compared to a cognitive distraction condition) but to an improvement in muscular endurance in individuals with the best aerobic capacities (study 4). Facilitating the conscious integration of the costs of the effort would thus prove favorable in maintaining the exercise in certain individuals. The results of this work reinforce the idea that neurocognitive processes are involved in maintaining physical effort. Identifying attentional strategies that could facilitate engaging in physical activity and exercise pursuit in different populations is an interesting research perspective, particularly in sedentary individuals for whom physical activity represents a real health issue
APA, Harvard, Vancouver, ISO, and other styles
21

Cugnet, David. "Méthodologie de mesure du diamètre solaire par imagerie directe dans l'espace : application au traitement des données du Michelson Doppler Imager de la mission SOHO." Versailles-St Quentin en Yvelines, 2004. http://www.theses.fr/2004VERS0022.

Full text
Abstract:
La variabilité du rayon solaire a longtemps été une question ouverte, intéressant à la fois les climatologues, qui voyaient en elle un possible traceur absolu d’activité solaire, et les physiciens solaires, pour qui elle aurait été la manifestation de changements profonds de la structure solaire, liés au cycle de Schwabe de onze ans. Alors que les résultats des instruments au sol sont encore contradictoires, ceux des instruments spatiaux (principalement le Michelson Doppler Imager, embarqué sur le satellite SOHO) indiquent cependant une variation bien plus faible qu’escomptée, ce que confirment les résultats de ce document. Le traitement du problème nécessite la prise en compte des effets instrumentaux. À cet effet, un formalisme général est introduit dans ce document, avec une modélisation générique des effets (distorsion, fonction d’étalement, flat-field, bruits de mesure) et dispositifs (filtrage spectral, obturateurs) les plus courants. Une procédure de traitement a été programmée en langage MATLAB ; sa stabilité a été démontrée sur plusieurs milliers d’images du MDI. Les résultats sont corrigés de la dérive, principalement instrumentale, mesurée pendant le maximum solaire ; ils montrent une dérive de rayon solaire n’excédant pas 9 mas pendant la période 2002-2003 — qui correspond à une décroissance du cycle— compatible avec une constance compte tenu des erreurs de mesure. La routine est d’une rapidité suffisante pour le traitement en flux tendu de données d’origine spatiale à grande cadence ainsi que la mesure des oscillations de rayon solaire ; elle se prête à l’utilisation de toute information plus précise sur la fonction d’instrument (modèle de distorsion notamment). Des outils numériques visant à mesurer distorsion et fonction d’étalement au limbe à partir des données elles-mêmes sont proposés et mériteraient une application au MDI afin d’examiner l’évolution de la figure solaire au cours du cycle de Schwabe
The question of the solar radius variation was a longstanding issue. Such a variation is not only of interest for the climatologists, who need an absolute solar activity tracer, but also for the solar physicists, who are searching for an evidence of deep structural changes of the solar interior linked to the eleven years Schwabe activity cycle. While results from ground-based instruments are still controversial, those from space instruments (mainly the Michelson Doppler Imager — onboard SOHO) exhibit a much lower variation than expected, as confirmed by the results presented in this document. Algorithms taking into account instrumental effects are required for this solar radius measurement problem. A general frame is presented in this document, as well as generic models of the more usual effects (distortion, point spread function and flat-field) and instrumental devices (spectral filtering, shutters). A full treatment procedure has been programmed using MATLAB language; its numerical stability has been demonstrated on thousands of MDI images. The main instrumental trend measured during the solar maximum is used to correct the results; they show solar radius residuals lower than 9 mas during the 2002-2003 period, where the cycle is in decreasing phase, which are consistent with a constant solar radius, within the achievable precision. The computational speed of this routine is enough to treat in real time high-rate space data and to measure solar radius oscillations and is designed to take advantage of more accurate information about the instrumental function (in particular a better distortion model). Numerical tools dedicated to the measurement of distortion and PSF at the limb from the data themselves are proposed; it would be of interest to apply them to the MDI images and so making possible a monitoring of the solar figure evolution during the Schwabe cycle
APA, Harvard, Vancouver, ISO, and other styles
22

Andrei, Cassiana. "Détection directe et sélective de bactéries par imagerie Raman exaltée de surface." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX065.

Full text
Abstract:
La détection rapide de bactéries est un enjeu majeur dans différentes domaines que ce soit l’agroalimentaire, la santé ou le secteur militaire dans sa lutte contre le bioterrorisme. Les biopuces sont des outils d’analyse prometteurs pour remplacer les méthodes classiques de détection qui sont longues et coûteuses. Dans cette thèse, nous avons développé des biopuces à base de silicium amorphe hydrogéné pour le greffage covalent de sondes (anticorps ou sucres) qui interagissent spécifiquement avec les bactéries, et l’identification spectroscopique des bactéries détectées par spectroscopie Raman exaltée de surface (SERS). Dans une première approche, la production de substrats SERS stables à base de couches minces métalliques est décrite. L’étude de la réponse SERS de bactéries déposées sur ces substrats a démontré la discrimination aisée de trois différentes souches de la même bactérie, résultat confirmé par l’analyse de composante principale (PCA). Dans une seconde approche, l’effet SERS a été obtenu en utilisant des nanoparticules métalliques en solution et la meilleure réponse a été obtenue en utilisant des nanobâtonnets d’or chargés positivement. En parallèle, l’optimisation du greffage des sondes sur la surface de silicium amorphe hydrogéné et du blocage pour limiter l’adhésion non-spécifique de bactéries a été réalisée. En utilisant une cellule fluidique, la détection de bactéries a été suivie in situ et leur identification SERS a été effectuée après contact avec nanobâtonnets d’or. Une limite de détection de 10 cfu/mL a été obtenue en moins de 3 h
Rapid detection of bacterial pathogens is an important challenge nowadays in multiple fields like in food industry, health and military biodefense. Biosensors are promising candidates for replacing time consuming and expensive classical tools. In this work, we developed biosensors based on hydrogenated amorphous silicon layer for the covalent grafting of probes (antibodies or sugars) interacting specifically with bacteria, and noble metal nanoparticles for spectroscopic identification of trapped bacteria by surface enhanced Raman spectroscopy (SERS). In a first approach, the production of stable and cost-effective SERS-active substrates based on metallic thin films was proposed for the study of various bacteria. Different SERS fingerprints of three different strains of the same bacteria were obtained allowing their discrimination, result confirmed by principal component analysis (PCA). In a second approach, SERS study of bacteria was performed using nanoparticles colloids, positively charged gold nanorods showing the best reproducibility. In parallel, the optimization of probes grafting on the amorphous silicon surface and of the blocking step for minimization of non-specific adhesion of bacteria were performed. Finally, tests with the entire architecture of the biosensor were performed and by using a fluidic cell the attachment of bacteria was monitored in situ. After contact with gold nanorods the specific identification of bacteria by SERS was possible. Using this strategy limits of detection up to 10 cfu/mL were achieved in a total time of detection of 3 h
APA, Harvard, Vancouver, ISO, and other styles
23

Souquet, Agnès. "Etude des processus physiques mis en jeu lors de la microimpression d'éléments biologiques assistée par laser." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14232/document.

Full text
Abstract:
Parallèlement à l’impression jet d’encre et au bioplotting, l’impression d'éléments biologiques assistée par laser (Laser Assisted Bioprinting : LAB) qui utilise le transfert vers l’avant induit par laser (Laser Induced Forward Transfer : LIFT) a émergé comme une méthode alternative dans l’assemblage et la micro–structuration de biomatériaux et de cellules. Le LAB est une technique d’écriture directe qui offre la possibilité d’imprimer des motifs avec une haute résolution spatiale à partir d'une large gamme de matériaux solides ou liquides, tels que des diélectriques, des biomolécules et des cellules vivantes en solution.Dans nos travaux de recherche, nous avons considéré une approche expérimentale et numérique pour étudier les mécanismes physiques mis en jeu lors de la microimpression d’éléments biologiques assistée par laser. Dans un premier temps nous avons défini les paramètres rhéologiques des bioencres et les conditions de transfert (composition, épaisseur et viscosité de la bioencre et énergie laser). Puis nous avons mené une analyse statistique du volume des gouttelettes déposées pour quatre viscosités de bioencre, cinq épaisseurs de bioencre et cinq énergies laser. Ensuite nous avons conçu et mis en place un système d’imagerie résolue en temps pour étudier les effets de la viscosité sur la dynamique de l’éjection. Nous avons ainsi différencié trois régimes d'éjection en fonction de l'énergie laser déposée dans la couche absorbante, de la viscosité et de l'épaisseur de la bioencre. Parallèlement, un modèle numérique a été mis en place pour comprendre et prédire la dynamique de l’éjection en fonction de paramètres multiples : choix et épaisseur de la couche absorbante, épaisseur de la couche de bioencre, énergie laser déposée. Enfin, au regard de ces études, nous proposons un mécanisme d'éjection des microgouttelettes intervenant au cours du procédé de microimpression assistée par laser
Over this decade, cell printing strategy has emerged as one of the promising approaches to organize cells in two and three dimensional engineered tissues. In parallel with ink-jet printing and bioplotting, Laser Assisted Bioprinting (LAB) using Laser-Induced Forward Transfer (LIFT) has emerged as an alternative method in the assembly and micropatterning of biomaterials and cells. LAB is a laser direct-write technique that offers the possibility of printing micropatterns with high spatial resolution from a wide range of solid or liquid materials, such as dielectrics, biomolecules and living cells in solution. In our research works, we considered an experimental and numerical approach to study the physical mechanisms involved in the biological elements microprinting laser assisted.First we defined the rheological parameters of bioinks and the transfer conditions (composition, thickness and viscosity of the bioink and laser energy). Then we led a statistical analysis of the volume of the transfer droplets for four viscosities of bioink, five thicknesses of bioink and five laser energies. Then we designed and implemented a system for time resolved imaging to study the effects of viscosity on the dynamics of the ejection. Thus we have differentiated three ejection regimes in function of the laser energy released in the absorbing layer, the visocsity and the thickness of the bioink. In parallel, a numerical model was developed to understand and predict the dynamics of the ejection parameters according to multiple choice and thickness of the absorbing layer, thickness of the layer bioencre, energy deposited. Finally, with regard to these studies, we propose a mechanism for ejecting droplets involved in the process of laser-assisted microprinting
APA, Harvard, Vancouver, ISO, and other styles
24

Udomchaiporn, A. "Volumetric data classification : a study direct at 3-D imagery." Thesis, University of Liverpool, 2016. http://livrepository.liverpool.ac.uk/3004440/.

Full text
Abstract:
This thesis describes research work undertaken in the field of image mining (particularly medical image mining). More specifically, the research work is directed at 3-D image classification according to the nature of a particular Volume Of Interest (VOI) that appears across a given image set. In this thesis the term VOI Based Image Classification (VOIBIC) has been coined to describe this process. VOIBIC entails a number of challenges. The first is the identification and isolation of the VOIs. Two segmentation algorithms are thus proposed to extract a given VOI from an image set: (i) Volume Growing and (ii) Bounding Box. The second challenge that VOIBIC poses is, once the VOI have been identified, how best to represent the VOI so that classification can be effectively and efficiently conducted. Three approaches are considered. The first is founded on the idea of using statistical metrics, the Statistical Metrics based representation. This representation offers the advantage in that it is straightforward and, although not especially novel, provides a benchmark. The second proposed representation is founded on the concept of point series (curves) describing the perimeter of a VOI, the Point Series representation. Two variations of this representation are considered: (i) Spoke based and (ii) Disc based. The third proposed representation is founded on a Frequent Subgraph Mining (FSM) technique whereby the VOI is represented using an Oct-tree structure to which FSM can be applied. The identified frequent subtrees can then be used to define a feature vector representation compatible with many classifier model generation methods. The thesis also considers augmenting the VOI data with meta data, namely age and gender, and determining the effect this has on performance. The presented evaluation used two 3-D MRI brain scan data sets: (i) Epilepsy and (ii) Musicians. The VOI in this case were the lateral ventricles, a distinctive VOI in such MRI brain scan data. For evaluation purposes two scenarios are considered, distinguishing between: (i) epilepsy patients and healthy people and (ii) musicians and non-musicians. The results indicates that the Spoke based point series representation technique produced the best results with a recorded classification accuracy of up to 78.52% for the Epilepsy dataset and 84.91% for the Musician dataset.
APA, Harvard, Vancouver, ISO, and other styles
25

Collignon, Anne-Margaux. "Utilisation de cellules souches pulpaires combinées à une matrice de collagène pour la réparation osseuse cranio-faciale Strategies developed to induce, direct, and potentiate bone healing Accelerated craniofacial bone regeneration through dense collagen gel scaffolds seeded with dental pulp stem cells Mouse Wnt1-CRE-RosaTomato dental pulp stem cells directly contribute to the calvarial bone regeneration process Early angiogenesis detected by PET imaging with 64Cu-NODAGA-RGD is predictive of bone critical defect repair." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB113.

Full text
Abstract:
La région cranio-faciale est particulièrement vulnérable aux pertes de structures. Sa localisation et sa visibilité font qu'une atteinte entraîne des troubles, aussi bien physiques (alimentation, phonation...) que psychologiques (intégrité de la personne...). Les traitements actuels (régénération osseuse guidée, autogreffe osseuse ou allogreffe) sont particulièrement invasifs et présentent un taux d'échec élevé. Tout cela affecte fortement la qualité de vie du patient. De plus, le coût direct de ces traitements est important pour les systèmes de santé et le patient. Il existe donc un réel besoin de développer des traitements innovants basés sur des approches biomimétiques d'ingénierie tissulaire pour la régénération/réparation osseuse. L'objectif de ce travail est de développer une approche d'ingénierie tissulaire pour la réparation/régénération de tissus osseux cranio-faciaux lésés. Il est basé sur l'utilisation de matrices cellularisées avec des cellules souches mésenchymateuses issues de la pulpe dentaire : les Dental Pulp Stem Cells (DPSCs). De nombreux travaux ont démontré la grande plasticité de ces cellules, qui dérivent initialement de la crête neurale, mais aussi leur rôle trophique dans la réparation de tissus lésés par leur capacité de différenciation ostéogénique et chondrocytaire. Par ailleurs, ces cellules présentent des propriétés pro-angiogéniques supérieures aux cellules mésenchymateuses de la moelle osseuse (MSCs) et l'accès à cette réserve est aisé puisqu'elles peuvent être obtenues à partir de dents extraites. Dans ce contexte, nous avons à ce jour utilisé des matrices denses de collagène contenant des cellules souches pulpaires pour régénérer un tissu osseux crânien après réalisation de défauts critiques. L'objectif est d'induire très précocement une néo-angiogenèse favorisant à court terme la survie des cellules implantées, puis de stimuler leur maintien à long terme au sein du néo-tissu implanté, pour enfin provoquer une ostéoformation. Nous avons, ainsi, pu étudier et valider différents aspects de cette thématique : .1 L'impact positif de l'utilisation de matrices denses de collagène comme support ostéoconducteur, .2 Le suivi à long terme des cellules après implantation in vivo .3 L'impact positif d'un pré-traitement à l'hypoxie sur i/ la survie des cellules après implantation in vivo ii/ la potentialisation de leur apport pour la régénération/réparation osseuse en orientant leur différenciation vers une voie ostéoblastique, .4 L'apport significatif des techniques d'imageries pour le suivi des animaux grâce à la tomographie par émission de positons (utilisation de traceurs spécifiques de la minéralisation au sein des matrices et de la néo-angiogenèse) et au microscanner à rayons X (suivi cinétique de la qualité et de la quantité de matrice osseuse régénérée), .5 La validation et la confirmation de l'ensemble de ces résultats par l'histologie. Ainsi, ces résultats nous ont permis de répondre à l'objectif de travail et de perfectionner certains aspects de la composante cellulaire. Toutefois, il reste nécessaire d'optimiser le biomatériau lui-même. Il est en effet envisageable d'améliorer les matrices de collagène compressées que nous utilisons actuellement, en y intégrant par exemple des céramiques bioactives. En perspective, potentialiser les biomatériaux des matrices et combiner les DPSCs avec un support plus adapté à leur survie et à leur croissance permettrait d'améliorer considérablement la cicatrisation osseuse. Ces dernières années, l'étude des cellules souches a progressé d'approche in vitro vers l'in vivo. Les modèles in vivo établis pour étudier ces cellules dans le domaine cranio-facial ont déjà apporté des renseignements et ce travail s'inscrit dans leur continuité en cherchant à concevoir des stratégies adaptées pour l'utilisation future des DPSCs en ingénierie tissulaire
The craniofacial area is particularly vulnerable to structural loss. Its location and visibility make a loss causes disorders, both physical (food, phonation...) than psychological (integrity of the person...). Current treatments (autografts, allografts or synthetic bone grafts) are particularly invasive and have a high failure rate. All this strongly affects the quality of life of the patient. In addition, the cost of these treatments is significant for the health systems and the patient. Therefore, there is a real need to develop innovative treatments based on biomimetic tissue approaches for bone repair. The purpose of this thesis is to develop a tissue engineering approach for the repair/regeneration of injured cranial-facial bone tissue. It is based on the use of cellularized scaffolds with mesenchymal stem cells derived from the dental pulp: Dental Pulp Stem Cells (DPSCs). Many studies have demonstrated the high plasticity of these cells, which initially derive from the neural crest, but also their trophic ability in the repair of damaged tissues by their osteogenic and chondrocyte differentiation capacity. Moreover, these cells have better's pro-angiogenic properties than mesenchymal cells of the bone marrow (MSCs) and access to this reserve is easy since they can be obtained from extracted teeth. In this context, we have used dense collagen scaffolds seeded with DPSCs to regenerate cranial bone tissue on critical defects model. The objective is to induce a very early neo-angiogenesis for improved short-term survival of implanted cells, then stimulate the long-term maintenance of cells in the implanted neo-tissue, finally to cause osteoformation. We were able to study and validate various aspects of this theme: 1- The positive impact of the use of dense collagen scaffold as osteoconductive support, 2- Long-term follow-up of the cells after implantation in vivo (thanks to the use of a cell line constitutively expressing an intracellular fluorescence protein), 3- The positive impact of a pre-treatment with hypoxia on i/ the survival of the cells after implantation in vivo ii/ their contribution to bone regeneration / repair by orienting their differentiation towards an osteoblastic pathway, 4- The significant contribution of imaging techniques for the monitoring of animals (less sacrifice and longitudinal follow-up...) thanks to positron emission tomography (use of specific tracers of the mineralization within the scaffolds and neo-angiogenesis) and X-ray microscanner (kinetic monitoring of the quality and quantity of regenerated bone matrix) 5- Validation and confirmation of all these results by histology. Thus, these different results allowed us to respond to the working hypothesis and optimize some aspects of the cellular component. However, it remains necessary to optimize the biomaterial itself. It is indeed possible to improve the compressed collagen scaffolds that we currently use, for example by incorporating bioactive ceramics such as bioglasses or hydroxyapatite. In recent years, the study of stem cells has progressed from in vitro to in vivo. The in vivo models established to study these cells in the craniofacial area have already provided valuable information and this work is a continuation of these previous studies by seeking to build on better strategies (right characterization, environment oriented...) for the future use of DPSCs for tissue engineering purposes. In view of this work, potentiating the biomaterials of the scaffolds and combining the DPSCs with a support more adapted to their survival and their growth would considerably improve bone healing, as well as bone regeneration / repair
APA, Harvard, Vancouver, ISO, and other styles
26

Sauvage, Jean-Francois. "Calibrations et méthodes d'inversion en imagerie à haute dynamique pour la détection directe d'exoplanètes." Phd thesis, Université Paris-Diderot - Paris VII, 2007. http://tel.archives-ouvertes.fr/tel-00453100.

Full text
Abstract:
La connaissance des exoplanètes est aujourd'hui une problématique majeure en astronomie. Leur observation directe depuis le sol est cependant rendue extrêmement délicate par le rapport de flux existant entre la planète et son étoile hôte mais également par la turbulence atmosphérique. Ce type d'observation implique donc l'utilisation d'instruments dédiés, alliant un grand télescope, un système d'optique adaptative extrême, un coronographe supprimant physiquement les photons issus de l'étoile,une instrumentation plan focale optimisée (imageur différentiel ou spectrographe à intégrale de champ par exemple), mais également uneméthodologie de traitement de données efficace. Le projet SPHERE regroupe ces différents points et fixe le cadre des études effectuées dans cette thèse. Mon travail de thèse a consisté à développer,mettre en oeuvre et à optimiser différentes méthodes permettant d'assurer une détectivité optimale. Ces méthodes ont porté dans un premier temps sur l'optimisation d'un système d'optique adaptative via la mesure et la compensation des aberrations non-vues. Ces aberrations constituent une des principales limitations actuelles des systèmes d'optique adaptative extrême. La méthode proposée, alliant une amélioration de la technique de diversité de phase et une nouvelle procédure de calibration appelée « pseudo closed-loop » a été validée par simulation et testée sur le banc d'optique adaptative de l'ONERA. Une précision ultime de moins de 0,4nm rms par mode a été démontrée, conduisant à un rapport de Strehl interne sur le banc supérieur à 98.0% à 0,6μm. Dans un deuxième temps, mon travail a consisté à proposer une méthode de traitement d'image a posteriori dans le cadre de l'imagerie différentielle sans coronographe, qui consiste à acquérir simultanément des images à différentes longueurs d'onde. Cette méthode, fondée sur une approche de Maximum A Posteriori, utilise l'information multi-longueur d'onde de l'imageur différentiel, pour estimer conjointement les résidus de turbulence ainsi que les paramètres de l'objet. En plus de l'imagerie différentielle spectrale, l'instrument SPHERE permet d'acquérir des images différentielles angulaires, c'est-à-dire avec rotation de champ. Une méthode fondée sur la théorie de la détection est proposée pour traiter de façon optimale ce type de données. Enfin, dans le contexte de l'imagerie coronographique, j'ai proposé dans un troisième temps un modèle novateur complet de formation d'image d'une longue pose avec coronographe. Ce modèle prend en compte un coronographe parfait, des aberrations statiques en amont et en aval du masque focal, et la fonction de structure de la turbulence après correction par OA. Ce modèle est utilisé dans une méthode d'inversion permettant d'estimer l'objet observé. Ces méthodesà fort potentiel devraient être implantées à terme sur l'instrument SPHERE, et devraient permettre la découverte de nouvelles exoplanètes à l'horizon 2011.
APA, Harvard, Vancouver, ISO, and other styles
27

Patru, Fabien. "Imagerie Directe en Interférométrie Stellaire Optique:Capacités d'Imagerie d'un Hypertélescope & Densifieur de Pupille Fibré." Phd thesis, Université de Nice Sophia-Antipolis, 2007. http://tel.archives-ouvertes.fr/tel-00140049.

Full text
Abstract:
Les interféromètres stellaires optiques sont en passe de devenir de véritables imageurs. Pour cela, il faut disposer d'un grand nombre de télescopes pour augmenter le nombre d'éléments de résolution (resel) dans l'image, et il faut cophaser activement les faisceaux pour observer des objets peu brillants en pose longue. Si ces deux conditions sont remplies, il devient plus intéressant de travailler en mode Imagerie Directe qu'en mode Synthèse de Fourier. Dès lors, une prospective est menée sur les futurs grands réseaux en mode hypertélescope, qui optimise les propriétés de l'image. En effet, un hypertélescope fournit une image directe instantanée, avec un fort gain en sensibilité sans perte de champ utile. Il a été démontré que le champ utile d'un interféromètre dilué est imposé par la géométrie du réseau, indépendamment du mode de recombinaison. Le fait de densifier la pupille optimise l'image en ajustant le champ d'imagerie direct avec le champ réellement exploitable par l'interféromètre.

Un programme de simulation (HYPERTEL) étudie les propriétés d'une image directe à partir d'un ensemble de critères d'imagerie qualitatifs. Il est montré que le choix de la configuration du réseau est un compromis entre la résolution, la dynamique, le champ et l'objectif astrophysique. Un pavage régulier et non redondant des ouvertures améliore à la fois la dynamique, le contraste et la fidélité de l'image, mais minimise le champ d'imagerie. Les étoiles multiples requièrent un champ d'imagerie suffisant, tandis que les surfaces stellaires faiblement contrastées exigent de la dynamique.

Un nouveau concept de densifieur de pupille à fibres optiques monomodes dans le visible (SIRIUS) a été développé au laboratoire optique de Grasse de l'Observatoire de la Côte d'Azur. Des études préliminaires sur l'influence des fibres dans le processus d'imagerie ont mis en évidence un optimum pour redéfinir la pupille de sortie du densifieur. Les premières images de SIRIUS ont montré que la densification monomodale améliore la qualité et la stabilité de l'image d'un hypertélescope, moyennant une perte de flux global. Le filtrage spatial des fibres monomodes convertit les perturbations atmosphériques en fluctuations photométriques plus faciles à étalonner. Ces fluctuations photométriques affectent peu la qualité de l'image densifiée, ce qui permet de simplifier la déconvolution de l'image et le cophasage des faisceaux. Enfin, la flexibilité des fibres permet une reconfiguration entrée/sortie plus aisée de la pupille, ce qui convient bien aux nouveaux interféromètres comme le VLTI, CHARA, NPOI, ou encore MROI et OHANA.
APA, Harvard, Vancouver, ISO, and other styles
28

Sauvage, Jean-François. "Calibration et méthodes d'inversion en imagerie à haute dynamique pour la détection directe d'exoplanètes." Paris 7, 2007. http://www.theses.fr/2007PA077207.

Full text
Abstract:
La connaissance des exoplanètes est aujourd'hui une problématique majeure astronomie. Leur observation directe depuis le sol est cependant rendue extrêmement délicate par le rapport de flux existant entre la planète et son étoile hôte mais également par la turbulence atmosphérique. Ce type d'observation implique donc l'utilisation d'instruments dédiés, alliant un grand télescope, un système d'optique adaptative extrême, un coronographe supprimant physiquement les photons issus de l'étoile, une instrumentation plan focale optimisée (imageur différentiel spectrographe à intégrale de champ par exemple), mais également une méthodologie de traitement de données efficace. Le projet SPHERE regroupe ces différents points et fixe le cadre des études effectuées dans cette thèse. Mon travail de thèse a consisté à développer, mettre en oeuvre et à optimiser différentes méthodes permettant d'assurer une détectivité optimale. Ces méthodes ont porté dans un premier temps sur l'optimisation d'un système d'optique adaptative via la mesure et la compensation des aberrations non-vues. Ces aberrations constituent une des principales limitations actuelles des systèmes d'optique adaptative extrême. La méthode proposée, alliant une amélioration de la technique de diversité de phase et une nouvelle procédure de calibration appelée « pseudo closed-loop » a été validée par simulation et testée sur le banc d'optique adaptative de l'ONERA. Une précision ultime de moins de 0,4nm rms par mode a été démontrée, conduisant à un rapport de Strehl interne sur le banc supérieur à 98. 0% à 0,6 microns. Dans un deuxième temps, mon travail a consisté à proposer une méthode de traitement d'image a posteriori dans le cadre de l'imagerie différentielle sans coronographe, qui consiste à acquérir simultanément des images à différentes longueurs d’onde. Cette méthode, fondée sur une approche de Maximum A Posteriori, utilise l’information multi-longueur d’onde de l’imageur différentiel, pour estimer conjointement les résidus de turbulence ainsi que les paramètres de l’objet. En plus de l’imagerie différentielle spectrale, l’ instrument SPHERE permet d’acquérir des images différentielles angulaires, c'est-à-dire avec rotation de champ. Une méthode fondée sur la théorie de la détection est proposée pour traiter de façon optimale ce type de données. Enfin, dans le contexte de l’imagerie coronographique, j’ai proposé dans un troisième temps un modèle novateur complet formation d’image dune longue pose avec coronographe. Ce modèle prend en compte un coronographe parfait, des aberrations statiques en amont et en aval du masque focal, et la fonction de structure de la turbulence après correction par OA. Ce modèle est utilisé dans une méthode d’inversion permettant d’estimer l’objet observé. Ces méthodes à fort potentiel devraient être implantées à terme sur l'instrument SPHER et devraient permettre la découverte de nouvelles exoplanètes à l'horizon 2011
The science of exoplanets is today a primary research area in astronomy. Their direct observation from the ground is nevertheless a highly delicate issue: On the first hand the flux ratio between the planet and its host star reaches 10^6 to 10^9. On the other hand, the atmospheric turbulence corrugates image formation. This kind of observations therefore requires dedicated instruments, using a large telescope, an extreme adaptive optics Systems, a coronagraphic device removing star light, an optimised focal plane instrumentation (differential imager, or integral field spectrograph), but also an efficient image processing methodology. The SPHERE project gathers these different points and gives a framework to the studies done in this thesis. My thesis work consisted in developing and optimising different methods allowing an optimal detectivity. Firstly, these methods focused on the optimisation of an AO System, via the measurement and compensation of unseen aberrations. These aberrations are one of the main limitations of XAO Systems. We propose simultaneously an improvement of the phase diversity approach, and a new procedure of calibration called *pseudo closed-loop". This procedure has been validated by simulations and tested on the ONERA AO bench. An ultimate accuracy of less than 0. 4 nm rms per mode has been demonstrated, leading to an internal Strehl Ratio on the bench greater than 98. 0% at 0. 6 microns. In a second time, my work consisted in developing an image processing method within the framework of differential imaging. This method, based on a Maximum A Posteriori approach, uses the multi-wavelength information from differential imager so as to simultaneously estimate the structure function of the atmosphere and the parameters of the observed object. Besides the spectral imaging, the SPHERE instrument allows the acquisition of angular differential images, using the field rotation. A method based on the theory of detection is proposed in order to efficiently process these data. In a third time, within the framework of coronagraphic imaging, I proposed a novel analytic model of a long exposure coronographic image. This model accounts for a perfect coronagraph, for residual turbulence after AO correction and for static aberrations upstream and downstream the focal mask. These methods should be implemented on instrument SPHERE, and should contribute to the discovery of new exoplanets by 2011
APA, Harvard, Vancouver, ISO, and other styles
29

Nacenta, Mendivil Jorge P. "Imagerie directe de champ électrique par microscopie à balayage d'un transistor à électron unique." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAY009/document.

Full text
Abstract:
Dans le cadre de ce travail de doctorat, nous avons mis au point un nouveau microscope à balayage à transistor à électron unique (SET) qui fonctionne à très basse température (T = 50 mK) et à champs magnétiques intenses (18 T). Un SET se compose d'un petit îlot métallique relié aux électrodes de source et de drain par deux jonctions tunnel. En régime de blocage de Coulomb à basse température (T < 5 K), un champ électrique externe règle le courant circulant dans le SET. De plus, de petites variations du champ électrique entraînent de grandes variations du courant SET, ce qui fait de l'appareil un détecteur de charge très sensible, capable de détecter des charges inférieures à 0,01e. Ainsi, lorsque le SET scanne au-dessus d'une surface, il cartographie les propriétés électrostatiques de l'échantillon. Cependant, la mise en œuvre d'un microscope à balayage SET est extrêmement difficile car il combine la microscopie à sonde à balayage, les basses températures et les dispositifs nanoscopiques très sensibles. Pour cette raison, seuls quelques groupes ont réussi sa réalisation. Nos choix technologiques pour construire le microscope améliorent certains aspects par rapport aux instruments déjà existants.La percée est que nous fabriquons la sonde SET en utilisant des techniques lithographiques standard sur des plaquettes commerciales de silicium. C'est pourquoi il est possible de fabriquer des sondes SET par lots. De plus, grâce à une combinaison de techniques de découpage et de gravure, le SET est conçu très près du bord du substrat de Si (< 1 micromètre ). De cette façon, le SET peut être approché à quelques nanomètres de la surface de l'échantillon au moyen d'un contrôle de distance de force atomique. De plus, une électrode de grille fabriquée sur la sonde à proximité de l'îlot peut être utilisée pour régler le point de fonctionnement du SET. Une nouveauté de notre instrument est qu'avec cet électrode de grille et une boucle de rétroaction, nous avons cartographié directement le champ électrique local. Nous démontrons cette nouvelle méthode de balayage par rétroaction en imaginant un réseau interdigité d'électrodes à l'échelle nanométrique. De plus, le SET est un outil idéal pour l'étude de la localisation d'états électroniques. À l'avenir, notre microscope sera utilisé pour l'étude des systèmes d'électrons bidimensionnels en régime de l'effet Hall quantique, des isolants topologiques et de la transition métal-isolant
In this doctoral work, we have developed a new scanning single electron transistor (SET) microscope that works at very low temperatures (T = 50 mK) and high magnetic fields (B = 18 T). A SET consists of a small metallic island connected to source and drain electrodes through two tunnel junctions. In the Coulomb blockade regime at low temperature regime (T 5 K), an external electric field tunes the current circulating through the SET. In addition,small electric field variations lead to large SET current changes that makes the device a highly sensitive charge detector, able to detect charges smaller than 0.01 e. Thus, when the SET scans above a surface, it maps the electrostatic properties of the sample. However, the implementation of a scanning SET microscope is extremely challenging since it combines scanning probe microscopy, low temperatures and sensitive nanoscopic devices. For thisreason, only a few groups have succeeded its realization. Our technological choices to build the microscope improve certain aspects with respect to the already existing instruments. The breakthrough is that we fabricate the SET probe using standard lithographic techniques on commercial silicon wafers.For that reason, batch fabrication of SET probes is possible. Furthermore, by a combination of dicing and etching techniques, the SET is engineered extremely close to the edge of the Si chip (< 1 micrometer). In this way, the SET can be approached to a few nanometer from the sample surface by means of a atomic force distance control. Additionally, an on-probe gate electrode fabricated close to the island can be used to tune the operating point of the SET. Anovelty of our instrument is that with this on-probe gate and a feedback loop we have been able to map directly the local electric field. We demonstrate this new feedback scanning method by imaging an interdigitated array of nanometer scale electrodes. Moreover, the SET is an ideal tool for the study of the localization of electronic states. In the future, our scanning SET will be used for the study of two-dimensional electron systems in the quantum Hall regime, topological insulators and the metal insulator transition
APA, Harvard, Vancouver, ISO, and other styles
30

Lachane, Martin. "Portal imaging with a direct-detection active matrix flat panel imager." Thesis, McGill University, 2001. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=38070.

Full text
Abstract:
The problem of charge creation by x-rays in amorphous selenium (a-Se) is studied. A quantitative theory is developed which includes collective and single electron-hole pair excitations by a passing electron. This theory is incorporated into a Monte Carlo code to calculate track structures in a-Se. The initial positions of the electron-hole pairs along these tracks are used to study the fraction of pairs which recombine versus incident x-ray energy and applied electric field. The experimentally-observed energy dependence of recombination is attributed to a spur size which is dependent on the velocity of the ionizing electrons. The theory and simulations agree with available experimental data in the energy range from 20 keV to 10 MeV.
The use of an a-Se based direct-detection active matrix flat-panel imager (AMFPI) is explored at megavoltage energies for use in the verification of radiotherapy treatments. As with most other megavoltage detectors, a metal front plate is used to reduce patient scatter and to act as a buildup layer. The Modulation Transfer Function (MTF), Noise Power Spectrum (NPS), and Detective Quantum Efficiency (DQE) are measured. The DQE for the direct detection AMFPI is compared with the published DQE of an indirect detection AMFPI for portal imaging. The direct detector has a lower DQE at zero frequency, but there is a cross-over at approximately 0.3 cycles/mm after which it has a higher DQE.
A theoretical expression for the DQE of medical imaging detectors with non-elementary cascade stages is derived. This formalism can be used in conjunction with Monte Carlo techniques to evaluate the DQE of megavoltage imaging detectors. The predictions of the theory agree with the experimental DQE results for the direct-detection AMFPI and also for published results for the DQE of both a metal/phosphor detector and an indirect-detection AMFPI.
The effect of scatter on image quality is modeled in terms of the scatter fraction (SF) and scatter-to-primary ratio (SPR) using Monte Carlo techniques. To validate these simulations, the SF is measured experimentally using a prototype a-Se detector which uses an electrostatic probe to measure the a-Se surface potential. The simulations are used, along with the DQE simulations, to study the effect of metal/a-Se or metal/phosphor thicknesses on image quality in direct and indirect AMFPIs at megavoltage energies. It is found that for a-Se or phosphor thicknesses less than about 300 mum, a front plate of about 1 mm copper is optimal whereas for larger a-Se/phosphor thicknesses a front plate of about 0.4 mm may in some situations lead to better image quality.
APA, Harvard, Vancouver, ISO, and other styles
31

Salhotra, Amith Kumar. "A performance analysis of a direct-conversion digital X-ray imager." Thesis, University of British Columbia, 2014. http://hdl.handle.net/2429/50495.

Full text
Abstract:
In this thesis, the performance of direct-conversion digital X-ray imagers is evaluated using an elementary model that draws upon the material properties and the dimensions of the X-ray photoconductor employed within such imagers. Five possible X-ray photoconductors are considered in this analysis, namely amorphous selenium, cadmium zinc telluride, mercury iodide, lead iodide, and thallium bromide. The collected charge per unit area is the performance metric considered in this analysis. The collected charge per unit area related to the motion of the electrons and holes individually, and due the motion of both types of charge carriers, is evaluated. The fractional contributions to the collected charge per unit area is also evaluated. The application of both positive and negative biases to the radiation receiving terminals is considered. It is found that the collected charge per unit area, for the case of both positive and negative biases, is higher for the case of cadmium zinc telluride when compared with the other X-ray photoconductors considered in this analysis. This suggests that cadmium zinc telluride may be a better material to employ as the X-ray photoconductor within direct-conversion digital X-ray imagers.
Applied Science, Faculty of
Engineering, School of (Okanagan)
Graduate
APA, Harvard, Vancouver, ISO, and other styles
32

Patru, Fabien. "Imagerie directe en interférométrie stellaire optique : capacités d'imagerie des hypertéléscopes & densifieur de pupille fibré." Nice, 2007. http://www.theses.fr/2007NICE4014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Ben, Bouallegue Fayçal. "Contributions en reconstruction TEP 3D par inversion directe." Montpellier 2, 2009. http://www.theses.fr/2009MON20078.

Full text
Abstract:
Nous présentons deux contributions innovantes dans le domaine de la reconstruction par inversion directe en tomographie par émission de positons (TEP) 3D. D'abord, à partir d'une formulation étendue du rebinning analytique dans l'espace de Fourier 3D, nous développons un algorithme itératif de reprojection (FOREPROJ itératif) qui permet l'estimation des projections obliques manquantes sur la base de l'ensemble des projections mesurées. Il en découle, au premier ordre, une formulation étendue du Fourier rebinning (FORE étendu) et un algorithme de reprojection approximatif associé. Ces deux algorithmes sont évalués sur des simulations numériques de données TEP 3D pour résoudre le problème de la troncature axiale. Prenant avantage de l'ensemble de la statistique disponible, FOREPROJ itératif s'avère une alternative rapide et fiable aux méthodes classiques que sont FOREPROJ et la reprojection géométrique. Il améliore significativement la qualité des coupes reconstruites sans perte de résolution spatiale. Nous évaluons ensuite dans quelle mesure le choix de plan fixes pour paramétrer les projections permet de simplifier l'étape d'interpolation en fréquence requise par l'application du théorème de la projection de Fourier en 3D (3D-FST). Nous comparons l'implémentation directe de ce dernier avec un nouvel algorithme de gridding basé sur une géométrie à 2 plans fixes et ne nécessitant qu'une interpolation 1D dans l'espace de Fourier. Il apparaît que l'utilisation de deux plans orthogonaux conduit à un rapport signal à bruit dans les coupes reconstruites similaire à celui obtenu par le 3D-FST avec une statistique double, cela sans perte de résolution
We present two innovative contributions in 3D positron emission tomography (PET) direct reconstruction. First, we develop an extended three-dimensional exact rebinning formula in the Fourier space that leads to an iterative reprojection algorithm (iterative FOREPROJ), which enables the estimation of unmeasured oblique projection data on the basis of the whole set of measured data. In first approximation, this analytical formula also leads to an extended Fourier rebinning equation that is the basis for an approximate reprojection algorithm (extended FORE). These algorithms are evaluated on numerically simulated 3D PET data for the solution of the truncation problem. By taking advantage of all the 3D data statistics, the iterative FOREPROJ reprojection provides a quick and reliable alternative to the classical FOREPROJ and geometric re-projection methods. It significantly improves the quality of the external reconstructed slices without loss of spatial resolution. Then we investigate how the choice of fixed planes for the representation of the projection data of a cylindrical PET scanner simplifies the frequency interpolation required by the 3D Fourier slice theorem (3D-FST). A new gridding algorithm based on a two-plane geometry and requiring only 1D interpolations in the Fourier domain is compared with the direct implementation of the 3D-FST. We show that the use of two orthogonal planes leads to signal to noise ratios similar to those achieved with the 3D-FST algorithm from projection data acquired with up to two times more count rates, while the resolution remains similar
APA, Harvard, Vancouver, ISO, and other styles
34

Baldridge, Jeffrey T. (Jeffrey Turner). "Imagery, Psychotherapy, and Directed Relaxation: Physiological Correlates." Thesis, University of North Texas, 1992. https://digital.library.unt.edu/ark:/67531/metadc278377/.

Full text
Abstract:
Thirty outpatients being treated at Wilford Hall USAF Medical Center Department of Behavioral Health Psychology were randomly assigned to either a relaxation/imagery training class (R/I), a short-term psychotherapy group (P/G) or a no treatment control group. Subjects had psychological, physiological and immunological data taken before and after treatment. Results indicated that support for the hypothesis that relaxation/imagery training improves the psychological, physiological, and immunological functioning of participants was found.
APA, Harvard, Vancouver, ISO, and other styles
35

Mas, Marion. "Self-coherent camera : suppression de speckles pour l'imagerie directe d'exoplanètes." Paris 7, 2013. http://www.theses.fr/2013PA077042.

Full text
Abstract:
L'imagerie directe d'exoplanètes combine des techniques d'imagerie haute dynamique telles l'optique adaptative et la coronographie et permet d'analyser la lumière d'une exoplanète. L'étude de cette lumière par spectroscopie et/ou polarimétrie permet d'estimer des paramètres intrinsèques de la planète comme sa température et la composition chimique de son atmosphère. Cependant, les aberrations statiques et quasi-statiques de l'instrument dégradent la qualité des images enregistrées. Elles créent un bruit de speckles sur le détecteur, masquant ainsi l'image du compagnon peu lumineux par rapport à son étoile hôte. Pour pallier ce problème, nous proposons d'utiliser la Self-Cohérent Caméra (SCC) qui utilise la non-cohérence de la lumière stellaire et de celle du compagnon. La SCC peut être utilisée selon deux modes de fonctionnement. Elle permet, dans un premier temps, d'estimer les aberrations du front d'onde en amont du coronographe à partir de l'image des speckles en plan focal sans utiliser une seconde voie d'analyse. Une correction active par un miroir déformable permet ensuite de réduire le bruit de speckles en plan focal. Dans un second temps, la SCC permet d'extraire l'image d'un compagnon plan focal
Direct imaging of exoplanets requires high dynamical techniques as adaptive optics and coronagraphy to detect the light of the planet. From this light, one can retrieve information about intrinsic parameters like the chemical composition, the temperature of the atmosphere. Nevertheless, static and quasi-static aberrations of the instrument degrade the quality of recorded images. They create speckles in the focal plan hiding the image of the faint companion To overcome this problem, we propose the Self-Coherent Camera (SCC). Its principle is based on the lack of coherence between the stellar light and the companion light. The SCC can be used for two purposes. First, it can estimate the wavefront errors upstream of the coronagraph directly from the science image with no additional channel. Then, it can distinguish aposteriori the signal that comes from the companion and the speckle noise
APA, Harvard, Vancouver, ISO, and other styles
36

Smith, Isabelle. "Détection d'une source faible : modèles et méthodes statistiques : application à la détection d'exoplanètes par imagerie directe." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00548905.

Full text
Abstract:
Cette thèse contribue à la recherche de planètes extra-solaires à partir d'instruments au sol imageant une étoile et son environnement très proche. Le grand contraste lumineux et la proximité entre une potentielle exoplanète et son étoile parente rendent la détection de l'exoplanète extrêmement difficile. Une modélisation qualitative et probabiliste fine des données et l'utilisation de méthodes d'inférence adaptées permettent d'accroître a posteriori les performances des instruments. Cette thèse se focalise ainsi sur l'étape de traitement des données et sur un problème de méthodologie statistique plus général. Chaque étude est abordée sous des angles théoriques et appliqués. La thèse décrit d'abord les données attendues pour le futur instrument SPHERE du Very Large Telescope, simulées à partir d'une modélisation physique détaillée. Un modèle probabiliste simple de ces données permet notamment de construire une procédure d'identification de candidats. Les performances des inférences sont aussi étudiées à partir d'un modèle décrivant de façon plus réaliste les bruits caractérisant les images (bruit de speckle corrélé, bruit de Poisson). On souligne la différence entre les probabilités de fausse alarme calculées à partir du modèle simple et à partir du modèle réaliste. Le problème est ensuite traité dans le cadre bayésien. On introduit et étudie d'abord un outil original de test d'hypothèses : la distribution a posteriori du rapport de vraisemblance, notée PLR. Son étude théorique montre notamment que dans un cadre d'invariance standard le PLR est égal à une p-value fréquentiste. Par ailleurs, un modèle probabiliste des données est développé à partir du modèle initial et un modèle probabiliste de l'intensité de l'exoplanète est proposé. Ils sont finalement utilisés dans le PLR et le facteur de Bayes.
APA, Harvard, Vancouver, ISO, and other styles
37

Perrot, Clément. "Imagerie directe de systèmes planétaires avec SPHERE et prédiction des performances de MICADO sur l’E-ELT." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC212/document.

Full text
Abstract:
Cette thèse s'inscrit dans la thématique de l'étude de la formation et de l'évolution des systèmes planétaire grâce à la méthode de l'imagerie à haut contraste, aussi appelée imagerie directe, par comparaison aux méthodes de détection dites "indirectes". Le travail que je présente dans ce manuscrit s'articule en deux parties bien distinctes. La première partie concerne la composante observationnel de ma thèse, à l'aide de l'instrument SPHERE installé au Very Large Telescope, au sein du consortium du même nom. L'instrument SPHERE a pour objectif la détection et la caractérisation de jeunes et massives exoplanètes mais également de disques circumstellaires allant des très jeune disques protoplanétaires aux disques de débris, plus âgés. Ainsi, je présente dans ce manuscrit ma contribution au programme SHINE, un grand relevé de 200 nuits dont le but est la détection de nouvelles exoplanètes ainsi que la caractérisation spectrale et orbitale des quelques compagnons déjà connus. J'y présente également les deux études de disques circumstellaires que j'ai réalisées, autour des étoiles HD 141569 et HIP 86598. La première étude ayant permis la découverte d'anneaux concentriques à quelques dizaine d'UA de l'étoile ainsi que de asymétrie dans le flux du disque inhabituelle. La seconde étude porte sur la découverte d'un disque de débris présentant également une asymétrie en flux inhabituelle. La deuxième partie concerne la composante instrumentale de mon travail de thèse, au sein du consortium MICADO, en charge de la conception de la caméra du même nom qui sera l'un des instruments de première lumière de l'Extremely Large Telescope Européen (ELT). Dans ce manuscrit, je présente l'étude que j'ai menée afin de définir le design de certain composant du mode coronographique de MICADO tout en tenant compte des contraintes de l'instrument qui n'est pas dédié à l'imagerie haut contraste, contrairement à SPHERE
This thesis is performed in the context of the study of the formation and evolution of planetary systems using high contrast imaging, also known as direct imaging in contrast to so-called "indirect" detection methods. The work I present in this manuscript is divided into two distinct parts.The first part concerns the observational component of my thesis, using the SPHERE instrument installed at Very LargeTelescope. This work was done as part of the consortium of the same name. The purpose of the SPHERE instrument is to detect and characterize young and massive exoplanets, but also circumstellar disks ranging from very young protoplanetary disks to older debris disks. In this manuscript, I present my contribution to the program SHINE, a large survey with an integration time of 200 nights' worth of observation, the goal of which is the detection of new exoplanets and the spectral and orbital characterization of some previously-known companions. I also present the two studies of circumstellar disks that I made, around the stars HD 141569 and HIP 86598. The first study allowed the discovery of concentric rings at about ten AU of the star along with an unusual flux asymmetry in the disk. The second study is about the discovery of a debris disk that also has an unusual flux asymmetry. The second part concerns the instrumental component of my thesis work done within the MICADO consortium, in charge of the design of the camera of the same name which will be one of the first light instruments of the European Extremely Large Telescope (ELT). In this manuscript, I present the study in which I define the design of some components of the coronagraphic mode of MICADO while taking into account the constraints of the instrument - which is not dedicated to high contrast imaging, unlike SPHERE
APA, Harvard, Vancouver, ISO, and other styles
38

Weckel, Antonin. "Molecular mechanisms of Streptococcus pyogenes tissue colonization and invasion The N-terminal domain of the R28 protein promotes emm28 Group A Streptococcus adhesion to host cells via direct binding to three integrins Group A Streptococcus efficiently colonizes and invades a human tissue and limits its immune response during the early steps of infection." Thesis, Sorbonne Paris Cité, 2018. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=2090&f=14189.

Full text
Abstract:
Streptococcus pyogenes, également appelé Streptocoque du Goupe A (SGA), est un pathogène à l'origine d'une grande diversité d'infections, allant d'infections superficielles comme l'angine aux infections invasives, comme la fasciite nécrosante et les endométrites. Au 19ème siècle, une femme sur dix mourait après l'accouchement de fièvre puerpérale, notamment d'endométrite. En France, les infections gynéco-obstétricales correspondent encore de nos jours à 27 % des infections invasives à SGA chez les femmes. Les souches de SGA présentent une forte diversité génétique et de répertoire de facteurs de virulence. Le génotype emm28 est le troisième génotype le plus prévalent en France et il est associé aux endométrites. Nous avons analysé par deux axes complémentaires les facteurs et mécanismes impliqués dans les endométrites à SGA. Par des approches de biochimie et de biologie cellulaire, nous avons caractérisé l'interaction entre les cellules de l'hôte et R28, une protéine de surface spécifique du génotype emm28. Le domaine N-terminal de R28 (R28Nt) et ses deux sous-domaines favorisent la fixation des bactéries à des cellules endométriales, cervicales et déciduales. Ils fixent de manière directe les intégrines α3β1, α6β1 et α6β4. Par ailleurs, R28Nt promeut aussi l'adhésion à des cellules épithéliales de la peau et des poumons. Ces résultats suggèrent que la fixation des intégrines par R28Nt concourt, non seulement, aux endométrites dues au génotype emm28, mais aussi, et de manière plus générale, à la prévalence de ce génotype. Afin de mieux caractériser les étapes précoces essentielles au développement des endométrites à SGA, nous avons développé un modèle original d'infection : nous infectons ex vivo la décidue humaine, qui correspond à la membrane utérine durant la grossesse. Nous avons analysé les effets de l'infection de la décidue par des techniques de microscopie et d'analyse d'image de pointes. SGA adhère au tissu et se multiplie au contact de celui-ci grâce à des éléments sécrétés par le tissu. Sur ce tissu, SGA forme des biofilms composés d'ultrastructures ressemblant, pour certains, à des fils reliant deux coques d'une même chaine et, pour d'autres, à des filaments reliant plusieurs chaînettes ; certains s'organisent en réseau. GAS envahit en profondeur le tissu, ce qui dépend de l'expression de la cystéine protéase SpeB. SGA induit la mort de la moitié des cellules en moins de 4 h à travers la sécrétion de différents facteurs, dont la Streptolysine O (SLO). Enfin, GAS est capable de restreindre la réponse immunitaire du tissu à l'échelle transcriptomique et protéique, le contrôle protéique dépendant de l'expression de SLO et de SpeB
Streptococcus pyogenes, also known as Group A Streptococcus (GAS), is a Gram-positive pathogen responsible for a wide range of diseases. GAS induces superficial infections such as pharyngitis, with 700 million cases/year worldwide, life threatening invasive infections such as necrotizing fasciitis, with 160 000 deaths, and post-infectious sequelae such as rheumatic fever. Altogether, GAS is responsible for 517 000 deaths in the world annually. GAS strains are genetically diverse and their genotyping involves the sequencing of the emm gene 5' end; emm encodes the M protein, a major virulence factor. More than 250 emm-types have been identified and they harbor specific virulence factor repertoires. During the pathogenesis of GAS infections, GAS adheres to the tissue, multiplies, affects the tissue integrity and invades it, resists and controls the immune response. During my PhD, we focused on deciphering the molecular mechanisms involved in GAS early critical steps of human tissue infection, with gyneco-obstetrical sphere infections, including endometritis, as a model. The first to third most prevalent emm-types eliciting invasive infections in Europe, emm28, is associated with these infections. In a first part of my project, we sought receptors for the emm28 specific R28 surface protein and which domains are involved in promoting adhesion to cells. In the second part, we set up an innovative ex vivo model of human decidual infection and we characterized the contribution of virulence factors to the colonization and invasion of this tissue. By cell adhesion experiments, we show that the R28 N-terminal domain (R28Nt) is responsible for an increase of GAS adhesion to human primary decidual cells. We have subdivided R28Nt into two subdomains; each is involved in binding to decidual, cervical and epithelial endometrial cells. We identified several putative R28Nt receptors and focused on R28Nt interaction with integrins. R28Nt and both subdomains directly interact with the integrins alpha3beta1, alpha6beta1 and alpha6beta4. Since R28Nt also increases the binding to the surface of pulmonary and skin epithelium cells, tissues encountered in GAS induced infections, we suggest that the R28Nt-integrin interactions contribute not only to emm28 endometritis, but also to the overall prevalence of the emm28 strains. In the second part of my project, to better characterize the mechanisms involved in GAS infections, we developed an ex vivo model of tissue infection, using human decidua, a tissue encountered during endometritis. We infected the maternal side of feto-maternal membrane, i. e. decidua, from healthy caesarians with an emm28 endometritis clinical isolate and its derived mutants. Using state of the art imaging set-up, image processing and analysis, we followed and quantified in real time different early infection steps. The bacteria multiply until they colonize the entire tissue surface in up to eight hours and this multiplication is triggered by the tissue. The bacteria form a multilayer biofilm of up to 14 µm thick. GAS readily and actively invades the decidua in a time-dependent manner, which depends on the presence of the cysteine protease SpeB. GAS induces dramatic cell cytotoxicity, with up to 50% of cells killed in the first four hours of infection; Streptolysin O (Slo) is involved in this cytotoxicity, confirming the critical importance of this factor in the early steps of infection. Cytokine overexpression and secretion in the tissue after infection indicate that GAS induces a limited immune response and the inflammatory response does not critically depend on the presence of Slo or SpeB. In conclusion, this study demonstrates the importance of several virulence factors, R28, SpeB and Slo, in the GAS emm28 early steps of infection, such as colonization, biofilm formation, cytotoxicity and tissue invasion, indicating their involvement not only in endometritis, but in other emm28 infections
APA, Harvard, Vancouver, ISO, and other styles
39

Innanen, Kristopher A. H. "Approaches to the direct extraction of forest canopy variables from high-spatial resolution winter reflectance imagery." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape15/PQDD_0006/MQ33486.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Maier, Kathrin. "Direct multispectral photogrammetry for UAV-based snow depth measurements." Thesis, KTH, Geoinformatik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254566.

Full text
Abstract:
Due to the changing climate and inherent atypically occurring meteorological events in the Arctic regions, more accurate snow quality predictions are needed in order to support the Sámi reindeer herding communities in northern Sweden that struggle to adapt to the rapidly changing Arctic climate. Spatial snow depth distribution is a crucial parameter not only to assess snow quality but also for multiple environmental research and social land use purposes. This contrasts with the current availability of affordable and efficient snow monitoring methods to estimate such an extremely variable parameter in both space and time. In this thesis, a novel approach to determine spatial snow depth distribution in challenging alpine terrain is presented and tested during a field campaign performed in Tarfala, Sweden in April 2019. A multispectral camera capturing five spectral bands in wavelengths between 470 and 860 nanometers on board of a small Unmanned Aerial Vehicle is deployed to derive 3D snow surface models via photogrammetric image processing techniques. The main advantage over conventional photogrammetric surveys is the utilization of accurate RTK positioning technology that enables direct georeferencing of the images, and thus eliminates the need for ground control points and dangerous and time-consuming fieldwork. The continuous snow depth distribution is retrieved by differencing two digital surface models corresponding to the snow-free and snow-covered study areas. An extensive error assessment based on ground measurements is performed including an analysis of the impact of multispectral imagery. Uncertainties and non-transparencies due to a black-box environment in the photogrammetric processing are, however, present, but accounted for during the error source analysis. The results of this project demonstrate that the proposed methodology is capable of producing high-resolution 3D snow-covered surface models (< 7 cm/pixel) of alpine areas up to 8 hectares in a fast, reliable and cost-efficient way. The overall RMSE of the snow depth estimates is 7.5 cm for data acquired in ideal survey conditions. The proposed method furthermore assists in closing the scale gap between discrete point measurements and regional-scale remote sensing, and in complementing large-scale remote sensing data by providing an adequate validation source. As part of the Swedish cooperation project ’Snow4all’, the findings of this project are used to support and validate large-scale snow models for improved snow quality prediction in northern Sweden.
På grund av klimatförändringar och naturliga meteorologiska händelser i arktis behövs mer exakta snökvalitetsprognoser för att stödja samernas rensköttsamhällen i norra Sverige som har problem med att anpassa sig till det snabbt föränderliga arktiska klimatet. Rumslig snödjupsfördelning är en avgörande parameter för att inte bara bedöma snökvaliteten utan även för flera miljöforskning och sociala markanvändningsändamål. Detta står i motsats till den nuvarande tillgången till överkomliga och effektiva metoder för snöövervakning för att uppskatta sådan extremt varierande parameter i tid och rum. I detta arbete presenteras och testas en ny metod för att bestämma rumslig snödjupssdistribution i utmanande alpin terräng under en fältstudie som genomfördes i Tarfala i norra Sverige i april 2019. Via fotogrammetrisk bildbehandlingsteknik hämtades snöytemodeller i 3D med hjälp av en multispektral kamera monterad på en liten obemannad drönare. En viktig fördel, i jämförelse med konventionella fotogrammetriska undersökningar, är användningen av exakt RTK-positioneringsteknik som möjliggör direkt georeferencing och eliminerar behovet av markkontrollpunkter. Den kontinuerliga snödjupfördelningen hämtas genom att ytmodellerna delas upp i snöfria respektive snötäckta undersökningsområden. En omfattande felsökning som baseras på markmätningar utförs, inklusive en analys av effekten av multispektrala bilder. Resultaten från denna studie visar att den famtagna metoden kan producera högupplösta snötäckta höjdmodeller i 3D (< 7 cm/pixel) av alpina områden på upp till 8 hektar på ett snabbt, pålitligt och kostnadseffektivt sätt. Den övergripande RMSE för det beräknade snödjupet är 7,5 cm för data som förvärvats under idealiska undersökningsförhållanden. Som ett led i det svenska projektet “Snow4all” används resultaten från projektet för att förbättra och validera storskaliga snömodeller för att bättre förutse snökvaliteten i norra Sverige.
APA, Harvard, Vancouver, ISO, and other styles
41

Da, Cheng. "An objective regional cloud mask algorithm for GOES infrared imager with regime-dependent thresholds for direct radiance assimilation." Thesis, The Florida State University, 2014. http://pqdtopen.proquest.com/#viewpdf?dispub=1559511.

Full text
Abstract:

A local, regime-dependent cloud mask (CM) algorithm is developed for isolating cloud-free pixels from cloudy pixels for Geostationary Operational Environmental Satellite (GOES) imager radiance assimilation using mesoscale forecast models. In this CM algorithm, thresholds for six different CM tests are determined by a one-dimensional optimization approach based on probability distribution functions of the nearby cloudy and clear-sky pixels within a 10o×10o box centered at a target pixel. It is shown that the optimized thresholds over land are in general larger and display more spatial variations than over ocean. The performance of the proposed CM algorithm is compared with Moderate Resolution Imaging Spectroradiometer (MODIS) CM for a one-week period from 19 to 23 May 2008. Based on MODIS CM results, the average Probability of Correct Typing (PCT) reaches 92.94% and 91.50% over land and ocean, respectively.

APA, Harvard, Vancouver, ISO, and other styles
42

Fredj, Asma. "Élaboration de protéines fluorescentes ayant un fort potentiel en imagerie." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00785092.

Full text
Abstract:
La Enhanced Cyan Fluorescent Protein (ECFP) est un variant spectral de la Green Fluorescent Protein extraite de la méduse Aequaria Victoria (GFPav). La ECFP, émettant dans le cyan, est un des donneurs les plus utilisés dans les études de transfert résonnant d'énergie d'excitation et est integré dans de nombreuses constructions de biosenseurs. Pourtant, elle souffre de nombreux inconvenients. Notamment elle pésente des propriétés photophysiques complexes et une forte sensibilité environnementale qui sont des freins à une interprétation quantitative de ses signaux de fluorescence en imagerie cellulaire. Notre objectif vise à mettre au point, grâce à l'introduction d'un minimum de mutations, un dérivé de la ECFP présentant des propriétés d'émission simplifiées et performantes ainsi qu'une faible sensibilité environementale. Des mutations ont été introduites, par mutagenèse dirigée, à deux positions clefs de la séquence peptidique de la ECFP ce qui a permis de générer des dérivés présentant des propriétés photophysiques et une sensibilité au pH modulées. En particulier, nous avons réussit à générer une protéine fluorescente, l'Aquamarine, aux propriétés photophysiques quasi-idéales caractérisée par un rendement quantique de l'ordre de 0,9 et des déclins d'émission de fluorescence quasi-monexponentiels. Elle présente également une sensibilité au pH fortement réduite avec un pH de demi-transition acide de 3,3.Ce manuscrit présente l'étude détaillée des propriétés d'émission de fluorescence des diverses protéines générées. Plusieurs paramètres présentant un intérêt particulièrement important pour une utilisation adéquate en imagerie de fluorescence ont été évalués. Outre la sensibilité au pH établie sur une large gamme de pH (2,5-11), une attention particulière a été portée sur les performances photophysiques (monoexponentialité du déclin d'émission de fluorescence, durée de vie moyenne, rendement quantique, brillance,...) de ces dérivés. De plus, grâce à des expériences de dichroïsme circulaire, des informations sur les changements structuraux, dont ces dérivés sont le siège à pH très acide, ont été obtenues. Enfin, l'examen détaillé des données spectroscopiques stationnaires et résolues en temps a permis de mettre en lumière l'existence de plusieurs espèces émissives contribuant à la photophysique de ces protéines et à l'origine de leur transition acide. L'ensemble de ces résultats constitue une première approche pour une meilleure compréhension de la relation structure-photophysique-dynamique de la ECFP et de ces dérivés.
APA, Harvard, Vancouver, ISO, and other styles
43

Latorre, Diana. "Imagerie sismique du milieu de propagation à partir des ondes directes et converties : application à la région d'Aigion (Golfe de Corinthe, Grèce)." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00653801.

Full text
Abstract:
Le Golfe de Corinthe (Grèce) est un rift continental caractérisé par un taux élevé d'extension et une microsismicité intense. Actuellement, la connaissance de sa structure crustale représente une étape nécessaire pour la construction de modèles géodynamiques réalistes. L'ojectif de ce travail de thèse est la définition d'une image sismique haute résolution de la région occidentale du Golfe de Corinthe à partir des enregistrements de la sismicité locale. La construction de cette image est effectuée par le biais d'une étude tomographique des temps de première arrivée et d'une migration cinématique en profondeur des ondes converties. La tomographie des premières arrivées nous a fourni des modèles de vitesse tridimensionnels des ondes P et S ainsi qu' une localisation précise de la microsismicité dans les 10 premiers kilomètres de la croûte. Les modèles de vitesse ainsi obtenus constituent les modèles de référence utilisés dans la migration en profondeur des ondes converties. A cet effet , nous avons adapté les techniques propres à la sismique d'exploration afin d'analyser les enregistrements de tremblements de terre avec une configuration d'acquisition irrégulière. Les résultats révèlent une image tridimensionnelle complexe de la zone sismogène du rift (7-10 km de profondeur) dans laquelle deux structures majeures sont identifiées par des importantes énergies transmises PS. Du point de vueméthodologique, ce travail montre la possibilité d 'exploiter les ondes converties à partir des enregistrements de séismes locaux pour définir une image haute fréquence du milieu de propagation à l'échelle de la croute terrestre.
APA, Harvard, Vancouver, ISO, and other styles
44

Clavel, Damien. "Études structurales de la dynamique de protéines fluorescentes vertes et jaunes utilisées en imagerie cellulaire." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS491/document.

Full text
Abstract:
Les protéines fluorescentes (PF) homologues d’AvGFP (Green Fluorescent Protein de la méduse Aequorea victoria) sont des outils incontournables de l’imagerie des processus de la cellule vivante. Leurs performances conditionnent la précision de l’analyse quantitative des signaux de fluorescence. Le développement de nouvelles PF demande donc à la fois de parvenir à une forte brillance tout en contrôlant la réponse de la protéine aux variations des paramètres physico-chimiques de la cellule en fonction de la question biologique étudiée. A ce jour, les PF jaunes disponibles montrent une forte sensibilité au pH. Afin d’élaborer des mutants moins sensibles, deux approches ont été considérées : une première consiste à mieux appréhender l’incidence de la dynamique du réseau de liaisons hydrogène entourant le chromophore sur son équilibre acido-basique. La seconde vise à identifier les facteurs structuraux à l’origine de la brillance particulièrement élevée de nouvelles PF jaunes et jaune-vert provenant d’un ver marin, Branchiostoma lanceolatum.J’ai d’abord mis au point un algorithme recherchant l’ensemble des liaisons hydrogène présentes au sein d’une protéine et qui étudie leur dynamique au cours de simulations par dynamique moléculaire. Il permet leur agrégation en réseaux, l’identification des réseaux connectés à un atome d’intérêt ainsi que le suivi de leur dynamique. Pour validation, cet algorithme a été appliqué à la recherche des réseaux de liaisons hydrogène présents au sein de différents mutants d’AvGFP pour lesquels un transfert de proton à l'état excité a été étudié expérimentalement. Cet algorithme pourra également servir à comprendre de façon dynamique le mécanisme d’autres systèmes biologiques dont la fonction repose sur le transfert de protons.D’autre part, j’ai résolu la structure de la protéine fluorescente jaune naturelle lanYFP de Branchiostoma lanceolatum, particulièrement brillante mais à la structure quaternaire tétramérique. Cette protéine a été rendue monomérique par évolution dirigée, ce qui a donné la protéine mNeonGreen à la fluorescence jaune-vert, protéine désormais étalon dans cette gamme spectrale, et dont j’ai également résolu la structure. Mon étude a permis de rationaliser a postériori l’ensemble des mutations introduites au cours de l’évolution. Enfin, j’ai réalisé une étude du dégât d’irradiation spécifique des rayons X permettant de comprendre le changement remarquable de couleur observé sur les cristaux de mNeonGreen après collecte de données de diffraction.L’ensemble des résultats obtenus au cours de ma thèse permet de proposer un cadre de compréhension à la fois théorique et expérimental des déterminants contrôlant les propriétés de fluorescence des PF jaunes
Fluorescent Proteins (FPs) homologous to AvGFP (Green Fluorescent Protein from the jellyfish Aequoria victoria) are versatile tools used in live cell imaging. The amount of information that can be derived from the fluorescence signals depends on the spectroscopic performances of the FP. The development of new FPs should focus on both brightness increase and control of the protein response to physicochemical parameter variations within the cell. Current yellow FPs exhibit a strong sensitivity to pH. In order to engineer less sensitive variants, two complementary approaches have been used: the first one consists in studying the influence of the hydrogen bond network dynamics around the chromophore on its protonation state. In the second one, I have sought to identify the structural determinants of the particularly high brightness of newly discovered yellow FPs from a sea worm, Branchiostoma lanceolatum.First, I wrote an algorithm that can identify all hydrogen bonds within a protein and analyse their dynamics along molecular dynamics simulations. It allows for their clustering in networks, the identification of networks connected to a given atom and the monitoring of their dynamics. The method was validated by using the algorithm on various AvGFP mutants for which excited state proton transfer has been experimentally studied. This algorithm should also be useful for the study of other biological systems whose function is based on proton transfer.Besides, I solved the structure of the natural yellow FP lanYFP from Branchiostoma lanceolatum, which is particularly bright, but presents a tetrameric arrangement. This protein was monomerized by directed evolution, which led to the yellow-green FP mNeonGreen, now a benchmark in this spectral range. I also solved the structure of mNeonGreen, which allowed me to rationalize a posteriori the mutations that have been introduced during the evolution process. Finally, I performed a specific radiation damage study in order to explain the remarkable change in colour of mNeonGreen crystals upon X-ray data collection. Altogether, the results of my PhD work provides a theoretical and experimental framework of the determinants that drive the fluorescence properties of yellow FPs
APA, Harvard, Vancouver, ISO, and other styles
45

Postic, François. "Test et apports d’outils de phénotypage racinaires directs (imagerie des racines) et indirects (méthode électrique capacitive) pour une utilisation en sélection variétale au champ : application au blé." Thesis, Avignon, 2016. http://www.theses.fr/2016AVIG0680/document.

Full text
Abstract:
Pour soutenir la demande en denrées alimentaires d’une population mondiale croissante, les rendements des productions en céréales, notamment du blé, doivent être améliorés par sélection végétale. À cause du changement climatique et de l’épuisement des ressources fossiles, les systèmes racinaires des futures variétés de blé devront être adaptés aux épisodes de sécheresse et aux sols peu fertiles. Il est donc crucial de développer des outils de mesure de traits racinaires au champ répondant aux exigences de la sélection variétale. Ainsi, la pertinence des minirhizotrons et de l’impédance électrique des plantes a été évaluée en essai agronomique sur des variétés de blé, conçu pour obtenir un panel varié d’enracinement. Nous avons montré que les minirhizotrons fournissent une quantification dynamique et pertinente de la longueur de racines profondes, qui jouent rôle majeur dans les rendements obtenus en conditions pluviales. Malgré une sous-estimation de la partie superficielle des systèmes racinaires, la conversion volumétrique des données issues des minirhizotrons basée sur une profondeur de champ, et à l’aide de prélèvements pour les horizons de surface, a permis une estimation du ratio de masse racinaire sur masse aérienne.À travers une étude méthodologique en laboratoire, nous avons déterminé le montage optimal de mesure d’impédance électrique sur des plants de blé. Son application au champ montre que la qualité de l’estimation diminue au cours de la croissance et dépend de l’humidité du sol.Nous avons montré que l’impédance des plants de blé est décrite par un modèle de condensateur plan, les tissus végétaux formant un diélectrique imparfait. Ainsi, la réactance est un prédicteur de la masse racinaire, uniquement dans les couches superficielles et sèches du sol
Ensuring the food supply of an increasing world population could be achieved by improvingcrop yields through plant breeding. Due to the climate change and the rarefaction of fossilresources, the root systems of the future wheat cultivars should be adapted to low soilmoisture and low soil fertility. Developing tools for in situ root traits measurements fulfilling the high through put requirement of modern breeding is crucial. For this purpose, anagronomic trial was conducted on wheat cultivars to evaluate the relevance of minirhizotrons and plant electrical impedance on assessing varied rooting architecture.We showed that minirhizotrons provide dynamic and relevant quantifications of deep rootlengths, which was a key factor in crop yield under rainfed conditions. In spite ofunderestimated lengths in the shallow part of the root systems, a volumetric conversion ofminirhizotron data using a depth-of-field criterion, coupled with auger sampling for surfacelayers, allowed fairly estimation root to shoot ratio at different growth stages.We determined the optimal setup of plant impedance measurements by a methodological study performed under laboratory conditions. The application of this optimal set up to an in situ survey showed that the quality of the predictions decreased at later growth stages andunder low soil wetness. The plant impedance was described by an imperfect parallel-platecapacitor mode, where plant tissues acted as the separating medium. Consequently, electrical reactance is a root biomass sensor, but only in surface soil layers at low water content
APA, Harvard, Vancouver, ISO, and other styles
46

Greene, Danyelle. "Cutting Against Controlling Imagery: An Analysis of Films Directed by Gina Prince-Bythewood and Ava DuVernay." OpenSIUC, 2016. https://opensiuc.lib.siu.edu/theses/1984.

Full text
Abstract:
Historically, images of Black women in media have been confined to one-dimensional, caricatured representations such as the mammy, jezebel, and 'angry Black woman'. However, a small segment of Black female filmmakers have committed to the re-presentation of Black women. This study focuses on two Black female directors, Gina Prince-Bythewood and Ava DuVernay, who have re-presented multi-dimensional images of Black women at the center of their stories. In this thesis, Prince-Bythewood’s "Love & Basketball" (2000) and "Beyond the Lights" (2014) and DuVernay’s "The Door" (2013) and "Selma" (2014) are the subjects of the chapters as I examine themes such as community, motherhood, and girlhood from the films.
APA, Harvard, Vancouver, ISO, and other styles
47

Bouyeron, Laurent. "Optimisation et cophasage d'un dispositif d'imagerie directe à haute résolution et haut contraste : l'hypertélescope temporel." Phd thesis, Université de Limoges, 2013. http://tel.archives-ouvertes.fr/tel-00870029.

Full text
Abstract:
Les hypertélescopes, grâce à leur capacité d'imagerie directe à haute résolution, constituent une voie prometteuse pour le développement de nouveaux instruments dédiés à l'astrophysique. Il reste cependant à démontrer expérimentalement leur faisabilité et notamment à trouver une solution au difficile problème du cophasage. C'est dans cette optique qu'ont été réalisés les travaux présentés dans cette thèse. Le banc de test THT, développé au laboratoire XLIM de Limoges, est le prototype entièrement fibré d'une version particulière d'hypertélescope, appelée hypertélescope temporel. L'historique ainsi que le concept de cet instrument constitué d'un réseau de huit télescopes sont présentés dans le premier chapitre de ce manuscrit. Une étude des défauts expérimentaux intrinsèques à l'instrument a été réalisée afin d'évaluer ses capacités théoriques d'imagerie. Dans un second temps, un dispositif de cophasage a été mis en place. Il est basé sur l'utilisation couplée d'un algorithme génétique et de la technique de diversité de phase. Son efficacité a été validé expérimentalement grâce à l'acquisition en laboratoire d'une image d'un système binaire d'étoiles présentant un écart en magnitude de 9,1 nécessitant un contrôle de tous les chemins optiques avec une résolution d'environ 3 nm. Nous avons ensuite testé cette méthode dans le cas d'un fonctionnement en régime de comptage de photons. Les résultats expérimentaux obtenus démontrent que même dans ces conditions difficiles, les qualités d'imagerie du dispositif sont conservées. Finalement, le dernier chapitre de ce document donne différentes pistes de développement et propose une ébauche d'un projet spatial réalisable à moyen terme.
APA, Harvard, Vancouver, ISO, and other styles
48

Wajeman, Nathalie. "Observation des discontinuités du manteau terrestre par des méthodes sismologiques : Etude des phases de la coda de l'onde P directe." Toulouse 3, 1989. http://www.theses.fr/1989TOU30212.

Full text
Abstract:
L'etude detaillee des discontinuites a 400 et 650 km de profondeur devrait permettre d'apporter des informations pour contraindre les modeles dynamiques du manteau terrestre. Pour cela, on analyse les phases qui sont reflechies ou converties aux discontinuites. On utilise une methode de sommation de sismogrammes ("stacking") pour amplifier ces phases. Cette technique est appliquee a des donnees large bande des reseaux nars (europe) et geoscope (global). Trois etudes sont presentees: (1) l'observation d'une phase convertie anormale sous l'ile de kerguelen montre que la discontinuite a 650 km aurait une topographie anormale sous les points chauds. Les effets de la geometrie de la discontinuite sur la phase pds sont examines. (2) les phases pdp permettent d'echantillonner les discontinuites en un point quelconque. Les phases reflechies vers 300 et 660 km de profondeur sous la siberie, ont ete identifiees grqce a la technique de "stacking". (3) l'etude simultanee de phases reflechies et de phases converties permet une etude locale detaillee des discontinuites. Cette methode est testee avec la discontinuite de mohorovocic sous le massif central
APA, Harvard, Vancouver, ISO, and other styles
49

Denneulin, Laurence. "Approche inverse pour la reconstruction des environnements circumstellaires en polarimétrie avec l'instrument d'imagerie directe ESO / VLT SPHERE IRDIS." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1183.

Full text
Abstract:
L'étude des environnements circumstellaires permet d'en apprendre plus sur la formation des exoplanètes. Si les avancées instrumentales permettent la résolution de ces environnements, leur observation en imagerie directe est difficile du fait du grand contraste entre les environnements et leurs étoiles hôtes. En effet, celles-ci sont 1000 à 10 000 fois plus brillantes, ou encore 10 000 000 fois dans le cas des exoplanètes. Lors de l'acquisition directe d'image de ces environnements, leur signal est mélangé au résidu de lumière stellaire. Or, la lumière de l'environnements circumstellaires est partiellement polarisée linéairement, tandis que le résidu de lumière stellaire ne l'est pas. Le sous-instrument Infrared Dual-band Imaging and Spectroscopy (IRDIS) de l'instrument de l'European Southern Observatory (ESO) appelé Spectro-Polarimeter High-contrast Expolanet REsearch (SPHERE), situé sur l'un des quatre Very Large Telescopes (VLT) dans le désert d'Atacama au Chili, acquiert des jeux de données où la polarisation linéaire est modulée en rotation, selon plusieurs cycles d'angles connus. Ainsi, par combinaison de ces données, il est possible de démélanger la lumière diffusée par l'environnement circumstellaire et la lumière de l'étoile. Les méthodes de l'état-de-l'art permettant ce démélange, ne prennent en compte ni le bruit de photon, qui domine le signal d'intérêt, ni le bruit de lecture du détecteur. De plus, si une image du cycle de rotation est manquante, les autres images du cycle sont supprimées. Par ailleurs, le traitement par interpolation des pixels morts, le recentrage des images et toutes éventuelles rotations et déconvolutions des données, sont fait indépendamment du démélange. De ce fait, la propagation des erreurs n'est pas contrôlée.Les méthodes de types « problèmes inverses » permettent, à partir d'un modèle direct des données, de procéder au démélange tout en ayant le contrôle sur la propagation des erreurs dans les reconstructions. Une telle approche n'a jamais été développée pour l'imagerie directe en polarimétrie. Le but de ma thèse, est de reconstruire de manière optimale, à partir des données polarimétriques de l’instrument ESO/VLT-SPHERE IRDIS, des cartes de la lumière polarisée des environnements circumstellaires, des angles de polarisation associés et des résidus lumineux de l'étoile et de la lumière non-polarisée de l'environnement. Je propose tout d’abord un modèle physique séparable des données, paramétré non-linéairement en ces quantité d’intérêt et linéairement en les paramètres de Stokes, à partir duquel ces quantités peuvent être estimées. Ensuite, je complexifie le modèle en y incluant recentrage, rotations et convolution, le rendant ainsi non-séparable. Les paramètres sont alors estimés par la minimisation de la co-log-vraissemblance des données, sous contraintes, de positivité dans le cas non-linéaire ou épigraphique dans le cas linéaire. Dans le cas non-séparable, un terme de régularisation est également ajouté, comme la variation totale et la norme de Shatten sur le Hessien. Selon les propriétés des fonctions considérées dans le critère, je procède à sa minimisation par différents algorithmes tels que l’algorithme Variable Metric Limited Memory and Bound, Forward-Backward avec backtracking et l’algorithme primal-dual préconditionné Condat-Vu avec backtracking. Je propose également une méthode de réglage automatique des poids des régularisations à partir de l’estimateur non-biaisé du risque de Stein (SURE). L’ensemble de ces méthodes d'estimation sont appliquées sur des données synthétiques et sur données astrophysiques. Je montre alors que l’utilisation d’un modèle directe complet des données, prenant en compte le recentrage, les rotations et la convolution, ainsi que l’estimation de ses paramètres à partir d’un critère régularisé sous contrainte, prenant en compte la précision des mesures et les données manquantes, permet de réduire l’erreur faite sur l’estimation des observables
Circumstellars environments observation is a key for the comprehension of planet formation. If the very large telescopes allow the resolution of these environments, their observation is difficult due to the high contrast between the environment and their host stars. In fact the host stars are 1000 to 10 000 times brighter than the environment, even 10 000 000 times brighter for exoplanets. When images of these circumstellar environnements are acquired in direct imaging, the signal of the environnements mixed to star light residuals. Yet, the light of the environment is partially linearly polarized while the light od the star is unpolarized. The instrument Infrared Dual-band Imaging and Spectroscopy (IRDIS) of the European Southern Observatory’s (ESO) Spectro-Polarimeter High-contrast Expolanet REsearch (SPHERE) instrument, installed at one of the four Very Large Telescopes (VLT) in Atacama in Chile, acquires datasets where the polarization is modulated according to a known angles cycle. It is then possible, by combinations of the data, to extract the polarized signal of the environment from the unpolarized residual light of the stars and unpolarized light of the disks. The stat-of-the-art methods to extract such signal do not take optimally into account the photon noise statistics of the data, which dominate the signal of interest, nor the read out noise of the detector. Moreover, if any image from a rotation cycle is missing, the rest of the cycle is not used. Finally, any centering and rotation of the data or deconvolution by the PSF is generally performed in separated steps from the data reduction. The bad pixels and dead pixels are interpolated before the processing. The consequence of such approach is that the propagation of the errors in the data is not controlled.The « inverse problem » methods allow such processing while controlling the error propagation in the reconstructions. These approaches have never been developed, so far, for high contrast direct imaging in polarimetry. My goal in this thesis is to optimally reconstruct, from the polarimetric data of the instrument ESO/VLT-SPHERE IRDIS, maps of the circumstellar environments polarized light, the ascociated polarization angles and the unpolarized star light residuals and circumstellar environments light. First, I develop a nonlinear physical model of the data, pixelwise independent, parametric in these quantities of interest, or linear with respect to the Stokes parameters, from which they can be estimated. Throughout this thesis, I complete the model by adding centering, rotations and convolutions, making it pixelwise dependent. The parameters are then estimated by the minimization of an objective function, derived from the co-log-likelyhood of the data, under some constraint, such as positivity constraint or epigraphical constraint, and regularizations as smooth and non-smooth Total Variation and the Shatten norm on the Hessian. This methods are all applied on simulated datasets, created to reproduce typical astrophysical datasets obtained in circumstellar environment polarimetrical direct imaging. Depending of the properties of the functions considered in the objective function, the research of its minimum is done with different algorithms as the Variable Metric Limited Memory and Bound algorithm, Forward-Backward with backtracking and the preconditioned primal-dual Condat-Vu algorithm with backtracking. I also use the Stein Unbiased Risk Estimator to auto-tune the weights of the regularization. In the results, I show that the use of a complete direct model of the data, taking in account the recentering, the rotations and the convolution and the estimation of its parameters from a constraint problem, taking in account the measure precision and the missing data reduces the error on the estimation maps in such astrophysics context
APA, Harvard, Vancouver, ISO, and other styles
50

Wolf, Sébastien. "The neural substrate of goal-directed locomotion in zebrafish and whole-brain functional imaging with two-photon light-sheet microscopy." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066468/document.

Full text
Abstract:
La première partie de cette thèse présente une revue historique sur les méthodes d'enregistrements d'activité neuronale, suivie par une étude sur une nouvelle technique d'imagerie pour le poisson zèbre : la microscopie par nappe laser 2 photon. En combinant, les avantages de la microscopie 2 photon et l'imagerie par nappe de lumière, le microscope par nappe laser 2 photon garantie des enregistrements à haute vitesse avec un faible taux de lésions photoniques et permet d'éviter l'une des principales limitations du microscope à nappe laser 1 photon: la perturbation du système visuel. La deuxième partie de cette thèse traite de la navigation dirigée. Après une revue exhaustive sur la chemotaxis, la phototaxis et la thermotaxis, nous présentons des résultats qui révèlent les bases neuronales de la phototaxis chez le poisson zèbre. Grace à des expériences de comportement en réalité-virtuelle, des enregistrements d'activité neuronale, des méthodes optogénétiques et des approches théoriques, ce travail montre qu'une population auto-oscillante située dans le rhombencéphale appelée l'oscillateur du cerveau postérieur (HBO) fonctionne comme un pacemaker des saccades oculaires et contrôle l'orientation des mouvements de nage du poisson zèbre. Ce HBO répond à la lumière en fonction du contexte moteur, biaisant ainsi la trajectoire du poisson zèbre vers les zones les plus lumineuses de son environnement (phototaxis). La troisième partie propose une discussion sur les bases neuronales des saccades oculaires chez les vertébrés. Nous concluons ce manuscrit avec des résultats préliminaires suggérant que chez le poisson zèbre, le même HBO est impliqué dans les processus de thermotaxis
The first part of this thesis presents an historical overview of neural recording techniques, followed by a study on the development of a new imaging method for zebrafish neural recording: two-photon light sheet microscopy. Combining the advantages of two-photon point scanning microscopy and light sheet techniques, the two-photon light sheet microscope warrants a high acquisition speed with low photodamage and allows to circumvent the main limitation of one-photon light sheet microscopy: the disturbance of the visual system. The second part of the thesis is focused on goal-directed navigation in zebrafish larvae. After an exhaustive review on chemotaxis, phototaxis and thermotaxis in various animal models, we report a study that reveals the neural computation underlying phototaxis in zebrafish. Combining virtual-reality behavioral assays, volumetric calcium recordings, optogenetic stimulation, and circuit modeling, this work shows that a self-oscillating hindbrain population called the hindbrain oscillator (HBO) acts as a pacemaker for ocular saccades, controls the orientation of successive swim-bouts during zebrafish larva navigation, and is responsive to light in a state-dependent manner such that its response to visual inputs varies with the motor context. This peculiar response to visual inputs biases the fish trajectory towards brighter regions (phototaxis). The third part provides a discussion on the neural basis of ocular saccades in vertebrates. We conclude with some recent preliminary results on heat perception in zebrafish suggesting that the same hindbrain circuit may be at play in thermotaxis as well
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography