Dissertations / Theses on the topic 'Algorithmes de reconstruction tomographique'

To see the other types of publications on this topic, follow the link: Algorithmes de reconstruction tomographique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithmes de reconstruction tomographique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Recur, Benoît. "Précision et qualité en reconstruction tomographique : algorithmes et applications." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14113/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il existe un grand nombre de modalités permettant l'acquisition d'un objet de manière non destructrice (Scanner à Rayons X, micro-scanner, Ondes Térahertz, Microscopie Électronique de Transmission, etc). Ces outils acquièrent un ensemble de projections autour de l'objet et une étape de reconstruction aboutit à une représentation de l'espace acquis. La principale limitation de ces méthodes est qu'elles s'appuient sur une modélisation continue de l'espace alors qu'elles sont exploitées dans un domaine fini. L'étape de discrétisation qui en résulte est une source d'erreurs sur les images produites. De plus, la phase d'acquisition ne s'effectue pas de manière idéale et peut donc être entachée d'artéfacts et de bruits. Un grand nombre de méthodes, directes ou itératives, ont été développées pour tenter de réduire les erreurs et reproduire une image la plus représentative possible de la réalité. Un panorama de ces reconstructions est proposé ici et est coloré par une étude de la qualité, de la précision et de la résistances aux bruits d'acquisition.Puisque la discrétisation constitue l'une des principales limitations, nous cherchons ensuite à adapter des méthodes discrètes pour la reconstruction de données réelles. Ces méthodes sont exactes dans un domaine fini mais ne sont pas adaptées à une acquisition réelle, notamment à cause de leur sensibilité aux erreurs. Nous proposons donc un lien entre les deux mondes et développons de nouvelles méthodes discrètes plus robustes aux bruits. Enfin, nous nous intéressons au problème des données manquantes, i.e. lorsque l'acquisition n'est pas uniforme autour de l'objet, à l'origine de déformations dans les images reconstruites. Comme les méthodes discrètes sont insensibles à cet effet nous proposons une amorce de solution utilisant les outils développés dans nos travaux
A large kind of methods are available now to acquire an object in a non-destructive way (X-Ray scanner, micro-scanner, Tera-hertz waves, Transmission Electron Microscopy, etc). These tools acquire a projection set around the object and a reconstruction step leads to a representation of the acquired domain. The main limitation of these methods is that they rely on a continuous domain modeling wheareas they compute in a finite domain. The resulting discretization step sparks off errors in obtained images. Moreover, the acquisition step is not performed ideally and may be corrupted by artifacts and noises. Many direct or iterative methods have been developped to try to reduce errors and to give a better representative image of reality. An overview of these reconstructions is proposed and it is enriched with a study on quality, precision and noise robustness.\\Since the discretization is one of the major limitations, we try to adjust discrete methods for the reconstruction of real data. These methods are accurate in a finite domain but are not suitable for real acquisition, especially because of their error sensitivity. Therefore, we propose a link between the two worlds and we develop new discrete and noise robust methods. Finally, we are interesting in the missing data problem, i.e. when the acquisition is not uniform around the object, giving deformations into reconstructed images. Since discrete reconstructions are insensitive to this effect, we propose a primer solution using the tools developed previously
2

Abdmouleh, Fatma. "Reconstitution tomographique de propriétés qualitatives et quantitatives d'images." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-01011954.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d'apporter des réponses. On s'intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l'image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l'unicité de cette reconstruction ; 3) l'estimation d'informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d'aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d'ensembles ayant des propriétés de convexité qu'on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d'ensembles, nous montrons qu'elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d'ensemblesconvexes par quadrants qui, si l'unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l'unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d'estimer, à partir d'une seule projection, la surface d'un ensemble 2D. Concernant l'estimation du périmètre d'un ensemble 2D, en considérant les projections par une deuxième source d'un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l'objet projeté.
3

Millardet, Maël. "Amélioration de la quantification des images TEP à l'yttrium 90." Thesis, Ecole centrale de Nantes, 2022. https://tel.archives-ouvertes.fr/tel-03871632.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La popularité de l'imagerie TEP à l'yttrium 90 va grandissante. Cependant, la probabilité qu'une désintégration d'un noyau d'yttrium 90 mène à l'émission d'un positon n'est que de 3,2 × 10-5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l'image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l'yttrium 90 manquait encore à l'appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d'une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de posttraitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d'hyperparamètres de reconstruction adéquats, à partir des seuls sinogrammes
Yttrium-90 PET imaging is becoming increasingly popular. However, the probability that decay of a yttrium-90 nucleus will lead to the emission of a positron is only 3.2 × 10-5, and the reconstructed images are therefore characterised by a high level of noise, as well as a positive bias in low activity regions. To correct these problems, classical methods use penalised algorithms or allow negative values in the image. However, a study comparing and combining these different methods in the specific context of yttrium-90 was still missing at the beginning of this thesis. This thesis, therefore, aims to fill this gap. Unfortunately, the methods allowing negative values cannot be used directly in a dosimetric study. Therefore, this thesis starts by proposing a new method of post-processing the images, aiming to remove the negative values while keeping the average values as locally as possible. A complete multi-objective analysis of these different methods is then proposed. This thesis ends by laying the foundations of what could become an algorithm providing a set of adequate reconstruction hyper parameters from sinograms alone
4

Vallot, Delphine. "Reconstruction adaptative optimisée pour la quantification en tomographie de positons couplée à un tomodensitomètre." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30188.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude a été initiée à l'occasion de la disponibilité d'un algorithme itératif de reconstruction en tomographie par émission de positons, qui présente l'avantage d'atteindre la convergence grâce à une méthode de régularisation. Il a donc fallu évaluer ses performances et son éventuel apport en comparaison aux algorithmes de référence, puis étudier l'influence du seul paramètre accessible aux utilisateurs pour une optimisation en clinique. Pour cela, plusieurs tests ont été réalisés, sur fantômes d'abord, puis sur patients car les résultats obtenus n'étaient pas directement transposables en clinique. Cet algorithme a de nombreux avantages par rapport au standard actuel OSEM-MLEM (moins de bruit, meilleur contraste, meilleure détectabilité des lésions) mais pourrait encore être amélioré pour diminuer les artéfacts et la surestimation de certaines métriques, grâce à l'utilisation de fantômes plus anthropomorphiques et l'accès à plus de paramètres de reconstruction. Des travaux sont encore en cours avec l'éditeur
This study was initiated to evaluate an iterative reconstruction algorithm in positron emission tomography based on a regularization method to obtain convergence. Our aim was to assess its performance, in comparison with other currently available algorithms and to study the impact of the only parameter available to users for eventual optimization, both using anthropomorphic phantoms and clinical data. We confirm that this algorithm shows several advantages compared to the traditional OSEM-MLEM concerning noise, contrast and detectability. By using anthropomorphic phantoms and with access to more reconstruction parameters, the performance could be further improved to decrease the artefacts and the overestimation of certain metrics. Work in progress
5

Laurent, Christophe. "Adéquation algorithmes et architectures parallèles pour la reconstruction 3D en tomographie X." Phd thesis, Université Claude Bernard - Lyon I, 1996. http://tel.archives-ouvertes.fr/tel-00004999.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette thèse est d'étudier l'adéquation des approches parallèles à l'imagerie 3D, en prenant comme problème cible de la reconstruction d'images 3D en tomographie par rayons X. L'évolution technologique des systèmes d'acquisition, du premier scanner au Morphomètre, a généré de nouvelles problématiques au niveau des méthodes de reconstruction et au niveau des besoins informatiques. Une première partie est consacrée aux fondements de la tomographie assistée par ordinateur et à la présentation des machines parallèles. L'évolution des machines de calcul intensif, du Cray 1 au Cray T3D, permet de résoudre des problèmes de taille croissante. Dans la deuxième partie, nous définissons la méthodologie suivie pour paralléliser les algorithmes de reconstruction. Nous identifions les opérateurs de base (projection et rétroprojection) sur lesquel est porté l'effort de parallélisation. Nous définissons deux approches de parallélisation (locale et globale). Différentes versions optimisées de ces algorithmes parallèles sont présentées prenant en compte d'une part la minimisation des temps de communications (recouvrement calcul/communication, communication sur un arbre binaire) et d'autre part la régulation de charge (partitionnement adaptatif). Dans la troisième partie, à partir de ces opérateurs parallélisés, nous construisons trois méthodes de reconstruction parallèles : une méthode analytique (la méthode de Feldkamp) et deux méthodes algébriques (la méthode Art par blocs et méthode SIRT). Les algorithmes sont expérimentés sur différentes machines parallèles : Maspar, Réseau de stations Sun, Ferme de processeurs Alpha, Paragon d'Intel, IBM SP1 et Cray T3D. Pour assurer la portabilité sur les différentes machines, nous avons utilisé PVM. Nous évaluons nos performances et nous montrons nos résultats de reconstruction 3D à partir de données simulées. Puis, nous présentons des reconstructions 3D effectués sur le Cray T3D, à partir de données expérimentales du Morphomètre, prototype de scanner X 3D.
6

Franchois, Ann. "Contribution a la tomographie microonde : algorithmes de reconstruction quantitative et verifications experimentales." Paris 11, 1993. http://www.theses.fr/1993PA112234.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce memoire represente une contribution au developpement de la technique d'imagerie microonde active pour applications biomedicales, sur les plans algorithmique et experimental. L'objectif est ici la reconstruction de la permittivite complexe d'un objet biologique, a partir de mesures du champ diffracte dans un certain nombre de points proches de l'objet. Une configuration bidimensionnelle pour les milieux et une polarisation transverse magnetique pour les champs ont ete adoptes, de sorte que les problemes direct et inverse peuvent etre resolus a partir d'une equation integrale scalaire, discretisee a cet effet par une methode des moments. Le probleme inverse, qui est non lineaire et mal pose, est formule comme la minimisation de l'erreur quadratique moyenne par rapport aux mesures. Deux methodes de reconstruction sont presentees, celle du recuit simule, une methode d'optimisation globale, et celle de levenberg-marquardt, une methode locale de type gauss-newton, pour laquelle le choix du parametre de regularisation, par une methode empirique et par la methode de la validation croisee generalisee, est egalement etudie. Une procedure de calibration pour une camera microonde planaire a 2. 45 ghz a d'autre part ete mise en uvre afin d'obtenir des donnees reelles ayant une precision satisfaisante. Elle comprend une methode de calibration du recepteur, permettant de reduire ses erreurs systematiques et differentes methodes pour la determination du champ incident dans l'objet et de la permittivite complexe du milieu exterieur. La methode de levenberg-marquardt est finalement appliquee aux donnees reelles ainsi obtenues pour trois fantomes homogenes presentant des contrastes varies
7

Defontaine-Caritu, Marielle. "Reconstruction optique de tomographies : application à la tomographie ultrasonore en réflexion." Compiègne, 1995. http://www.theses.fr/1995COMPD814.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques de reconstruction tomographique sont toujours un sujet de recherche d'actualité. Des algorithmes de plus en plus sophistiqués s'adaptent de mieux en mieux aux techniques d'acquisition associées. Ces méthodes de reconstruction, malgré les énormes progrès de l'informatique, sont encore dépendantes du temps de calcul des machines, de leur encombrement et de leur coût élevé. Nous présentons un système de reconstruction optique, basé sur l'algorithme de rétroprojection en faisceaux droits parallèles. Les informations des projections sont codées optiquement, grâce à un ensemble modulateur et déflecteur acousto-optiques. Elles forment instantanément les images de rétroprojection optiques. Une caméra CCD placée au foyer image en fin de chaîne optique, assure l'intégration. La même séquence est mise en œuvre pour toutes les projections, et après une révolution complète de la caméra, restée en pause, on obtient sur la cellule l'image reconstruite de la coupe. Le seul facteur limitatif dans le temps concerne le temps d'acquisition des projections, qui est environ d'une seconde dans notre cas. Après avoir validé cette méthode à l'aide de projections simulées, nous avons entrepris de l'associer à un système d'acquisition ultrasonore. L'algorithme mis en œuvre sur la chaîne optique ne correspond pas à une méthode de reconstruction exacte. Cependant les images obtenues restituent correctement les structures explorées. Par ailleurs, dans le but de conduire à une reconstruction exacte, une dernière partie est consacrée aux améliorations envisagées concernant la chaîne optique.
8

Israel-Jost, Vincent. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec colimateur sténopé." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/ISRAEL-JOST_Vincent_2006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle. Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume. Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences
In SPECT small animal imaging, it is highly recommended to accurately model the response of the detector in order to improve the low spatial resolution. The volume to reconstruct is thus obtained both by backprojecting and deconvolving the projections. We chose iterative methods, which permit one to solve the inverse problem independently from the model's complexity. We describe in this work a gaussian model of point spread function (PSF) whose position, width and maximum are computed according to physical and geometrical parameters. Then we use the rotation symmetry to replace the computation of P projection operators, each one corresponding to one position of the detector around the object, by the computation of only one of them. This is achieved by choosing an appropriate polar discretization, for which we control the angular density of voxels to avoid oversampling the center of the field of view. Finally, we propose a new family of algorithms, the so-called frequency adapted algorithms, which enable to optimize the reconstruction of a given band in the frequency domain on both the speed of convergence and the quality of the image
9

Israel-Jost, Vincent Sonnendrücker Eric Constantinesco André. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec colimateur sténopé." Strasbourg : Université Louis Pasteur, 2007. http://eprints-scd-ulp.u-strasbg.fr:8080/698/01/israel-jost2006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Charbonnier, Pierre. "Reconstruction d'image : régularisation avec prise en compte des discontinuités." Nice, 1994. https://hal.archives-ouvertes.fr/tel-01183977.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à la reconstruction d'image régularisée. Nous nous intéressons au cas où l'image à reconstruire est formée de zones homogènes séparées par des bords francs. C'est la régularisation avec prise en compte des discontinuités. L'image reconstruite est obtenue par minimisation d'une fonctionnelle d'énergie, ou critère. Dans un premier temps, nous proposons des conditions suffisantes pour définir un critère assurant la prise en compte des discontinuités. Nous montrons ensuite que sous ces conditions, il est possible de transformer le critère en introduisant une variable auxiliaire intéragissant avec la variable principale, soit de manière additive, soit de manière multiplicative. Le rôle de la variable auxiliaire est double : marquer les discontinuités et faciliter l'optimisation du critère. Le critère augmenté est quadratique en la variable principale lorsqu'on fixe la variable auxiliaire et convexe par rapport à la variable auxiliaire lorsqu'on fixe la variable principale. Dans ce dernier cas, nous donnons de plus l'expression littérale de la valeur optimale de la variable auxiliaire. Dans un second temps, nous exploitons d'un point de vue algorithmique les propriétés de cette régularisation semi-quadratique. La stratégie d'optimisation adoptée consiste à minimiser alternativement le critère par rapport à la variable principale et par rapport à la variable auxiliaire. Ceci nous conduit à deux algorithmes à introduction progressive de discontinuités : ARTUR et LEGEND, dont nous proposons ici une étude théroqieu et pratique. Nous appliquons les algorithmes à la reconstruction tomographique. ARTUR et LEGEND réalisent un bon compromis entre temps de calcul et qualité d'image reconstruite. Néanmoins, ils impliquent la résolution de systèmes linéaires de grandes tailles, lourds à manipuler d'un point de vue informatique. Nous proposons, à titre de perspective, une technique permettant de limiter la quantité d'information nécessaire à la reconstruction et donc d'envisager des dimensiosn d'image plus importantes.
11

Bouaoune, Yasmina. "Développement d'algorithmes de reconstruction d'images pour la réalisation d'un système numérique de radiographie rotationnelle panoramique dentaire." Paris 12, 1994. http://www.theses.fr/1994PA120024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette these est de mettre au point un panoramique dentaire numerique incluant un algorithme de reconstruction d'images. De plus, le remplacement du film radiographique conventionnel par des capteurs sensibles aux rayons x apportera tous les avantages inherents aux images numeriques (obtention quasi-instantanee, reduction des doses, possibilite de mettre en uvre des techniques de traitement numerique d'images, archivage, transmission) les systemes de radiographie rotationnelle panoramique dentaire actuels ont des defauts apparaissant sous la forme de zones d'attenuation non homogenes vis-a-vis de l'ensemble du cliche lors de la traversee par le faisceau de rayons x de structures placees en dehors de l'epaisseur tomographique (vertebres cervicales, branches mandibulaires). Cette mauvaise qualite de l'image est souvent penalisante pour une exploitation diagnostique fiable du cliche panoramique. Le developpement d'un outil informatique de simulation s'est avere necessaire pour valider les deux algorithmes de formation de l'image panoramique dentaire numerique que nous proposons. L'une est fondee sur le principe tomographique du panoramique conventionnel, l'autre est une methode originale de reconstruction d'image. Les resultats de cette simulation ont ete confirmes par une experimentation en vraie grandeur
12

Tairi, Souhil. "Développement de méthodes itératives pour la reconstruction en tomographie spectrale." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0160/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années les détecteurs à pixels hybrides ont ouvert la voie au développement de la tomographie à rayon X spectrale ou tomodensitométrie (TDM) spectrale. La TDM spectrale permet d’extraire plus d’information concernant la structure interne de l’objet par rapport à la TDM d’absorption classique. Un de ses objectifs dans l’imagerie médicale est d’identifier et quantifier des composants d’intérêt dans un objet, tels que des marqueurs biologique appelés agents de contraste (iode, baryum, etc.). La majeure partie de l’état de l’art procède en deux étapes : - la "pré-reconstruction" qui consiste à séparer les composants dans l’espace des projections puis reconstruire, - la "post-reconstruction", qui reconstruit l’objet puis sépare les composants.On s’intéresse dans ce travail de thèse à une approche qui consiste à séparer et reconstruire simultanément les composants de l’objet. L’état de l’art des méthodes de reconstruction et séparation simultanées de données de TDM spectrale reste à ce jour peu fourni et les approches de reconstruction existantes sont limitées dans leurs performances et ne tiennent souvent pas compte de la complexité du modèle d’acquisition.L’objectif principal de ce travail de thèse est de proposer des approches de reconstruction et séparation tenant compte de la complexité du modèle afin d’améliorer la qualité des images reconstruites. Le problème à résoudre est un problème inverse, mal-posé, non-convexe et de très grande dimension. Pour le résoudre, nous proposons un algorithme proximal à métrique variable. Des résultats prometteurs sont obtenus sur des données réelles et montrent des avantages en terme de qualité de reconstruction
In recent years, hybrid pixel detectors have paved the way for the development of spectral X ray tomography or spectral tomography (CT). Spectral CT provides more information about the internal structure of the object compared to conventional absorption CT. One of its objectives in medical imaging is to obtain images of components of interest in an object, such as biological markers called contrast agents (iodine, barium, etc.).The state of the art of simultaneous reconstruction and separation of spectral CT data methods remains to this day limited. Existing reconstruction approaches are limited in their performance and often do not take into account the complexity of the acquisition model.The main objective of this thesis work is to propose better quality reconstruction approaches that take into account the complexity of the model in order to improve the quality of the reconstructed images. Our contribution considers the non-linear polychromatic model of the X-ray beam and combines it with an earlier model on the components of the object to be reconstructed. The problem thus obtained is an inverse, non-convex and misplaced problem of very large dimensions.To solve it, we propose a proximal algorithmwith variable metrics. Promising results are shown on real data. They show that the proposed approach allows good separation and reconstruction despite the presence of noise (Gaussian or Poisson). Compared to existing approaches, the proposed approach has advantages over the speed of convergence
13

Ben, Salah Riadh. "Élaboration d'une méthode tomographique de reconstruction 3D en vélocimétrie par image de particules basée sur les processus ponctuels marqués." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2268/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux réalisés dans cette thèse s'inscrivent dans le cadre du développement de techniques de mesure optiques pour la mécanique des fluides visant la reconstruction de volumes de particules 3D pour ensuite en déduire leurs déplacements. Cette technique de mesure volumique appelée encore Tomo-PIV est apparue en 2006 et a fait l'objet d'une multitude de travaux ayant pour objectif l'amélioration de la reconstruction qui représente l'une des principales étapes de cette technique de mesure. Les méthodes proposées en littérature ne prennent pas forcément en compte la forme particulière des objets à reconstruire et ne sont pas suffisamment robustes pour faire face au bruit présent dans les images. Pour pallier à ce déficit, nous avons proposé une méthode de reconstruction tomographique, appelée (IOD-PVRMPP), qui se base sur les processus ponctuels marqués. Notre méthode permet de résoudre le problème de manière parcimonieuse. Elle facilite l'introduction de l'information à priori et résout les problèmes de mémoire liés aux approches dites "basées voxels". La reconstruction d'un ensemble de particules 3D est obtenue en minimisant une fonction d'énergie ce qui définit le processus ponctuel marqué. A cet effet, nous utilisons un algorithme de recuit simulé basé sur les méthodes de Monte-Carlo par Chaines de Markov à Saut Réversible (RJMCMC). Afin d'accélérer la convergence du recuit simulé, nous avons développé une méthode d'initialisation permettant de fournir une distribution initiale de particules 3D base sur la détection des particules 2D localisées dans les images de projections. Enfin cette méthode est appliquée à des écoulements fluides soit simulé, soit issu d'une expérience dans un canal turbulent à surface libre. L'analyse des résultats et la comparaison de cette méthode avec les méthodes classiques montrent tout l'intérêt de ces approches parcimonieuses
The research work fulfilled in this thesis fit within the development of optical measurement techniques for fluid mechanics. They are particularly related to 3D particle volume reconstruction in order to infer their movement. This volumetric measurement technic, called Tomo-PIV has appeared on 2006 and has been the subject of several works to enhance the reconstruction, which represents one of the most important steps of this measurement technique. The proposed methods in Literature don't necessarily take into account the particular form of objects to reconstruct and they are not sufficiently robust to deal with noisy images. To deal with these challenges, we propose a tomographic reconstruction method, called (IOD-PVRMPP), and based on marked point processes. Our method allows solving the problem in a parsimonious way. It facilitates the introduction of prior knowledge and solves memory problem, which is inherent to voxel-based approaches. The reconstruction of a 3D particle set is obtained by minimizing an energy function, which defines the marked point process. To this aim, we use a simulated annealing algorithm based on Reversible Jump Markov Chain Monte Carlo (RJMCMC) method. To speed up the convergence of the simulated annealing, we develop an initialization method, which provides the initial distribution of 3D particles based on the detection of 2D particles located in projection images. Finally, this method is applied to simulated fluid flow or real one produced in an open channel flow behind a turbulent grid. The results and the comparisons of this method with classical ones show the great interest of this parsimonious approach
14

Girard, Didier Laurent Pierre Jean. "Les méthodes de régularisation optimale et leurs applications en tomographie nouveaux algorithmes performants de reconstruction d'images /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00311758.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Rodet, Thomas. "Algorithmes rapides de reconstruction en tomographie par compression des calculs : application à la tomofluoroscopie 3D." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie dynamique à rayons X est une modalité qui est en forte progression ces dernières années. Elle consiste à reconstruire une séquence d'images et non plus une seule image statique. Ces données dynamiques permettent d'étudier les évolutions dans le temps liées soit au mouvement naturel des organes, soit à la progression d'instruments d'intervention chirurgicale. La reconstruction tomographique de données 4D (trois dimensions spatiales et une temporelle) nécessite une centaine de GigaFLOPS (Floating Operation Per Seconde ) en utilisant une approche standard. Cette thèse propose deux nouvelles méthodes de reconstructions accélérées originales visant à réduire le nombre d'opérations de reconstruction. La première méthode consiste à accélérer les calculs sans perte théorique information. Elle est basée sur une décomposition en blocs de la transformée de Fourier de l'image à reconstruire. L'accélérationrepose sur la réduction du nombre de rétroprojections associées à chaque bloc. La seconde permet une aaccélération avec une perte contrôlée de l'information. Elle est basée sur une décomposition hiérarchique de l'image à l'aide de la transformée en ondelettes. Pour accélérer les calculs nous ne rétroprojetons pas les coefficients d'ondelettes négligeables. Le support des valeurs négligeables est déterminé par prédiction d'une structure (zerotree) qui repose sur l'hypothèse que si un coefficient d'ondelette basse fréquence est négligeable alors tous les coefficients d'ondelette de même localisation de plus hautes fréquences le sont aussi. Nous avons validé ces approches sur des données simulées. Nous avons ainsi atteint des facteurs d'accélération comparables dans les deux cas (entre 2 et 3). Cependant, l'approche basée sur la décomposition en ondelettes garantit une meilleur qualité des images
X-rays dynamic tomography is a method which is in strong progression over the last years. It consists in reconstructing a sequence of images rather than one static image. These dynamic data make it possible to study the time evolutions related either to the natural organs motion, or to the surgical instruments motion during image-guided interventional procedures. The tomographic reconstruction of data 4D (three space dimensions and temporal) requires a hundred GigaFLOPS (Floating Operation Per Seconde) when using a standard approach. This thesis proposes two original accelerated reconstruction methods aiming at reducing the number of operations of reconstruction. The first method consists in accelerating computations without theoretical loss of information (lossless approach). It is based on a decomposition in blocks of the Fourier transform of the image to be reconstructed. Acceleration is based on the reduction of the number of rétroprojections associated with each block. The second method allows an acceleration with a controlled loss of information (lossy approach). It is based on a hierarchical decomposition of the image using the wavelet transform. To accelerate computation we do not back-project the unsignificant wavelet coefficients. The support of the unsignificant values is determined by prediction of a structure (zerotree) which suppose that if a low frequency wavelet coefficient is unsignificant, then all the wavelet coefficients of the same localization of high frequencies are also unsignificant. We validated these approaches on simulated data. We reached comparable speed up factors in both cases (between 2 and 3). However, the lossy approach guarantees better a image quality
16

Israel-Jost, Vincent. "Optimisation de la reconstruction en tomographie d'émission monophotonique avec collimateur sténopé." Phd thesis, Université Louis Pasteur - Strasbourg I, 2006. http://tel.archives-ouvertes.fr/tel-00112526.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle.
Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume.
Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences.
17

Simonnet, Richard. "Amélioration des algorithmes de reconstruction d'image pour la tomographie d'émission par collimation à trous larges et longs." Phd thesis, Université d'Angers, 2010. http://tel.archives-ouvertes.fr/tel-00594594.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le projet CACAO - Caméra A Collimation Assistée par Ordinateur - a pour but d'améliorer la qualité des images scintigraphiques. Des collimateurs à trous plus larges et profonds sur les gamma caméras, ainsi qu'un mouvement de balayage supplémentaire dans le protocole d'acquisition permettraient d'améliorer à la fois la résolution spatiale et la sensibilité des caméras; mais cela implique l'utilisation de nouveaux algorithmes de reconstruction. Avant cette thèse, la reconstruction des images CACAO se basait sur un algorithme utilisant pour la déconvolution la transformée de Fourier rapide qui présente un avantage en terme de rapidité et a donné des résultats très intéressants. Cependant un travail basé sur la théorie de l'information nous fait penser qu'il est possible d'obtenir de meilleurs résultats. L'étape limitante du projet étant la déconvolution, le travail de thèse avait pour but d'étudier et d'améliorer cette étape avec de nouveaux algorithmes. Plusieurs algorithmes basés sur une déconvolution appelée minimale avec un traitement ligne par ligne de l'image et l'utilisation de programmation linéaire ont été développés et donnent de bons résultats dans plusieurs cas sur des données exactes. Nous avons ensuite appliqué cette idée au problème dans son ensemble, ce qui donne de bons résultats sur des données exactes et permet également de simplifier la reconstruction. Nous avons aussi effectué la dualisation de nos données qui permet de réduire le temps de calcul et de traiter de plus grandes images. Enfin, nous avons mis au point la déconvolution médiane qui se montre efficace pour des images bruitées.
18

Weber, Loriane. "Iterative tomographic X-Ray phase reconstruction." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI085/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’imagerie par contraste de phase suscite un intérêt croissant dans le domaine biomédical, puisqu’il offre un contraste amélioré par rapport à l’imagerie d’atténuation conventionnelle. En effet, le décalage en phase induit par les tissus mous, dans la gamme d’énergie utilisée en imagerie, est environ mille fois plus important que leur atténuation. Le contraste de phase peut être obtenu, entre autres, en laissant un faisceau de rayons X cohérent se propager librement après avoir traversé un échantillon. Dans ce cas, les signaux obtenus peuvent être modélisés par la diffraction de Fresnel. Le défi de l’imagerie de phase quantitative est de retrouver l’atténuation et l’information de phase de l’objet observé, à partir des motifs diffractés enregistrés à une ou plusieurs distances. Ces deux quantités d’atténuation et de phase, sont entremêlées de manière non-linéaire dans le signal acquis. Dans ces travaux, nous considérons les développements et les applications de la micro- et nanotomographie de phase. D’abord, nous nous sommes intéressés à la reconstruction quantitative de biomatériaux à partir d’une acquisition multi-distance. L’estimation de la phase a été effectuée via une approche mixte, basée sur la linéarisation du modèle de contraste. Elle a été suivie d’une étape de reconstruction tomographique. Nous avons automatisé le processus de reconstruction de phase, permettant ainsi l’analyse d’un grand nombre d’échantillons. Cette méthode a été utilisée pour étudier l’influence de différentes cellules osseuses sur la croissance de l’os. Ensuite, des échantillons d’os humains ont été observés en nanotomographie de phase. Nous avons montré le potentiel d’une telle technique sur l’observation et l’analyse du réseau lacuno-canaliculaire de l’os. Nous avons appliqué des outils existants pour caractériser de manière plus approfondie la minéralisation et les l’orientation des fibres de collagènes de certains échantillons. L’estimation de phase, est, néanmoins, un problème inverse mal posé. Il n’existe pas de méthode de reconstruction générale. Les méthodes existantes sont soit sensibles au bruit basse fréquence, soit exigent des conditions strictes sur l’objet observé. Ainsi, nous considérons le problème inverse joint, qui combine l’estimation de phase et la reconstruction tomographique en une seule étape. Nous avons proposé des algorithmes itératifs innovants qui couplent ces deux étapes dans une seule boucle régularisée. Nous avons considéré un modèle de contraste linéarisé, couplé à un algorithme algébrique de reconstruction tomographique. Ces algorithmes sont testés sur des données simulées
Phase contrast imaging has been of growing interest in the biomedical field, since it provides an enhanced contrast compared to attenuation-based imaging. Actually, the phase shift of the incoming X-ray beam induced by an object can be up to three orders of magnitude higher than its attenuation, particularly for soft tissues in the imaging energy range. Phase contrast can be, among others existing techniques, achieved by letting a coherent X-ray beam freely propagate after the sample. In this case, the obtained and recorded signals can be modeled as Fresnel diffraction patterns. The challenge of quantitative phase imaging is to retrieve, from these diffraction patterns, both the attenuation and the phase information of the imaged object, quantities that are non-linearly entangled in the recorded signal. In this work we consider developments and applications of X-ray phase micro and nano-CT. First, we investigated the reconstruction of seeded bone scaffolds using sed multiple distance phase acquisitions. Phase retrieval is here performed using the mixed approach, based on a linearization of the contrast model, and followed by filtered-back projection. We implemented an automatic version of the phase reconstruction process, to allow for the reconstruction of large sets of samples. The method was applied to bone scaffold data in order to study the influence of different bone cells cultures on bone formation. Then, human bone samples were imaged using phase nano-CT, and the potential of phase nano-imaging to analyze the morphology of the lacuno-canalicular network is shown. We applied existing tools to further characterize the mineralization and the collagen orientation of these samples. Phase retrieval, however, is an ill-posed inverse problem. A general reconstruction method does not exist. Existing methods are either sensitive to low frequency noise, or put stringent requirements on the imaged object. Therefore, we considered the joint inverse problem of combining both phase retrieval and tomographic reconstruction. We proposed an innovative algorithm for this problem, which combines phase retrieval and tomographic reconstruction into a single iterative regularized loop, where a linear phase contrast model is coupled with an algebraic tomographic reconstruction algorithm. This algorithm is applied to numerical simulated data
19

Matenine, Dmitri. "Conception et évaluation d'un nouvel algorithme de reconstruction itérative en tomodensitométrie à faisceau conique implanté sur matériel graphique." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La présente thèse s’inscrit dans le domaine de la physique médicale et, plus précisément, de l’imagerie médicale tridimensionnelle (3D) et de la dosimétrie 3D pour la radiothérapie. L’objectif global du travail était de concevoir et évaluer un nouvel algorithme de reconstruction itératif rapide pour la tomodensitométrie (TDM) à faisceau conique, une modalité consistant à créer des images 3D des densités du sujet imagé à partir de mesures d’atténuation partielle d’un faisceau de radiation incidente. Cet algorithme a été implanté sur matériel graphique (GPU), une plate-forme de calcul hautement parallèle, menant à la conception de stratégies d’optimisation originales. En premier lieu, un nouvel algorithme itératif statistique régularisé, dénommé OSC-TV, a été conçu et implanté sur GPU. Il a été évalué sur des ensembles de projections synthétiques et cliniques de TDM à rayons X à faisceau conique. L’algorithme proposé a démontré une qualité d’image supérieure à celle de méthodes semblables pour des acquisitions basse-dose, ainsi que des temps de reconstruction compatibles avec les activités cliniques. L’impact principal de ce travail est la capacité d’offrir au patient une réduction de dose de radiation ionisante de deux à quatre fois par rapport aux protocoles d’acquisition usuels. En second lieu, cet algorithme a été testé sur des données expérimentales en tomographie optique à faisceau conique, donnant lieu à l’une des premières études de ce genre. La résolution spatiale des images 3D résultantes a été améliorée et le bruit a été réduit. L’on a aussi démontré l’importance de considérer le spectre de la source lumineuse afin d’assurer la justesse de l’estimation des densités. Le principal impact de l’étude est la démonstration de la supériorité de la reconstruction itérative pour des données affectées par les aberrations propres à la tomographie optique à faisceau conique, résultant potentiellement en l’amélioration de la dosimétrie 3D par gel radiochromique en radiothérapie. En troisième lieu, différentes approches de gestion de la matrice-système de type exact à rayons fins ont été évaluées pour la TDM à faisceau conique. Le pré-calcul et le stockage complet de la matrice-système dans la mémoire vive du GPU s’est montré comme l’approche la plus rapide, mais la moins flexible en termes de géométries représentables, en raison de la taille limitée de la mémoire vive. Le traçage de rayons à la volée est apparu très flexible, offrant aussi des temps de reconstruction raisonnables. En somme, les trois études ont permis de mettre en place et d’évaluer la méthode de reconstruction proposée pour deux modalités de tomographie, ainsi que de comparer différentes façons de gérer la matrice-système.
This thesis relates to the field of medical physics, in particular, three-dimensional (3D) imaging and 3D dosimetry for radiotherapy. The global purpose of the work was to design and evaluate a new fast iterative reconstruction algorithm for cone beam computed tomography (CT), an imaging technique used to create 3D maps of subject densities based on measurements of partial attenuation of a radiation beam. This algorithm was implemented for graphics processing units (GPU), a highly parallel computing platform, resulting in original optimization strategies. First, a new iterative regularized statistical method, dubbed OSC-TV, was designed and implemented for the GPU. It was evaluated on synthetic and clinical X ray cone beam CT data. The proposed algorithm yielded improved image quality in comparison with similar methods for low-dose acquisitions, as well as reconstruction times compatible with the clinical workflow. The main impact of this work is the capacity to reduce ionizing radiation dose to the patient by a factor of two to four, when compared to standard imaging protocols. Second, this algorithm was evaluated on experimental data from a cone beam optical tomography device, yielding one of the first studies of this kind. The spatial resolution of the resulting 3D images was improved, while the noise was reduced. The spectral properties of the light source were shown to be a key factor to take into consideration to ensure accurate density quantification. The main impact of the study was the demonstration of the superiority of iterative reconstruction for data affected by aberrations proper to cone beam optical tomography, resulting in a potential to improve 3D radiochromic gel dosimetry in radiotherapy. Third, different methods to handle an exact thin-ray system matrix were evaluated for the cone beam CT geometry. Using a GPU implementation, a fully pre-computed and stored system matrix yielded the fastest reconstructions, while being less flexible in terms of possible CT geometries, due to limited GPU memory capacity. On-the-fly ray-tracing was shown to be most flexible, while still yielding reasonable reconstruction times. Overall, the three studies resulted in the design and evaluation of the proposed reconstruction method for two tomographic modalities, as well as a comparison of the system matrix handling methods.
20

Fiani, Myriam. "Reconstruction 3D à partir d'un nombre limité de radiographies : application au contrôle non destructif des soudures." Paris 11, 2001. http://www.theses.fr/2001PA112312.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la reconstruction 3D d'objets métalliques à partir d'un nombre limité de projections. L'application traitée est le contrôle non destructif des soudures par gammagraphies. A cause des contraintes in situ et des contraintes liées aux types de pièces et de défauts contrôlés, les informations disponibles sont pauvres et en nombre limité. De ce fait, le problème de reconstruction est mal posé. Afin d'obtenir une solution acceptable, nous choisissons de le régulariser dans le formalisme bayésien. L'estimateur retenu est le maximum a posteriori. C'est aussi le minimiseur d'un critère pénalisé. A partir de l'existant développé à EDF, nous apportons des améliorations qui sont, en particulier, adaptées à la reconstruction de soudures à partir de gammagraphies. D'un point de vue modélisation, nous exploitons des informations a priori originales, notamment la géométrie de la pièce supposée exempte de défauts et des contraintes d'appartenance à un intervalle. Nous affinons également la modélisation de la formation des données en prenant en compte le phénomène de flou. .
This work deals with the 3D reconstruction of metal objects from a limited number of projections. The application is the nondestructive evaluation of welds from X-ray data. The information are few and of poor quality due to the in situ constraints and to constraints related to the type of objects and its faults. Reconstruction is then an ill-posed inverse problem. In order to obtain an accurate solution, it is regularised in the Bayesian framework. The selected estimator is the maximum a posteriori. It is also the value that minimises a penalised criterion. We make improvements to the existing method developed at EDF well suited particularly for the reconstruction of welds from radiographies. Modelling contribution involves original prior information concerning the object geometry, constraints of belonging to an interval. We also enhance modelling of the data by taking the blurring phenomenon into account. The 3D reconstructions we get using our method, from simulated and real data, validate these improvements. .
21

Kucharczak, Florentin. "Quantification en tomographie par émission de positons au moyen d'un algorithme itératif par intervalles. Contributions au diagnostic des démences neurodégénératives." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie par émission de positons (TEP) est une modalité d’imagerie nucléaire qui possède une place de choix dans la démarche diagnostique des démences neuro-dégénératives. Le traceur radiopharmaceutique le plus utilisé, le 18F-FDG, permet d’obtenir une cartographie volumique du métabolisme cérébral. L’argument scintigraphique de démence repose sur la mise en lumière d’un hypo-métabolisme relatif d’une région d’intérêt (ROI) particulière par rapport à une autre, habituellement son symétrique controlatéral. Certains cas d’étude sont cependant très difficiles à interpréter à l’oeil nu, principalement à un stade précoce d’évolution de la maladie. Jusqu’à présent, le développement d’outils (semi-)automatiques de comparaison directe de ROIs s’est vu limité par la méconnaissance de la statistique que suivent les données reconstruites ; les principales méthodes déjà mises au point préférant alors utiliser d’imposantes bases de données pour évaluer la reconstruction à analyser à travers un score de dissimilarité par rapport à un groupe de contrôles. Dans cette thèse, nous proposons une nouvelle méthodologie entièrement intégrée allant de la reconstruction d’images d’activité à l’aide au diagnostic de démences. Basée sur la reconstruction d’intervalles de confiance, l’approche proposée permet 1/ d’accéder directement à une information sur la variabilité statistique des données, 2/ de reconstruire des images qualitativement et quantitativement probantes pour faciliter la lecture de l’examen par le médecin nucléaire, 3/ de fournir un score de risque du patient d’être atteint de démence neuro-dégénérative. Les résultats obtenus avec cette dernière sont comparables avec des outils validés en routine clinique, sans nécessiter aucune autre information que les seules données d’acquisiton TEP
Positron emission tomography (PET) is a nuclear imaging modality that has a prominent place in the neurodegenerative dementias diagnosis. After a reconstruction step, the most widely used radiopharmaceutical tracer, the 18F-FDG, provides a volume mapping of brain metabolism. The scintigraphic argument for dementia is based on the finding of a relative hypo-metabolism of one particular region of interest (ROI) to another, usually its contralateral symmetric. However, some case studies are very difficult to interpret with the naked eye, mainly at an early stage of the disease’s development. Until now, the development of (semi-)automatic tools for direct comparison of ROIs has been limited by the lack of statistical knowledge of the reconstructed data ; the main methods already developed preferring to use large databases to evaluate the reconstruction through a dissimilarity score compared to a group of control patients. In this thesis, we propose a new, fully integrated methodology, from reconstruction to assistance in the diagnosis of dementia. Based on the reconstruction of confidence intervals, the proposed approach allows 1/ direct access to information on the statistical variability of the data, 2/ reconstruction of qualitatively and quantitatively convincing images to facilitate the reading of the examination by the physician, 3/ provision of a risk score for the patient to be affected by a neurodegenerative dementia. The results obtained with the latter are comparable with tools validated in clinical routine, except that this method does not require any other information than PET acquisition data itself
22

Servieres, Myriam. "Reconstruction Tomographique Mojette." Phd thesis, Université de Nantes, 2005. http://tel.archives-ouvertes.fr/tel-00426920.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une des thématiques abordée par l'équipe Image et Vidéo-Communication est la reconstruction tomographique discréte à l'aide de la transformée Mojette. Ma thèse s'inscrit dans le cadre de la reconstruction tomographique médicale. La transformée Mojette est une version discrète exacte de la transformée de Radon qui est l'outil mathématique permettant la reconstruction tomographique. Pour évaluer la qualité des reconstructions, nous avons utilisé des fantômes numériques 2D simples (objet carré, rond) en absence puis en présence de bruit. Le coeur de mon travail de thèse est la reconstruction d'un objet à l'aide d'un algorithme de rétroprojection filtrée exacte Mojette en absence de bruit s'appuyant sur la géométrie discrète. Pour un nombre fini de projections dépendant de la taille de l'objet à reconstruire la reconstruction est exacte. La majorité des tomographes industriels utilisent l'algorithme de rétroprojection de projections filtrées (Filtered Back Projection ou FBP) pour reconstruire la région d'intérêt. Cet algorithme possède deux défauts théoriques, un au niveau du filtre utilisé, l'autre au niveau de la rétroprojection elle-même. Nous avons pu mettre au point un algorithme de Mojette FBP. Cet algorithme fait partie des méthodes directes de reconstruction. Il a aussi été testé avec succès en présence de bruit. Cet algorithme permet une équivalence continu-discret lors de la reconstruction. L'étape de projection/rétroprojection Mojette présente la particularité intéressante de pouvoir être décrit par une matrice Toeplitz bloc Toeplitz. Pour utiliser cette propriété nous avons mis en oeuvre un algorithme de gradient conjugué.
23

Servières, Myriam. "Reconstruction tomographique mojette." Nantes, 2005. http://www.theses.fr/2005NANT2079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une des thématiques abordée par l'équipe Image et Vidéo-Communication est la reconstruction tomographique discrète à l'aide de la transformée Mojette. Ma thèse s'inscrit dans le cadre de la reconstruction tomographique médicale. La transformée Mojette est une version discrète exacte de la transformée de Radon qui est l'outil mathématique permettant la reconstruction tomographique. Pour évaluer la qualité des reconstructions, nous avons utilisé des fantômes numériques 2D simples (objet carré, rond) en absence puis en présence de bruit. Le cœur de mon travail de thèse est la reconstruction d'un objet à l'aide d'un algorithme de rétroprojection filtrée exacte Mojette en absence de bruit s'appuyant sur la géométrie discrète. Pour un nombre fini de projections dépendant de la taille de l'objet à reconstruire la reconstruction est exacte. La majorité des tomographes industriels utilisent l'algorithme de rétroprojection de projections filtrées (Filtered Back Projection ou FBP) pour reconstruire la région d'intérêt. Cet algorithme possède deux défauts théoriques, un au niveau du filtre utilisé, l'autre au niveau de la rétroprojection elle-même. Nous avons pu mettre au point un algorithme de Mojette FBP. Cet algorithme fait partie des méthodes directes de reconstruction. Il a aussi été testé avec succès en présence de bruit. Cet algorithme permet une équivalence continu-discret lors de la reconstruction. L'étape de projection/rétroprojection Mojette présente la particularité intéressante de pouvoir être décrit par une matrice Toeplitz bloc Toeplitz. Pour utiliser cette propriété nous avons mis en œuvre un algorithme de gradient conjugué
One of the recherch field of in the Image and Videocommunication team is the discrete tomographic reconstruction. My PhD is in the field of the medical tomographic reconstruction. The Mojette transform is a discrete exact version of the Radon transform. The Radon transform is the mathematic tool that allows to perform a tomographic reconstruction. To evaluate the reconstruction quality we have used 2D simple numeric phantoms (round and square shape) without and with noise. The main point of my work is an object reconstruction with a backprojection exact fitrered Mojette algorithm without noise, using the discrete geometry. For a finite number of projections according to the object size, the reconstruction is exact. Most of industrials tomograph are using the FBP algorithm (Filtered Backprojection) to reconstruct the region of interest. We could implement a FBP Mojette algorithm. This algorithm is a part of the reconstruction algorithm methods. It was successfully tested in the presence of noise. This algorithm allows a continuous/discrete equivalence. The projection/backprojection Mojette has the property to be described by a Toeplitz bloc Toeplitz matrix. To use this property we have implement a congugate gradient algorithm
24

Paleo, Pierre. "Méthodes itératives pour la reconstruction tomographique régularisée." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT070/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières années, les techniques d'imagerie par tomographie se sont diversifiées pour de nombreuses applications. Cependant, des contraintes expérimentales conduisent souvent à une acquisition de données limitées, par exemple les scans rapides ou l'imagerie médicale pour laquelle la dose de rayonnement est une préoccupation majeure. L'insuffisance de données peut prendre forme d'un faible rapport signal à bruit, peu de vues, ou une gamme angulaire manquante. D'autre part, les artefacts nuisent à la qualité de reconstruction. Dans ces contextes, les techniques standard montrent leurs limitations. Dans ce travail, nous explorons comment les méthodes de reconstruction régularisée peuvent répondre à ces défis. Ces méthodes traitent la reconstruction comme un problème inverse, et la solution est généralement calculée par une procédure d'optimisation. L'implémentation de méthodes de reconstruction régularisée implique à la fois de concevoir une régularisation appropriée, et de choisir le meilleur algorithme d'optimisation pour le problème résultant. Du point de vue de la modélisation, nous considérons trois types de régularisations dans un cadre mathématique unifié, ainsi que leur implémentation efficace : la variation totale, les ondelettes et la reconstruction basée sur un dictionnaire. Du point de vue algorithmique, nous étudions quels algorithmes d'optimisation de l'état de l'art sont les mieux adaptés pour le problème et l'architecture parallèle cible (GPU), et nous proposons un nouvel algorithme d'optimisation avec une vitesse de convergence accrue. Nous montrons ensuite comment les modèles régularisés de reconstruction peuvent être étendus pour prendre en compte les artefacts usuels : les artefacts en anneau et les artefacts de tomographie locale. Nous proposons notamment un nouvel algorithme quasi-exact de reconstruction en tomographie locale
In the last years, there have been a diversification of the tomography imaging technique for many applications. However, experimental constraints often lead to limited data - for example fast scans, or medical imaging where the radiation dose is a primary concern. The data limitation may come as a low signal to noise ratio, scarce views or a missing angle wedge.On the other hand, artefacts are detrimental to reconstruction quality.In these contexts, the standard techniques show their limitations.In this work, we explore how regularized tomographic reconstruction methods can handle these challenges.These methods treat the problem as an inverse problem, and the solution is generally found by the means of an optimization procedure.Implementing regularized reconstruction methods entails to both designing an appropriate regularization, and choosing the best optimization algorithm for the resulting problem.On the modelling part, we focus on three types of regularizers in an unified mathematical framework, along with their efficient implementation: Total Variation, Wavelets and dictionary-based reconstruction. On the algorithmic part, we study which state-of-the-art convex optimization algorithms are best fitted for the problem and parallel architectures (GPU), and propose a new algorithm for an increased convergence speed.We then show how the standard regularization models can be extended to take the usual artefacts into account, namely rings and local tomography artefacts. Notably, a novel quasi-exact local tomography reconstruction method is proposed
25

Banjak, Hussein. "X-ray computed tomography reconstruction on non-standard trajectories for robotized inspection." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI113/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie par rayons X ou CT pour "Computed Tomography" est un outil puissant pour caractériser et localiser les défauts internes et pour vérifier la conformité géométrique d’un objet. Contrairement au cas des applications médicales, l’objet inspecté en Contrôle Non Destructif (CND) peut être très grand et composé de matériaux de haute atténuation, auquel cas l’utilisation d’une trajectoire circulaire pour l’inspection est impossible à cause de contraintes dans l’espace. Pour cette raison, l’utilisation de bras robotisés est l’une des nouvelles tendances reconnues dans la CT, car elle autorise plus de flexibilité dans la trajectoire d’acquisition et permet donc la reconstruction 3D de régions difficilement accessibles dont la reconstruction ne pourrait pas être assurée par des systèmes de tomographie industriels classiques. Une cellule de tomographie X robotisée a été installée au CEA. La plateforme se compose de deux bras robotiques pour positionner et déplacer la source et le détecteur en vis-à-vis. Parmi les nouveaux défis posés par la tomographie robotisée, nous nous concentrons ici plus particulièrement sur la limitation de l’ouverture angulaire imposée par la configuration en raison des contraintes importantes sur le mouvement mécanique de la plateforme. Le deuxième défi majeur est la troncation des projections qui se produit lorsque l’objet est trop grand par rapport au détecteur. L’objectif principal de ce travail consiste à adapter et à optimiser des méthodes de reconstruction CT pour des trajectoires non standard. Nous étudions à la fois des algorithmes de reconstruction analytiques et itératifs. Avant d’effectuer des inspections robotiques réelles, nous comptons sur des simulations numériques pour évaluer les performances des algorithmes de reconstruction sur des configurations d’acquisition de données. Pour ce faire, nous utilisons CIVA, qui est un outil de simulation pour le CND développé au CEA et qui est capable de simuler des données de projections réalistes correspondant à des configurations d’acquisition définies par l’utilisateur
X-ray computed tomography (CT) is a powerful tool to characterize or localize inner flaws and to verify the geometric conformity of an object. In contrast to medical applications, the scanned object in non-destructive testing (NDT) might be very large and composed of high-attenuation materials and consequently the use of a standard circular trajectory for data acquisition would be impossible due to constraints in space. For this reason, the use of robotic arms is one of the acknowledged new trends in NDT since it allows more flexibility in acquisition trajectories and therefore could be used for 3D reconstruction of hardly accessible regions that might be a major limitation of classical CT systems. A robotic X-ray inspection platform has been installed at CEA LIST. The considered system integrates two robots that move the X-ray generator and detector. Among the new challenges brought by robotic CT, we focus in this thesis more particularly on the limited access viewpoint imposed by the setup where important constraints control the mechanical motion of the platform. The second major challenge is the truncation of projections that occur when only a field-of-view (FOV) of the object is viewed by the detector. Before performing real robotic inspections, we highly rely on CT simulations to evaluate the capability of the reconstruction algorithm corresponding to a defined scanning trajectory and data acquisition configuration. For this purpose, we use CIVA which is an advanced NDT simulation platform developed at CEA and that can provide a realistic model for radiographic acquisitions and is capable of simulating the projection data corresponding to a specific CT scene defined by the user. Thus, the main objective of this thesis is to develop analytical and iterative reconstruction algorithms adapted to nonstandard trajectories and to integrate these algorithms in CIVA software as plugins of reconstruction
26

Lagrange, Jean-Michel. "Reconstruction tomographique à partir d'un petit nombre de vues." Cachan, Ecole normale supérieure, 1998. http://www.theses.fr/1998DENS0038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à la reconstruction tomographique d'un objet 3d a partir d'un petit nombre de vues, sous des hypothèses de symétrie. Les inversions classiques étant très instables, j'ai aborde ce problème par une modélisation de l'objet : la reconstruction consiste à déterminer les paramètres du modèle en comparant les projections de ce dernier aux données. L'éclairement étant parallèle, j'ai tout d'abord étudié la reconstruction d'une coupe plane. Le modèle 1d est alors décrit par zones et comporte n paramètres. Leur recherche s'exprime sous la forme de la minimisation sous contraintes d'un critère quadratique. Ce dernier n'étant pas différentiable, j'ai propose trois techniques permettant de le régulariser. J'ai, ensuite, étudié la sensibilité du vecteur paramétré au bruit présent sur les données après avoir déterminé la matrice de covariance de ce vecteur. J'ai enfin propose une reconstruction de toutes les coupes de l'objet par itération de cette approche 1d en ajoutant un terme de lissage entre les coupes. Je me suis ensuite orienté vers la construction d'un modèle 3d des objets, caractérisé par six grandeurs : trois surfaces séparatrices (engendrées par la rotation de trois courbes planes) et les champs de densité sur ces interfaces. La première difficulté a résidé dans le remplissage d'un champ 3d a partir des champs de densité sur les interfaces. J'ai alors propose un operateur elliptique adaptatif assurant cette opération. A interfaces fixées, j'ai implémenté la recherche des densités sur chacune d'elles. J'ai ensuite formalise la déformation de ces surfaces, c'est-a-dire des génératrices planes. Elle est caractérisée par la recherche d'une base optimale des déformations obtenues par ACP sur un jeu d'exemples. Ce jeu est construit de manière aléatoire : les réalisations sont obtenues par intégration de la solution d'une équation différentielle stochastique linéaire.
27

Nguyen, Duy Thuy. "Développement d'algorithmes de reconstruction tomographique pour l'analyse PIXE d'échantillons biologiques." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2008. http://tel.archives-ouvertes.fr/tel-00404564.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement des techniques de microscopie 3D offrant une résolution spatiale de l'ordre du micromètre a ouvert un large champ de recherche en biologie cellulaire. Parmi elles, un avantage intéressant de la micro-tomographie par faisceau d'ions est de donner des résultats quantitatifs en termes de concentrations locales d'une manière directe, en utilisant une technique d'émission de rayonnement X (PIXET) combinée à la microscopie ionique en transmission (STIMT). Le traitement des données expérimentales constitue un point délicat. Après une brève introduction aux techniques de reconstruction existantes, nous présentons le principe du code DISRA, le plus complet écrit jusqu'à ce jour, qui nous a servi de base pour ce travail de thèse. Nous avons modifié et étendu le code DISRA en considérant les aspects spécifiques des échantillons biologiques. Un logiciel de traitement de données complet a ainsi été développé, avec une interface utilisateur permettant le contrôle de chaque étape de la reconstruction. Les résultats d'expériences de STIMT et/ou PIXET effectuées au CENBG sur des spécimens de référence et sur des cellules végétales ou humaines isolées sont présentés.
28

Sinoquet, Delphine. "Utilisation de modèles lisses pour l'inversion tomographique de données sismiques." Paris 13, 1995. http://www.theses.fr/1995PA132005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie de réflexion permet en théorie la détermination de la distribution des vitesses de propagation dans le sous-sol et de la géométrie des réflecteurs a partir des temps de trajet des ondes sismiques. La solution de ce problème inverse est le modèle (distribution de vitesses et réflecteurs) qui minimise les écarts entre temps observes et temps calcules par un trace de rayons (problème direct). Deux représentations du champ de vitesse sont généralement utilisees: les modèles block (discontinus) et les modèles lisses. L'objet de cette thèse est l'étude de la tomographie avec des modèles lisses, ces modèles présentant des propriétés intéressantes aussi bien au niveau pratique qu'au niveau mathématique et numérique. Nous proposons une formulation originale du problème inverse qui permet l'intégration d'informations à priori adaptées aux modèles lisses. Cette formulation nous assure l'existence, l'unicité et la stabilité de la solution du problème inverse linéarité. Le problème inverse non linéaire est résolu par une méthode de gauss-newton alors que le problème linéarité est résolu par une méthode d'optimisation avec contraintes, basée sur la méthode du lagrangien augmente. Cette méthode nous a ainsi permis de résoudre des problèmes géophysiques difficiles faisant intervenir des milliers d'inconnues satisfaisant des milliers de contraintes. Nous montrons également que la formulation choisie réduit considérablement l'indétermination de la solution par rapport aux techniques classiques de régularisation et fournit une solution géologiquement plus acceptable. Cependant, malgré l'introduction d'informations a priori, de l'imprécision dans les données temps de trajet résulte une incertitude dans les données. Une analyse d'incertitude est donc nécessaire: nous proposons pour ce faire une méthode basée sur l'optimisation avec contraintes
29

Donner, Quentin. "Correction de l'atténuation et du rayonnement diffusé en tomographie d'émission à simples photons." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10155.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de la tomographie d'émission à simples photons est d'établir une image fonctionnelle d'un organe. Pour ce faire, on administre au patient un radioélément qui se fixe dans l'organe, puis on calcule la distribution du radioélément à partir de mesures du rayonnement émis. Une proportion non négligeable de ce rayonnement interagit cependant dans la matière. L'objectif de ces travaux est de tenir compte de ces interactions afin de reconstruire plus précisément. Après avoir décrit les principales caractéristiques du système d'acquisition, nous nous consacrons a la reconstruction de la distribution d'émission à partir de projections atténuées, notamment quand la géométrie d'acquisition est conique. Plusieurs méthodes du type prédiction-correction sont fréquemment utilisées, mais leur convergence n'est pas établie. En fait, nous montrons théoriquement que la plus simple de ces méthodes diverge dans un cas particulier. La correction d'atténuation peut également être traitée par la méthode du gradient préconditionnée. Nous proposons plusieurs préconditionnements, qui conduisent à différents algorithmes de reconstruction. Ces algorithmes présentent de grandes analogies avec les algorithmes de prédiction-correction, mais ils ont l'avantage d'être convergents. Nous terminons ce chapitre en validant une méthode du type prédiction-correction, celle de Morozumi, sur données simulées et sur données expérimentales. Nous abordons ensuite le problème de la détermination de l'objet atténuant suivant deux approches. La première repose sur l'utilisation des mesures de rayonnement direct: on reconstruit l'émission une première fois sans corriger l'atténuation, puis on ajuste un ellipsoïde aux contours extérieurs de cette image. La seconde approche est basée sur l'utilisation des mesures du rayonnement diffuse: nous étudions la possibilité d'utiliser ces mesures pour établir une cartographie d'atténuation et nous mettons en évidence les difficultés liées a ce problème. Nous terminons en regardant comment la cartographie d'atténuation peut servir à corriger les effets du rayonnement diffuse. Nous proposons une méthode du type prédiction-correction, nous discutons sa convergence, puis nous la comparons a une méthode classique sur données expérimentales. .
The aim of single photon emission tomography is to compute a functional picture of an organ. This is done by administering to the patient a radiopharmaceutical which is fixing in the organ. Then, one computes the distribution of the radiopharmaceutical from the measurement of the emitted gamma-rays. However, an important part of these gamma-rays are interacting with the matter inside the body. The aim of this work is to take these interactions into account so as to reconstruct more accurately. .
30

Bonnet, Stéphane. "Approches multi résolution en reconstruction tomographique 3D : Application à l'angiographie cérébrale." Lyon, INSA, 2000. http://www.theses.fr/2000ISAL0077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’angiographie rotationnelle (AR) 3d devient une aide indispensable au traitement endovasculaire des pathologies cérébrales. Elle offre au médecin la possibilité d'examiner en 3d la complexité de l'arbre vasculaire cérébral en vue d’un geste thérapeutique plus sur. Le volume visualise est le résultat d’un algorithme de reconstruction tomographique applique a un ensemble de projections rayons x acquises pendant l1njection d’un produit de contraste. Ce travail vise a proposer de nouvelles méthodes de reconstruction tomographique pour accéder a la représentation d’un objet à différents niveaux de résolution a partir de ses projections. L’idée sous-jacente est de pouvoir effectuer des traitements d’image dans cet espace intermédiaire afin d'améliorer la rapidité et la qualité de la reconstruction. Dans un premier temps, nous ayons explore les relations existant entre ondelettes et tomographie pour une géométrie d'acquisition parallèle. Nous présentons un algorithme original de reconstruction tomographique applicable à des ondelettes séparables ou quinconces. Celui-ci est valide sur des données expérimentales, acquises par rayonnement synchrotron a l’ESRF, Grenoble. La généralisation de ces méthodes de reconstruction en géométrie divergente (2d-3d) est ensuite étudiée. Le principal obstacle réside dans le calcul de la transformée de radon a partir dune telle acquisition. Nous proposons alors un algorithme de reconstruction multi résolution approchée exploitant a la fois la géométrie d'acquisition particulière en AR 3d et la non séparabilité des ondelettes. Des simulations sur fantômes mathématiques ont permis de valider notre méthode et de fixer ses limites d’utilisation. L utilisation de ces techniques en AR 3d est enfin présentée sur des données réelles acquises a l’hôpital neurologique de Lyon. La reconstruction initiale rapide de l'arbre vasculaire a basse résolution avec ajout progressif des détails dans une région d’intérêt est ainsi démontrée
3D rotational angiography (RA) is raising increasing interest for diagnostic in the field of endovascular treatment of intracranial Aneurysms. It brings to the physician valuable 3d information of the cerebral vascular 3D reconstruction of arterial vessels is Obtained via a cone-beam reconstruction algorithm applied onto a set of contrast-enhanced x-ray images. This thesis suggests new Tomographic reconstruction methods in order to access directly the Representation of a 3d object at different resolutions from its projections. The underlying idea is to apply image processing techniques in this intermediate space to increase both image quality and Computation time. In a first step, the natural relationship between wavelets and Computerized tomography is investigated for parallel beam geometry. It provides a rigorous mathematical framework where multiresolution Analysis can be considered. We present an original tomography Reconstruction algorithm satisfying either separable or quincunx Wavelet schemes. It has been validated on experimental data, acquired Using synchrotron radiation at the ESRF, Grenoble. The generalization of these reconstruction methods for divergent geometries (2d-3d) is then studied. The main difficulty consists in the direct computation of the radon transform from a divergent data set. Nevertheless, we propose an approximate multiresolution algorithm that makes full use of the particular acquisition geometry in 3D RA and of the special Choice of non separable wavelets. Simulations on mathematical phantoms allowed validating our algorithm and fixing its conditions of Use. Lastly, these multiresolution techniques were successfully applied to 3D rotational angiography. The feasibility of our Reconstruction method w as shown on clinical data, acquired at the Neurological hospital in Lyon. A fast low-resolution reconstruction of the 3D arterial vessels with the progressive addition of details in a Region of interest w as demonstrated
31

Ruan, Yi. "Imagerie numérique 3D par microscopie tomographique diffractive." Ecole centrale de Marseille, 2012. http://www.theses.fr/2012ECDM0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Allali, Anthony. "Algorithme de reconstruction itératif pour tomographie optique diffuse avec mesures dans le domaine temporel." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
33

Michels, Yves. "Reconstruction tomographique d'objets déformables pour la cryo-microscopie électronique à particules isolées." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD031/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La cryo-microscopie électronique à particules isolées est une modalité d’imagerie permettant d’estimer la structure 3D de molécules. L’obtention d’un volume 3D est effectué par des algorithmes de reconstruction tomographique après acquisition par un microscope électronique à transmission d’un ensemble d’images de projection de l’objet observé. Les méthodes de reconstruction tomographique existantes permettent de déterminer la structure des molécules avec des résolutions proches de l’angström. Cependant la résolution est dégradée lorsque les molécules observées sont déformables. Les travaux réalisés au cours de cette thèse contribuent au développement de méthodes de traitement informatique des données (projections) dans le but de prendre en compte les déformations de l’objet observé dans le processus de reconstruction tomographique ab initio. Les problématiques principales abordées dans ce mémoire sont l’estimation des paramètres de projection basée sur la réduction de dimension non-linéaire, la détection des arêtes erronées dans les graphes de voisinages pour l’amélioration de la robustesse au bruit des méthodes de réduction de dimension, et la reconstruction tomographique basée sur un modèle paramétrique du volume
Single particle cryo-electron microscopy is a technique that allows to estimate the 3D structure of biological complex. The construction of the 3D volume is performed by computerized tomography applied on a set of projection images from transmission electron microscope. Existing tomographic reconstructionalgorithms allow us to visualize molecular structure with a resolution around one angstrom. However the resolution is degraded when the molecules are deformable. This thesis contributes to the development of signal processing method in order to take into account the deformation information of the observed object for the ab initio tomographic reconstruction. The main contributions of this thesis are the estimation of projection parameters based on non-linear dimensionreduction, the false edges detection in neighborhood graphs to improve noise robustness of dimension reduction methods, and tomographic reconstruction based on a parametric model of the volume
34

Darcourt, Jacques. "Methodes de reconstruction tomographique a partir des projections : application a l'imagerie medicale." Nice, 1992. http://www.theses.fr/1992NICE4584.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs techniques d'imagerie medicale (tomodensitometrie et tomographie d'emission surtout) ont pour but d'explorer des coupes de l'organisme a partir de projections collectees autour du patient. Les methodes de reconstruction par transformation proposent des operations equivalentes a une inversion de la transformee de radon. La methode par transformee de fourier decoule directement du theoreme de projection. Elle souligne le probleme fondamental de la reconstruction tomographique qui est celui du nombre fini de projections qui engendre une connaissance inevitablement imparfaite de l'objet notamment dans les hautes frequences. La methode par filtrage-retroprojection est la plus communement utilisee car elle donne de bons resultats pour des temps de calcul faibles. Dans les methodes iteratives, il s'agit de determiner l'objet en coupe x=w##1p ou p represente les projections mesurees et w la matrice qui modelise l'operation de projection, en incorporant des corrections physiques liees aux imperfections de detection. Nous proposons une classification en trois niveaux des principales methodes utilisables. Cette inversion consiste a atteindre une solution qui minimise une distance a la solution reelle. Cette distance peut avoir differentes definitions (moindres carres, vraisemblance ou entropie): c'est le premier niveau. Mais il s'agit d'un probleme inverse mal pose, qui doit etre regularise. Il s'agit d'atteindre une solution qui minimise a la fois une distance a la solution vraie et une distance a un a priori: c'est le deuxieme niveau. Cet a priori est classiquement un certain degre de douceur qui a comme inconvenient de lisser les contours. Certains algorithmes permettent de regulariser tout en preservant les discontinuites de l'image: c'est le troisieme niveau decrit. C'est ce dernier type de methodes qui est le plus prometteur notamment en tomographie d'emission
35

Srour, Ali Barles Guy. "Etudes de deux approches mathématiques complémentaires pour un problème de reconstruction tomographique." S. l. : S. n, 2008. http://theses.abes.fr/2008TOUR4016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Srour, Ali. "Etudes de deux approches mathématiques complémentaires pour un problème de reconstruction tomographique." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4016/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse sont divisés en quatre parties. La première est consacrée à la présentation du modèle de reconstruction tomographique. Dans la deuxième partie, nous traitons une approche variationnelle qui consiste en un problème de minimisation non-différentiable avec une contrainte non convexe, d'intérieur vide pour les topologies usuelles. L'étude numérique de l'approche précédente est faite dans la troisième partie. Elle est basée sur le système d'optimalité, la méthode d'Uzawa et une méthode de gradient à pas optimal pour écrire un schéma numérique. Dans la quatrième partie, nous nous intéressons à l'approche par lignes de niveaux pour résoudre des problèmes de propagation de fronts. Cette méthode fait apparaître des équations de type Hamilton-Jacobi du second ordre avec un terme non-local. Nous prouvons l'existence et l'unicité d'une solution de viscosité pour ces équations dans deux cas: celui des fronts compacts et celui des fronts non compacts
The thesis at hand is composed of four parts. The first of which is devoted to present our model of tomographic reconstruction. The second part treats a non-differentiable variational problem with a non-convex constraint the interior of which is empty for usual topologies. A numerical study of the above approach is elaborated in the third part. A numerical scheme is derived based upon our optimal system, the method of Uzawa and a gradient descent method. In the last part, we use a level-set approach to solve the front propagation problem. A second order Hamilton-Jacobi type equation with a non-local term comes into play. We prove the existence and uniqueness of a viscosity solution in both compact and non-compact fronts cases
37

HAMON, CHRISTIAN. "Reconstruction tomographique 3d a partir d'un nombre limite de projections. Application a la reconstruction vasculaire et osseuse." Rennes 1, 1990. http://www.theses.fr/1990REN10035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de l'etude que nous presentons dans ce document est la conception de methodes de reconstruction tomographique tri-dimensionnelle adaptees a un nombre limite de projections de mesure. Ces methodes, tout particulierement dediees a la reconstruction de structures vasculaires et osseuses, sont developpees pour un scanner 3d x de nouvelle generation. Apres une comparaison des algorithmes existants, nous avons propose une approche analytique pour resoudre ce probleme, correspondant soit a la detection du support de reconstruction, soit a l'interpolation des projections de mesure. Les performances de ces algorithmes sont etroitement liees a la forme de l'objet pour la premiere methode. Les methodes proposees ont ete experimentees sur des images simulees et des donnees reelles
38

Rouault-Pic, Sandrine. "Reconstruction en tomographie locale : introduction d'information à priori basse résolution." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un des objectifs actuel en tomographie est de réduire la dose injectée au patient. Les nouveaux systèmes d'imagerie, intégrant des détecteurs haute résolution de petites tailles ou des sources fortement collimatées permettent ainsi de réduire la dose. Ces dispositifs mettent en avant le problème de reconstruction d'image à partir d'informations locales. Un moyen d'aborder le problème de tomographie locale est d'introduire une information à priori, afin de lever la non-unicité de la solution. Nous proposons donc de compléter les projections locales haute résolution (provenant de systèmes décrits précédemment) par des projections complètes basse résolution, provenant par exemple d'un examen scanner standard. Nous supposons que la mise en correspondance des données a été effectuée, cette partie ne faisant pas l'objet de notre travail. Nous avons dans un premier temps, adapté des méthodes de reconstruction classiques (ART, Gradient conjugué régularisé et Rétroprojection filtrée) au problème local, en introduisant dans le processus de reconstruction l'information à priori. Puis, dans un second temps, nous abordons les méthodes de reconstruction par ondelettes et nous proposons également une adaptation à notre problème. Dans tous les cas, la double résolution apparait également dans l'image reconstruite, avec une résolution plus fine dans la région d'intérêt. Enfin, étant donné le coût élevé des méthodes mises en oeuvre, nous proposons une parallélisation des algorithmes implémentés.
39

Mohammad, Djafari Ali Asghar. "Synthèse de Fourier multivariables à maximum d'entropie : application à la reconstruction tomographique d'images." Paris 11, 1987. http://www.theses.fr/1987PA112427.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème traité est celui de la synthèse de Fourier multivariables, c'est à dire la détermination d'une fonction f(x:) à partir d'une connaissance partielle de sa transformée de Fourier (TF). Les particularités du problème sont les suivantes: i) la fonction est positive et à support limité, ii) les échantillons de sa TF, que l'on dispose se trouvent sur des contours algébriques définis à partir des hypothèses physiques et de la géométrie des mesures des applications concernées. L'intérêt de ce problème se justifie dans ses nombreuses applications telles que: tomographie à rayon X ou à ondes diffractées, en imagerie RMN, etc. , où la mesure d'une grandeur sur des lignes droites (projections) nous renseigne, soit directement, soit indirectement, sur la TF spatiale d'une fonction à deux variables d'espace caractérisant l'objet. Il s'agit là d'un problème inverse mal-posé; celui de la résolution d'une équation intégrale de première espèce dans laquelle le noyau de l'intégrale est une fonction exponentielle complexe. Pour le résoudre, il faut étudier non seulement les conditions d'existence et d'unicité de la solution, Bis aussi sa stabilité vis-à-vis des erreurs sur les données. Une analyse des méthodes de reconstruction existantes nous montre que celles-ci négligent en général soit l'unicité, soit la stabilité de la solution. Notre approche consiste à utiliser le fait que la solution est positive, ce qui a été négligé dails les méthodes existantes. L'usage de l'entropie nous a semblé donc être une façon appropriée pour arriver à cette fin. Une étude des différentes approches du principe du Maximum d'Entropie (ME) est faite, et, finalement, une nouvelle méthode est proposée. L'utilisation de l'entropie a soulevé un certain nombre de difficultés, comme le choix entre les différences définitions de l'entropie d'une image ainsi que la définition de l'entropie d'une image représentant une grandeur complexe; pour lesquelles nous avons apporté quelques éléments de réponse. L'algorithme consiste alors à minimiser un critère composé de deux termes : un terme de résidu qui mesure la fidélité aux données, et un terme d'entropie qui joue le rôle d'une fonctionnelle de régularisation. La minimisation est faite par une technique du gradient conjugué. Un certain nombre de simulations sont présentées afin de comparer les performances de la méthode à celles des méthodes classiques pour des applications en tomographie.
40

Rinkel, Jean. "Correction du diffusé pour la reconstruction tomographique quantitative avec un capteur plan numérique." Grenoble 1, 2006. http://www.theses.fr/2006GRE10117.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie X en géométrie conique permet de réaliser de la tomodensitométrie volumique par une simple rotation du système source-détecteur et d'obtenir des volumes reconstruits à résolution isotrope. Dans une telle géométrie, la détection est réalisée par des capteurs plans numériques. Une des principales limitations de ces derniers est que le rayonnement diffusé atteignant le capteur est bien plus important que pour les tomographes classiques à capteurs linéaires ou multibarrettes. Ce rayonnement diffusé crée des artefacts de sous-estimations des coefficients d'atténuation sur les images reconstruites. Dans cette thèse, nous proposons des méthodes de prétraitement des données et de correction du diffusé pour réaliser de la tomodensitométrie quantitative avec capteur plan et évaluons expérimentalement ces méthodes dans un contexte médical. Une première partie décrit comment mettre en oeuvre un banc de tomographie comportant un capteur plan. A cet effet, un protocole d'acquisition assurant la reproductibilité des acquisitions est défini. Des méthodes de prétraitement numérique des acquisitions corrigeant les artefacts causés par le capteur sont proposées. Outre la correction des pixels défectueux, du niveau d'obscurité et de la non-uniformité de la réponse des différents pixels, des corrections indispensables à une bonne quantification sont développées. Elles comprennent la correction de la non-linéarité de la réponse des pixels et celle d'un signal parasite, appelé diffusé capteur, qui regroupe les phénomènes de diffusion X et optique ayant lieu à l'intérieur du capteur. Ces méthodes sont validées expérimentalement sur des fantômes représentatifs d'un thorax. Dans une seconde partie, une nouvelle méthode de correction du rayonnement diffusé par l'objet examiné est proposée. Elle est basée sur une estimation des images de rayonnement diffusé associées à chaque angle de vue tomographique par un calibrage du diffusé généré par des objets de référence couplé à une modélisation analytique du diffusé du premier ordre. Cette méthode est validée sur des fantômes représentatifs de thorax dans une configuration du banc expérimental sans grille anti diffusante. Une adaptation de la méthode avec grille anti diffusante est proposée et évaluée expérimentalement
Cone Bearn Computed Tomography has the advantage of mechanical simplicity in that full 3D information can be acquired by a single rotation of the source-detector system and used to obtain isotropic reconstructed volumes. However, detection is performed by a flat panel detector and one of the main drawbacks of such detectors is that the amount of scatter reaching them is much higher than that observed in fan beam systems. The scattered radiation induces artefacts that result in under-estimates of the attenuation coefficients in reconstructed images. The aim of this thesis is to develop data pre-processing and scatter correction methods to be used in quantitative three-dimensional imaging with a flat-panel detector and to evaluate these methods in a medical context. The first part of the study describes the experimental bench set-up and defines the protocol used to ensure that data acquisitions are reproducible. Next, pre-processing methods used to correct the artefacts due to the detector are described. These methods concern the correction of defective pixels, image darkness and the spatial non-uniformity of detector response. Original methods are also proposed to correct detector non-linearity and scattering, including X-ray scatter and optical diffusion within the detector. These methods are validated experimentally on thorax phantoms. The last part of the study proposes a new method to correct the scattered radiation generated within the examined object. The method is based on an estimation of the scattered radiation images associated with each tomographic angle of view. Estimation is performed by a calibration of scattering on reference objects combined with analytical modelling of the first-order scattering process. This method is validated on thorax phantoms in a configuration of the experimental bench that has no anti-scatter grid. An adaptation of the method using an anti-scatter grid is also proposed and evaluated experimentally
41

Mohammad-Djafari, Ali Asghar. "Synthèse de Fourier multivariables à maximum d'entropie application à la reconstruction tomographique d'images /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376080845.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Mascolo-Fortin, Julia. "Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau conique." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27473.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement.
Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.
43

LI, KAIYUN. "Algorithmes geometriques pour la reconstruction de formes." Nice, 1994. http://www.theses.fr/1994NICE4711.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Tous les travaux anterieurs en reconstruction active (geometric probing) ont considere des objets polygonaux, voire polyedriques, la plupart du temps convexes. La these de p. Alevizos avait traite les cas des polygones non convexes. Ce travail avait ete generalise aux polyedres non convexes par j. D. Boissonnat et m. Yvinec. La generalisation a des objets courbes paraissait plus problematique et n'avait ete abordee que dans un cas tres particulier par lindenbaum et bruckstein. Trois problemes de reconstruction active d'objets non polygonaux ont ete resolus. Le cas de scenes constituees de disques dans le plan ou de boules dans l'espace. Il s'agit, d'identifier n disques (resp. Boules) dont on connait un point mais ni les centres ni les rayons. Le cas d'un objet dont le bord est forme d'aretes et d'arcs de cercle. On suppose qu'un point interieur a l'objet est connu. En revanche, ni la forme de l'objet ni meme le nombre n de ses cotes (segment de droite ou arc de cercle) n'est connu. Le cas d'un contour convexe general. On presente un algorithme qui permet de trouver une approximation polygonale a e pres d'un objet convexe inconnu. On compare le nombre d'aretes de cette approximation au nombre n d'aretes de l'approximation a pres de l'objet qui a le plus petit nombre d'aretes
44

Majorel, Cynthia. "Reconstruction tomographique pour la quantification 3D en temp cérébrale : application à la neurotransmission dopaminergique." Toulouse 3, 2001. http://www.theses.fr/2001TOU30065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Nasr, Elie. "Méthodes hilbertiennes pour la correction d'atténuation en Tomographie d'Émission Monophotonique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2008. http://tel.archives-ouvertes.fr/tel-00602011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de reconstruction d'images à partir de projections parallèles atténuées. Ce problème mathématique trouve son application principale en imagerie médicale, et en particulier en tomographie d'émission monophotonique avec correction d'atténuation sous l'hypothèse que l'atténuation (supposée quelconque) est connue et quelconque sur la région d'émission. Dans un premier temps, nous décrivons les principes physiologiques et mathématiques de la tomographie d'émission monophotonique. Ensuite, nous présentons une méthode de reconstruction itérative basée sur la prise en considération du phénomène d'atténuation, principal élément perturbateur en imagerie par émission monophotonique. Cette méthode est une généralisation de l'algorithme de reconstruction algébrique classique (ART); elle introduit un terme de correction d'atténuation exact. Finalement, nous exposerons des exemples numériques et nous discuterons de la performance de notre algorithme selon le choix de plusieurs paramètres.
46

Gac, Nicolas. "Adéquation Algorithme Architecture pour la reconstruction 3D en imagerie médicale TEP." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00330365.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'amélioration constante de la résolution dynamique et temporelle des scanners et des méthodes de reconstruction en imagerie médicale, s'accompagne d'un besoin croissant en puissance de calcul. Les accélérations logicielles, algorithmiques et matérielles sont ainsi appelées à réduire le fossé technologique existant entre les systèmes d'acquisition et ceux de reconstruction.
Dans ce contexte, une architecture matérielle de rétroprojection 3D en Tomographie à Emission de Positons (TEP) est proposée. Afin de lever le verrou technologique constitué par la forte latence des mémoires externes de type SDRAM, la meilleure Adéquation Algorithme Architecture a été recherchée. Cette architecture a été implémentée sur un SoPC (System on Programmable Chip) et ses performances comparées à celles d'un PC, d'un serveur de calcul et d'une carte graphique. Associée à un module matériel de projection 3D, cette architecture permet de définir une paire matérielle de projection/rétroprojection et de constituer ainsi un système de reconstruction complet.
47

Vidal, Fabrice. "Calibrations et reconstruction tomographique en optique adaptative multi-objet pour l'astronomie : Application au démonstrateur CANARY." Phd thesis, Observatoire de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00559962.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Vidal, Fabrice. "Calibrations et reconstruction tomographique en optique adaptative multi-objet pour l’astronomie : application au démonstrateur CANARY." Observatoire de Paris, 2009. https://tel.archives-ouvertes.fr/tel-00559962.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
EAGLE est un instrument de MOAO en cours d’étude de faisabilité (phase A) sur le futur ELT européen. Il sera équipé de 20 voies scientifiques de correction permettant d’effectuer des observations spectroscopiques de 20 galaxies réparties dans un champ d’environ 5 minutes d’arc. Les ASO des voies d’analyse sonderont la turbulence grâce à 6 étoiles laser ainsi que 5 étoiles naturelles présentes dans tout le champ. Dans le cadre de la R&D pour le programme EAGLE, un démonstrateur technique est prévu : CANARY aura pour but de démontrer la faisabilité du principe de la MOAO sur le ciel, il sera installé en 2010 sur le télescope WHT (William Herschel Telescope) aux îles Canaries. La thèse proposée s’inscrit dans le cadre de EAGLE et plus particulièrement du démonstrateur CANARY, avec pour but d’analyser les 2 points durs cités plus haut et de proposer des solutions. Dans un premier temps, l’utilisation du banc de recherche et développement en optique adaptative SESAME a permis de valider le principe du contrôle en boucle ouverte. De nombreux tests de miroirs déformables utilisant différentes technologies susceptibles d’êtres utilisés pour EAGLE ont été effectués. Des méthodes de calibrations ont ainsi été développées et testées instrumentalement sur le banc SESAME. Dans un deuxième temps, la thèse a consisté à développer un nouveau type d’algorithme de tomographie, fonctionnant en boucle ouverte, et permettant notamment de mesurer le profil de turbulence directement à partir des données issues de l’instrument. Cet algorithme a également l’avantage de permettre de calibrer l’instrument. Il a été testé et validé sur SESAME ainsi qu’en simulation, et sera appliqué sur le ciel dans le cadre du démonstrateur CANARY [extrait du résumé]
The thesis took place in the framework of Eagle and particularly CANARY. The goal is to propose practical solutions on the 2 main points of MOAO : open loop and tomography reconstruction. First, deformable mirrors using different technologies have been tested in open loop. Calibration methods were developped and tested in laboratory. In a second time, the thesis consisted to develop a new tomography algorithm working in open loop that allows to measure the turbulence profile directly from the data of the instrument. This algorithm has also the advantage to calibrate the system. It has been tested and validated at the SESAME bench and in simulations. This algorithm will be tested on sky on CANARY MOAO demonstrator [summary's extract]
49

Al-Khalidi, Khaldoun. "Reconstruction tomographique en géométrie conique par la technique du maximum de vraisemblance : optimisation et parallélisation." Besançon, 1996. http://www.theses.fr/1996BESA2009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s'intègre dans le contexte de l'imagerie isotopique. Il concerne la mise en œuvre sur un réseau de transputers d'une méthode de reconstruction 3D de la distribution des coefficients d'atténuation, à partir de projections obtenues en géométrie conique. La connaissance de ces coefficients permettant l'amélioration de la correction de l'atténuation en tomographie d'émission monophotonique. Nous avons opté pour les méthodes de reconstruction statistiques basées sur le principe de Maximum de Vraisemblance. Afin de calculer l'estimateur de Maximum de Vraisemblance nous nous sommes basés sur l'algorithme d'Espérance et Maximisation (EM). En formulant ce dernier sous une forme gradient, nous avons proposé une méthode d'optimisation de type Maximisation Unidimensionnelle. Nous l'avons implantée sous le nom de l'algorithme EM-MU. Ensuite, nous nous sommes intéressés au caractère mal posé du problème de la reconstruction dans le cas de l'estimateur de Maximum de Vraisemblance. Nous avons proposé une technique de régularisation basée sur une approche bayésienne et nous l'avons implantée sous le nom de l'algorithme EM-MAP. Afin de valider nos travaux, nous avons mis en œuvre un simulateur de transport de photons en transmission, basé sur la méthode de Monte Carlo. Nous avons comparé les algorithmes EM-MU et EM-MAP avec deux algorithmes de reconstruction très connus (ART et Feldkamp). L'algorithme EM-MU a donné les meilleurs résultats sur le plan qualitatif et quantitatif, Ainsi nous avons choisi de la parallèliser. Nous avons proposé une méthode de parallèlisation basée sur la technique maitre-esclave avec une répartition de charges, et nous l'avons implanté sur un réseau constitué de trois transputers. La parallèlisation s'est avérée efficace ce qui montre l'intérêt d'une telle approche pour envisager l'utilisation de l'algorithme EM-MU en routine clinique.
50

Rolland, Nicolas. "Reconstruction 3D des images de Sonde Atomique Tomographique : dynamique d'évolution de l'émetteur et biais associés." Normandie-Université, 2016. http://www.theses.fr/2016ROUES063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La sonde atomique tomographique est un instrument de microscopie analytique fournissant une image tridimensionnelle de la répartition des atomes dans un matériau. La technique couvre un large éventail d'applications liées aux sciences des matériaux, depuis l'analyse d'une fine dispersion de précipités au sein d'une matrice à l'analyse d'un dispositif complet de la microélectronique (e. G. Transistor à effet de champ). L'échantillon se présente sous la forme d'une pointe très fine dont l'extrémité est progressivement érodée par évaporation par effet de champ. En cours d'analyse, la morphologie de celle-ci évolue de manière continue induisant des biais dans l'image obtenue. L'étude de cette évolution constitue l'objectif de ce travail de thèse. Un principe fondamental est mis en avant pour rendre compte de la morphologie de l'échantillon : à tout moment, le taux d'évaporation (i. E. Vitesse d'érosion) est une fonction constante sur l'ensemble de la surface. Ceci se traduit mathématiquement par une surface continument dérivable en tout point ainsi que par une courbure moyenne locale constante sur chaque phase en surface de l'échantillon, s'échelonnant comme le champ d'évaporation de la phase. Un modèle de simulation numérique à l'échelle atomique est développé et permet de valider l'approche développée. Cette dernière, dans le cas de structures en couches, permet de rendre compte de la dynamique d'évolution morphologique de l'émetteur et d'améliorer significativement la résolution spatiale de l'image obtenue
Atom Probe Tomography is an analytical microscopy tool that provides a 3D image of the atoms in a sample. The technique covers a broad panel of material science applications, ranging from the analysis of a fine precipitates dispersion analysis in a matrix to the analysis of a complete single device of the microelectronics (e. G. Field effect transistor). The sample is a sharp needle with an extremity that is progressively eroded by field evaporation. During the analysis, the morphology of the sample is evolving continuously, producing some biases in the final image. A fundamental principle is highlighted to explain the sample morphology : throughout the field evaporation, the evaporation rate (i. E. Erosion rate) is a constant function over the whole surface. This in turn implies that the surface is continuously derivable and that the local mean curvature is constant over each surface phase of the sample, with a value proportional to the phase evaporation field. A numerical simulation model at the atomic scale is developed to assess the validity of the former rules. These geometric rules, in the case of stacked layers in the sample, explain the sample morphology evolution, and allow finally to obtain a better spatial resolution on the final image

To the bibliography