Littérature scientifique sur le sujet « Segmentation de maillage »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Segmentation de maillage ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Segmentation de maillage"

1

Cervellon, Marie-Cécile, et Lea Lembo. « Maison Maille : making mustard aspirational to younger consumers ». CASE Journal 14, no 3 (8 mai 2018) : 254–71. http://dx.doi.org/10.1108/tcj-09-2017-0081.

Texte intégral
Résumé :
Synopsis This case introduces students to the heritage brand Maille. Dating back to 1747, this brand has managed to elevate the image of mustard from commodity to premium product, capitalizing on brand authenticity and adopting the codes and strategies of luxury brands. Present in supermarkets with a premium price positioning, Maille develops its image through creating an elaborate customer experience in its boutiques, as well as through a communication strategy based on storytelling. Yet, the core base of customers who identify as gourmets is aging. To sustain its development, Maille needs to gain appeal among younger generations of consumers, without betraying its identity. Research methodology The Maille brand manager was interviewed in relation to the case. Participant observation was conducted in the boutiques in Paris (both Place de la Madeleine and Caroussel du Louvre) and in London, followed by discussions with Maille sommeliers. Data were also gathered through secondary sources. The question “How to seduce younger consumers with mustard” was proposed by Unilever. Relevant courses and levels This case has been effectively used with MBA and MSc Marketing students in Brand Management classes to demonstrate how brands draw inspiration from the luxury sector to become aspirational, enhance their social prestige and position themselves at higher price points. Students must reflect on how to build on the brand’s current strengths in order to protect it from a decline in consumption and competitive threats. Based on this analysis of the current situation, students must decide on the value of Maille differentiation strategy to younger consumers and on which segments to target without harming the brand’s identity. The rejuvenation of heritage brands (or gaining appeal to younger generations of customers) is a major issue in many sectors, from luxury, to wine and spirits, to food. Theoretical bases The case fosters discussions on core marketing concepts such as heritage branding and brand authenticity as well as differentiation and premiumisation strategies, all concepts that should be developed when answering the assignment questions. Furthermore, students should choose between a segmentation based on demographics (age, generations), and a segmentation based on lifestyle and attitude toward food.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Zguira, Amira, Narjes Doggaz et Ezzeddine Zagoubra. « Evaluation objective des méthodes de segmentation des maillages polygonaux 3D basée sur la classification de régions ». Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 14 - 2011 - Special... (9 novembre 2011). http://dx.doi.org/10.46298/arima.1943.

Texte intégral
Résumé :
International audience In this paper, we propose an objective evaluation approach of polygonal 3D mesh segmentation algorithms. Our approach is based on region classification. For that, we classify first manual segmented mesh into convex, concave and planar regions. Secondly, we present three quality measures that quantify the similarity of each type of region of the ground-truth relatively to the segmentation obtained by an automatic algorithm. We apply this approach on eight wellselected existing algorithms on heterogeneous images. This provides better understanding as to the strengths and weaknesses of each technique in function of each mesh-regions type in the aim to make the better choice concerning the segmentation algorithms for different applications. Dans ce papier, nous proposons une approche d'évaluation objective des algorithmes de segmentation des maillages polygonaux 3D, basée sur la classification de régions. Cette approche commence par un processus de classification de régions du maillage constituant la vérité-terrain en régions convexes, concaves et planes. Nous présentons ensuite trois mesures de qualité qui permettent de quantifier la similarité de chaque type de région de la vérité-terrain par rapport à la segmentation obtenue par un algorithme automatique. Nous appliquons l’approche proposée sur un échantillon de huit techniques de segmentation bien choisies sur une base d’images hétérogène. Les résultats d’évaluation obtenus permettent d’assurer une meilleure compréhension des points forts et faibles de chaque technique dans la segmentation des différents types de régions du maillage et ceci afin d’aiguiller correctement le choix des algorithmes de segmentation pour différentes applications.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Segmentation de maillage"

1

Restrepo, Specht Juan Andrés. « Modelisation d'objets 3D par construction incrémentale d'un maillage triangulaire, dans un contexte robotique ». Toulouse 3, 2005. http://www.theses.fr/2005TOU30015.

Texte intégral
Résumé :
Pour modéliser un objet 3D, plusieurs images doivent être acquises depuis différents points de vue. Les problèmes sont: recalage les vues. Fusion dans une seule représentation. Optimisation par un choix des points de vue. Les images 3D sont recalées par un algorithme appelé “ICP”. Afin de réduire le temps de calcul et améliorer la précision, des variantes de la méthode sont évaluées: points de contrôle, recalage des images ou entre image et modèle courant. Les vues recalées sont fusionnées dans une représentation de maillage triangulaire, qui est construit par une version adaptée de l'algorithme “BPA”, qui peut traiter un nuage de points 3D de distribution non uniformes. Notre méthode peut effectuer la segmentation simultanée du maillage en surfaces planes, de façon globale ou incrémentale. Dans un contexte robotique, on étudie la planification des positions du capteur pour l'acquisition des données ou le but est la minimisation du nombre de vues, tout en favorisant la convergence du recalage
This work treats the modeling of 3D objects and environments from sensor data given by laser or stereo. The modeling process has several parts that have been studied. The acquired views of the object taken from different points are registered using the known “ICP” method, which has been adapted to specific needs and can use extracted information of the image like edge, surface or subsamples in order to reduce calculation time, in incremental or paired manner. The following step is the data fusion of the resulting registered images executed incrementally or at the end of the registration process. Our method was based on ``ball pivoting algorithm'', that has the features to mesh irregular points, to extract planes simultaneously and to recycle existing mesh structures. We have studied also the problem of the sensor position for the view acquisition, better known as ``next-best-view''. Finally we arrive to a set of tools to create a geometric model from an acquired object of the real world
Styles APA, Harvard, Vancouver, ISO, etc.
2

Luo, Guoliang. « Segmentation de maillages dynamiques et son application pour le calcul de similarité ». Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD026/document.

Texte intégral
Résumé :
Avec le développement important des techniques d’animation, les maillages animés sont devenus un sujet de recherche important en informatique graphique, comme la segmentation de maillages animés ou la compression. Ces maillages animés qui sont créés à l’aide de logiciels ou à partir de données de capture de mouvements sont composés d’une séquence ordonnée de maillages de forme statique et dont la topologie reste la même (nombre fixe de sommets et de triangles). Bien qu’un grand nombre de travaux ont été menés sur les maillages statiques durant les deux dernières décennies, le traitement et la compression de maillages animés présentent de nombreuses difficultés techniques. En particulier, les traitements de maillages dynamiques nécessitent une représentation de données efficace basée sur la segmentation. Plusieurs travaux ont été publiés par le passé et qui permettent de segmenter un maillage animé en un ensemble de composants rigides.Dans cette thèse, nous présentons plusieurs techniques qui permettent de calculer une segmentation spatio-temporelle d’un maillage animé ; de tels travaux n’ont pas encore été publiés sur ce sujet. De plus, nous avons étendu cette méthode pour pouvoir comparer ces maillages animés entre eux à l’aide d’une métrique. À notre connaissance, aucune méthode existante ne permet de comparer des maillages animés entre eux
With an abundance of animation techniques available today, animated mesh has become a subject of various data processing techniques in Computer Graphics community, such as mesh segmentation and compression. Created from animation software or from motion capture data, a large portion of the animated meshes are deforming meshes, i.e. ordered sequences of static meshes whose topology is fixed (fixed number of vertices and fixed connectivity). Although a great deal of research on static meshes has been reported in the last two decades, the analysis, retrieval or compressions of deforming meshes remain as new research challenges. Such tasks require efficient representations of animated meshes, such as segmentation. Several spatial segmentation methods based on the movements of each vertex, or each triangle, have been presented in existing works that partition a given deforming mesh into rigid components. In this thesis, we present segmentation techniques that compute the temporal and spatio-temporal segmentation for deforming meshes, which both have not been studied before. We further extend the segmentation results towards the application of motion similarity measurement between deforming meshes. This may be significant as it solves the problem that cannot be handled by current approaches
Styles APA, Harvard, Vancouver, ISO, etc.
3

RESTREPO, SPECHT Juan Andres. « Modélisation d'objets 3D par construction incrémentale d'un maillage triangulaire, dans un contexte robotique ». Phd thesis, Université Paul Sabatier - Toulouse III, 2005. http://tel.archives-ouvertes.fr/tel-00009525.

Texte intégral
Résumé :
Cette thèse traite de la modélisation 3D d'un objet à partir de données sensorielles obtenues par des capteurs laser ou stéréoscopiques. Ce processus nécessite plusieurs étapes, étudiées durant la thèse; chacune fait l'objet d'un chapitre du manuscrit. La première phase consiste à acquérir des données sensorielles depuis divers points de vue: nous avons exploité les nombreuses données 3D disponibles sur le Web, mais nous avons aussi testé nos algorithmes sur des données 3D denses acquises par stéréovision; nous avons pour ce faire, exploité et analysé des méthodes de calibrage et de stéréovision préexistantes dans notre laboratoire. Les nuages de points 3D de chaque image sont ensuite recalés par un algorithme de type ICP "Iteration Closest Point"; afin de réduire le temps de calcul, la méthode a été adaptée pour utiliser des informations spécifiques des images comme les points de contour ou les sommets d'un maillage local plus ou moins sous-échantillonné. Nous comparons deux stratégies: recalage entre images successives ou recalage incrémental, entre l'image courante et le modèle courant. Les méthodes proposées ont été évaluées et comparées selon différents critères: temps d'exécution, sensibilité à l'estimée initiale, à la résolution... La méthode de recalage a également été testée afin de recaler des coupes laser acquises par un robot mobile évoluant dans un environnement intérieur. La partie suivante est la fusion des vues issues du recalage pour obtenir un seul modèle après chaque recalage incrémental ou à la fin du processus de recalage. La représentation choisie est un maillage triangulaire. Ce maillage est construit par une version adaptée de l'algorithme de la boule pivotante, ou "Ball Pivoting Algorithm" (BPA), proposé initialement par l'équipe de G.Taubin: nous avons choisi cette méthode car elle permet la construction d'un maillage à partir de points 3D ayant une distribution et une précision non uniforme. Notre version de BPA effectue la segmenta tion simultanée des surfaces et le recyclage des maillages existants. Le maillage obtenu est comparé avec ceux construits par déformation d'une surface active. Dans un contexte Robotique, nous avons étudié le problème de la planification des positions du capteur pour la prise des vues, problème plus connu sous le nom de "Next Best View". Le but est la minimisation du nombre de vues nécessaires pour modéliser un objet, tout en favorisant la convergence du processus du recalage. Nous avons poursuivi d'abord des travaux fondés sur l'optimisation d'une fonction d'utilité; du fait de problèmes de convergence, une méthode plus simple a été mise en oeuvre dans le cas particulier de la modélisation d'un objet posé sur une table, par un capteur stéréo monté sur un bras manipulateur mobile. Finalement toutes ces méthodes ont été validées, d'abord sur des données de synthèse pour les analyser, puis sur des données précises acquises par télémétrie laser ou profilométrie, et enfin sur des données que nous avons acquises par stéréo dans le monde réel.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Delest, Sébastien. « Segmentation de maillages 3D à l'aide de méthodes basées sur la ligne de partage des eaux ». Phd thesis, Université François Rabelais - Tours, 2007. http://tel.archives-ouvertes.fr/tel-00211378.

Texte intégral
Résumé :
La segmentation de maillages polygonaux est un outil nécessaire à de nombreuses applications. Elle correspond au découpage du maillage en régions à partir d'informations portant sur la surface ou la forme globale de l'objet. Ces dernières années, de nombreux algorithmes ont été proposés dans cette thématique en large expansion. Les applications sont très variées; citons la reconnaissance de forme, l'indexation, la compression, la métamorphose, la détection de collision, le plaquage de texture, la simplification, etc.

Nous proposons dans un premier temps une étude assez large des méthodes de segmentation de maillages polygonaux. Nous abordons les algorithmes pour les deux principales familles de méthodes que sont la segmentation en carreaux surfaciques et la segmentation en parties significatives. Nous avons concentré nos travaux sur la ligne de partage des eaux (LPE) et formulé des propositions originales pour la fonction de hauteur de la LPE et des stratégies pour limiter la sur-segmentation que produit naturellement la LPE.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Velut, Jérôme. « Segmentation par modèle déformable surfacique localement régularisé par spline lissante ». Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00262088.

Texte intégral
Résumé :
La segmentation d'image par modèles déformables est une méthode permettant de localiser les frontières d'un objet. Dans le cas d'images difficiles à segmenter en raison de la présence de bruit ou d'un manque d'information, l'introduction de connaissance a priori dans le modèle déformable améliore la segmentation. Ces cas difficiles sont fréquents dans l'imagerie du vivant, où les applications peuvent concerner le traitement d'une grande quantité de donnée. Il est alors nécessaire d'utiliser une méthode de traitement robuste et rapide. Cette problématique nous a amené à proposer une régularisation locale du modèle déformable. Pour ce faire, nous reprenons le concept du contour actif en proposant un nouveau schéma de régularisation. Celle-ci est désormais effectuée via un filtrage RII des déplacements à chaque itération. Le filtre est basé sur un noyau de spline lissante dont le but, à l'origine, était d'approcher un ensemble de points par une fonction continue plutôt que d'interpoler exactement ces points. Nous mettons en avant, dans cette méthode de régularisation, la concision du paramètre de régularisation : il s'agit d'une valeur ?, réelle et positive, qui influe sur la fréquence de coupure du filtre passe-bas. Une relation analytique existant entre ?, la fréquence de coupure et la fréquence d'échantillonnage, il est possible de donner un sens métrique à la fréquence de coupure. De plus, nous pouvons affecter une valeur ? différente en chaque point du contour par une variation des coefficients du filtre et ainsi permettre une régularisation locale du contour actif. La généralisation de cette nouvelle méthode de régularisation pour des modèles déformables surfaciques est proposée. La difficulté principale concerne la connectivité du maillage, contrainte à une valence 4 partout par le filtrage bidimensionnel. Des résultats de segmentation sont donnés pour de tels maillages ainsi que pour des maillages sphériques où un traitement particulier des pôles est mis en oeuvre.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Vidal, Vincent. « Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétés ». Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00708530.

Texte intégral
Résumé :
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Hassan, Sahar. « Intégration de connaissances anatomiques a priori dans des modèles géométriques ». Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00607260.

Texte intégral
Résumé :
L'imagerie médicale est une ressource de données principale pour différents types d'applications. Bien que les images concrétisent beaucoup d'informations sur le cas étudié, toutes les connaissances a priori du médecin restent implicites. Elles jouent cependant un rôle très important dans l'interprétation et l'utilisation des images médicales. Dans cette thèse, des connaissances anatomiques a priori sont intégrées dans deux applications médicales. Nous proposons d'abord une chaîne de traitement automatique qui détecte, quantifie et localise des anévrismes dans un arbre vasculaire segmenté. Des lignes de centre des vaisseaux sont extraites et permettent la détection et la quantification automatique des anévrismes. Pour les localiser, une mise en correspondance est faite entre l'arbre vasculaire du patient et un arbre vasculaire sain. Les connaissances a priori sont fournies sous la forme d'un graphe. Dans le contexte de l'identification des sous-parties d'un organe représenté sous forme de maillage, nous proposons l'utilisation d'une ontologie anatomique, que nous enrichissons avec toutes les informations nécessaires pour accomplir la tâche de segmentation de maillages. Nous proposons ensuite un nouvel algorithme pour cette tâche, qui profite de toutes les connaissances a priori disponibles dans l'ontologie.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Redolfi, Alberto. « E-infrastructure, segmentation du cortex, environnement de contrôle qualité : un fil rouge pour les neuroscientifiques ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS191/document.

Texte intégral
Résumé :
Les neurosciences sont entrées dans l'ère des « big data ». Les ordinateurs de bureau individuels ne sont plus adaptés à l'analyse des téraoctets et potentiellement des pétaoctets qu'impliquent les images cérébrales. Pour combler le gouffre qui existe entre la taille des données et les possibilités standard d'extraction des informations, on développe actuellement des infrastructures virtuelles en Amérique du Nord, au Canada et également en Europe. Ces infrastructures dématérialisées permettent d'effectuer des expériences en imagerie médicale à l'aide de ressources informatiques dédiées telles que des grilles, des systèmes de calcul haute performance (HPC) et des clouds publics ou privés. Les infrastructures virtuelles sont aujourd'hui les systèmes les plus avancés et les mieux équipés pour soutenir la création de modèles multimodaux et multi-échelles avancés du cerveau atteint par la maladie d'Alzheimer (chapitre 2) ou pour valider des biomarqueurs d'imagerie prometteurs, tels que l'épaisseur corticale, grâce à des pipelines sophistiqués (chapitre 3). En effet, les analyses d'imagerie, telles que celles décrites dans les chapitres 2 et 3, multiplient de manière exponentielle la quantité de données post-traitées qui atteignent, à la fin, des téraoctets de résultats pour une seule étude. Afin de faire face à l'énorme quantité de données de post-traitement générées par les infrastructures électroniques, un environnement de contrôle qualité automatique (ECQ) des maillages de la surface corticale (chapitre 4) a été proposé. L'ECQ est un classifieur par apprentissage automatique (AA) avec une approche par apprentissage supervisé basée sur les forêts d'arbres décisionnels (RF) et des estimations par séparateurs à vaste marge (SVM). Compte tenu de son évolutivité et de son efficacité, l'ECQ s'inscrit bien dans les infrastructures électroniques en cours de développement, où ce type de service de vérification élémentaire manque toujours. L'ECQ représente une occasion unique de traiter les données plus facilement et plus rapidement, ce qui permettra aux neuroscientifiques de passer leur temps précieux à effectuer des analyses de données au lieu de le dépenser dans des tâches manuelles et laborieuses de contrôle qualité
Neuroscience entered the “big data” era. Individual desktop computers are no longer suitable to analyse terabyte, and potentially petabytes, of brain images. To fill in the gap between data acquisition and information extraction, e-infrastructures are being developing in North America, Canada, and Europe. E-infrastructures allow neuroscientists to conduct neuroimaging experiments using dedicated computational resources such as grids, high-performance computing (HPC) systems, and public/private clouds. Today, e-infrastructures are the most advanced and the best equipped systems to support the creation of advanced multimodal and multiscale models of the AD brain (chapter 2) or to validate promising imaging biomarkers with sophisticated pipelines, as for cortical thickness, (chapter 3). Indeed, imaging analyses such as those described in chapter 2 and 3 expand the amount of post-processed data per single study. In order to cope with the huge amount of post-processing data generated via e-infrastructures, an automatic quality control environment (QCE) of the cortical delineation algorithms is proposed (chapter 4). QCE is a machine learning (ML) classifier with a supervised learning approach based on Random Forest (RF) and Support Vector Machine (SVM) estimators. Given its scalability and efficacy, QCE fits well in the e-infrastructures under development, where this kind of sanity check service is still lacking. QCE represents a unique opportunity to process data more easily and quickly, allowing neuroscientists to spend their valuable time do data analysis instead of using their resources in manual quality control work
Styles APA, Harvard, Vancouver, ISO, etc.
9

Galdames, Grunberg Francisco Jose. « Segmentation d'images IRM du cerveau pour la construction d'un modèle anatomique destiné à la simulation bio-mécanique ». Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00747448.

Texte intégral
Résumé :
Comment obtenir des données anatomiques pendant une neurochirurgie ? a été ce qui a guidé le travail développé dans le cadre de cette thèse. Les IRM sont actuellement utilisées en amont de l'opération pour fournir cette information, que ce soit pour le diagnostique ou pour définir le plan de traitement. De même, ces images pre-opératoires peuvent aussi être utilisées pendant l'opération, pour pallier la difficulté et le coût des images per-opératoires. Pour les rendre utilisables en salle d'opération, un recalage doit être effectué avec la position du patient. Cependant, le cerveau subit des déformations pendant la chirurgie, phénomène appelé Brain Shift, ce qui altère la qualité du recalage. Pour corriger cela, d'autres données per-opératoires peuvent être acquises, comme la localisation de la surface corticale, ou encore des images US localisées en 3D. Ce nouveau recalage permet de compenser ce problème, mais en partie seulement. Ainsi, des modèles mécaniques ont été développés, entre autres pour apporter des solutions à l'amélioration de ce recalage. Ils permettent ainsi d'estimer les déformations du cerveau. De nombreuses méthodes existent pour implémenter ces modèles, selon différentes lois de comportement et différents paramètres physiologiques. Dans tous les cas, cela requiert un modèle anatomique patient-spécifique. Actuellement, ce modèle est obtenu par contourage manuel, ou quelquefois semi-manuel. Le but de ce travail de thèse est donc de proposer une méthode automatique pour obtenir un modèle du cerveau adapté sur l'anatomie du patient, et utilisable pour une simulation mécanique. La méthode implémentée se base sur les modèles déformables pour segmenter les structures anatomiques les plus pertinentes dans une modélisation bio-mécanique. En effet, les membranes internes du cerveau sont intégrées: falx cerebri and tentorium cerebelli. Et bien qu'il ait été démontré que ces structures jouent un rôle primordial, peu d'études les prennent en compte. Par ailleurs, la segmentation résultante de notre travail est validée par comparaison avec des données disponibles en ligne. De plus, nous construisons un modèle 3D, dont les déformations seront simulées en utilisant une méthode de résolution par Éléments Finis. Ainsi, nous vérifions par des expériences l'importance des membranes, ainsi que celle des paramètres physiologiques.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Quinto, Michele Arcangelo. « Méthode de reconstruction adaptive en tomographie par rayons X : optimisation sur architectures parallèles de type GPU ». Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT109/document.

Texte intégral
Résumé :
La reconstruction tomographique à partir de données de projections est un problème inverse largement utilisé en imagerie médicale et de façon plus modeste pour le contrôle nondestructif. Avec un nombre suffisant de projections, les algorithmes analytiques permettentdes reconstructions rapides et précises. Toutefois, dans le cas d’un faible nombre de vues(imagerie faible dose) et/ou d’angle limité (contraintes spécifiques liées à l’installation), lesdonnées disponibles pour l’inversion ne sont pas complètes, le mauvais conditionnementdu problème s’accentue, et les résultats montrent des artefacts importants. Pour aborderces situations, une approche alternative consiste à discrétiser le problème de reconstruction,et à utiliser des algorithmes itératifs ou une formulation statistique du problème afinde calculer une estimation de l’objet inconnu. Ces méthodes sont classiquement basées surune discrétisation du volume en un ensemble de voxels, et fournissent des cartes 3D de ladensité de l’objet étudié. Les temps de calcul et la ressource mémoire de ces méthodesitératives sont leurs principaux points faibles. Par ailleurs, quelle que soit l’application, lesvolumes sont ensuite segmentés pour une analyse quantitative. Devant le large éventaild’outils de segmentation existant, basés sur différentes interprétations des contours et defonctionnelles à minimiser, les choix sont multiples et les résultats en dépendent.Ce travail de thèse présente une nouvelle approche de reconstruction simultanée àla segmentation des différents matériaux qui composent le volume. Le processus dereconstruction n’est plus basé sur une grille régulière de pixels (resp. voxels), mais sur unmaillage composé de triangles (resp. tétraèdres) non réguliers qui s’adaptent à la formede l’objet. Après une phase d’initialisation, la méthode se décompose en trois étapesprincipales que sont la reconstruction, la segmentation et l’adaptation du maillage, quialternent de façon itérative jusqu’à convergence. Des algorithmes itératifs de reconstructioncommunément utilisés avec une représentation conventionnelle de l’image ont étéadaptés et optimisés pour être exécutés sur des grilles irrégulières composées d’élémentstriangulaires ou tétraédriques. Pour l’étape de segmentation, deux méthodes basées surune approche paramétrique (snake) et l’autre sur une approche géométrique (level set)ont été mises en oeuvre afin de considérer des objets de différentes natures (mono- etmulti- matériaux). L’adaptation du maillage au contenu de l’image estimée est basée surles contours segmentés précédemment, pour affiner la maille au niveau des détails del’objet et la rendre plus grossière dans les zones contenant peu d’information. En finde processus, le résultat est une image classique de reconstruction tomographique enniveaux de gris, mais dont la représentation par un maillage adapté au contenu proposeidirectement une segmentation associée. Les résultats montrent que la partie adaptative dela méthode permet de représenter efficacement les objets et conduit à diminuer drastiquementla mémoire nécessaire au stockage. Dans ce contexte, une version 2D du calcul desopérateurs de reconstruction sur une architecture parallèle type GPU montre la faisabilitédu processus dans son ensemble. Une version optimisée des opérateurs 3D permet descalculs encore plus efficaces
Tomography reconstruction from projections data is an inverse problem widely used inthe medical imaging field. With sufficiently large number of projections over the requiredangle, the FBP (filtered backprojection) algorithms allow fast and accurate reconstructions.However in the cases of limited views (lose dose imaging) and/or limited angle (specificconstrains of the setup), the data available for inversion are not complete, the problembecomes more ill-conditioned, and the results show significant artifacts. In these situations,an alternative approach of reconstruction, based on a discrete model of the problem,consists in using an iterative algorithm or a statistical modelisation of the problem to computean estimate of the unknown object. These methods are classicaly based on a volumediscretization into a set of voxels and provide 3D maps of densities. Computation time andmemory storage are their main disadvantages. Moreover, whatever the application, thevolumes are segmented for a quantitative analysis. Numerous methods of segmentationwith different interpretations of the contours and various minimized energy functionalare offered, and the results can depend on their use.This thesis presents a novel approach of tomographic reconstruction simultaneouslyto segmentation of the different materials of the object. The process of reconstruction isno more based on a regular grid of pixels (resp. voxel) but on a mesh composed of nonregular triangles (resp. tetraedra) adapted to the shape of the studied object. After aninitialization step, the method runs into three main steps: reconstruction, segmentationand adaptation of the mesh, that iteratively alternate until convergence. Iterative algorithmsof reconstruction used in a conventionnal way have been adapted and optimizedto be performed on irregular grids of triangular or tetraedric elements. For segmentation,two methods, one based on a parametric approach (snake) and the other on a geometricapproach (level set) have been implemented to consider mono and multi materials objects.The adaptation of the mesh to the content of the estimated image is based on the previoussegmented contours that makes the mesh progressively coarse from the edges to thelimits of the domain of reconstruction. At the end of the process, the result is a classicaltomographic image in gray levels, but whose representation by an adaptive mesh toits content provide a correspoonding segmentation. The results show that the methodprovides reliable reconstruction and leads to drastically decrease the memory storage. Inthis context, the operators of projection have been implemented on parallel archituecturecalled GPU. A first 2D version shows the feasability of the full process, and an optimizedversion of the 3D operators provides more efficent compoutations
Styles APA, Harvard, Vancouver, ISO, etc.
Plus de sources
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie