To see the other types of publications on this topic, follow the link: Segmentation de maillage.

Dissertations / Theses on the topic 'Segmentation de maillage'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 26 dissertations / theses for your research on the topic 'Segmentation de maillage.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Restrepo, Specht Juan Andrés. "Modelisation d'objets 3D par construction incrémentale d'un maillage triangulaire, dans un contexte robotique." Toulouse 3, 2005. http://www.theses.fr/2005TOU30015.

Full text
Abstract:
Pour modéliser un objet 3D, plusieurs images doivent être acquises depuis différents points de vue. Les problèmes sont: recalage les vues. Fusion dans une seule représentation. Optimisation par un choix des points de vue. Les images 3D sont recalées par un algorithme appelé “ICP”. Afin de réduire le temps de calcul et améliorer la précision, des variantes de la méthode sont évaluées: points de contrôle, recalage des images ou entre image et modèle courant. Les vues recalées sont fusionnées dans une représentation de maillage triangulaire, qui est construit par une version adaptée de l'algorithme “BPA”, qui peut traiter un nuage de points 3D de distribution non uniformes. Notre méthode peut effectuer la segmentation simultanée du maillage en surfaces planes, de façon globale ou incrémentale. Dans un contexte robotique, on étudie la planification des positions du capteur pour l'acquisition des données ou le but est la minimisation du nombre de vues, tout en favorisant la convergence du recalage
This work treats the modeling of 3D objects and environments from sensor data given by laser or stereo. The modeling process has several parts that have been studied. The acquired views of the object taken from different points are registered using the known “ICP” method, which has been adapted to specific needs and can use extracted information of the image like edge, surface or subsamples in order to reduce calculation time, in incremental or paired manner. The following step is the data fusion of the resulting registered images executed incrementally or at the end of the registration process. Our method was based on ``ball pivoting algorithm'', that has the features to mesh irregular points, to extract planes simultaneously and to recycle existing mesh structures. We have studied also the problem of the sensor position for the view acquisition, better known as ``next-best-view''. Finally we arrive to a set of tools to create a geometric model from an acquired object of the real world
APA, Harvard, Vancouver, ISO, and other styles
2

Luo, Guoliang. "Segmentation de maillages dynamiques et son application pour le calcul de similarité." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD026/document.

Full text
Abstract:
Avec le développement important des techniques d’animation, les maillages animés sont devenus un sujet de recherche important en informatique graphique, comme la segmentation de maillages animés ou la compression. Ces maillages animés qui sont créés à l’aide de logiciels ou à partir de données de capture de mouvements sont composés d’une séquence ordonnée de maillages de forme statique et dont la topologie reste la même (nombre fixe de sommets et de triangles). Bien qu’un grand nombre de travaux ont été menés sur les maillages statiques durant les deux dernières décennies, le traitement et la compression de maillages animés présentent de nombreuses difficultés techniques. En particulier, les traitements de maillages dynamiques nécessitent une représentation de données efficace basée sur la segmentation. Plusieurs travaux ont été publiés par le passé et qui permettent de segmenter un maillage animé en un ensemble de composants rigides.Dans cette thèse, nous présentons plusieurs techniques qui permettent de calculer une segmentation spatio-temporelle d’un maillage animé ; de tels travaux n’ont pas encore été publiés sur ce sujet. De plus, nous avons étendu cette méthode pour pouvoir comparer ces maillages animés entre eux à l’aide d’une métrique. À notre connaissance, aucune méthode existante ne permet de comparer des maillages animés entre eux
With an abundance of animation techniques available today, animated mesh has become a subject of various data processing techniques in Computer Graphics community, such as mesh segmentation and compression. Created from animation software or from motion capture data, a large portion of the animated meshes are deforming meshes, i.e. ordered sequences of static meshes whose topology is fixed (fixed number of vertices and fixed connectivity). Although a great deal of research on static meshes has been reported in the last two decades, the analysis, retrieval or compressions of deforming meshes remain as new research challenges. Such tasks require efficient representations of animated meshes, such as segmentation. Several spatial segmentation methods based on the movements of each vertex, or each triangle, have been presented in existing works that partition a given deforming mesh into rigid components. In this thesis, we present segmentation techniques that compute the temporal and spatio-temporal segmentation for deforming meshes, which both have not been studied before. We further extend the segmentation results towards the application of motion similarity measurement between deforming meshes. This may be significant as it solves the problem that cannot be handled by current approaches
APA, Harvard, Vancouver, ISO, and other styles
3

RESTREPO, SPECHT Juan Andres. "Modélisation d'objets 3D par construction incrémentale d'un maillage triangulaire, dans un contexte robotique." Phd thesis, Université Paul Sabatier - Toulouse III, 2005. http://tel.archives-ouvertes.fr/tel-00009525.

Full text
Abstract:
Cette thèse traite de la modélisation 3D d'un objet à partir de données sensorielles obtenues par des capteurs laser ou stéréoscopiques. Ce processus nécessite plusieurs étapes, étudiées durant la thèse; chacune fait l'objet d'un chapitre du manuscrit. La première phase consiste à acquérir des données sensorielles depuis divers points de vue: nous avons exploité les nombreuses données 3D disponibles sur le Web, mais nous avons aussi testé nos algorithmes sur des données 3D denses acquises par stéréovision; nous avons pour ce faire, exploité et analysé des méthodes de calibrage et de stéréovision préexistantes dans notre laboratoire. Les nuages de points 3D de chaque image sont ensuite recalés par un algorithme de type ICP "Iteration Closest Point"; afin de réduire le temps de calcul, la méthode a été adaptée pour utiliser des informations spécifiques des images comme les points de contour ou les sommets d'un maillage local plus ou moins sous-échantillonné. Nous comparons deux stratégies: recalage entre images successives ou recalage incrémental, entre l'image courante et le modèle courant. Les méthodes proposées ont été évaluées et comparées selon différents critères: temps d'exécution, sensibilité à l'estimée initiale, à la résolution... La méthode de recalage a également été testée afin de recaler des coupes laser acquises par un robot mobile évoluant dans un environnement intérieur. La partie suivante est la fusion des vues issues du recalage pour obtenir un seul modèle après chaque recalage incrémental ou à la fin du processus de recalage. La représentation choisie est un maillage triangulaire. Ce maillage est construit par une version adaptée de l'algorithme de la boule pivotante, ou "Ball Pivoting Algorithm" (BPA), proposé initialement par l'équipe de G.Taubin: nous avons choisi cette méthode car elle permet la construction d'un maillage à partir de points 3D ayant une distribution et une précision non uniforme. Notre version de BPA effectue la segmenta tion simultanée des surfaces et le recyclage des maillages existants. Le maillage obtenu est comparé avec ceux construits par déformation d'une surface active. Dans un contexte Robotique, nous avons étudié le problème de la planification des positions du capteur pour la prise des vues, problème plus connu sous le nom de "Next Best View". Le but est la minimisation du nombre de vues nécessaires pour modéliser un objet, tout en favorisant la convergence du processus du recalage. Nous avons poursuivi d'abord des travaux fondés sur l'optimisation d'une fonction d'utilité; du fait de problèmes de convergence, une méthode plus simple a été mise en oeuvre dans le cas particulier de la modélisation d'un objet posé sur une table, par un capteur stéréo monté sur un bras manipulateur mobile. Finalement toutes ces méthodes ont été validées, d'abord sur des données de synthèse pour les analyser, puis sur des données précises acquises par télémétrie laser ou profilométrie, et enfin sur des données que nous avons acquises par stéréo dans le monde réel.
APA, Harvard, Vancouver, ISO, and other styles
4

Delest, Sébastien. "Segmentation de maillages 3D à l'aide de méthodes basées sur la ligne de partage des eaux." Phd thesis, Université François Rabelais - Tours, 2007. http://tel.archives-ouvertes.fr/tel-00211378.

Full text
Abstract:
La segmentation de maillages polygonaux est un outil nécessaire à de nombreuses applications. Elle correspond au découpage du maillage en régions à partir d'informations portant sur la surface ou la forme globale de l'objet. Ces dernières années, de nombreux algorithmes ont été proposés dans cette thématique en large expansion. Les applications sont très variées; citons la reconnaissance de forme, l'indexation, la compression, la métamorphose, la détection de collision, le plaquage de texture, la simplification, etc.

Nous proposons dans un premier temps une étude assez large des méthodes de segmentation de maillages polygonaux. Nous abordons les algorithmes pour les deux principales familles de méthodes que sont la segmentation en carreaux surfaciques et la segmentation en parties significatives. Nous avons concentré nos travaux sur la ligne de partage des eaux (LPE) et formulé des propositions originales pour la fonction de hauteur de la LPE et des stratégies pour limiter la sur-segmentation que produit naturellement la LPE.
APA, Harvard, Vancouver, ISO, and other styles
5

Velut, Jérôme. "Segmentation par modèle déformable surfacique localement régularisé par spline lissante." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00262088.

Full text
Abstract:
La segmentation d'image par modèles déformables est une méthode permettant de localiser les frontières d'un objet. Dans le cas d'images difficiles à segmenter en raison de la présence de bruit ou d'un manque d'information, l'introduction de connaissance a priori dans le modèle déformable améliore la segmentation. Ces cas difficiles sont fréquents dans l'imagerie du vivant, où les applications peuvent concerner le traitement d'une grande quantité de donnée. Il est alors nécessaire d'utiliser une méthode de traitement robuste et rapide. Cette problématique nous a amené à proposer une régularisation locale du modèle déformable. Pour ce faire, nous reprenons le concept du contour actif en proposant un nouveau schéma de régularisation. Celle-ci est désormais effectuée via un filtrage RII des déplacements à chaque itération. Le filtre est basé sur un noyau de spline lissante dont le but, à l'origine, était d'approcher un ensemble de points par une fonction continue plutôt que d'interpoler exactement ces points. Nous mettons en avant, dans cette méthode de régularisation, la concision du paramètre de régularisation : il s'agit d'une valeur ?, réelle et positive, qui influe sur la fréquence de coupure du filtre passe-bas. Une relation analytique existant entre ?, la fréquence de coupure et la fréquence d'échantillonnage, il est possible de donner un sens métrique à la fréquence de coupure. De plus, nous pouvons affecter une valeur ? différente en chaque point du contour par une variation des coefficients du filtre et ainsi permettre une régularisation locale du contour actif. La généralisation de cette nouvelle méthode de régularisation pour des modèles déformables surfaciques est proposée. La difficulté principale concerne la connectivité du maillage, contrainte à une valence 4 partout par le filtrage bidimensionnel. Des résultats de segmentation sont donnés pour de tels maillages ainsi que pour des maillages sphériques où un traitement particulier des pôles est mis en oeuvre.
APA, Harvard, Vancouver, ISO, and other styles
6

Vidal, Vincent. "Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétés." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00708530.

Full text
Abstract:
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale.
APA, Harvard, Vancouver, ISO, and other styles
7

Hassan, Sahar. "Intégration de connaissances anatomiques a priori dans des modèles géométriques." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00607260.

Full text
Abstract:
L'imagerie médicale est une ressource de données principale pour différents types d'applications. Bien que les images concrétisent beaucoup d'informations sur le cas étudié, toutes les connaissances a priori du médecin restent implicites. Elles jouent cependant un rôle très important dans l'interprétation et l'utilisation des images médicales. Dans cette thèse, des connaissances anatomiques a priori sont intégrées dans deux applications médicales. Nous proposons d'abord une chaîne de traitement automatique qui détecte, quantifie et localise des anévrismes dans un arbre vasculaire segmenté. Des lignes de centre des vaisseaux sont extraites et permettent la détection et la quantification automatique des anévrismes. Pour les localiser, une mise en correspondance est faite entre l'arbre vasculaire du patient et un arbre vasculaire sain. Les connaissances a priori sont fournies sous la forme d'un graphe. Dans le contexte de l'identification des sous-parties d'un organe représenté sous forme de maillage, nous proposons l'utilisation d'une ontologie anatomique, que nous enrichissons avec toutes les informations nécessaires pour accomplir la tâche de segmentation de maillages. Nous proposons ensuite un nouvel algorithme pour cette tâche, qui profite de toutes les connaissances a priori disponibles dans l'ontologie.
APA, Harvard, Vancouver, ISO, and other styles
8

Redolfi, Alberto. "E-infrastructure, segmentation du cortex, environnement de contrôle qualité : un fil rouge pour les neuroscientifiques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS191/document.

Full text
Abstract:
Les neurosciences sont entrées dans l'ère des « big data ». Les ordinateurs de bureau individuels ne sont plus adaptés à l'analyse des téraoctets et potentiellement des pétaoctets qu'impliquent les images cérébrales. Pour combler le gouffre qui existe entre la taille des données et les possibilités standard d'extraction des informations, on développe actuellement des infrastructures virtuelles en Amérique du Nord, au Canada et également en Europe. Ces infrastructures dématérialisées permettent d'effectuer des expériences en imagerie médicale à l'aide de ressources informatiques dédiées telles que des grilles, des systèmes de calcul haute performance (HPC) et des clouds publics ou privés. Les infrastructures virtuelles sont aujourd'hui les systèmes les plus avancés et les mieux équipés pour soutenir la création de modèles multimodaux et multi-échelles avancés du cerveau atteint par la maladie d'Alzheimer (chapitre 2) ou pour valider des biomarqueurs d'imagerie prometteurs, tels que l'épaisseur corticale, grâce à des pipelines sophistiqués (chapitre 3). En effet, les analyses d'imagerie, telles que celles décrites dans les chapitres 2 et 3, multiplient de manière exponentielle la quantité de données post-traitées qui atteignent, à la fin, des téraoctets de résultats pour une seule étude. Afin de faire face à l'énorme quantité de données de post-traitement générées par les infrastructures électroniques, un environnement de contrôle qualité automatique (ECQ) des maillages de la surface corticale (chapitre 4) a été proposé. L'ECQ est un classifieur par apprentissage automatique (AA) avec une approche par apprentissage supervisé basée sur les forêts d'arbres décisionnels (RF) et des estimations par séparateurs à vaste marge (SVM). Compte tenu de son évolutivité et de son efficacité, l'ECQ s'inscrit bien dans les infrastructures électroniques en cours de développement, où ce type de service de vérification élémentaire manque toujours. L'ECQ représente une occasion unique de traiter les données plus facilement et plus rapidement, ce qui permettra aux neuroscientifiques de passer leur temps précieux à effectuer des analyses de données au lieu de le dépenser dans des tâches manuelles et laborieuses de contrôle qualité
Neuroscience entered the “big data” era. Individual desktop computers are no longer suitable to analyse terabyte, and potentially petabytes, of brain images. To fill in the gap between data acquisition and information extraction, e-infrastructures are being developing in North America, Canada, and Europe. E-infrastructures allow neuroscientists to conduct neuroimaging experiments using dedicated computational resources such as grids, high-performance computing (HPC) systems, and public/private clouds. Today, e-infrastructures are the most advanced and the best equipped systems to support the creation of advanced multimodal and multiscale models of the AD brain (chapter 2) or to validate promising imaging biomarkers with sophisticated pipelines, as for cortical thickness, (chapter 3). Indeed, imaging analyses such as those described in chapter 2 and 3 expand the amount of post-processed data per single study. In order to cope with the huge amount of post-processing data generated via e-infrastructures, an automatic quality control environment (QCE) of the cortical delineation algorithms is proposed (chapter 4). QCE is a machine learning (ML) classifier with a supervised learning approach based on Random Forest (RF) and Support Vector Machine (SVM) estimators. Given its scalability and efficacy, QCE fits well in the e-infrastructures under development, where this kind of sanity check service is still lacking. QCE represents a unique opportunity to process data more easily and quickly, allowing neuroscientists to spend their valuable time do data analysis instead of using their resources in manual quality control work
APA, Harvard, Vancouver, ISO, and other styles
9

Galdames, Grunberg Francisco Jose. "Segmentation d'images IRM du cerveau pour la construction d'un modèle anatomique destiné à la simulation bio-mécanique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00747448.

Full text
Abstract:
Comment obtenir des données anatomiques pendant une neurochirurgie ? a été ce qui a guidé le travail développé dans le cadre de cette thèse. Les IRM sont actuellement utilisées en amont de l'opération pour fournir cette information, que ce soit pour le diagnostique ou pour définir le plan de traitement. De même, ces images pre-opératoires peuvent aussi être utilisées pendant l'opération, pour pallier la difficulté et le coût des images per-opératoires. Pour les rendre utilisables en salle d'opération, un recalage doit être effectué avec la position du patient. Cependant, le cerveau subit des déformations pendant la chirurgie, phénomène appelé Brain Shift, ce qui altère la qualité du recalage. Pour corriger cela, d'autres données per-opératoires peuvent être acquises, comme la localisation de la surface corticale, ou encore des images US localisées en 3D. Ce nouveau recalage permet de compenser ce problème, mais en partie seulement. Ainsi, des modèles mécaniques ont été développés, entre autres pour apporter des solutions à l'amélioration de ce recalage. Ils permettent ainsi d'estimer les déformations du cerveau. De nombreuses méthodes existent pour implémenter ces modèles, selon différentes lois de comportement et différents paramètres physiologiques. Dans tous les cas, cela requiert un modèle anatomique patient-spécifique. Actuellement, ce modèle est obtenu par contourage manuel, ou quelquefois semi-manuel. Le but de ce travail de thèse est donc de proposer une méthode automatique pour obtenir un modèle du cerveau adapté sur l'anatomie du patient, et utilisable pour une simulation mécanique. La méthode implémentée se base sur les modèles déformables pour segmenter les structures anatomiques les plus pertinentes dans une modélisation bio-mécanique. En effet, les membranes internes du cerveau sont intégrées: falx cerebri and tentorium cerebelli. Et bien qu'il ait été démontré que ces structures jouent un rôle primordial, peu d'études les prennent en compte. Par ailleurs, la segmentation résultante de notre travail est validée par comparaison avec des données disponibles en ligne. De plus, nous construisons un modèle 3D, dont les déformations seront simulées en utilisant une méthode de résolution par Éléments Finis. Ainsi, nous vérifions par des expériences l'importance des membranes, ainsi que celle des paramètres physiologiques.
APA, Harvard, Vancouver, ISO, and other styles
10

Quinto, Michele Arcangelo. "Méthode de reconstruction adaptive en tomographie par rayons X : optimisation sur architectures parallèles de type GPU." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT109/document.

Full text
Abstract:
La reconstruction tomographique à partir de données de projections est un problème inverse largement utilisé en imagerie médicale et de façon plus modeste pour le contrôle nondestructif. Avec un nombre suffisant de projections, les algorithmes analytiques permettentdes reconstructions rapides et précises. Toutefois, dans le cas d’un faible nombre de vues(imagerie faible dose) et/ou d’angle limité (contraintes spécifiques liées à l’installation), lesdonnées disponibles pour l’inversion ne sont pas complètes, le mauvais conditionnementdu problème s’accentue, et les résultats montrent des artefacts importants. Pour aborderces situations, une approche alternative consiste à discrétiser le problème de reconstruction,et à utiliser des algorithmes itératifs ou une formulation statistique du problème afinde calculer une estimation de l’objet inconnu. Ces méthodes sont classiquement basées surune discrétisation du volume en un ensemble de voxels, et fournissent des cartes 3D de ladensité de l’objet étudié. Les temps de calcul et la ressource mémoire de ces méthodesitératives sont leurs principaux points faibles. Par ailleurs, quelle que soit l’application, lesvolumes sont ensuite segmentés pour une analyse quantitative. Devant le large éventaild’outils de segmentation existant, basés sur différentes interprétations des contours et defonctionnelles à minimiser, les choix sont multiples et les résultats en dépendent.Ce travail de thèse présente une nouvelle approche de reconstruction simultanée àla segmentation des différents matériaux qui composent le volume. Le processus dereconstruction n’est plus basé sur une grille régulière de pixels (resp. voxels), mais sur unmaillage composé de triangles (resp. tétraèdres) non réguliers qui s’adaptent à la formede l’objet. Après une phase d’initialisation, la méthode se décompose en trois étapesprincipales que sont la reconstruction, la segmentation et l’adaptation du maillage, quialternent de façon itérative jusqu’à convergence. Des algorithmes itératifs de reconstructioncommunément utilisés avec une représentation conventionnelle de l’image ont étéadaptés et optimisés pour être exécutés sur des grilles irrégulières composées d’élémentstriangulaires ou tétraédriques. Pour l’étape de segmentation, deux méthodes basées surune approche paramétrique (snake) et l’autre sur une approche géométrique (level set)ont été mises en oeuvre afin de considérer des objets de différentes natures (mono- etmulti- matériaux). L’adaptation du maillage au contenu de l’image estimée est basée surles contours segmentés précédemment, pour affiner la maille au niveau des détails del’objet et la rendre plus grossière dans les zones contenant peu d’information. En finde processus, le résultat est une image classique de reconstruction tomographique enniveaux de gris, mais dont la représentation par un maillage adapté au contenu proposeidirectement une segmentation associée. Les résultats montrent que la partie adaptative dela méthode permet de représenter efficacement les objets et conduit à diminuer drastiquementla mémoire nécessaire au stockage. Dans ce contexte, une version 2D du calcul desopérateurs de reconstruction sur une architecture parallèle type GPU montre la faisabilitédu processus dans son ensemble. Une version optimisée des opérateurs 3D permet descalculs encore plus efficaces
Tomography reconstruction from projections data is an inverse problem widely used inthe medical imaging field. With sufficiently large number of projections over the requiredangle, the FBP (filtered backprojection) algorithms allow fast and accurate reconstructions.However in the cases of limited views (lose dose imaging) and/or limited angle (specificconstrains of the setup), the data available for inversion are not complete, the problembecomes more ill-conditioned, and the results show significant artifacts. In these situations,an alternative approach of reconstruction, based on a discrete model of the problem,consists in using an iterative algorithm or a statistical modelisation of the problem to computean estimate of the unknown object. These methods are classicaly based on a volumediscretization into a set of voxels and provide 3D maps of densities. Computation time andmemory storage are their main disadvantages. Moreover, whatever the application, thevolumes are segmented for a quantitative analysis. Numerous methods of segmentationwith different interpretations of the contours and various minimized energy functionalare offered, and the results can depend on their use.This thesis presents a novel approach of tomographic reconstruction simultaneouslyto segmentation of the different materials of the object. The process of reconstruction isno more based on a regular grid of pixels (resp. voxel) but on a mesh composed of nonregular triangles (resp. tetraedra) adapted to the shape of the studied object. After aninitialization step, the method runs into three main steps: reconstruction, segmentationand adaptation of the mesh, that iteratively alternate until convergence. Iterative algorithmsof reconstruction used in a conventionnal way have been adapted and optimizedto be performed on irregular grids of triangular or tetraedric elements. For segmentation,two methods, one based on a parametric approach (snake) and the other on a geometricapproach (level set) have been implemented to consider mono and multi materials objects.The adaptation of the mesh to the content of the estimated image is based on the previoussegmented contours that makes the mesh progressively coarse from the edges to thelimits of the domain of reconstruction. At the end of the process, the result is a classicaltomographic image in gray levels, but whose representation by an adaptive mesh toits content provide a correspoonding segmentation. The results show that the methodprovides reliable reconstruction and leads to drastically decrease the memory storage. Inthis context, the operators of projection have been implemented on parallel archituecturecalled GPU. A first 2D version shows the feasability of the full process, and an optimizedversion of the 3D operators provides more efficent compoutations
APA, Harvard, Vancouver, ISO, and other styles
11

Galdames, Francisco José. "Segmentation d'images IRM du cerveau pour la construction d'un modèle anatomique destiné à la simulation bio-mécanique." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENS007/document.

Full text
Abstract:
Comment obtenir des données anatomiques pendant une neurochirurgie ? a été ce qui a guidé le travail développé dans le cadre de cette thèse. Les IRM sont actuellement utilisées en amont de l'opération pour fournir cette information, que ce soit pour le diagnostique ou pour définir le plan de traitement. De même, ces images pre-opératoires peuvent aussi être utilisées pendant l'opération, pour pallier la difficulté et le coût des images per-opératoires. Pour les rendre utilisables en salle d'opération, un recalage doit être effectué avec la position du patient. Cependant, le cerveau subit des déformations pendant la chirurgie, phénomène appelé Brain Shift, ce qui altère la qualité du recalage. Pour corriger cela, d'autres données pré-opératoires peuvent être acquises, comme la localisation de la surface corticale, ou encore des images US localisées en 3D. Ce nouveau recalage permet de compenser ce problème, mais en partie seulement. Ainsi, des modèles mécaniques ont été développés, entre autres pour apporter des solutions à l'amélioration de ce recalage. Ils permettent ainsi d'estimer les déformations du cerveau. De nombreuses méthodes existent pour implémenter ces modèles, selon différentes lois de comportement et différents paramètres physiologiques. Dans tous les cas, cela requiert un modèle anatomique patient-spécifique. Actuellement, ce modèle est obtenu par contourage manuel, ou quelquefois semi-manuel. Le but de ce travail de thèse est donc de proposer une méthode automatique pour obtenir un modèle du cerveau adapté sur l'anatomie du patient, et utilisable pour une simulation mécanique. La méthode implémentée se base sur les modèles déformables pour segmenter les structures anatomiques les plus pertinentes dans une modélisation bio-mécanique. En effet, les membranes internes du cerveau sont intégrées: falx cerebri and tentorium cerebelli. Et bien qu'il ait été démontré que ces structures jouent un rôle primordial, peu d'études les prennent en compte. Par ailleurs, la segmentation résultante de notre travail est validée par comparaison avec des données disponibles en ligne. De plus, nous construisons un modèle 3D, dont les déformations seront simulées en utilisant une méthode de résolution par Éléments Finis. Ainsi, nous vérifions par des expériences l'importance des membranes, ainsi que celle des paramètres physiologiques
The general problem that motivates the work developed in this thesis is: how to obtain anatomical information during a neurosurgery?. Magnetic Resonance (MR) images are usually acquired before the surgery to provide anatomical information for diagnosis and planning. Also, the same images are commonly used during the surgery, because to acquire MRI images in the operating room is complex and expensive. To make these images useful inside the operating room, a registration between them and the patient's position has to be processed. The problem is that the brain suffers deformations during the surgery, in a process called brain shift, degrading the quality of registration. To correct this, intra-operative information may be used, for example, the position of the brain surface or US images localized in 3D. The new registration will compensate this problem, but only to a certain extent. Mechanical models of the brain have been developed as a solution to improve this registration. They allow to estimate brain deformation under certain boundary conditions. In the literature, there are a variety of methods for implementing these models, different equation laws used for continuum mechanic, and different reported mechanical properties of the tissues. However, a patient specific anatomical model is always required. Currently, most mechanical models obtain the associated anatomical model by manual or semi-manual segmentation. The aim of this thesis is to propose and implement an automatic method to obtain a model of the brain fitted to the patient's anatomy and suitable for mechanical modeling. The implemented method uses deformable model techniques to segment the most relevant anatomical structures for mechanical modeling. Indeed, the internal membranes of the brain are included: falx cerebri and tentorium cerebelli. Even though the importance of these structures is stated in the literature, only a few of publications include them in the model. The segmentation obtained by our method is assessed using the most used online databases. In addition, a 3D model is constructed to validate the usability of the anatomical model in a Finite Element Method (FEM). And the importance of the internal membranes and the variation of the mechanical parameters is studied
APA, Harvard, Vancouver, ISO, and other styles
12

Blanpain, Baptiste. "Vers un calcul en temps réel de la dose dans un fantôme segmenté en mailles homogènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00452891.

Full text
Abstract:
La planification automatique des traitements de radiothérapie n´ecessite un calcul très rapide de la dose délivrée au patient. Nous proposons de réaliser ce calcul en segmentant le fantôme du patient en mailles homogènes, et en associant aux mailles des projections vers des distributions précalculées en milieux homogènes, ainsi que des pondérations gérant les hétérogénéités. Le calcul de dose se fait en deux étapes. La première étape concerne les mailles : les projections et pondérations y sont paramétrées en fonction de critères physiques et géométriques. La seconde étape concerne les voxels : la dose y est calculée en évaluant les fonctions préalablement associées à leur maille. Cette méthode est très rapide, notamment quand le nombre de points d'intérêt est limité (quelques centaines), les résultats étant dans ce cas obtenus en moins d'une seconde. Avec de telles performances, la planification automatique des traitements de radiothérapie devient parfaitement envisageable.
APA, Harvard, Vancouver, ISO, and other styles
13

Elghoul, Esma. "Segmentation de maillages 3D par l'exemple." Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0051/document.

Full text
Abstract:
Cette thèse présente une méthode de segmentation de modèles 3D en parties significatives ou fonctionnelles. La segmentation s’effectue par "transfert" d’une segmentation exemple : la segmentation d’un modèle est calculée en transférant les segments d’une segmentation exemple d’un objet appartenant à la même classe de modèles 3D. Pour ce faire, nous avons adapté et étendu la méthode de segmentation par les marches aléatoires et transformé notre problème en un problème de localisation et mise en correspondance de faces germes. Notre méthode comporte quatre étapes fondamentales : la mise en correspondance entre le modèle exemple et le modèle cible, la localisation automatique de germes sur le modèle cible pour initialiser les régions, le calcul des segments du modèle cible et l’amélioration de leurs frontières. En constatant que les critères de similarité diffèrent selon que les objets sont de type rigide (chaises, avions,…) ou de type articulé (humains, quadrupèdes,…), nous décomposons notre approche en deux. La première dédiée aux objets rigides, où la mise en correspondance est basée sur le calcul des transformations rigides afin d’aligner au mieux les parties significatives des deux objets comparés. La deuxième dédiée aux modèles articulés, où la mise en correspondance des parties fonctionnelles, présentant des variations de poses plus importantes, est basée sur des squelettes calculés via des diagrammes de Reeb. Nous montrons à travers des évaluations qualitatives et quantitatives que notre méthode obtient des résultats meilleurs que les techniques de segmentation individuelle et comparables aux techniques de co-segmentation avec un temps de calcul nettement inférieur
In this dissertation, we present a new method to segment 3D models into their functional parts. The segmentation is performed by a transfer approach: a semantic-oriented segmentation of an object is calculated using a pre-segmented example model from the same class (chairs, humans, etc.). To this end, we adapted and extended the random walk segmentation method which allowed us to transform our problem into a problem of locating and matching seed faces. Our method consists of four fundamental steps: establishing correspondences between the example and the target model, localizing seeds to initialize regions in the target model, computing the segments and refining their boundaries in the target model. We decomposed our approach in two, taking into account similarity criteria which differ regarding the object type (rigid vs. articulated). The first approach is dedicated to rigid objects (chairs, airplanes, etc.), where the matching is based on rigid transformations to determine the best alignment between the functional parts of the compared objects. The second one focused on articulated objects (humans, quadrupeds, etc.), where coarse topological shape attributes are used in a skeleton-based approach to cover larger pose variations when computing correspondences between functional parts. We show through qualitative and quantitative evaluations that our method improves upon individual segmentation techniques and obtains results that are close to the co-segmentation techniques results with an important calculation time reduction
APA, Harvard, Vancouver, ISO, and other styles
14

Leonardi, Valentin. "Modélisation dynamique et suivi de tumeur dans le volume rénal." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4056/document.

Full text
Abstract:
Ce travail de thèse porte sur la modélisation dynamique 3D du rein et le suivi d’une tumeur de cet organe. Il s’inscrit dans le projet KiTT (Kidney Tumor Tracking) qui regroupe des chercheurs issus de plusieurs domaines : la modélisation géométrique, la radiologie et l’urologie. Le cadre de cette thèse suit une tendance de mini-invasivité des gestes chirurgicaux observée ces dernières années (HIFU, coelioscopie). Sa finalité est d’aboutir à un nouveau protocole de destruction de tumeurs rénales totalement non-invasif, par la diffusion d’agents physiques (ondes d’ultrasons) à travers la peau et focalisés sur la tumeur. Devant le mouvement et la déformation que le rein présente au cours du cycle respiratoire, la problématique de ces travaux de recherche est de connaître en permanence la position de la tumeur afin d’ajuster à moyen terme la diffusion des ondes en conséquence
This Ph.D. thesis deals with the 3D dynamic modeling of the kidney and tracking a tumor of this organ. It is in line with the KiTT project (Kidney Tumor Tracking) which gathers researchers from different fileds: geometric modeling, radiology and urology. This work arised from the tendency of nowadays surgical gestures to be less and less invasive (HIFU, coelioscopy). Its goal is to result in a totally non-invasive protocol of kidney tumors eradication by transmitting ultrasound waves through the skin without breaking in it. As the kidney presents motions and deformations during the breathing phase, the main issue is to know the kidney and tumor positions at any time in order to adjust the waves accordingly
APA, Harvard, Vancouver, ISO, and other styles
15

Li, Ting. "Contributions to Mean Shift filtering and segmentation : Application to MRI ischemic data." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00768315.

Full text
Abstract:
Medical studies increasingly use multi-modality imaging, producing multidimensional data that bring additional information that are also challenging to process and interpret. As an example, for predicting salvageable tissue, ischemic studies in which combinations of different multiple MRI imaging modalities (DWI, PWI) are used produced more conclusive results than studies made using a single modality. However, the multi-modality approach necessitates the use of more advanced algorithms to perform otherwise regular image processing tasks such as filtering, segmentation and clustering. A robust method for addressing the problems associated with processing data obtained from multi-modality imaging is Mean Shift which is based on feature space analysis and on non-parametric kernel density estimation and can be used for multi-dimensional filtering, segmentation and clustering. In this thesis, we sought to optimize the mean shift process by analyzing the factors that influence it and optimizing its parameters. We examine the effect of noise in processing the feature space and how Mean Shift can be tuned for optimal de-noising and also to reduce blurring. The large success of Mean Shift is mainly due to the intuitive tuning of bandwidth parameters which describe the scale at which features are analyzed. Based on univariate Plug-In (PI) bandwidth selectors of kernel density estimation, we propose the bandwidth matrix estimation method based on multi-variate PI for Mean Shift filtering. We study the interest of using diagonal and full bandwidth matrix with experiment on synthesized and natural images. We propose a new and automatic volume-based segmentation framework which combines Mean Shift filtering and Region Growing segmentation as well as Probability Map optimization. The framework is developed using synthesized MRI images as test data and yielded a perfect segmentation with DICE similarity measurement values reaching the highest value of 1. Testing is then extended to real MRI data obtained from animals and patients with the aim of predicting the evolution of the ischemic penumbra several days following the onset of ischemia using only information obtained from the very first scan. The results obtained are an average DICE of 0.8 for the animal MRI image scans and 0.53 for the patients MRI image scans; the reference images for both cases are manually segmented by a team of expert medical staff. In addition, the most relevant combination of parameters for the MRI modalities is determined.
APA, Harvard, Vancouver, ISO, and other styles
16

Arcila, Romain. "Séquences de maillages : classification et méthodes de segmentation." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00653542.

Full text
Abstract:
Les séquences de maillages sont de plus en plus utilisées. Cette augmentation des besoins entraîne un développement des méthodes de génération de séquences de maillages. Ces méthodes de générations peuvent produire des séquences de maillages de natures différentes. Le nombre d'applications utilisant ces séquences s'est également accru, avec par exemple la compression et le transfert de pose. Ces applications nécessitent souvent de calculer une partition de la séquence. Dans cette thèse, nous nous intéressons plus particulièrement à la segmentation en composantes rigides de séquences de maillages. Dans un premier temps, nous formalisons la notion de séquence de maillages et proposons donc une classification permettant de désigner quelles sont les propriétés attachées à un type de séquence, et ainsi de décrire précisément quel type de séquence est nécessaire pour une application donnée. Dans un second temps, nous formalisons la notion de segmentation de séquence de maillages, et présentons également l'état de l'art des méthodes de segmentation sur les séquences de maillages. Ensuite, nous proposons une première méthode de type globale pour les séquences stables de maillages, fondée sur la fusion de régions. Par la suite, nous présentons deux autres méthodes, reposant sur la classification spectrale. La première, produit un ensemble de segmentations globales, tandis que la seconde génère une segmentation globale ou une segmentation temporellement variable. Nous mettons également en place un système d'évaluation quantitative des segmentations. Enfin, nous présentons les différentes perspectives liées à la segmentation.
APA, Harvard, Vancouver, ISO, and other styles
17

Montagnat, Johan. "Segmentation d'image médicales volumiques à l'aide de maillages déformables contraints." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 1996. http://tel.archives-ouvertes.fr/tel-00691915.

Full text
Abstract:
La segmentation d'organes abdominaux dans des images médicales volumiques est rendue difficile par le bruit et le faible contraste de ces images. Les techniques de segmentation classiques à base d'extraction de contours ou de seuillage donnent des résultats insuffisants. Dans ce rapport, nous utilisons des modèles déformables pour segmenter les images. En introduisant un modèle de l'organe voulu dans le processus de segmentation, nous bénéficions d'une connaissance a priori de la forme à retrouver. Nous utilisons des images de contour bruitées pour déformer localement le modèle. Les données de contours étant incomplètes, il est nécessaire de contraindre le modèle pour qu'il se déforme régulièrement. Nos maillages simplexes bénéficient d'un mécanisme de mémoire de forme agissant de façon régularisante sur les déformations. Nous utilisons des transformations globales pour disposer davantage de contraintes. Un modèle hybride fournit un compromis entre complexité de calcul des transformations globales et nombre de degrés de liberté du modèle. Nous étudions également l'utilisation d'un ensemble d'apprentissage pour construire un modèle plus robuste tirant parti de l'information statistique des déformations possibles. L'information statistique peut être utilisée pour contraindre d'avantage les déformations ou pour paramétrer de façon plus fine le processus de déformation.
APA, Harvard, Vancouver, ISO, and other styles
18

Fang, Hao. "Modélisation géométrique à différent niveau de détails d'objets fabriqués par l'homme." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4002/document.

Full text
Abstract:
La modélisation géométrique d'objets fabriqués par l'homme à partir de données 3D est l'un des plus grands défis de la vision par ordinateur et de l'infographie. L'objectif à long terme est de générer des modèles de type CAO de la manière la plus automatique possible. Pour atteindre cet objectif, des problèmes difficiles doivent être résolus, notamment (i) le passage à l'échelle du processus de modélisation sur des données d'entrée massives, (ii) la robustesse de la méthodologie contre des mesures d'entrées erronés, et (iii) la qualité géométrique des modèles de sortie. Les méthodes existantes fonctionnent efficacement pour reconstruire la surface des objets de forme libre. Cependant, dans le cas d'objets fabriqués par l'homme, il est difficile d'obtenir des résultats dont la qualité approche celle des représentations hautement structurées, comme les modèles CAO. Dans cette thèse, nous présentons une série de contributions dans ce domaine. Tout d'abord, nous proposons une méthode de classification basée sur l'apprentissage en profondeur pour distinguer des objets dans des environnements complexes à partir de nuages de points 3D. Deuxièmement, nous proposons un algorithme pour détecter des primitives planaires dans des données 3D à différents niveaux d'abstraction. Enfin, nous proposons un mécanisme pour assembler des primitives planaires en maillages polygonaux compacts. Ces contributions sont complémentaires et peuvent être utilisées de manière séquentielle pour reconstruire des modèles de ville à différents niveaux de détail à partir de données 3D aéroportées. Nous illustrons la robustesse, le passage à l'échelle et l'efficacité de nos méthodes sur des données laser et multi-vues stéréo sur des scènes composées d'objets fabriqués par l'homme
Geometric modeling of man-made objects from 3D data is one of the biggest challenges in Computer Vision and Computer Graphics. The long term goal is to generate a CAD-style model in an as-automatic-as-possible way. To achieve this goal, difficult issues have to be addressed including (i) the scalability of the modeling process with respect to massive input data, (ii) the robustness of the methodology to various defect-laden input measurements, and (iii) the geometric quality of output models. Existing methods work well to recover the surface of free-form objects. However, in case of manmade objects, it is difficult to produce results that approach the quality of high-structured representations as CAD models.In this thesis, we present a series of contributions to the field. First, we propose a classification method based on deep learning to distinguish objects from raw 3D point cloud. Second, we propose an algorithm to detect planar primitives in 3D data at different level of abstraction. Finally, we propose a mechanism to assemble planar primitives into compact polygonal meshes. These contributions are complementary and can be used sequentially to reconstruct city models at various level-of-details from airborne 3D data. We illustrate the robustness, scalability and efficiency of our methods on both laser and multi-view stereo data composed of man-made objects
APA, Harvard, Vancouver, ISO, and other styles
19

Lachaud, Jacques-Olivier. "Extraction de surfaces à partir d'images tridimensionnelles : approche discrète et approche par modèle déformable." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004892.

Full text
Abstract:
Cette thèse porte sur l'extraction de représentations géométriques à partir d'images tridimensionnelles. Ces représentations ont d'importantes applications dans les domaines médicaux (examen non invasif et simulation, détection de pathologies, chirurgie assistée par ordinateur, fabrication de prothèses, etc) et biologiques (analyse des structures microscopiques et de leur fonctionnement). Deux approches peuvent être suivies~ : - Les méthodes de reconstruction discrète fournissent rapidement une représentation géométrique de ces données, mais laissent de côté l'aspect segmentation de l'image en ses constituants. Parmi ces méthodes, les plus utilisées sont~ : le marching-cubes, qui construit une surface triangulée, et le suivi de surface, qui délimite une surface digitale. En introduisant des considérations de topologie digitale, nous montrons l'équivalence de ces deux représentations. De cette manière, leurs propriétés respectives peuvent être combinées efficacement. - Les méthodes basées sur les modèles déformables réunissent les opérations de segmentation et de reconstruction en un seul processus~ : le modèle recherche les constituants de l'image en se déformant sous l'action de contraintes externes, issues de l'image, et internes, dérivées de sa structure géométrique. Les modèles existants sont souvent limités à l'extraction de formes simples. Nous proposons un modèle déformable générique, basé sur une triangulation de surface, et capable d'adapter automatiquement la topologie de sa maille aux déformations imposées à sa géométrie. Cette capacité permet au modèle d'appréhender les formes arbitrairement complexes de l'image et de les extraire de l'esquisse aux détails par une approche multi-résolution. Enfin, nous présentons l'application de ce modèle à des données biomédicales de modalités variées. Les résultats sont comparés à ceux obtenus par reconstruction discrète, puis combinés afin de tirer parti des avantages spécifiques des deux approches.
APA, Harvard, Vancouver, ISO, and other styles
20

Meghoufel, Brahim. "Reconstruction 3D des structures adjacentes de l'articulation de la hanche par une segmentation multi-structures à l'aide des maillages surfaciques triangulaires[ressource électronique]." Mémoire, École de technologie supérieure, 2013. http://espace.etsmtl.ca/1184/1/MEGHOUFEL_Brahim.pdf.

Full text
Abstract:
Une nouvelle technique de reconstruction 3D des deux structures de la hanche à partir des images tomodensitométriques (TDM) est proposée. La tête fémorale et le cotyle sont reconstruits par une méthode de segmentation multi-structures des surfaces 3D adjacentes à l'aide des maillages surfaciques triangulaires 3D. La méthode débute par une segmentation hiérarchique préliminaire. Les deux maillages 3D résultants de la segmentation hiérarchique sont ensuite déployés en deux surfaces 2D planaires. Un déploiement parapluie est utilisé pour la tête fémorale et un déploiement par paramétrisation 3D/2D est utilisé pour le cotyle. Ces opérations de déploiement permettent de transformer les données volumiques en données surfaciques quasi planaires et d’en faciliter la segmentation. Une méthode itérative des surfaces minimales permet la segmentation des deux surfaces recherchées dans les volumes déployés. La dernière étape de la méthode de reconstructions 3D consiste en la détection et en la correction du chevauchement entre les deux structures. Cette technique de reconstruction a été validée sur une base de données de 10 séries d’images volumiques TDM. Les résultats des reconstructions semblent satisfaisants. Les erreurs de précision des reconstructions 3D ont été quantifiées par rapport à une technique standard de référence. La quantification a révélé des erreurs de quantification de 0,83 ± 0,25 mm pour le cotyle et de 0,70 ± 0,17 mm pour la tête fémorale. Le temps d’exécution moyen des reconstructions des deux structures de la hanche est estimé à 3,0 ± 0,3 min. La technique proposée montre le potentiel de solutions que le domaine du traitement des images peut fournir aux cliniciens pour les aider à accomplir leur tâche de planification chirurgicale à partir d’images 3D. De telles solutions pourront éventuellement être généralisées à d’autres modalités d’imagerie et à d’autres structures.
APA, Harvard, Vancouver, ISO, and other styles
21

Chaumont, Marc. "Représentation en objets vidéo pour un codage progressif et concurrentiel des séquences d'images." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00004146.

Full text
Abstract:
L'objectif de cette thèse est de valider l'hypothèse selon laquelle le codage par objets vidéo peut permettre d'obtenir des gains significatifs en utilisant le codage dynamique (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Afin de répondre à cet objectif, différents points ont été étudiés. Le premier point concerne l'étude de la segmentation en objet vidéo de manière automatique. Nous avons proposé un modèle d'objet faisant intervenir la notion de suivi long terme via la représentation d'un objet sous la forme mouvement/texture (avec l'utilisation d'un maillage actif pour représenter le mouvement). Un algorithme de clustering 3D a été développé basé sur ce modèle. Dans un deuxième temps, nous nous sommes attaché à l'amélioration des techniques de codage objet via la hiérarchisation ("scalabilité") du flux vidéo. Pour cela, nous utilisons un schéma de codage ondelette 3D et nous introduisons notamment un codage de contours avec perte. Enfin le dernier point étudié concerne le codage dynamique d'objets vidéo (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Les codeurs utilisés sont : le codeur H264/AVC, un codeur ondelette 3D, un codeur 3D et un codeur par mosaïque. La répartition automatique des débits permet d'obtenir des résultats dépassant ceux produits par chaque codeur pris séparément, tout en offrant le découpage du flux en objets vidéo. Mots clés : Segmentation en objets vidéo, segmentation long terme, modèle d'objet vidéo, fonctionelle d'énergie, clustering, maillage actif, mosaïque, codage vidéo, codage d'objet vidéo, décorrélation mouvement texture forme, hiérarchisation : scalabilté, ondelettes spatiotemporelles, ondelette 3D, codage de contour, codage de forme, prolongement : padding, codage dynamique, codage concurrentiel, optimisation débit-distorsion, répartition des débits, antialiasing.
APA, Harvard, Vancouver, ISO, and other styles
22

Benhabiles, Halim. "3D-mesh segmentation : automatic evaluation and a new learning-based method." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00834344.

Full text
Abstract:
Dans cette thèse, nous abordons deux problèmes principaux, à savoir l'évaluation quantitative des algorithmes de segmentation de maillages ainsi que la segmentation de maillages par apprentissage en exploitant le facteur humain. Nous proposons les contributions suivantes : - Un benchmark dédié à l'évaluation des algorithmes de segmentation de maillages 3D. Le benchmark inclut un corpus de segmentations vérités-terrains réalisées par des volontaires ainsi qu'une nouvelle métrique de similarité pertinente qui quantifie la cohérence entre ces segmentations vérités-terrains et celles produites automatique- ment par un algorithme donné sur les mêmes modèles. De plus, nous menons un ensemble d'expérimentations, y compris une expérimentation subjective, pour respectivement démontrer et valider la pertinence de notre benchmark. - Un algorithme de segmentation par apprentissage. Pour cela, l'apprentissage d'une fonction d'arête frontière est effectué, en utilisant plusieurs critères géométriques, à partir d'un ensemble de segmentations vérités-terrains. Cette fonction est ensuite utilisée, à travers une chaîne de traitement, pour segmenter un nouveau maillage 3D. Nous montrons, à travers une série d'expérimentations s'appuyant sur différents benchmarks, les excellentes performances de notre algorithme par rapport à ceux de l'état de l'art. Nous présentons également une application de notre algorithme de segmentation pour l'extraction de squelettes cinématiques pour les maillages 3D dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
23

Vandeborre, Jean-Philippe. "Contributions à la recherche et à l'analyse de modèles 3D." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00834372.

Full text
Abstract:
L'utilisation de modèles tridimensionnels dans les applications multimédia, prend de l'ampleur de jour en jour. Le développement des outils de modélisation, des scanners 3D, des cartes graphiques accélérées, du Web3D, etc. ouvre l'accès à des données tridimensionnelles de grande qualité. Les besoins, sans cesse croissants, concernant ce type de données, changent rapidement. S'il devient de plus en plus facile de créer de nouveaux modèles 3D, qu'en est-il du traitement et de l'analyse de ces modèles après leur création ? De nos jours, le concepteur d'objets 3D ne pose plus la question : " Comment créer un nouvel objet 3D ? ", mais plus vrai- semblablement " Comment retrouver un modèle 3D similaire à ceux en ma possession pour le réutiliser ? " et " Comment retrouver la structure d'un modèle 3D maillé sans connaissance a priori sur celui-ci ? " Cette habilitation a pour but d'apporter des éléments de réponse à ces deux questions. En réponse à la première question, nous avons développé un nouveau système bayésien pour retrouver des modèles 3D à partir d'une requête constituée d'une ou plusieurs vues 2D, ou d'un modèle 3D entier. Ce système a été testé dans un contexte applicatif industriel ainsi qu'avec un benchmark international. Chaque expérience a mis en évidence les excellents résultats de notre approche. La seconde question a été abordée sous l'angle de l'analyse topologique des maillages 3D grâce aux graphes de Reeb. Ce travail théorique a été appliqué à différents domaines comme la déformation automatique, l'indexation et la segmentation de maillages 3D. L'approche a toujours montré des résultats remarquables dans ces domaines. Finalement, la segmentation de maillages 3D, qui est une étape de pré-traitement fréquente avant d'autres analyses du maillage, a attiré notre attention. Nous avons proposé une métrique fiable et robuste pour la comparaison de segmentations et l'évaluation des performances des méthodes de segmentation de maillages 3D, ainsi qu'une approche de la segmentation par apprentissage qui surpasse les méthodes existantes. Pour terminer, de nouvelles pistes de recherche sur les maillages 3D sont ouvertes.
APA, Harvard, Vancouver, ISO, and other styles
24

Roudet, Céline. "Compression adaptative de surfaces par ondelettes géométriques." Phd thesis, Université Claude Bernard - Lyon I, 2008. http://tel.archives-ouvertes.fr/tel-00589400.

Full text
Abstract:
L'évolution de l'infographie et des techniques de numérisation a récemment ouvert la voie à une modélisation tridimensionnelle du monde qui nous entoure. Afin de s'adapter à l'hétérogénéité des ressources et médias manipulant ces objets 3D, des techniques basées sur l'analyse multirésolution sont généralement utilisées car elles fournissent une représentation "scalable" de ces modèles géométriques. C'est dans ce cadre de compression et de transmission progressive d'objets 3D (modélisées sous forme de maillages surfaciques) que se situe ce travail de thèse, réalisé dans le cadre du projet "CoSurf" (collaboration entre le laboratoire LIRIS et France Télécom R&D Rennes). Nous proposons ainsi une nouvelle méthode de compression hiérarchique s'appuyant sur une décomposition en ondelettes, outil d'analyse performant et robuste qui a fait ses preuves en termes de compression d'images et de vidéos. Notre méthode se démarque des techniques existantes, puisqu'elle s'appuie sur une segmentation préalable de la surface en régions d'amplitudes fréquentielles variables. Les partitions résultantes peuvent ainsi être traitées indépendamment durant les phases d'analyse multirésolution, de quantification et d'allocation binaire, de façon à s'adapter aux caractéristiques surfaciques locales des maillages et ainsi réduire les informations à coder. La contribution visuelle de chacune des partitions à l'ensemble de la surface est également un point important à considérer dans la phase d'optimisation des bits alloués à celles-ci, notamment pour des applications comme la transmission et la visualisation sélectives. D'autres applications telles que le tatouage, le filtrage ou le débruitage adaptatifs, l'indexation ou enfin la correction d'erreurs après transmission sur un canal bruité, pourraient bénéficier de ce concept générique que nous avons proposé.
APA, Harvard, Vancouver, ISO, and other styles
25

Digne, Julie. "Inverse geometry : from the raw point cloud to the 3d surface : theory and algorithms." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00610432.

Full text
Abstract:
Many laser devices acquire directly 3D objects and reconstruct their surface. Nevertheless, the final reconstructed surface is usually smoothed out as a result of the scanner internal de-noising process and the offsets between different scans. This thesis, working on results from high precision scans, adopts the somewhat extreme conservative position, not to loose or alter any raw sample throughout the whole processing pipeline, and to attempt to visualize them. Indeed, it is the only way to discover all surface imperfections (holes, offsets). Furthermore, since high precision data can capture the slightest surface variation, any smoothing and any sub-sampling can incur in the loss of textural detail.The thesis attempts to prove that one can triangulate the raw point cloud with almost no sample loss. It solves the exact visualization problem on large data sets of up to 35 million points made of 300 different scan sweeps and more. Two major problems are addressed. The first one is the orientation of the complete raw point set, an the building of a high precision mesh. The second one is the correction of the tiny scan misalignments which can cause strong high frequency aliasing and hamper completely a direct visualization.The second development of the thesis is a general low-high frequency decomposition algorithm for any point cloud. Thus classic image analysis tools, the level set tree and the MSER representations, are extended to meshes, yielding an intrinsic mesh segmentation method.The underlying mathematical development focuses on an analysis of a half dozen discrete differential operators acting on raw point clouds which have been proposed in the literature. By considering the asymptotic behavior of these operators on a smooth surface, a classification by their underlying curvature operators is obtained.This analysis leads to the development of a discrete operator consistent with the mean curvature motion (the intrinsic heat equation) defining a remarkably simple and robust numerical scale space. By this scale space all of the above mentioned problems (point set orientation, raw point set triangulation, scan merging, segmentation), usually addressed by separated techniques, are solved in a unified framework.
APA, Harvard, Vancouver, ISO, and other styles
26

Li, Thing. "Contributions to Mean Shift filtering and segmentation : Application to MRI ischemic data." Thesis, 2012. http://www.theses.fr/2012ISAL0030/document.

Full text
Abstract:
De plus en plus souvent, les études médicales utilisent simultanément de multiples modalités d'acquisition d'image, produisant ainsi des données multidimensionnelles comportant beaucoup d'information supplémentaire dont l'interprétation et le traitement deviennent délicat. Par exemple, les études sur l'ischémie cérébrale se basant sur la combinaison de plusieurs images IRM, provenant de différentes séquences d'acquisition, pour prédire l'évolution de la zone nécrosée, donnent de bien meilleurs résultats que celles basées sur une seule image. Ces approches nécessitent cependant l'utilisation d'algorithmes plus complexes pour réaliser les opérations de filtrage, segmentation et de clustering. Une approche robuste pour répondre à ces problèmes de traitements de données multidimensionnelles est le Mean Shift qui est basé sur l'analyse de l'espace des caractéristiques et l'estimation non-paramétrique par noyau de la densité de probabilité. Dans cette thèse, nous étudions les paramètres qui influencent les résultats du Mean Shift et nous cherchons à optimiser leur choix. Nous examinons notamment l'effet du bruit et du flou dans l'espace des caractéristiques et comment le Mean Shift doit être paramétrés pour être optimal pour le débruitage et la réduction du flou. Le grand succès du Mean Shift est principalement du au réglage intuitif de ces paramètres de la méthode. Ils représentent l'échelle à laquelle le Mean Shift analyse chacune des caractéristiques. En se basant sur la méthode du Plug In (PI) monodimensionnel, fréquemment utilisé pour le filtrage Mean Shift et permettant, dans le cadre de l'estimation non-paramétrique par noyau, d'approximer le paramètre d'échelle optimal, nous proposons l'utilisation du PI multidimensionnel pour le filtrage Mean Shift. Nous évaluons l'intérêt des matrices d'échelle diagonales et pleines calculées à partir des règles du PI sur des images de synthèses et naturelles. Enfin, nous proposons une méthode de segmentation automatique et volumique combinant le filtrage Mean Shift et la croissance de région ainsi qu'une optimisation basée sur les cartes de probabilité. Cette approche est d'abord étudiée sur des images IRM synthétisées. Des tests sur des données réelles issues d'études sur l'ischémie cérébrale chez le rats et l'humain sont aussi conduits pour déterminer l'efficacité de l'approche à prédire l'évolution de la zone de pénombre plusieurs jours après l'accident vasculaire et ce, à partir des IRM réalisées peu de temps après la survenue de cet accident. Par rapport aux segmentations manuelles réalisées des experts médicaux plusieurs jours après l'accident, les résultats obtenus par notre approche sont mitigés. Alors qu'une segmentation parfaite conduirait à un coefficient DICE de 1, le coefficient est de 0.8 pour l'étude chez le rat et de 0.53 pour l'étude sur l'homme. Toujours en utilisant le coefficient DICE, nous déterminons la combinaison de d'images IRM conduisant à la meilleure prédiction
Medical studies increasingly use multi-modality imaging, producing multidimensional data that bring additional information that are also challenging to process and interpret. As an example, for predicting salvageable tissue, ischemic studies in which combinations of different multiple MRI imaging modalities (DWI, PWI) are used produced more conclusive results than studies made using a single modality. However, the multi-modality approach necessitates the use of more advanced algorithms to perform otherwise regular image processing tasks such as filtering, segmentation and clustering. A robust method for addressing the problems associated with processing data obtained from multi-modality imaging is Mean Shift which is based on feature space analysis and on non-parametric kernel density estimation and can be used for multi-dimensional filtering, segmentation and clustering. In this thesis, we sought to optimize the mean shift process by analyzing the factors that influence it and optimizing its parameters. We examine the effect of noise in processing the feature space and how Mean Shift can be tuned for optimal de-noising and also to reduce blurring. The large success of Mean Shift is mainly due to the intuitive tuning of bandwidth parameters which describe the scale at which features are analyzed. Based on univariate Plug-In (PI) bandwidth selectors of kernel density estimation, we propose the bandwidth matrix estimation method based on multi-variate PI for Mean Shift filtering. We study the interest of using diagonal and full bandwidth matrix with experiment on synthesized and natural images. We propose a new and automatic volume-based segmentation framework which combines Mean Shift filtering and Region Growing segmentation as well as Probability Map optimization. The framework is developed using synthesized MRI images as test data and yielded a perfect segmentation with DICE similarity measurement values reaching the highest value of 1. Testing is then extended to real MRI data obtained from animals and patients with the aim of predicting the evolution of the ischemic penumbra several days following the onset of ischemia using only information obtained from the very first scan. The results obtained are an average DICE of 0.8 for the animal MRI image scans and 0.53 for the patients MRI image scans; the reference images for both cases are manually segmented by a team of expert medical staff. In addition, the most relevant combination of parameters for the MRI modalities is determined
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography