Dissertations / Theses on the topic 'Detection et segmentation des lignes'

To see the other types of publications on this topic, follow the link: Detection et segmentation des lignes.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 35 dissertations / theses for your research on the topic 'Detection et segmentation des lignes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : applications aux documents arabes." Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN23001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabes anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : - Application d'un maillage automatique en utilisant le modèle de contour actif (snake). - Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. - Application de quelques règles d'extension pour trouver les zones. - Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. - Séparation de lignes se chevauchant et se connectant en utilisant la morphologie des lettres terminales arabes
The indexing of handwritten scanned documents poses the problem of lines segmentation, if it fails, disabling the following steps of words extraction and recognition. In addition, the ancient Arabic documents contain annotations in the margins, often composed of lines obliquely oriented. The detection of these lines is important as the rest and is a major challenge for the indexing of these documents. Thus, the segmentation described in this thesis involves the extraction of multi-oriented lines. For this problem, the bibliography has only rudimentary techniques based essentially on the projection of the document image along one direction, which be failed in the case of multi-oriented documents. Given this lack, we have proposed an adaptive approach that first locates the different orientation zones, then based on each local orientation to extract the lines. During my thesis, i particularly invested on the following points : - Applying an automatic paving using the active contour model (snake). - Preparation the signal of the projection profile by removing all pixels that are not needed in the orientation estimation. Then, implementation of all energy distributions of Cohen's class on the projection profile to find the best distribution that gives the orientation. - Applying some extension rules to find the oriented zones. - Extraction of lines by using an connected components follow-up algorithm. - Separation of overlapped and touched lines using the morphology of Arabic terminal letters
2

Cousty, Jean. "Lignes de partage des eaux discrètes : théorie et application à la segmentation d'images cardiaques." Phd thesis, Université de Marne la Vallée, 2007. http://tel.archives-ouvertes.fr/tel-00321885.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La notion de clivage formalise l'idée d'ensemble frontiére dans un graphe. Fusionner deux régions, comme le requièrent certaines méthodes de segmentation d'images, pose des diffIcultés. Nous introduisons quatre classes de graphes (de fusion) dans lesquels ces diffIcultés sont progressivement supprimées. Nous montrons que l'une de ces classes est celle pour laquelle tout clivage est mince. Nous introduisons une relation d'adjacence, appelée grille de fusion parfaite, dans laquelle deux régions voisines peuvent être fusionnées, en préservant toutes les autres régions.

La ligne de partage des eaux topologique (LPE) étend la notion de clivage aux graphes dont les sommets sont valués et permet de segmenter une image. Nous étendons les propriétés des clivages dans les graphes de fusion aux cas des fonctions et proposons un algorithme de LPE
monotone et linéaire dans les grilles de fusion parfaites. Grâce à la notion de graphe d'arêtes, les propriétés des LPE dans les grilles de fusion parfaites s'étendent aux graphes à arêtes valuées.

Nous étudions en profondeur les LPE dans les graphes à arêtes valuées. Les LPE peuvent y être définies en suivant l'idée intuitive de gouttes d'eau s'écoulant sur un relief topographique. Nous établissons aussi bien la consistance que l'optimalité de cette définition. De plus, nous proposons deux algorithmes linéaires qui, à notre connaissance, sont les plus efficaces pour le calcul des LPE.

En nous reposant sur ces résultats théoriques, nous proposons une méthode et développons un logiciel pour la segmentation du ventricule gauche dans des images cardiaques 3D+t par résonance magnétique. La méthode est quantitativement et qualitativement validée par comparaison avec des segmentations manuelles tracées par deux experts cardiologues.
3

Odobez, Jean-Marc. "Estimation, detection et segmentation du mouvement : une approche robuste et markovienne." Rennes 1, 1994. http://www.theses.fr/1994REN10207.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these traite de la detection et de la localisation d'objets en mouvement dans une sequence d'images acquises par une camera mobile. Nous motivons tout d'abord l'interet du probleme et rappelons diverses methodes existantes proposees pour le resoudre. L'approche que nous avons retenue pour la detection consiste a reconstruire dans un premier temps une sequence d'images, dans laquelle le deplacement apparent dans l'image induit par le mouvement de la camera a ete compense. Pour cela, nous supposons que ce deplacement peut etre decrit par un modele parametrique 2d. Le troisieme chapitre de ce memoire presente la methode robuste et multiresolution que nous avons developpee, qui permet d'estimer ce modele de mouvement parametre (dominant) dans l'image sans etre affecte par la presence d'autres mouvements (ceux des objets mobiles notamment). Le probleme pose se ramene alors a la detection des zones mal compensees dans la sequence ainsi reconstruite. Dans le chapitre quatre, nous definissons des mesures de compensation du mouvement adaptees a ce probleme. Ces mesures et leur fiabilite, calculees a differents instants, ainsi que la carte de detection a l'instant precedent, sont prises en compte au sein d'une regularisation statistique basee sur des modeles de markov multiechelles. L'algorithme que nous avons defini est relativement rapide et permet d'obtenir d'excellents resultats dans des situations complexes. Dans le chapitre cinq, l'algorithme de detection (binaire) precedent est etendu a la segmentation (gestion de n etiquettes) du mouvement dans une sequence d'images. Le schema complet que nous avons defini permet notamment de s'adapter au contenu dynamique de la scene, en creant de nouvelles regions lors de l'apparition de nouveaux objets dans la scene ou lorsque le mouvement d'une region donnee devient plus complexe
4

PENG, ANRONG. "Segmentation statistique non supervisee d'images et detection de contours par filtrage." Compiègne, 1992. http://www.theses.fr/1992COMP0512.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à deux catégories de méthodes de la segmentation d'images: la segmentation statistique non supervisée et la détection de contours par filtrage. Les contributions de ce travail reposent sur les études des deux familles de méthodes en soi et sur leur mise en parallèle. Dans la première partie, nous abordons la segmentation Bayesienne non supervisée. Des algorithmes d'estimation préalable à la segmentation contextuelle, tels que EM, ICE, SEM, sont étudiés. Puis ces estimateurs valables dans les champs stationnaires sont adaptés aux champs non stationnaires. En levant l'hypothèse de stationnarité pour le champ de classes, les segmentations contextuelles donnent des résultats nettement meilleurs dans certains cas. Après une application de diverses combinaisons des estimateurs et des segmentations à des images différemment bruitées, nous menons une comparaison des performances des estimateurs suivant des caractéristiques du bruit. Une étude de la robustesse de la segmentation contextuelle est effectuée, ce qui est utile pour le choix d'un estimateur, ainsi que pour la définition d'un compromis entre la précision de l'estimation et le temps de calcul. La deuxième partie est consacrée à la détection de contours par filtrage. Une définition des contours utilisant l'ordre de discontinuité est d'abord proposée. La méthodologie de la détection de contours d'ordre 0 (contour échelon) est généralisée aux contours de discontinuité d'ordre quelconque. Le problème de la détection de contours est ainsi réduit à la recherche d'un filtre de lissage optimal dont la forme joue un rôle important. L'accent est donc mis sur l'étude des formes de filtres de lissage existants. Un exemple de cette généralisation, la détection du contour rampe, est appliquée aux images simulées et images réelles. La troisième partie est consacrée à la mise en parallèle des deux familles de méthodes. Après une étude sur leurs profils différents et points communs du point de vue théorique, l'objectif principal est la comparaison de la qualité, tant visuelle que selon des critères objectifs, des contours obtenus par deux familles de méthodes. Les comparaisons sont effectuées également au sein d'une même famille. Des algorithmes d'estimation, ICE stationnaire et ICE non stationnaire, combinés avec les méthodes de segmentation, telles que aveugle et contextuelle, sont choisis comme représentants de la première famille. Le filtre de Shen est choisi comme représentant de la deuxième famille. Cette étude met en lumière les différences de comportement des deux familles de méthodes, et peut ainsi servir à la décision quant au choix de la méthode la plus appropriée en fonction de propriétés objectives des images.
5

Migniot, Cyrille. "Segmentation de personnes dans les images et les vidéos." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00677592.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation de personnes dans les images et les vidéos est une problématique actuellement au coeur de nombreux travaux. Nous nous intéressons à la segmentation de personnes debout. Pour cela, nous avons mis au point deux méthodes originales : La première est une continuation d'une méthode de détection efficace. On réalise une pré-segmentation en associant aux segments de contour de l'image une valeur de vraisemblance en tant qu'élément d'une silhouette humaine par une combinaison d'histogrammes de gradients orientés (HOG) et de machines à vecteurs de support (SVM) prises à l'échelle des ces segments. Une recherche d'arbre optimal dans un graphe intégrant les données de la pré-segmentation permet de reconstruire la silhouette de la personne. Enfin, une utilisation itérative de ce processus permet d'en améliorer la performance. La seconde méthode prend en compte l'interaction de l'utilisateur pour une image. Une coupe de graphe est guidée par un gabarit non binaire représentant une silhouette humaine. Nous proposons également un gabarit par parties pour s'adapter à la posture de la personne. Nous avons enfin transposé cette méthode à la segmentation de vidéos et la réalisation automatique de trimaps.
6

Sekkal, Rafiq. "Techniques visuelles pour la détection et le suivi d’objets 2D." Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0032/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, le traitement et l’analyse d’images trouvent leur application dans de nombreux domaines. Dans le cas de la navigation d’un robot mobile (fauteuil roulant) en milieu intérieur, l’extraction de repères visuels et leur suivi constituent une étape importante pour la réalisation de tâches robotiques (localisation, planification, etc.). En particulier, afin de réaliser une tâche de franchissement de portes, il est indispensable de détecter et suivre automatiquement toutes les portes qui existent dans l’environnement. La détection des portes n’est pas une tâche facile : la variation de l’état des portes (ouvertes ou fermées), leur apparence (de même couleur ou de couleur différentes des murs) et leur position par rapport à la caméra influe sur la robustesse du système. D’autre part, des tâches comme la détection des zones navigables ou l’évitement d’obstacles peuvent faire appel à des représentations enrichies par une sémantique adaptée afin d’interpréter le contenu de la scène. Pour cela, les techniques de segmentation permettent d’extraire des régions pseudo-sémantiques de l’image en fonction de plusieurs critères (couleur, gradient, texture…). En ajoutant la dimension temporelle, les régions sont alors suivies à travers des algorithmes de segmentation spatio-temporelle. Dans cette thèse, des contributions répondant aux besoins cités sont présentées. Tout d’abord, une technique de détection et de suivi de portes dans un environnement de type couloir est proposée : basée sur des descripteurs géométriques dédiés, la solution offre de bons résultats. Ensuite, une technique originale de segmentation multirésolution et hiérarchique permet d’extraire une représentation en régions pseudosémantique. Enfin, cette technique est étendue pour les séquences vidéo afin de permettre le suivi des régions à travers le suivi de leurs contours. La qualité des résultats est démontrée et s’applique notamment au cas de vidéos de couloir
Nowadays, image processing remains a very important step in different fields of applications. In an indoor environment, for a navigation system related to a mobile robot (electrical wheelchair), visual information detection and tracking is crucial to perform robotic tasks (localization, planning…). In particular, when considering passing door task, it is essential to be able to detect and track automatically all the doors that belong to the environment. Door detection is not an obvious task: the variations related to the door status (open or closed), their appearance (e.g. same color as the walls) and their relative position to the camera have influence on the results. On the other hand, tasks such as the detection of navigable areas or obstacle avoidance may involve a dedicated semantic representation to interpret the content of the scene. Segmentation techniques are then used to extract pseudosemantic regions based on several criteria (color, gradient, texture...). When adding the temporal dimension, the regions are tracked then using spatiotemporal segmentation algorithms. In this thesis, we first present joint door detection and tracking technique in a corridor environment: based on dedicated geometrical features, the proposed solution offers interesting results. Then, we present an original joint hierarchical and multiresolution segmentation framework able to extract a pseudo-semantic region representation. Finally, this technique is extended to video sequences to allow the tracking of regions along image sequences. Based on contour motion extraction, this solution has shown relevant results that can be successfully applied to corridor videos
7

LIAO, QINGMIN. "Detection de contours et segmentation d'images : applications a la teledetection et a la biologie marine." Rennes 1, 1994. http://www.theses.fr/1994REN10183.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de cette these, nous avons developpe une methode de detection de contours et une methode de segmentation d'images afin d'aboutir a une meilleure interpretation des images. La premiere methode permet une localisation precise et une detection de contours insensible au bruit. La precision de la localisation a ete obtenue en agrandissant le support de l'image. Pour reduire l'influence du bruit, un indice de confiance du contour tenant compte de la regularite de la surface locale et de certains criteres lies a la perception visuelle a ete etabli. La methode de segmentation basee sur une cooperation contour-region est effectuee en deux etapes: fermeture de contours et classification de parcelles. Trois methodes de modelisation de textures ont ete mises au point et testees lors de la phase de la classification. Deux applications ont ete etudiees. La premiere consiste a identifier des plantations forestieres dans une image satellitaire. Ceci a ete realise par notre approche de segmentation. La deuxieme application portait sur la classification de differentes categories d'ufs de poissons et sur l'identification de leurs stades de croissance. Pour cela, les structures biologiques significatives ont ete tout d'abord detectees ; ensuite, les parametres pertinents ont ete extraits ; enfin, les ufs de poissons ont ete identifies selon des criteres biologiques. Les methodes developpees permettent donc d'analyser les images provenant de differents types de sources et d'ameliorer considerablement les resultats de detection de contours et de segmentation d'images
8

Gresson, Régis. "Segmentation et reconstruction tridimensionnelle du foyer de microcalcifications mammaires." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL108N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire traitent de la segmentation et de la reconstruction tridimensionnelle du foyer de microcalcifications mammaires. Ces travaux sont scindés en deux parties. La première partie a été consacrée à la détermination d'une méthode automatique de détection et de segmentation des microcalcifications. Nous avons évalué et testé les principales méthodes de segmentation répertoriées dans la littérature (le filtrage de chan, la morphologie mathématique en niveaux de gris, la méthode par hystérésis, les méthodes fractales (classique et par les ondelettes) et la technique de multirésolution (analyse pyramidale). L'appréciation des méthodes s'est faite en fonction de quatre critères qualitatifs déterminants, à savoir : la forme et la taille du foyer, le nombre et la position des microcalcifications. Cette étude nous a permis de proposer une méthode donnant de bons résultats (92% de bonnes détections, 8% de faux négatifs et 15% de faux positifs). La deuxième partie a été consacrée à la reconstruction 3D du foyer de microcalcifications nous avons décomposé la résolution du problème en trois phases : la calibration du système de vision, la recherche de primitives de mise en correspondance des microcalcifications, et enfin la reconstruction 3D en elle même. La méthode de reconstruction 3D est basée sur la contrainte de la ligne épipolaire. Les ambigüités de positionnement ont été levées par l'utilisation de rapports de surface des microcalcifications et par l'utilisation de trois radiographies. Les résultats obtenus en reconstruction tridimensionnelle sont encourageants, car malgré un matériel de qualité discutable, nous arrivons à reconstruire le foyer avec une assez bonne précision. Nous obtenons une précision relative de 10% en x, 3% en y et de 0,5% en z. Seule l'imprécision absolue en z atteint des valeurs élevées (20%), cette imprécision n'est pas gênante puisqu'elle n'influe pas sur la forme du foyer reconstruit.
9

SADKI, MUSTAPHA. "Detection et segmentation d'objets d'interet en imagerie 2d et 3d par classification automatique des pixels et optimisation sous contraintes geometriques de contours deformables." Université Louis Pasteur (Strasbourg) (1971-2008), 1997. http://www.theses.fr/1997STR13270.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these propose une methodologie et des algorithmes de detection et de segmentation d'objets d'interet par classification automatique des pixels et optimisation sous contraintes geometriques de contours deformables, qui ont ete appliques avec succes a la detection d'anomalies en imagerie mammographique, a l'extraction automatique de stenoses dans des images tomodensitometriques 3d et a l'extraction de franges dans des images de moire inverse pour la saisie de formes 3d dans le domaine de la metrologie. Du point de vue de l'analyse d'images, l'objectif est de montrer qu'il est possible de resoudre ces problemes de vision par ordinateur, sans introduire de considerations avancees ou de connaissances specifiques du domaine d'application considere, aussi bien dans le cas de la mammographie et de la tomodensitometrique que dans celui de la saisie de formes 3d par moire, en les traitant comme des problemes de perception visuelle humaine simulables par des algorithmes de traitement d'images et d'analyse de donnees multidimensionnelles. C'est grace a cette propriete d'independance par rapport au domaine d'application que les algorithmes presentes dans cette these ont ete utilises avec succes aussi bien en imagerie mammographique, qu'en tomodensitometrique 3d par scanner x ou en metrologie de formes 3d par analyse d'images de moire inverse.
10

Bonakdar, Sakhi Omid. "Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00912566.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
11

Urien, Hélène. "Détection et segmentation de lésions dans des images cérébrales TEP-IRM." Thesis, Paris, ENST, 2018. http://www.theses.fr/2018ENST0004/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’essor récent de l’imagerie hybride combinant la Tomographie par Emission de Positons (TEP) à l’Imagerie par Résonance Magnétique (IRM) est une opportunité permettant d’exploiter des images d’un même territoire anatomo-pathologique obtenues simultanément et apportant des informations complémentaires. Cela représente aussi un véritable défi en raison de la différence de nature et de résolution spatiale des données acquises. Cette nouvelle technologie offre notamment des perspectives attrayantes en oncologie, et plus particulièrement en neuro-oncologie grâce au contraste qu’offre l’image IRM entre les tissus mous. Dans ce contexte et dans le cadre du projet PIM (Physique et Ingénierie pour la Médecine) de l’Université Paris-Saclay, l’objectif de cette thèse a été de développer un processus de segmentation multimodale adapté aux images TEP et IRM, comprenant une méthode de détection des volumes tumoraux en TEP et IRM, et une technique de segmentation précise du volume tumoral IRM. Ce processus doit être suffisamment générique pour s’appliquer à diverses pathologies cérébrales, différentes par leur nature même et par l’application clinique considérée. La première partie de la thèse aborde la détection de tumeurs par une approche hiérarchique. Plus précisément, la méthode de détection, réalisée sur les images IRM ou TEP, repose sur la création d’un nouveau critère de contexte spatial permettant de sélectionner les lésions potentielles par filtrage d’une représentation de l’image par max-tree. La deuxième partie de la thèse concerne la segmentation du volume tumoral sur les images IRM par une méthode variationnelle par ensembles de niveaux. La méthode de segmentation développée repose sur la minimisation d’une énergie globalement convexe associée à une partition d’une image RM en régions homogènes guidée par des informations de la TEP. Enfin, une dernière partie étend les méthodes proposées précédemment à l’imagerie multimodale IRM, notamment dans le cadre de suivi longitudinal. Les méthodes développées ont été testées sur plusieurs bases de données, chacune correspondant à une pathologie cérébrale et un radiotraceur TEP distincts. Les données TEP-IRM disponibles comprennent, d’une part, des examens de méningiomes et de gliomes acquis sur des machines séparées, et d’autre part, des examens réalisés sur le scanner hybride du Service Hospitalier Frédéric Joliot d’Orsay dans le cadre de recherches de tumeurs cérébrales. La méthode de détection développée a aussi été adaptée à l’imagerie multimodale IRM pour la recherche de lésions de sclérose en plaques ou le suivi longitudinal. Les résultats obtenus montrent que la méthode développée, reposant sur un socle générique, mais étant aussi modulable à travers le choix de paramètres, peut s’adapter à diverses applications cliniques. Par exemple, la qualité de la segmentation des images issues de la machine combinée a été mesurée par le coefficient de Dice, la distance de Hausdorff (DH) et la distance moyenne (DM), en prenant comme référence une segmentation manuelle de la tumeur validée par un expert médical. Les résultats expérimentaux sur ces données montrent que la méthode détecte les lésions visibles à la fois sur les images TEP et IRM, et que la segmentation contoure correctement la lésion (Dice, DH et DM valant respectivement 0, 85 ± 0, 09, 7, 28 ± 5, 42 mm et 0, 72 ± 0, 36mm)
The recent development of hybrid imaging combining Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) is an opportunity to exploit images of a same structure obtained simultaneously and providing complementary information. This also represents a real challenge due to the difference of nature and voxel size of the images. This new technology offers attractive prospects in oncology, and more precisely in neuro-oncology thanks to the contrast between the soft tissues provided by the MRI images. In this context, and as part of the PIM (Physics in Medicine) project of Paris-Saclay University, the goal of this thesis was to develop a multimodal segmentation pipeline adapted to PET and MRI images, including a tumor detection method in PET and MRI, and a segmentation method of the tumor in MRI. This process must be generic to be applied to multiple brain pathologies, of different nature, and for different clinical application. The first part of the thesis focuses on tumor detection using a hierarchical approach. More precisely, the detection method uses a new spatial context criterion applied on a max-tree representation of the MRI and PET images to select potential lesions. The second part presents a MRI tumor segmentation method using a variational approach. This method minimizes a globally convex energy function guided by PET information. Finally, the third part proposes an extension of the detection and segmentation methods developed previously to MRI multimodal segmentation, and also to longitudinal follow-up. The detection and segmentation methods were tested on images from several data bases, each of them standing for a specific brain pathology and PET radiotracer. The dataset used for PET-MRI detection and segmentation is composed of PET and MRI images of gliomas and meningiomas acquired from different systems, and images of brain lesions acquired on the hybrid PET-MRI system of Frédéric Joliot Hospital at Orsay. The detection method was also adapted to multimodal MRI imaging to detect multiple sclerosis lesions and follow-up studies. The results show that the proposed method, characterized by a generic approach using flexible parameters, can be adapted to multiple clinical applications. For example, the quality of the segmentation of images from the hybrid PET-MR system was assessed using the Dice coefficient, the Hausdorff distance (HD) and the average distance (AD) to a manual segmentation of the tumor validated by a medical expert. Experimental results on these datasets show that lesions visible on both PET and MR images are detected, and that the segmentation delineates precisely the tumor contours (Dice, HD and MD values of 0.85 ± 0.09, 7.28 ± 5.42 mm and 0.72 ± 0.36mm respectively)
12

Spinu, Corneliu. "Une approche multi-agents pour la segmentation d'images associant estimation et évaluation." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Etant donné son importance et sa difficulté, la segmentation d'images est actuellement un des domaines les plus étudiés en analyse d'images. Un grand nombre d'opérateurs de segmentation ont été développés et sont décrits dans la littérature. Malgré la complexité de certains de ces opérateurs, des études comparatives récentes nous montrent qu'il n'y a aucune technique qui se détache pour prétendre le titre de ″la meilleure méthode″. Il se pose alors un problème de choix de l'opérateur à appliquer en fonction d'une variété d'informations que l'on va regrouper sous le nom de contexte (nature et caractéristiques de l'image, primitives à extraire, contraintes d'exploitation). Dans cette thèse, on propose une méthode générale pour la détection de contours vue comme un problème d'adaptation des opérateurs. L'adaptation est définie comme un problème de sélection d'un enchaînement d'opérateurs (prétraitement, détection de contours, post-traitement) approprié ainsi que le réglage des paramètres de ces opérateurs, en fonction du contexte de la segmentation. L'estimation des caractéristiques de l'image (comme le bruit, la texture, le contraste, le modèle des contours) et l'évaluation de la qualité du résultat jouent un rôle important dans le cadre de cette méthode. Plusieurs approches algorithmiques sont proposées, combinant différents types et techniques d'adaptation : adaptation a priori/a posteriori, adaptation globale/locale, adaptation heuristique/par optimisation. Ces différentes approches sont illustrées et validées d'une façon expérimentale sur des images artificielles et réelles. Une implantation multi-agents de la méthode est également proposée, en utilisant COALA, une plate-forme de développement des systèmes multi-agents. Deux architectures multi-agents sont présentées, pour implanter deux approches différentes de la méthode : une approche heuristique et une approche par optimisation
13

Lemaitre, Cedric. "DEFINITION ET ETUDE DES PERFORMANCES D'UN DETECTEUR DE STRUCTURES CURVILINEAIRES. APPLICATION A LA STEREOSCOPIE ET LA DETECTION D'OBJETS FILAIRES." Phd thesis, Université de Bourgogne, 2008. http://tel.archives-ouvertes.fr/tel-00603569.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce manuscrit s'inscrivent dans le contexte de la mise en correspondance. En effet nous montrons l'intérêt de régions spécifiques, les régions curvilinéaires, dans le cadre des applications de mise en correspondances. Dans cette optique, nous avons développé un détecteur spécifique aux régions curvilinéaires. De plus afin de réaliser la mise en correspondance des régions, un descripteur spécifique aux régions curvilinéaires a été développé. L'évaluation du descripteur a été réalisée en deux temps. Dans un premier temps, nous avons étudié et comparé les performances de segmentation du détecteur de régions curvilinéaires, notamment dans le contexte de la segmentation des veines de la rétine. Dans un second temps, les performances du détecteur (associés à son descripteur spécifique) en termes de mise en correspondance ont été évaluées. Cette étude a été menée en utilisant la méthode de K. Mikolajczyk, cette méthodologie permet d'obtenir à la fois les performances globales du détecteur mais de le comparer avec des détecteurs dit " standards ". Les applications présentées au sein de ce manuscrit sont, elles aussi, de deux types. Dans un premier temps, nous présentons deux applications de segmentation qui sont : la détection de cordon de colle sur les culasses de moteur avant assemblage ainsi que la détection de l'aorte dans des coupes sagittales effectuées à l'aide d'imageur IRM. Le second type d'application est les applications de mise en correspondances. Dans ce champ d'application, nous avons proposés l'estimation automatique d'homographie.
14

Thakkar, Chintan. "Ventricle slice detection in MRI images using Hough Transform and Object Matching techniques." [Tampa, Fla] : University of South Florida, 2006. http://purl.fcla.edu/usf/dc/et/SFE0001815.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Moukadem, Ali. "Segmentation et classification des signaux non-stationnaires : application au traitement des sons cardiaque et à l'aide au diagnostic." Phd thesis, Université de Haute Alsace - Mulhouse, 2011. http://tel.archives-ouvertes.fr/tel-00713820.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse dans le domaine du traitement des signaux non-stationnaires, appliqué aux bruits du cœur mesurés avec un stéthoscope numérique, vise à concevoir un outil automatisé et " intelligent ", permettant aux médecins de disposer d'une source d'information supplémentaire à celle du stéthoscope traditionnel. Une première étape dans l'analyse des signaux du cœur, consiste à localiser le premier et le deuxième son cardiaque (S1 et S2) afin de le segmenter en quatre parties : S1, systole, S2 et diastole. Plusieurs méthodes de localisation des sons cardiaques existent déjà dans la littérature. Une étude comparative entre les méthodes les plus pertinentes est réalisée et deux nouvelles méthodes basées sur la transformation temps-fréquence de Stockwell sont proposées. La première méthode, nommée SRBF, utilise des descripteurs issus du domaine temps-fréquence comme vecteur d'entré au réseau de neurones RBF qui génère l'enveloppe d'amplitude du signal cardiaque, la deuxième méthode, nommée SSE, calcule l'énergie de Shannon du spectre local obtenu par la transformée en S. Ensuite, une phase de détection des extrémités (onset, ending) est nécessaire. Une méthode d'extraction des signaux S1 et S2, basée sur la transformée en S optimisée, est discutée et comparée avec les différentes approches qui existent dans la littérature. Concernant la classification des signaux cardiaques, les méthodes décrites dans la littérature pour classifier S1 et S2, se basent sur des critères temporels (durée de systole et diastole) qui ne seront plus valables dans plusieurs cas pathologiques comme par exemple la tachycardie sévère. Un nouveau descripteur issu du domaine temps-fréquence est évalué et validé pour discriminer S1 de S2. Ensuite, une nouvelle méthode de génération des attributs, basée sur la décomposition modale empirique (EMD) est proposée.Des descripteurs non-linéaires sont également testés, dans le but de classifier des sons cardiaques normaux et sons pathologiques en présence des souffles systoliques. Des outils de traitement et de reconnaissance des signaux non-stationnaires basés sur des caractéristiques morphologique, temps-fréquences et non linéaire du signal, ont été explorés au cours de ce projet de thèse afin de proposer un module d'aide au diagnostic, qui ne nécessite pas d'information à priori sur le sujet traité, robuste vis à vis du bruit et applicable dans des conditions cliniques.
16

Tayyab, Muhammad. "Segmentation and Contrasting in Different Biomedical Imaging Applications." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00747430.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Advancement in Image Acquisition Equipment and progress in Image Processing Methods have brought the mathematicians and computer scientists into areas which are of huge importance for physicians and biologists. Early diagnosis of diseases like blindness, cancer and digestive problems have been areas of interest in medicine. Development of Laser Photon Microscopy and other advanced equipment already provides a good idea of very interesting characteristics of the object being viewed. Still certain images are not suitable to extract sufficient information out of that image. Image Processing methods have been providing good support to provide useful information about the objects of interest in these biological images. Fast computational methods allow complete analysis, in a very short time, of a series of images, providing a reasonably good idea about the desired characteristics. The thesis covers application of these methods in 3 series of images intended for 3 different types of diagnosis or inference. Firstly, Images of RP-mutated retina were treated for detection of rods, where there were no cones present. The software was able to detect and count the number of cones in each frame. Secondly, a gastrulation process in drosophila was studied to observe any mitosis and results were consistent with recent research. Finally, another series of images were treated where biological cells were observed to undergo mitosis. The source was a video from a photon laser microscope. In this video, objects of interest were biological cells. The idea was to track the cells if they undergo mitosis. Cell position, spacing and sometimes contour of the cell membrane are broadly the factors limiting the accuracy in this video. Appropriate method of image enhancement and segmentation were chosen to develop a computational method to observe this mitosis. Cases where human intervention may be required have been proposed to eliminate any false inference.
17

Liévin, Marc. "Analyse entropico-logarithmique de séquences vidéo couleur : application a la segmentation et au suivi de visages parlants." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces dernieres annees ont vu un renforcement dans l'interet porte a la representation de visages parlants de syntheses. Les applications d'un tel systeme sont nombreuses et pas encore totalement definies : visiophonie, compression mpeg, clone-assistant de synthese, aide aux personnes handicapees cependant, alors que les methodes de synthese de visage sont de plus en plus fideles, le traitement d'image n'est pas actuellement en mesure de proposer des methodes robustes et de bonne qualite en analyse de visage. Ce travail de recherche porte donc sur l'analyse et l'extraction de parametres geometriques du visage. L'approche retenue considere une premiere segmentation couleur spatio-temporelle de la sequence du locuteur, localise et mesure ensuite sur le visage des caracteristiques geometriques. En raison des conditions de prise de vues non supervisees sur le locuteur ou l'eclairage (webcam, sequence televisee), un espace logarithmique couleur particulier et une approche par seuillage entropique du mouvement ont ete developpes. Par la suite, une segmentation hierarchique par champs de markov combine informations de teinte et de mouvement dans un voisinage spatio-temporel approprie. Les differentes regions du visage sont ainsi extraites automatiquement. Finalement, la qualite des resultats obtenus autorise l'extraction et le suivi du visage dans un scene, le suivi et la mesure geometrique du contour de zones faciales telles que les levres ou les yeux par contours actifs.
18

Zéboudj, Rachid. "Filtrage, seuillage automatique, contraste et contours : du pré-traitement à l'analyse d'image." Saint-Etienne, 1988. http://www.theses.fr/1988STET4001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Etude de quelques aspects du traitement et de l'analyse d'image : présentation d'un lissage adaptatif mettant en évidence les régions qui composent une image; introduction de la notion de contraste utile en seuillage d'image; segmentation d'image; techniques d'extraction d'information par seuillage d'image et détection de contours; classification de formes utilisant la courbure
19

Martin, Matthieu. "Reconstruction 3D de données échographiques du cerveau du prématuré et segmentation des ventricules cérébraux et thalami par apprentissage supervisé." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Environ 15 millions d’enfants naissent prématurément chaque année dans le monde. Ces patients peuvent présenter des anomalies du développement cérébral qui peuvent causer des troubles du neuro-développement : paralysie cérébrale, surdité, cécité, retard du développement intellectuel, … Des études ont montrées que la quantification du volume des structures cérébrales est un bon indicateur qui permet de réduire ces risques et de les pronostiquer pour orienter les patients dans des parcours de soins adaptés pendant l’enfance. Cette thèse a pour objectif de montrer que l’échographie 3D pourrait être une alternative à l’IRM qui permettrait de quantifier le volume des structures cérébrales chez 100 % des prématurés. Ce travail se focalise plus particulièrement sur la segmentation des ventricules latéraux (VL) et des Thalami, il apporte trois contributions principales : le développement d’un algorithme de création de données échographiques 3D à partir d’échographie transfontanellaire 2D du cerveau du prématuré, la segmentation des ventricules latéraux et des thalami dans un temps clinique et l’apprentissage par des réseaux de neurones convolutionnels (CNN) de la position anatomique des ventricules latéraux. En outre, nous avons créé plusieurs bases de données annotées en partenariat avec le CH d’Avignon. L’algorithme de création de données échographiques 3D a été validé in-vivo où une précision de 0.69 ± 0.14 mm a été obtenue sur le corps calleux. Les VL et les thalami ont été segmentés par apprentissage profond avec l’architecture V-net. Les segmentations ont été réalisées en quelques secondes par ce CNN et des Dice respectifs de 0.828 ± 0.044 et de 0.891 ± 0.016 ont été obtenus. L’apprentissage de la position anatomique des VL a été réalisée via un CPPN (Compositional Pattern Producing Network), elle a permis d’améliorer significativement la précision de V-net lorsqu’il était composé de peu de couches, faisant passer le Dice de 0.524 ± 0.076 à 0.724 ± 0.107 dans le cas d’un réseau V-net à 7 couches. Cette thèse montre qu’il est possible de segmenter automatiquement, avec précision et dans un temps clinique, des structures cérébrales de l’enfant prématuré dans des données échographiques 3D. Cela montre qu’une échographie 3D de haute qualité pourrait être utilisée en routine clinique pour quantifier le volume des structures cérébrales et ouvre la voie aux études d’évaluation de son bénéfice pour les patients
About 15 million children are born prematurely each year worldwide. These patients are likely to suffer from brain abnormalities that can cause neurodevelopmental disorders: cerebral palsy, deafness, blindness, intellectual development delay, … Studies have shown that the volume of brain structures is a good indicator which enables to reduce and predict these risks in order to guide patients through appropriate care pathways during childhood. This thesis aims to show that 3D ultrasound could be an alternative to MRI that would enable to quantify the volume of brain structures in all premature infants. This work focuses more particularly on the segmentation of the lateral ventricles (VL) and thalami. Its four main contributions are: the development of an algorithm which enables to create 3D ultrasound data from 2D transfontanellar ultrasound of the premature brain, the segmentation of thigh quality he lateral ventricles and thalami in clinical time and the learning by a convolutional neural networks (CNN) of the anatomical position of the lateral ventricles. In addition, we have created several annotated databases in partnership with the CH of Avignon. Our reconstruction algorithm was used to reconstruct 25 high-quality ultrasound volumes. It was validated in-vivo where an accuracy 0.69 ± 0.14 mm was obtained on the corpus callosum. The best segmentation results were obtained with the V-net, a 3D CNN, which segmented the CVS and the thalami with respective Dice of 0.828± 0.044 and 0.891±0.016 in a few seconds. Learning the anatomical position of the CVS was achieved by integrating a CPPN (Compositional Pattern Producing Network) into the CNNs. It significantly improved the accuracy of CNNs when they had few layers. For example, in the case of the 7-layer V-net network, the Dice has increased from 0.524± 0.076 to 0.724±0.107. This thesis shows that it is possible to automatically segment brain structures of the premature infant into 3D ultrasound data with precision and in a clinical time. This proves that high quality 3D ultrasound could be used in clinical routine to quantify the volume of brain structures and paves the way for studies to evaluate its benefit to patients
20

Petit, Antoine. "Robust visual detection and tracking of complex objects : applications to space autonomous rendez-vous and proximity operations." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00931604.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this thesis, we address the issue of fully localizing a known object through computer vision, using a monocular camera, what is a central problem in robotics. A particular attention is here paid on space robotics applications, with the aims of providing a unified visual localization system for autonomous navigation purposes for space rendezvous and proximity operations. Two main challenges of the problem are tackled: initially detecting the targeted object and then tracking it frame-by-frame, providing the complete pose between the camera and the object, knowing the 3D CAD model of the object. For detection, the pose estimation process is based on the segmentation of the moving object and on an efficient probabilistic edge-based matching and alignment procedure of a set of synthetic views of the object with a sequence of initial images. For the tracking phase, pose estimation is handled through a 3D model-based tracking algorithm, for which we propose three different types of visual features, pertinently representing the object with its edges, its silhouette and with a set of interest points. The reliability of the localization process is evaluated by propagating the uncertainty from the errors of the visual features. This uncertainty besides feeds a linear Kalman filter on the camera velocity parameters. Qualitative and quantitative experiments have been performed on various synthetic and real data, with challenging imaging conditions, showing the efficiency and the benefits of the different contributions, and their compliance with space rendezvous applications.
21

Ziou, Djemel. "La détection de contours dans des images à niveaux de gris : mise en œuvre et sélection de détecteurs." Vandoeuvre-les-Nancy, INPL, 1991. http://docnum.univ-lorraine.fr/public/INPL_T_1991_ZIOU_D.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous nous intéressons particulièrement à la détection de contours dans des images à niveaux de gris. Son objectif principal est la définition d'un critère de sélection des détecteurs de contours et leurs paramètres les plus appropriés pour mettre en évidence un contour donné par un utilisateur. Nous proposons une étude bibliographique approfondie (synthèse, problématique, etc. . . ) et deux détecteurs de contours originaux dont l'un est issu des critères de Canny qui constituent un formalisme récent et reconnu mondialement. Nous présentons ensuite une étude de l'influence des attributs d'un contour et des propriétés mathématiques d'un détecteur sur ses performances. Enfin, nous décrivons le système de sélection de détecteurs de contours et le calcul automatique de leurs paramètres
22

Irshad, Humayun. "Automated Mitosis Detection in Color and Multi-spectral High-Content Images in Histopathology : Application to Breast Cancer Grading in Digital Pathology." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM007/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gradation de lames de biopsie fournit des informations pronostiques essentielles pour le diagnostic et le traitement. La détection et le comptage manuel des mitoses est un travail fastidieux, sujet à des variations inter-et intra- observateur considérables. L'objectif principal de cette thèse de doctorat est le développement d'un système capable de fournir une détection des mitoses sur des images provenant de différents types de scanners rapides automatiques, ainsi que d'un microscope multispectral. L'évaluation des différents systèmes proposés est effectuée dans le cadre du projet MICO (MIcroscopie COgnitive, projet ANR TecSan piloté par notre équipe). Dans ce contexte, les systèmes proposés ont été testés sur les données du benchmark MITOS. En ce qui concerne les images couleur, notre système s'est ainsi classé en deuxième position de ce concours international, selon la valeur du critère F-mesure. Par ailleurs, notre système de détection de mitoses sur images multispectrales surpasse largement les meilleurs résultats obtenus durant le concours
Digital pathology represents one of the major and challenging evolutions in modernmedicine. Pathological exams constitute not only the gold standard in most of medicalprotocols, but also play a critical and legal role in the diagnosis process. Diagnosing adisease after manually analyzing numerous biopsy slides represents a labor-intensive workfor pathologists. Thanks to the recent advances in digital histopathology, the recognitionof histological tissue patterns in a high-content Whole Slide Image (WSI) has the potentialto provide valuable assistance to the pathologist in his daily practice. Histopathologicalclassification and grading of biopsy samples provide valuable prognostic information thatcould be used for diagnosis and treatment support. Nottingham grading system is thestandard for breast cancer grading. It combines three criteria, namely tubule formation(also referenced as glandular architecture), nuclear atypia and mitosis count. Manualdetection and counting of mitosis is tedious and subject to considerable inter- and intrareadervariations. The main goal of this dissertation is the development of a framework ableto provide detection of mitosis on different types of scanners and multispectral microscope.The main contributions of this work are eight fold. First, we present a comprehensivereview on state-of-the-art methodologies in nuclei detection, segmentation and classificationrestricted to two widely available types of image modalities: H&E (HematoxylinEosin) and IHC (Immunohistochemical). Second, we analyse the statistical and morphologicalinformation concerning mitotic cells on different color channels of various colormodels that improve the mitosis detection in color datasets (Aperio and Hamamatsu scanners).Third, we study oversampling methods to increase the number of instances of theminority class (mitosis) by interpolating between several minority class examples that lietogether, which make classification more robust. Fourth, we propose three different methodsfor spectral bands selection including relative spectral absorption of different tissuecomponents, spectral absorption of H&E stains and mRMR (minimum Redundancy MaximumRelevance) technique. Fifth, we compute multispectral spatial features containingpixel, texture and morphological information on selected spectral bands, which leveragediscriminant information for mitosis classification on multispectral dataset. Sixth, we performa comprehensive study on region and patch based features for mitosis classification.Seven, we perform an extensive investigation of classifiers and inference of the best one formitosis classification. Eight, we propose an efficient and generic strategy to explore largeimages like WSI by combining computational geometry tools with a local signal measureof relevance in a dynamic sampling framework.The evaluation of these frameworks is done in MICO (COgnitive MIcroscopy, ANRTecSan project) platform prototyping initiative. We thus tested our proposed frameworks on MITOS international contest dataset initiated by this project. For the color framework,we manage to rank second during the contest. Furthermore, our multispectral frameworkoutperforms significantly the top methods presented during the contest. Finally, ourframeworks allow us reaching the same level of accuracy in mitosis detection on brightlightas multispectral datasets, a promising result on the way to clinical evaluation and routine
23

Yin, Ruiqing. "Steps towards end-to-end neural speaker diarization." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS261/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tâche de segmentation et de regroupement en locuteurs (speaker diarization) consiste à identifier "qui parle quand" dans un flux audio sans connaissance a priori du nombre de locuteurs ou de leur temps de parole respectifs. Les systèmes de segmentation et de regroupement en locuteurs sont généralement construits en combinant quatre étapes principales. Premièrement, les régions ne contenant pas de parole telles que les silences, la musique et le bruit sont supprimées par la détection d'activité vocale (VAD). Ensuite, les régions de parole sont divisées en segments homogènes en locuteur par détection des changements de locuteurs, puis regroupées en fonction de l'identité du locuteur. Enfin, les frontières des tours de parole et leurs étiquettes sont affinées avec une étape de re-segmentation. Dans cette thèse, nous proposons d'aborder ces quatre étapes avec des approches fondées sur les réseaux de neurones. Nous formulons d’abord le problème de la segmentation initiale (détection de l’activité vocale et des changements entre locuteurs) et de la re-segmentation finale sous la forme d’un ensemble de problèmes d’étiquetage de séquence, puis nous les résolvons avec des réseaux neuronaux récurrents de type Bi-LSTM (Bidirectional Long Short-Term Memory). Au stade du regroupement des régions de parole, nous proposons d’utiliser l'algorithme de propagation d'affinité à partir de plongements neuronaux de ces tours de parole dans l'espace vectoriel des locuteurs. Des expériences sur un jeu de données télévisées montrent que le regroupement par propagation d'affinité est plus approprié que le regroupement hiérarchique agglomératif lorsqu'il est appliqué à des plongements neuronaux de locuteurs. La segmentation basée sur les réseaux récurrents et la propagation d'affinité sont également combinées et optimisées conjointement pour former une chaîne de regroupement en locuteurs. Comparé à un système dont les modules sont optimisés indépendamment, la nouvelle chaîne de traitements apporte une amélioration significative. De plus, nous proposons d’améliorer l'estimation de la matrice de similarité par des réseaux neuronaux récurrents, puis d’appliquer un partitionnement spectral à partir de cette matrice de similarité améliorée. Le système proposé atteint des performances à l'état de l'art sur la base de données de conversation téléphonique CALLHOME. Enfin, nous formulons le regroupement des tours de parole en mode séquentiel sous la forme d'une tâche supervisée d’étiquetage de séquence et abordons ce problème avec des réseaux récurrents empilés. Pour mieux comprendre le comportement du système, une analyse basée sur une architecture de codeur-décodeur est proposée. Sur des exemples synthétiques, nos systèmes apportent une amélioration significative par rapport aux méthodes de regroupement traditionnelles
Speaker diarization is the task of determining "who speaks when" in an audio stream that usually contains an unknown amount of speech from an unknown number of speakers. Speaker diarization systems are usually built as the combination of four main stages. First, non-speech regions such as silence, music, and noise are removed by Voice Activity Detection (VAD). Next, speech regions are split into speaker-homogeneous segments by Speaker Change Detection (SCD), later grouped according to the identity of the speaker thanks to unsupervised clustering approaches. Finally, speech turn boundaries and labels are (optionally) refined with a re-segmentation stage. In this thesis, we propose to address these four stages with neural network approaches. We first formulate both the initial segmentation (voice activity detection and speaker change detection) and the final re-segmentation as a set of sequence labeling problems and then address them with Bidirectional Long Short-Term Memory (Bi-LSTM) networks. In the speech turn clustering stage, we propose to use affinity propagation on top of neural speaker embeddings. Experiments on a broadcast TV dataset show that affinity propagation clustering is more suitable than hierarchical agglomerative clustering when applied to neural speaker embeddings. The LSTM-based segmentation and affinity propagation clustering are also combined and jointly optimized to form a speaker diarization pipeline. Compared to the pipeline with independently optimized modules, the new pipeline brings a significant improvement. In addition, we propose to improve the similarity matrix by bidirectional LSTM and then apply spectral clustering on top of the improved similarity matrix. The proposed system achieves state-of-the-art performance in the CALLHOME telephone conversation dataset. Finally, we formulate sequential clustering as a supervised sequence labeling task and address it with stacked RNNs. To better understand its behavior, the analysis is based on a proposed encoder-decoder architecture. Our proposed systems bring a significant improvement compared with traditional clustering methods on toy examples
24

Pinoli, Jean-Charles. "Contribution à la modélisation, au traitement et à l'analyse d'image." Saint-Etienne, 1987. http://www.theses.fr/1987STET4005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Etude du seuillage automatique d'image. Etude des opérateurs Gradient et Laplace. Etude sur la rugosité locale utilisée comme outil pour la segmentation d'image. Etude sur le rehaussement d'image et plus particulièrement sur la suppression de flou dans les images. Traitement des images de nature logarithmique telles les images obtenues en lumière transmise ou celle issue de la vision luminaire. Proposition d'un modèle. La faisabilité industrielle porte sur un problème d'interférométrie automatique en temps réel
25

Ok, David. "Mise en correspondance robuste et détection de modèles visuels appliquées à l'analyse de façades." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00974556.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, souvent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. A partir de cette formalisation, nous en dérivons un algorithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste
26

Tran, Thi Nhu Hoa. "Analyse et modélisation 3D de l’organisation spatiale des tissus dans des images biologiques." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS457.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nombreux travaux ont été menés pour analyser automatiquement des cellules dans des images de microscopie. Néanmoins, ces travaux se concentrent principalement sur l’application de traitement et d’analyse d’images sur des cellules individuelles. Il y a un manque d’un outil générique pour analyser les interactions entre les cellules et leur organisation spatiale au sein de tissus biologiques. De plus, il existe une demande pour une approche qui est plus efficace pour gérer des images de cellules en 3D à haut débit. Car l’étude des cellules dans l’espace tridimensionnel (3D) donne une meilleure impression et est plus réaliste en ce qui concerne les propriétés physiques et biochimiques du micro-environnement des cellules par rapport aux approches bidimensionnelles. Nous avons proposé un ensemble de méthodologies et un outil pour l’analyse de l’organisation des tissus dans des images biologiques. Cette combinaison d’outils logiciels se propose d’algorithmes pour i) l’identification automatique de plusieurs noyaux individuels et ii) des marqueurs cytoplasmiques, iii) prédiction de la position de la membrane cellulaire, et enfin iv) la reconstruction du réseaux cellulaire. Nous avons appliqué notre outil pour étudier l’organisation spatiale de l’îlot de Langerhans en essayant de comprendre son mécanisme interne. Nous avons aussi appliqué notre outil pour explorer la fonction des cellules de type delta cell dans l’îlot, dont le rôle n’est pas encore déterminé. Nous avons introduit une procédure générique pour modéliser l’organisation spatiale des cellules dans un tissu, qui peut être utilisée pour créer des modèles virtuels de tissus et créer des données à tester
Cells within the tissue preferentially form a network that works together to carry out a specific function. Thus, the role of a tissue is affected by its cell types as well as the architecture of cellular interactions. A question is to what degree the spatial organization of these cells affects the function of the tissue. We first propose a set of methodologies to analyze the multi-cellular structure of tissues at both local and global scale. The goal is to analyze, formalize, and model the spatial organization of the tissue captured by fluorescence microscopy images. At the local scale, we investigate the spatial relationship of several structures with both direct and indirect cellular interactions. At the global scale, we apply spatial statistic approaches to investigate the degree of randomness of the cell distribution. In addition, an open source toolbox is developed which allows researchers to perform investigations of the position of different cells within a 3D multicellular structure. We apply the toolbox to study of the spatial organization of the islet of Langerhans, a special kind of tissue that plays an important role in regulating the blood glucose level. With a good segmentation accuracy, we have been able to perform our analysis of the islets of Langerhans on several different species such as mouse and monkey. We also utilize our toolbox to explore the structural-functional mechanism of the delta cell, a specific kind of cell within the islet whose role has not yet been determined, but could potentially influence the islet function, in mouse and human. Our generic toolbox is implemented with unbiased analytical capabilities in software platform ImageJ
27

Pouzet, Mathieu. "Détection et segmentation robustes de cibles mobiles par analyse du mouvement résiduel, à l'aide d'une unique caméra, dans un contexte industriel. Une application à la vidéo-surveillance automatique par drone." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans cette thèse une méthode robuste de détection d’objets mobiles depuis une caméra en mouvement montée sur un vecteur aérien de type drone ou hélicoptère. Nos contraintes industrielles sont particulièrement fortes : robustesse aux grands mouvements de la caméra, robustesse au flou de focus ou de bougé, et précision dans la détection et segmentation des objets mobiles. De même, notre solution doit être optimisée afin de ne pas être trop consommatrice en termes de puissance de calcul. Notre solution consiste en la compensation du mouvement global, résultant du mouvement de la caméra, puis en l’analyse du mouvement résiduel existant entre les images pour détecter et segmenter les cibles mobiles. Ce domaine a été particulièrement exploré dans la littérature, ce qui se traduit par une richesse des méthodes proposées fondamentalement différentes. Après en avoir étudié un certain nombre, nous nous sommes aperçus qu’elles avaient toutes un domaine d’applications restreint, malheureusement incompatible avec nos préoccupations industrielles. Pour pallier à ce problème, nous proposons une méthodologie consistant à analyser les résultats des méthodes de l’état de l’art de manière à en comprendre les avantages et inconvénients de chacune. Puis, des hybridations de ces méthodes sont alors mis en place. Ainsi, nous proposons trois étapes successives : la compensation du mouvement entre deux images successives, l’élaboration d’un arrière plan de la scène afin de pouvoir segmenter de manière correcte les objets mobiles dans l’image et le filtrage de ces détections par confrontation entre le mouvement estimé lors de la première étape et le mouvement résiduel estimé par un algorithme local. La première étape consiste en l’estimation du mouvement global entre deux images à l’aide d’une méthode hybride composée d’un algorithme de minimisation ESM et d’une méthode de mise en correspondance de points d’intérêt Harris. L’approche pyramidale proposée permet d’optimiser les temps de calcul et les estimateursrobustes (M-Estimateur pour l’ESM et RANSAC pour les points d’intérêt) permettent de répondre aux contraintes industrielles. La deuxième étape établit un arrière plan de la scène à l’aide d’une méthode couplant les résultats d’une différence d’images successives (après compensation) et d’une segmentation en régions. Cette méthode réalise une fusion entre les informations statiques et dynamiques de l’image. Cet arrière plan est ensuite comparé avec l’image courante afin de détecter les objets mobiles. Enfin, la dernière étape confronte les résultats de l’estimation de mouvement global avec le mouvement résiduel estimé par un flux optique local Lucas-Kanade afin de valider les détections obtenues lors de la seconde étape. Les expériences réalisées dans ce mémoire sur de nombreuses séquences de tests (simulées ou réelles) permettent de valider la solution retenue. Nous montrons également diverses applications possibles de notre méthode proposée
We propose a robust method about moving target detection from a moving UAV-mounted or helicopter-mounted camera. The industrial solution has to be robust to large motion of the camera, focus and motion blur in the images, and need to be accurate in terms of the moving target detection and segmentation. It does not have to need a long computation time. The proposed solution to detect the moving targets consists in the global camera motion compensation, and the residual motion analysis, that exists between the successive images. This research domain has been widely explored in the literature, implying lots of different proposed methods. The study of these methods show us that they all have a different and limited application scope, incompatible with our industrial constraints. To deal with this problem, we propose a methodology consisting in the analysis of the state-of-the-art method results, to extract their strengths and weaknesses. Then we propose to hybrid them. Therefore, we propose three successive steps : the inter-frame motion compensation, thecreation of a background in order to correctly detect the moving targets in the image and then the filtering of these detections by a comparison between the estimated global motion of the first step and the residual motion estimated by a local algorithm. The first step consists in the estimation of the global motion between two successive images thanks to a hybrid method composed of a minimization algorithm (ESM) and a feature-based method (Harris matching). The pyramidal implementation allows to optimize the computation time and the robust estimators (M-Estimator for the ESM algorithm and RANSAC for the Harris matching) allow to deal with the industrial constraints. The second step createsa background image using a method coupling the results of an inter-frame difference (after the global motion compensation) and a region segmentation. This method merges the static and dynamic information existing in the images. This background is then compared with the current image to detect the moving targets. Finally, the last step compares the results of the global motion estimation with the residual motion estimated by a Lucas-Kanade optical flow in order to validate the obtained detections of the second step. This solution has been validated after an evaluation on a large number of simulated and real sequences of images. Additionally, we propose some possible applications of theproposed method
28

Lefèvre, Sébastien. "Détection d'événements dans une séquence vidéo." Phd thesis, Université François Rabelais - Tours, 2002. http://tel.archives-ouvertes.fr/tel-00278073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème abordé ici concerne l'indexation de données multimédia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vidéo afin d'y détecter des événements prédéfinis. La recherche de ces événements étant contextuelle, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications.
29

Debroux, Noémie. "Mathematical modelling of image processing problems : theoretical studies and applications to joint registration and segmentation." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR02/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous proposons d'étudier et de traiter conjointement plusieurs problèmes phares en traitement d'images incluant le recalage d'images qui vise à apparier deux images via une transformation, la segmentation d'images dont le but est de délimiter les contours des objets présents au sein d'une image, et la décomposition d'images intimement liée au débruitage, partitionnant une image en une version plus régulière de celle-ci et sa partie complémentaire oscillante appelée texture, par des approches variationnelles locales et non locales. Les relations étroites existant entre ces différents problèmes motivent l'introduction de modèles conjoints dans lesquels chaque tâche aide les autres, surmontant ainsi certaines difficultés inhérentes au problème isolé. Le premier modèle proposé aborde la problématique de recalage d'images guidé par des résultats intermédiaires de segmentation préservant la topologie, dans un cadre variationnel. Un second modèle de segmentation et de recalage conjoint est introduit, étudié théoriquement et numériquement puis mis à l'épreuve à travers plusieurs simulations numériques. Le dernier modèle présenté tente de répondre à un besoin précis du CEREMA (Centre d'Études et d'Expertise sur les Risques, l'Environnement, la Mobilité et l'Aménagement) à savoir la détection automatique de fissures sur des images d'enrobés bitumineux. De part la complexité des images à traiter, une méthode conjointe de décomposition et de segmentation de structures fines est mise en place, puis justifiée théoriquement et numériquement, et enfin validée sur les images fournies
In this thesis, we study and jointly address several important image processing problems including registration that aims at aligning images through a deformation, image segmentation whose goal consists in finding the edges delineating the objects inside an image, and image decomposition closely related to image denoising, and attempting to partition an image into a smoother version of it named cartoon and its complementary oscillatory part called texture, with both local and nonlocal variational approaches. The first proposed model addresses the topology-preserving segmentation-guided registration problem in a variational framework. A second joint segmentation and registration model is introduced, theoretically and numerically studied, then tested on various numerical simulations. The last model presented in this work tries to answer a more specific need expressed by the CEREMA (Centre of analysis and expertise on risks, environment, mobility and planning), namely automatic crack recovery detection on bituminous surface images. Due to the image complexity, a joint fine structure decomposition and segmentation model is proposed to deal with this problem. It is then theoretically and numerically justified and validated on the provided images
30

Bouthillon, Marine. "Dispositif de discrimination entre des micro-organismes et leur environnement pour une détection précoce." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse consiste en la conception d'un système d'acquisition et d'un algorithme de traitement d'image. Le but de ce travail est la détection de contaminants dans un contexte de contrôle qualité, particulièrement dans l'industrie pharmaceutique. Les contaminants sont des colonies de micro-organismes se développant sur membrane micro-poreuse. Nous avons choisi d'utiliser la mesure tridimensionnelle de surface pour réaliser l'acquisition des données, ce qui n'a jamais été fait pour des données micro-biologiques. Notre apport a de plus consisté à remplacer l'éclairage laser généralement utilisé par un dispositif à LED permettant de réduire le bruit dans les données. Cela permet de diminuer la durée d'incubation des tests de 14 jours à moins de 5. Concernant l'algorithme, nous avons analysé les données de hauteur en combinant une méthode de détection de données aberrantes et un séparateur à vaste marge. La difficulté de la détection réside dans la variété des signaux correspondant aux colonies, et également dans la présence d'artefacts semblables aux colonies. Nous sommes capables de détecter correctement la présence ou l'absence de contaminants dans 98% des cas
An acquisition system and its algorithm are designed. Their purpose is contaminants detection as quality control in pharmaceutical industry. Contaminants are colonies of micro-organisms growing on micro-porous membrane. We use 3D surface measurement, which has never been done in a microbiological context. In addition, our contribution is to use an LED based lighting instead of a laser. It leads to an important noise reduction. It allows to decrease micro-organisms incubation period from 14 days in current method to 5 days or less. The height map from the system are processed with an outlier detection method combined to a support vector machine. Colonies show varying and various signals, and artifacts are present in the data. Nevertheless, we have been able to detect with success the presence or absence of contaminants with a rate of 98%
31

Gorea, Andrei. "Le codage visuel des constituants "elementaires" de l'image : approche psychophysique." Paris 6, 1986. http://www.theses.fr/1986PA066473.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'image, telle que nous la percevons, resulte d'un traitement en parallele de ses constituants "elementaires" suivi de leur synthese en des ensembles significatifs. Ce travail developpe les problemes theoriques souleves par la caracterisation de ces "primitives" visuelles et par le processus de segmentation en general, presente plusieurs classes de modeles de la detection et de l'identification de ces primitives et discute de la compatibilite de leurs predictions quantitatives avec, d'une part, les resultats de la psychophysique et, d'autre part, avec ce que nous savons sur la neurophysiologie des voies visuelles
32

Lin, Chao. "P and T wave analysis in ECG signals using Bayesian methods." Phd thesis, Toulouse, INPT, 2012. http://oatao.univ-toulouse.fr/8990/1/lin.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis studies Bayesian estimation/detection algorithms for P and T wave analysis in ECG signals. In this work, different statistical models and associated Bayesian methods are proposed to solve simultaneously the P and T wave delineation task (determination of the positions of the peaks and boundaries of the individual waves) and the waveform-estimation problem. These models take into account appropriate prior distributions for the unknown parameters (wave locations and amplitudes, and waveform coefficients). These prior distributions are combined with the likelihood of the observed data to provide the posterior distribution of the unknown parameters. Due to the complexity of the resulting posterior distributions, Markov chain Monte Carlo algorithms are proposed for (sample-based) detection/estimation. On the other hand, to take full advantage of the sequential nature of the ECG, a dynamic model is proposed under a similar Bayesian framework. Sequential Monte Carlo methods (SMC) are also considered for delineation and waveform estimation. In the last part of the thesis, two Bayesian models introduced in this thesis are adapted to address a specific clinical research problem referred to as T wave alternans (TWA) detection. One of the proposed approaches has served as an efficient analysis tool in the Endocardial T wave Alternans Study (ETWAS) project in collaboration with St. Jude Medical, Inc and Toulouse Rangueil Hospital. This project was devoted to prospectively assess the feasibility of TWA detection in repolarisation on EGM stored in ICD memories.
33

Longo, Laurence. "Vers des moteurs de recherche "intelligents" : un outil de détection automatique de thèmes : méthode basée sur l'identification automatique des chaînes de référence." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00939243.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se situe dans le domaine du Traitement Automatique des Langues et vise à optimiser la classification des documents dans les moteurs de recherche. Les travaux se concentrent sur le développement d'un outil de détection automatique des thèmes des documents (ATDS-fr). Utilisant peu de connaissances, la méthode hybride adoptée allie des techniques statistiques de segmentation thématique à des méthodes linguistiques identifiant des marqueurs de cohésion. Parmi eux, les chaînes de référence - séquence d'expressions référentielles se rapportant à la même entité du discours (e.g. Paul...il...cet homme) - ont fait l'objet d'une attention particulière, car elles constituent un indice textuel important dans la détection des thèmes (i.e. ce sont des marqueurs d'introduction, de maintien et de changement thématique). Ainsi, à partir d'une étude des chaînes de référence menée dans un corpus issu de genres textuels variés (analyses politiques, rapports publics, lois européennes, éditoriaux, roman), nous avons développé un module d'identification automatique des chaînes de référence RefGen qui a été évalué suivant les métriques actuelles de la coréférence.
34

Khlif, Aymen. "Consensus ou fusion de segmentation pour quelques applications de détection ou de classification en imagerie." Thèse, 2018. http://hdl.handle.net/1866/21141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

He, Jin. "Urban Detection From Hyperspectral Images Using Dimension-Reduction Model and Fusion of Multiple Segmentations Based on Stuctural and Textural Features." Thèse, 2013. http://hdl.handle.net/1866/10281.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
This master’s thesis presents a new approach to urban area detection and segmentation in hyperspectral images. The proposed method relies on a three-step procedure. First, in order to decrease the computational complexity, an informative three-colour composite image, minimizing as much as possible the loss of information of the spectral content, is computed. To this end, a non-linear dimensionality reduction step, based on two complementary but contradictory criteria of good visualization, namely accuracy and contrast, is achieved for the colour display of each hyperspectral image. In order to discriminate between urban and non-urban areas, the second step consists of extracting some complementary and discriminant features on the resulting (three-band) colour hyperspectral image. To attain this goal, we have extracted a set of features relevant to the description of different aspects of urban areas, which are mainly composed of man-made objects with regular or simple geometrical shapes. We have used simple textural features based on grey-levels, gradient magnitude or grey-level co-occurence matrix statistical parameters combined with structural features based on gradient orientation, and straight segment detection. In order to also reduce the computational complexity and to avoid the so-called “curse of dimensionality” when clustering high-dimensional data, we decided, in the final third step, to classify each individual feature (by a simple K-means clustering procedure) and to combine these multiple low-cost and rough image segmentation results with an efficient fusion model of segmentation maps. The experiments reported in this report demonstrate that the proposed segmentation method is efficient in terms of visual evaluation and performs well compared to existing and automatic detection and segmentation methods of urban areas from hyperspectral images.

To the bibliography