Segui questo link per vedere altri tipi di pubblicazioni sul tema: Techniques de traitement d’image.

Tesi sul tema "Techniques de traitement d’image"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Techniques de traitement d’image".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Bigot-Marchand, Stéphanie. "Outils de traitement d’images adaptés au traitement d’images omnidirectionnelles". Amiens, 2008. http://www.theses.fr/2008AMIE0128.

Testo completo
Abstract (sommario):
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique. . . ) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image
In this thesis, we develop processing tools adapted to omnidirectional images thanks to "the sphere of equivalence". Indeed, applying classical image processing methods (that is to say, methods adapted to planar images) to omnidirectional images will provide errors because it doesn't take account the specific geometry of these images. The approach we propose will provide us efficient methods, regardless we are in the center or the periphery of the image. In the first part, we recall what is the omnidirectional vision and a catadioptric sensor. We then justify the existence of "the sphere of equivalence". In the second part, we present several mathematical tools (spherical harmonics, spherical convolution. . . ) useful for the development of our spherical methods. We propose then to construct edge and smoothing operators to spherical images. We have tested these different methods in order to determine their advantages for omnidirectional image low-level processing in comparison with "classical methods". These tests highlight the advantage of the "spherical methods", which provide uniform processing on the image
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Moghrani, Madjid. "Segmentation coopérative et adaptative d’images multicomposantes : application aux images CASI". Rennes 1, 2007. http://www.theses.fr/2007REN1S156.

Testo completo
Abstract (sommario):
Les travaux de cette thèse s'inscrivent dans le cadre des approches coopératives de segmentation d’images. Deux systèmes adaptatifs ont été mis en œuvre: l'un parallèle, l'autre séquentiel. Le système parallèle met en concurrence les méthodes de segmentation par classification. Le système séquentiel exécute ces mêmes méthodes suivant un ordonnancement établi. L'extraction des attributs pour segmenter les différentes régions est effectuée de manière adaptative en fonction de la nature uniforme (faiblement texturée) ou texturées des régions. Les deux systèmes sont composés de trois modules principaux. Le premier module permet de détecter la nature des régions de l'image (uniformes et texturées) afin d'adapter le type de traitement a posteriori. Le deuxième module est dédié à la segmentation des régions détectées en fonction de leur nature. Les résultats de segmentation sont évalués et validés à des niveaux différents du traitement. Le troisième module fusionne les résultats intermédiaires obtenus sur les deux types de région détectés. Les deux systèmes sont testés et comparés sur des images synthétiques et réelles, monocomposantes et multicomposantes de télédétection aérienne
This thesis focuses on cooperative approaches in image segmentation. Two adaptive systems were implemented; the first is parallel and second is sequential. The parallel system is based on competing methods of segmentation by classification. The sequential system runs these methods according to a predefined schedule. The extraction of features for segmentation is performed according of the region’s nature (uniform or textured). Both systems are composed of three main modules. The first module aims to detect the region’s nature of the image (uniforms or textured) in order to adapt further processings. The second module is dedicated to the segmentation of detected regions according to their nature. The segmentation results are assessed and validated at different levels of the segmentation process. The third module merges intermediate results obtained on the two types of areas. Both systems are tested and compared on synthetic and real mono- and multi-component images issued from aerial remote sensing
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Emam, Mohammed. "Prédiction des facteurs de risque conduisant à l’emphysème chez l’homme par utilisation de techniques diagnostiques". Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112081/document.

Testo completo
Abstract (sommario):
Les broncho-pneumopathies chroniques obstructives (BPCO) constituent un groupe de maladies des poumons caractérisées par le blocage du passage de l’air, rendant la respiration de plus en plus difficile. L’emphysème et la bronchite chronique sont les deux principales affections parmi les BPCO, mais les BPCO peuvent également être provoquées par les dégâts causés par des bronchites chroniques asthmatiques. L’emphysème pulmonaire est une maladie pulmonaire caractérisée par l’élargissement des espaces aériens distaux en amont des bronchioles terminales non respiratoires, accompagné de la destruction des parois alvéolaires. Ces modifications du parenchyme pulmonaire sont pathognomoniques de l’emphysème. La bronchite chronique est une forme de bronchite caractérisée par une production excessive d’expectoration, entraînant l’apparition d’une toux chronique et l’obstruction des voies respiratoires. Dans toutes ces affections, les dégâts causés aux voies respiratoires finissent par affecter les échanges gazeux dans les poumons. L’emphysème est généralement diagnostiqué de façon indirecte, sur la base d’un examen clinique, d’explorations de la fonction respiratoire (EFR), et d’une évaluation visuelle subjective des scanners des tomodensitogrammes. Ces tests présentent une valeur limitée dans les cas d’emphysème léger ou modéré. La présente étude aborde la possibilité d’appliquer une démarche d’analyse non linéaire à la répartition de la densité de l’air au sein de l’arbre des voies respiratoires des poumons à un quelconque niveau des ramifications. Les images sources de tomodensitométrie (TDM) du poumon sont traitées en deux phases, afin de produire un coefficient fractal de répartition de la densité de l’air. Au cours de la première phase, les valeurs brutes de pixel des images sources correspondant à toutes les densités d’air possibles sont traitées par un outil logiciel, mis au point pour construire une image cible. On y parvient par suppression en cascade des éléments indésirables (SCEI) : une étape de prétraitement dans l’analyse de l’image source. Celle-ci permet d’identifier les valeurs de densité d’air au sein de l’arbre des voies respiratoires, tout en éliminant toutes les valeurs non relatives à la densité de l’air. La seconde phase consiste en une réduction itérative de la résolution (RIR). Chaque réduction de la résolution produit un nouvel histogramme. Chaque histogramme ainsi produit comporte un certain nombre de pics, chacun d’entre eux correspondant à un ensemble de densités d’air. La courbe mettant en relation chaque réduction de la résolution avec le nombre de pics correspondant, obtenus à la résolution concernée, est tracée. Ceci permet de calculer la dimension fractale par une régression linéaire sur un graphique log – log
Chronic Obstructive Pulmonary Disease (COPD) refers to a group of lung diseases that block airflow and make it increasingly difficult for you to breathe. Emphysema and chronic bronchitis are the two main conditions that make up COPD, but COPD can also refer to damage caused by chronic asthmatic bronchitis. Pulmonary emphysema is defined as a lung disease characterized by “abnormal enlargement of the air spaces distal to the terminal, non-respiratory bronchiole, accompanied by destructive changes of the alveolar walls”. These lung parenchymal changes are pathognomonic for emphysema. Chronic bronchitis is a form of bronchitis characterized by excess production of sputum leading to a chronic cough and obstruction of air flow. In all cases, damage to your airways eventually interferes with the exchange of oxygen and carbon dioxide in your lungs. Habitual techniques of emphysema’s diagnosis are based on indirect features, such as clinical examination; Pulmonary Function Tests (PFT) and subjective visual evaluation of CT scans. These tests are of limited value in assessing mild to moderate emphysema. The presented work discusses the possibility of applying a nonlinear analysis approach on air density distribution within lung airways tree at any level of branching. Computed Tomography (CT) source images of the lung are subjected to two phases of treatment in order to produce a fractal coefficient of the air density distribution. In the first phase, raw pixel values from source images, corresponding to all possible air densities, are processed by a software tool, developed in order to, construct a product image. This is done through Cascading Elimination of Unwanted Elements (CEUE): a preprocessing analysis step of the source image. It identifies values of air density within the airways tree, while eliminating all non-air-density values. Then, during the second phase, in an iterative manner, a process of Resolution Diminution Iterations (RDI) takes place. Every resolution reduction produces a new resultant histogram. A resultant histogram is composed of a number of peaks, each of which corresponding to a cluster of air densities. A curve is plotted for each resolution reduction versus the number of peaks counted at this particular resolution. It permits the calculation of the fractal dimension from the regression slope of log-log power law plot
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Mairesse, Fabrice. "Contrôle dimensionnel de panneaux de particules de grandes dimensions par traitement d’images". Dijon, 2007. http://www.theses.fr/2007DIJOS074.

Testo completo
Abstract (sommario):
Les travaux de cette thèse ont porté sur le contrôle dimensionnel, en conditions industrielles, de panneaux de particules de grandes dimensions usinés. Deux principales problématiques ont été abordées : l’appariement d’images, dû aux conditions d’acquisition, et la mesure de formes circulaires déformées. Pour la première problématique, une solution basée sur une recherche de points d’intérêts par matrice hessienne combinée à une caractérisation locale par transformée de Census, s’est révélée efficace. La seconde problématique, due à la friabilité du matériau et aux obstructions par le revêtement du panneau, est la mesure de perçages de contour imparfait. Afin de compenser les déformations, une approche multi-échelles par contours actifs a été développée. Celle-ci fournit, en une passe, une série d’approximations du contour initial autour d’un facteur d’échelle globale fixé. Des formes plus régulières sont ainsi générées plus ou moins proches de la forme initiale selon un paramètre d’échelle secondaire. L’estimation des caractéristiques des formes circulaires ainsi obtenues est faite par un nouvel estimateur basé sur la transformée de Radon. Les tangentes au cercle permettent alors de déterminer le centre et le rayon. La méthode est basée sur des principes d’accumulation en géométrie discrète et d’estimation de modèle paramétrique continu discrétisé, permettant d’atteindre une précision subpixellaire. Cette nouvelle approche s’est révélée plus précise que les estimateurs classiques dans le cadre de cercles déformés
This thesis deals with the dimensional control, in industrial conditions, of large manufactured particleboards. Two principal problematics were broached: the mosaicking due to acquisition conditions and the measure of distorted circular forms. For the first problematic, a solution based on interest points search by hessian matrix combined with a local characterization by Census transform was revealed as an efficient method. The second problematic, due to the crumbly nature of the material and obstructions by the coating, is the measure of imperfect edge drillings. In order to compensate distortions, a multi-scale approach by active contours was developed. This one gives, in one pass, a set of approximations of the initial outline around a global scale factor. More regularized outlines are then generated more or less close to the original form following a second scale parameter. The estimator of obtained circular forms characteristics is done with a new estimator based on the Radon transform. Circle's tangents allow to find the center and the radius. The method is based on an accumulation principle in discrete geometry and discretized parametric fitting, giving a subpixel precision. This new approach is more accurate than classical estimators in the framework of distorted circles
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Rodrigues, José Marconi. "Transfert sécurisé d’images par combinaison de techniques de compression, cryptage et marquage". Montpellier 2, 2006. http://www.theses.fr/2006MON20085.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Hachicha, Walid. "Traitement, codage et évaluation de la qualité d’images stéréoscopiques". Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132037.

Testo completo
Abstract (sommario):
Les récents développements des technologies de l’imagerie 3D et en particulier la stéréoscopie ont ouvert de nouveaux horizons dans de nombreux domaines d’application tels que la TV 3D, le cinéma 3D, les jeux vidéo et la vidéoconférence. Ces avancées technologiques ont soulevé plusieurs défis aussi bien sur le plan théorique que pratique et en particulier dans le domaine du codage des données 3D. En effet, l’énorme quantité d’information issue des systèmes d’acquisition requiert des solutions efficaces pour la coder et la transmettre. L’objectif de cette thèse est le développement de méthodes pour optimiser les principales étapes de la chaine de traitement et transmission d’images stéréoscopiques. Nous nous limitons dans ce travail au rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques. La première partie de ce travail traite les problèmes d’évaluation et d’amélioration de la qualité d’images stéréoscopiques. Nous nous intéressons d’abord au rehaussement de contraste en s’inspirant des méthodes 2D et en intégrant quelques éléments liés à la perception visuelle. Nous proposons ainsi une première méthode de rehaussement de contraste local basée sur la carte de saillance visuelle. L’aspect qualité est aussi traité selon une approche basée sur les protocoles et méthodes conues pour le cas des images 2D et 3D. Cette méthode exploite les caractéristiques et propriétés connues du système visuel humain (SVH) telles que la non-linéarité, la sensibilité au contraste, la sélectivité directionnelle et fréquentielle ainsi que le seuil de discrimination binoculaire. Nous avons aussi d´eveloppé une méthode de prédiction de la qualité d’images stéréoscopiques sans référence. Cette dernière est basée sur des descripteurs 3D statistiques issus de la scène naturelle afin identifier les distorsions. Ces descripteurs 3D statistiques correspondent aux attributs extraits à partir de la paire stéréo naturelle et de la carte de disparité. L’extraction de ces descripteurs se fait au moyen de l’analyse en ondelettes des images stéréoscopiques. La deuxième partie de cette thèse traite les problèmes de compression d’images stéréoscopiques. Nous avons commencé par l’exploitation de la transformée en cosinus discret unidirectionnel et unidimensionnel pour encoder l’image résiduelle issue de la compensation de disparité. Ensuite, en se basant sur la transformée en ondelettes, nous avons étudié deux techniques pour optimiser le calcul de l’image résiduelle. Enfin, nous avons proposé des méthodes d’allocation de débit pour la compression des images stéréoscopiques. En général, le problème d’allocation de bits est résolu d’une manière empirique en cherchant le débit optimale qui minimise une certaine distorsion. Cependant cette stratégie est complexe. Pour cela, nous avons proposé des méthodes d’allocation de débits, rapides et efficaces appropriées pour le codage en boucle ouverte et en boucle fermée. Cette thèse ouvre des perspectives dans les trois thématiques abordées, à savoir le rehaussement de contraste, le codage et l’évaluation de la qualité d’images stéréoscopiques
Recent developments in 3D stereoscopic technology have opened new horizons in many application fields such as 3DTV, 3D cinema, video games and videoconferencing and at the same time raised a number of challenges related to the processing and coding of 3D data. Today, stereoscopic imaging technology is becoming widely used in many fields. There are still some problems related to the physical limitations of image acquisition systems, e.g. transmission and storage requirements. The objective of this thesis is the development of methods for improving the main steps of stereoscopic imaging pipeline such as enhancement, coding and quality assessment. The first part of this work addresses quality issues including contrast enhancement and quality assessment of stereoscopic images. Three algorithms have been proposed. The first algorithm deals with the contrast enhancement aiming at promoting the local contrast guided by calculated/estimated object importance map in the visual scene. The second and the third algorithms aim at predicting the distortion severity of stereo images. In the second one, we have proposed a fullreference metric that requires the reference image and is based on some 2D and 3D findings such as amplitude non-linearity, contrast sensitivity, frequency and directional selectivity, and binocular just noticeable difference model. While in the third algorithm, we have proposed a no-reference metric which needs only the stereo pair to predict its quality. The latter is based on Natural Scene statistics to identify the distortion affecting the stereo image. The statistic 3D features consist in combining features extracted from the natural stereo pair and those from the estimate disparity map. To this end, a joint wavelet transform, inspired from the vector lifting concept is first employed. Then, the features are extracted from the obtained subbands. The second part of this dissertation addresses stereoscopic image compression issues. We started by investigating a one-dimensional directional discrete cosine transform to encode the disparity compensated residual image. Afterwards, and based on the wavelet transform, we investigated two techniques for optimizing the computation of the residual image. Finally, we present efficient bit allocation methods for stereo image coding purpose. Generally, the bit allocation problem is solved in an empirical manner by looking for the optimal rates leading to the minimum distortion value. Thanks to recently published work on approximations of the entropy and distortion functions, we proposed accurate and fast bit allocation schemes appropriate for the open-loop and closed-loop based stereo coding structures
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Takam, tchendjou Ghislain. "Contrôle des performances et conciliation d’erreurs dans les décodeurs d’image". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT107/document.

Testo completo
Abstract (sommario):
Cette thèse porte sur le développement et l’implémentation des algorithmes de détection et de correction des erreurs dans les images, en vue de contrôler la qualité des images produites en sortie des décodeurs numériques. Pour atteindre les objectifs visés dans cette étude, nous avons commencé par faire l’état de lieu de l’existant. L’examen critique des approches en usage a justifié la construction d’un ensemble de méthodes objectives d’évaluation de la qualité visuelle des images, basées sur des méthodes d’apprentissage automatique. Ces algorithmes prennent en entrées un ensemble de caractéristiques ou de métriques extraites des images. En fonction de ces caractéristiques, et de la disponibilité ou non d’une image de référence, deux sortes de mesures objectives ont été élaborées : la première basée sur des métriques avec référence, et la seconde basée sur des métriques sans référence ; toutes les deux à distorsions non spécifiques. En plus de ces méthodes d’évaluation objective, une méthode d’évaluation et d’amélioration de la qualité des images basée sur la détection et la correction des pixels défectueux dans les images a été mise en œuvre. Les applications ont contribué à affiner aussi bien les méthodes d’évaluation de la qualité visuelle des images que la construction des algorithmes objectifs de détection et de correction des pixels défectueux par rapport aux diverses méthodes actuellement en usage. Une implémentation sur cartes FPGA des techniques développées a été réalisée pour intégrer les modèles présentant les meilleures performances dans de la phase de simulation
This thesis deals with the development and implementation of error detection and correction algorithms in images, in order to control the quality of produced images at the output of digital decoders. To achieve the objectives of this work, we first study the state-of the-art of the existing approaches. Examination of classically used approaches justified the study of a set of objective methods for evaluating the visual quality of images, based on machine learning methods. These algorithms take as inputs a set of characteristics or metrics extracted from the images. Depending on the characteristics extracted from the images, and the availability or not of a reference image, two kinds of objective evaluation methods have been developed: the first based on full reference metrics, and the second based on no-reference metrics; both of them with non-specific distortions. In addition to these objective evaluation methods, a method of evaluating and improving the quality of the images based on the detection and correction of the defective pixels in the images has been implemented. The proposed results have contributed to refining visual image quality assessment methods as well as the construction of objective algorithms for detecting and correcting defective pixels compared to the various currently used methods. An implementation on an FPGA has been carried out to integrate the models with the best performances during the simulation phase
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Baldacci, Fabien. "Graphe de surface orientée : un modèle opérationnel de segmentation d'image 3D". Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13940/document.

Testo completo
Abstract (sommario):
Dans ce travail nous nous intéressons à la segmentation d’image 3D. Le but est de définir un cadre permettant, étant donnée une problématique de segmentation, de développer rapidement un algorithme apportant une solution à cette problématique. Afin de ne pas être restreint à un sous ensemble des types de problématique de segmentation, ce cadre doit permettre de mettre en oeuvre efficacement les différentes méthodes et les différents critères de segmentation existants, dans le but de les combiner pour définir les nouveaux algorithmes. Ce cadre doit reposer sur un modèle de structuration d’image qui représente la topologie et la géométrie d’une partition et permet d’en extraire efficacement les informations requises. Dans ce document, les différentes méthodes de segmentation existantes sont présentées afin de définir un ensemble d’opération nécessaire à leur implémentation. Une présentation des modèles existants est faite pour en déterminer avantages et inconvénients, puis le nouveau modèle est ensuite défini. Sa mise en oeuvre complète est détaillée ainsi qu’une analyse de sa complexité en temps et en mémoire pour l’ensemble des opérations précédemment définies. Des exemples d’utilisation du modèle sur des cas concrets sont ensuite décrits, ainsi que les possibilités d’extension du modèle et d’implémentation sur architecture parallèle
In this work we focus on 3D image segmentation. The aim consists in defining a framework which, given a segmentation problem, allows to design efficiently an algorithm solving this problem. Since this framework has to be unspecific according to the kind of segmentation problem, it has to allow an efficient implementation of most segmentation techniques and criteria, in order to combine them to define new algorithms. This framework has to rely on a structuring model both representing the topology and the geometry of the partition of an image, in order to efficiently extract required information. In this document, different segmentation techniques are presented in order to define a set of primitives required for their implementation. Existing models are presented with their advantages and drawbacks, then the new structuring model is defined. Its whole implementation including details of its memory consumption and time complexity for each primitives of the previously defined set of requirements is given. Some examples of use with real image analysis problems are described, with also possible extensions of the model and its implementation on parallel architecture
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Petit, Cécile. "Analyse d’images macroscopiques appliquée à l’injection directe Diesel". Saint-Etienne, 2006. http://www.theses.fr/2006STET4005.

Testo completo
Abstract (sommario):
Les normes anti–pollution obligent l’industrie automobile à améliorer la combustion. L’injection directe Diesel, avec l’atomisation du carburant le permet : elle pilote la qualité du mélange air-essence. Le spray Diesel macroscopique est étudié par analyse d’images. D’abord un point de référence de l’image est calculé : le centre d’injection virtuel CIV, issu des axes primaires d’inertie des jets allongés et d’un diagramme de Voronoï. Puis, ces jets sont analysés en calculant leur pénétration, angle et barycentre. Ensuite, la droite issue de la frontière du jet, contraint à passer par le CIV est évaluée. Cet axe est la référence pour l’étude de la symétrie interne, établie en terme de corrélation et de distances: absolue, Euclidienne, infinie, logarithmique utilisant le modèle Logarithmic Image Processing. Cette dernière distance permet de comparer des sprays acquis dans des conditions variées (source lumineuse, milieu ambiant), c’est la symétrie interne du cœur liquide continu. Puis la droite issue des niveaux de gris du jet, astreint de passer par le CIV, avec comme poids la distance au CIV est calculé. Cet axe est la base de l’étude de la symétrie externe, évaluée avec la corrélation et les distances: absolue, Euclidienne, infinie et de Hausdorff. Enfin, une seule grandeur par image de spray est obtenue grâce à la distance de Asplünd, aux circularités ou au barycentre. Puis, l’étude des populations des pénétrations et angles montre leur corrélation, variation pièce à pièce et jet à jet, distributions non Gaussiennes. Ensuite, des injecteurs sont confrontés grâce aux paramètres d’analyse d’image. Enfin l’examen des tendances de ces données montre leur nature prometteuse
Due to emission standards, car manufacturers have to improve combustion. It can be achieved studying Diesel direct injection, particularly fuel atomization as this one is responsible for the mixture quality. The Diesel macroscopic spray is investigated using image processing. An image reference point is first calculated: the virtual spray origin VSO, deduced from the elongated spray plumes primary inertia axes and from a Voronoï diagram. These plumes are analyzed calculating their penetration, angle and barycenter. Afterwards, the line deduced from the spray plume boundary, passing by the virtual injection center, is evaluated. This axis is the reference for the internal symmetry, set in terms of correlation, distances: absolute, Euclidian, infinite and logarithmic which is based on the Logarithmic Image Processing model. This last distance enables to compare sprays acquired in different conditions (light source, ambient medium), it is the liquid continuous core internal symmetry. Then the line deduced from the plume grey levels, forced to pass by the VSO, with the distance to the VSO as additional weight, is calculated. This axis is the basis of the external symmetry, established in terms of correlation, distances: absolute, Euclidian, infinite and Hausdorff. Finally, a spray image can be evaluated using one parameter as the Asplünd distance, circularities, or barycenter. Then penetration and angle populations study show their correlation, variation part to part and plume to plume, non Gaussian distributions. Afterwards, injectors are compared using the image processing parameters. Finally, the data tendencies study show how promising the image processing parameters are
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Kennel, Pol. "Caractérisation de texture par analyse en ondelettes complexes pour la segmentation d’image : applications en télédétection et en écologie forestière". Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20215/document.

Testo completo
Abstract (sommario):
L'analyse des images numériques, bien que largement étudiée, reste encore aujourd'hui un réel défi. Avec pour objectifs la description pertinente et la reconnaissance sémantique du contenu de celles-ci, de nombreuses applications requièrent une attention particulière quant à cette analyse. Pour répondre à ces besoins, l'analyse du contenu des images est réalisée de façon automatique grâce à des méthodes informatiques se rapprochant par exemple des mathématiques, des statistiques, de la physique. Une façon pertinente et reconnue de représenter les objets observés dans les images réside dans leur segmentation. Couplée à la classification, la segmentation permet une ségrégation sémantique de ces objets. Cependant, les méthodes existantes ne peuvent être considérées comme génériques, et bien que motivées par de nombreux domaines (militaire, médical, satellite, etc.), celles-ci sont continuellement réévaluées, adaptées et améliorées. Par exemple, les images satellites se démarquent dans le milieu de l'image de par leur spécificité d'acquisition, de par leur support ou de par le sujet d'observation (la Terre dans notre cas).Cette thèse à pour but d'explorer les méthodes de caractérisation et de segmentation supervisées exploitant la notion de texture. Les sols observés depuis l'espace, à des échelles et des résolutions différentes, peuvent être perçus comme texturés. Les cartes d'occupation des sols peuvent être obtenues par la segmentation d'images satellites, notamment en utilisant l'information texturale. Nous proposons le développement d'algorithmes de segmentation compétitifs caractérisant la texture par l'utilisation de représentations multi-échelles des images obtenues par décomposition en ondelettes et de classificateurs supervisés tels que les Support Vector Machines. Dans cette optique, cette thèse est principalement articulée autour de plusieurs projets de recherche nécessitant une étude des images à des échelles et des résolutions différentes, ces images étant elles-mêmes de nature variée (e.g. multi-spectrales, optiques, LiDAR). Nous dériverons, pour ces différents cas d'étude, certains aspects de la méthodologie développée
The analysis of digital images, albeit widely researched, continues to present a real challenge today. In the case of several applications which aim to produce an appropriate description and semantic recognition of image content, particular attention is required to be given to image analysis. In response to such requirements, image content analysis is carried out automatically with the help of computational methods that tend towards the domains of mathematics, statistics and physics. The use of image segmentation methods is a relevant and recognized way to represent objects observed in images. Coupled with classification, segmentation allows a semantic segregation of these objects. However, existing methods cannot be considered to be generic, and despite having been inspired by various domains (military, medical, satellite etc), they are continuously subject to reevaluation, adaptation or improvement. For example satellite images stand out in the image domain in terms of the specificity of their mode of acquisition, their format, or the object of observation (the Earth, in this case).The aim of the present thesis is to explore, by exploiting the notion of texture, methods of digital image characterization and supervised segmentation. Land, observed from space at different scales and resolutions, could be perceived as being textured. Land-use maps could be obtained through the segmentation of satellite images, in particular through the use of textural information. We propose to develop competitive algorithms of segmentation to characterize texture, using multi-scale representations of images obtained by wavelet decomposition and supervised classifiers such as Support Vector Machines.Given this context, the present thesis is principally articulated around various research projects which require the study of images at different scales and resolutions, and which are varying in nature (eg. multi-spectral, optic, LiDAR). Certain aspects of the methodology developed are applied to the different case studies undertaken
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Valet, Lionel. "Un système flou de fusion coopérative : application au traitement d’images naturelles". Chambéry, 2001. http://www.theses.fr/2001CHAMS022.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Madec, Morgan. "Conception, simulation et réalisation d’un processeur optoélectronique pour la reconstruction d’images médicales". Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/MADEC_Morgan_2006.pdf.

Testo completo
Abstract (sommario):
Le traitement optique des données tomodensitométriques fournies par les systèmes d’exploration volumique pourrait permettre d’accélérer considérablement les algorithmes de génération d’images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l’aspect matériel, puis sous l’aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d’afficheurs et de capteur d’images. L’état de l’art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L’intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l’aide d’un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l’ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n’ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu’il est possible d’obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d’un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d’un processeur hybride dédié à des algorithmes plus complexes (ex : l’algorithme ASSR pour la reconstruction d’image des CT-scan) est également présentée à la fin de ce document
Optical processing can be used to speed up some algorithms of image reconstruction from tomodensitometric data provided by volume exploration systems. This may be of high interest in order to meet the needs of future assisted therapy systems. Two systems are described in this document, corresponding to the two main steps of the above mentioned algorithms: a filtering processor and a backprojection processor. They are first considered under a material point of view. Whatever function it may compute, an optical processor is made up of light sources, displays and cameras. Present state-of-the-art devices highlight a weakness in display performances. Special attention has been focused on ferroelectric liquid crystal spatial light modulators (modelling, simulations, and characterizations of commercial solutions). The potential of optical architectures is compared with electronic solutions, considering computation power and processed image quality. This study has been carried out for both systems first in simulation, with a reliable model of the architecture, and then with an experimental prototype. The optical filtering processor does not give accurate results: the signal to noise ratio on the reconstructed image is about 20 dB in simulation (the model used does not take into account the majority of geometrical distortions) and experimental measurements show strong limitation, especially when considering the problem of image formation with coherent lighting (speckle). On the other hand, results obtained with the optical backprojection processor are most encouraging. The model, more complete and accurate than the filtering processor, as well as the simulations, shows that processed image quality can be virtually equivalent to the one obtained by digital means (signal to noise ratio is over 50 dB) with two order of magnitude speed-up. Results obtained with the experimental prototype are in accordance with simulations and confirm the potential held by the architecture. As an extension, a hybrid processor involving the backprojection processor for the computation of more complex reconstruction algorithms, e. G. ASSR for helical CT-scan, is proposed in the last part of the document
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Begaint, Jean. "Towards novel inter-prediction methods for image and video compression". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S038/document.

Testo completo
Abstract (sommario):
En raison de la grande disponibilité des dispositifs de capture vidéo et des nouvelles pratiques liées aux réseaux sociaux, ainsi qu’à l’émergence des services en ligne, les images et les vidéos constituent aujourd’hui une partie importante de données transmises sur internet. Les applications de streaming vidéo représentent ainsi plus de 70% de la bande passante totale de l’internet. Des milliards d’images sont déjà stockées dans le cloud et des millions y sont téléchargés chaque jour. Les besoins toujours croissants en streaming et stockage nécessitent donc une amélioration constante des outils de compression d’image et de vidéo. Cette thèse vise à explorer des nouvelles approches pour améliorer les méthodes actuelles de prédiction inter-images. De telles méthodes tirent parti des redondances entre images similaires, et ont été développées à l’origine dans le contexte de la vidéo compression. Dans une première partie, de nouveaux outils de prédiction inter globaux et locaux sont associés pour améliorer l’efficacité des schémas de compression de bases de données d’image. En associant une compensation géométrique et photométrique globale avec une prédiction linéaire locale, des améliorations significatives peuvent être obtenues. Une seconde approche est ensuite proposée qui introduit un schéma de prédiction inter par régions. La méthode proposée est en mesure d’améliorer les performances de codage par rapport aux solutions existantes en estimant et en compensant les distorsions géométriques et photométriques à une échelle semi locale. Cette approche est ensuite adaptée et validée dans le cadre de la compression vidéo. Des améliorations en réduction de débit sont obtenues, en particulier pour les séquences présentant des mouvements complexes réels tels que des zooms et des rotations. La dernière partie de la thèse se concentre sur l’étude des méthodes d’apprentissage en profondeur dans le cadre de la prédiction inter. Ces dernières années, les réseaux de neurones profonds ont obtenu des résultats impressionnants pour un grand nombre de tâches de vision par ordinateur. Les méthodes basées sur l’apprentissage en profondeur proposées à l’origine pour de l’interpolation d’images sont étudiées ici dans le contexte de la compression vidéo. Des améliorations en terme de performances de codage sont obtenues par rapport aux méthodes d’estimation et de compensation de mouvements traditionnelles. Ces résultats mettent en évidence le fort potentiel de ces architectures profondes dans le domaine de la compression vidéo
Due to the large availability of video cameras and new social media practices, as well as the emergence of cloud services, images and videos constitute today a significant amount of the total data that is transmitted over the internet. Video streaming applications account for more than 70% of the world internet bandwidth. Whereas billions of images are already stored in the cloud and millions are uploaded every day. The ever growing streaming and storage requirements of these media require the constant improvements of image and video coding tools. This thesis aims at exploring novel approaches for improving current inter-prediction methods. Such methods leverage redundancies between similar frames, and were originally developed in the context of video compression. In a first approach, novel global and local inter-prediction tools are associated to improve the efficiency of image sets compression schemes based on video codecs. By leveraging a global geometric and photometric compensation with a locally linear prediction, significant improvements can be obtained. A second approach is then proposed which introduces a region-based inter-prediction scheme. The proposed method is able to improve the coding performances compared to existing solutions by estimating and compensating geometric and photometric distortions on a semi-local level. This approach is then adapted and validated in the context of video compression. Bit-rate improvements are obtained, especially for sequences displaying complex real-world motions such as zooms and rotations. The last part of the thesis focuses on deep learning approaches for inter-prediction. Deep neural networks have shown striking results for a large number of computer vision tasks over the last years. Deep learning based methods proposed for frame interpolation applications are studied here in the context of video compression. Coding performance improvements over traditional motion estimation and compensation methods highlight the potential of these deep architectures
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Hennequin, Christophe. "Etude et réalisation d’un calculateur temps réel embarqué pour la détection de petits objets dans des séquences d’images multi-échelles". Dijon, 2008. http://www.theses.fr/2008DIJOS015.

Testo completo
Abstract (sommario):
Cette thèse s'inscrit dans le cadre d'un projet de l'Institut Franco-Allemand de Recherches de Saint-Louis (ISL) consistant à équiper des projectiles d'artillerie d'un système d'acquisition et de traitement d'images embarqué. L'étude est consacrée à la détection de cibles en temps réel dans des séquences d'images aériennes avec pour contraintes imposées, la qualité dégradée des images, la taille réduite des cibles et l'altitude de prise de vue variable. Les performances des algorithmes de référence pour la détection rapide de petits objets étant insuffisantes sur nos séquences d'images, un algorithme de détection avancé est développé associant une méthode statistique et un filtrage morphologique. Après une analyse détaillée du comportement du détecteur et la validation de ses performances, une approche adéquation algorithme/architecture est considérée afin de rendre le traitement compatible avec le calcul en temps réel sur un système embarqué. Enfin, la conception d'une architecture spécifique à fort parallélisme permet de réaliser un prototype de calculateur sur un composant programmable
This doctoral thesis is part of a research project of the French-German Research Institute of Saint-Louis (ISL) which has been set up to equip artillery projectiles with an on-board image acquisition and processing system. The study focused on real-time target detection in aerial image sequences, considering the imposed restrictions of low quality images, reduced target size and variable acquisition altitude. In view of the unsatisfactory efficiency of the reference algorithms to rapidly detect small objects in our image sequences, an advanced detection algorithm combining statistical methods with morphological filtering has been developed. After analysing in detail the detector’s behaviour and validating its performance, an algorithm/architecture adequacy approach is used for implementing a compatible real-time processing for embedded systems. Finally, the design of a specific and highly parallel architecture allowed to realize a prototype calculator with a programmable component
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Bossu, Jérémie. "Segmentation d’images pour la localisation d’adventices : application à la réalisation d’un système de vision pour une pulvérisation spécifique en temps réel". Dijon, 2007. http://www.theses.fr/2007DIJOS079.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Abergel, Rémy. "Quelques modèles mathématiques et algorithmes rapides pour le traitement d’images". Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB051/document.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous intéressons à différents modèles mathématiques de traitement d’images numériques dits de bas niveau. Si l’approche mathématique permet d’établir des modèles innovants pour traiter les images, ainsi que l´étude rigoureuse des propriétés des images qu’ils produisent, ils impliquent parfois l’utilisation d’algorithmes très consommateurs de temps de calcul et de mémoire. Aussi, nous portons un soin particulier au développement d’algorithmes rapides à partir des modèles mathématiques considérés. Nous commençons par effectuer une présentation synthétique des méthodes mathématiques basées sur la dualité de Legendre-Fenchel permettant la minimisation d’énergies faisant intervenir la variation totale, fonctionnelle convexe nondifférentiable, ceci afin d’effectuer divers traitements sur les images numériques. Nous étudions ensuite un modèle de discrétisation de la variation totale inspiré de la théorie de l’échantillonnage de Shannon. Ce modèle, appelé ≪ variation totale Shannon ≫ permet un contrôle fin de la régularité des images sur une échelle sous-pixellique. Contrairement aux modèles de discrétisation classiques qui font appel à des schémas aux différences finies, nous montrons que l’utilisation de la variation totale Shannon permet de produire des images pouvant être facilement interpolées. Nous montrons également que la variation totale Shannon permet un gain conséquent en matière d’isotropie et ouvre la porte à de nouveaux modèles mathématiques de restauration. Après cela, nous proposons une adaptation du modèle TV-ICE (Iterated Conditional Expectations, proposé en 2014 par Louchet et Moisan) au cas du débruitage d’images en présence de bruit de Poisson. Nous démontrons d’une part que le schéma numérique issu de ce modèle consiste en un schéma de point fixe dont la convergence est linéaire, d’autre part que les images ainsi produites ne présentent pas d’effet de marche d’escalier (staircasing), contrairement aux images obtenues avec l’approche plus classique dite du maximum a posteriori. Nous montrons également que le modèle Poisson TV-ICE ainsi établi repose sur l’évaluation numérique d’une fonction gamma incomplète généralisée nécessitant une prise en compte fine des erreurs numériques inhérentes au calcul en précision finie et pour laquelle nous proposons un algorithme rapide permettant d’atteindre une précision quasi-optimale pour une large gamme de paramètres. Enfin, nous reprenons les travaux effectués par Primet et Moisan en 2011 concernant l’algorithme astre (A contrario Smooth TRajectory Extraction) dédié à la détection de trajectoires régulières à partir d’une séquence de nuages de points, ces points étant considérés comme issus d’une détection préalable dans une 3 séquence d’images. Si l’algorithme astre permet d’effectuer une détection optimale des trajectoires régulières au sens d’un critère a contrario, sa complexité en O(K2) (où K désigne le nombre d’images de la séquence) s’avère être rédhibitoire pour les applications nécessitant le traitement de longues séquences. Nous proposons une variante de l’algorithme astre appelée cutastre qui préserve les performances de l’algorithme astre ainsi que certaines de ses propriétés théoriques, tout en présentant une complexité en O(K)
In this thesis, we focus on several mathematical models dedicated to low-level digital image processing tasks. Mathematics can be used to design innovative models and to provide some rigorous studies of properties of the produced images. However, those models sometimes involve some intensive algorithms with high computational complexity. We take a special care in developing fast algorithms from the considered mathematical models. First, we give a concise description of some fundamental results of convex analysis based on Legendre-Fenchel duality. Those mathematical tools are particularly efficient to perform the minimization of convex and nonsmooth energies, such as those involving the total variation functional which is used in many image processing applications. Then, we focus on a Fourier-based discretization scheme of the total variation, called Shannon total variation, which provides a subpixellic control of the image regularity. In particular, we show that, contrary to the classically used discretization schemes of the total variation based on finite differences, the use of the Shannon total variation yields images that can be easily interpolated. We also show that this model provides some improvements in terms of isotropy and grid invariance, and propose a new restoration model which transforms an image into a very similar one that can be easily interpolated. Next, we propose an adaptation of the TV-ICE (Total Variation Iterated Conditional Expectations) model, recently proposed by Louchet and Moisan in 2014, to address the restoration of images corrupted by a Poisson noise. We derive an explicit form of the recursion operator involved by this scheme, and show linear convergence of the algorithm, as well as the absence of staircasing effect for the produced images. We also show that this variant involves the numerical evaluation of a generalized incomplete gamma function which must be carefully handled due to the numerical errors inherent to the finite precision floating-point calculus. Then, we propose an fast algorithm dedicated to the evaluation of this generalized 4 incomplete gamma function, and show that the accuracy achieved by the proposed procedure is near optimal for a large range of parameters. Lastly, we focus on the astre (A contrario Smooth TRajectory Extraction) algorithm, proposed by Primet and Moisan in 2011 to perform trajectory detection from a noisy point set sequence. We propose a variant of this algorithm, called cutastre, which manages to break the quadratic complexity of astre with respect to the number of frames of the sequence, while showing similar (and even slightly better) detection performances and preserving some interesting theoretical properties of the original astre algorithm
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Coudray, Nicolas. "Techniques de segmentation d’images et stratégie de pilotage pour l’analyse automatique d’échantillons en microscopie électronique : Application à la cristallisation 2d". Mulhouse, 2008. https://www.learning-center.uha.fr/opac/resource/techniques-de-segmentation-dimages-et-strategie-de-pilotage-pour-lanalyse-automatique-dechantillons-/BUS4111251.

Testo completo
Abstract (sommario):
Ce mémoire est consacré à l’élaboration de techniques de segmentation pour la scrutation de membranes protéiques lors du pilotage d’un microscope électronique en transmission. Les membranes biologiques sont issues d’expériences de cristallisation 2D de protéines dont il faut évaluer le succès. Notre stratégie consiste à piloter le microscope selon des informations extraites à partir des images. Elle se décompose en trois étapes correspondant à trois niveaux de grossissement du microscope. Des traitements adaptés ont été développés. Ils sélectionnent les régions d’intérêt aux deux premiers niveaux, et évaluent la cristallinité du spécimen à fort grossissement. Les objets d’intérêt ont un faible contraste dans des images très bruitées. Notre principal algorithme de segmentation repose sur une mesure de gradient multirésolution, combinée à un seuillage adapté aux échelles. Pour rassembler les informations de contours segmentés aux différentes échelles, nous proposons la construction d’une image intermédiaire, appelée RGL (Reconstructed Gradient- Like). Cette image est finalement partitionnée en régions à l’aide de l’algorithme de ligne de partage des eaux. Un nouvel algorithme de seuillage d’images gradient est également présenté. Basée sur une approximation par deux droites de la pente descendante de l’histogramme unimodal, cette technique possède la propriété d’être robuste aux variations statistiques de l’histogramme. La stratégie a été validée in situ avec une implémentation prototype. Les tests soulignent le potentiel de cette démarche et de l’interprétation automatique des images, afin de caractériser et classifier au mieux les différents types de membranes
New segmentation techniques are elaborated in this thesis to control a transmission electron microscope and to characterize 2D crystals of membrane proteins. A strategy based on image analysis has been developed to drive the micrograph acquisition process. It is organized in three steps during which the microscope is progressively directed to the regions of interest (ROI). Adapted tools have been developed to select those ROI at low and medium magnification. At high magnification, the crystallinity of the selected regions is analyzed. Images of membranes have a poor contrast and are very noisy. Our main segmentation algorithm proposes a multi-resolution gradient analysis, combined with a scale-adapted threshold. The edge information thresholded at different scales is gathered to build the Reconstructed Gradient-Like image. The watershed algorithm is then applied to partition this image into meaningful regions. A new tool is also introduced to threshold gradient images, based on a piecewise linear regression of the descending slope of the unimodal histogram. This method is robust to statistical variations of the histograms. The automatic analysis strategy has been validated with an in situ implementation of a prototype. Tests underline the potential of this work and of automatic image analysis for the best possible characterization and classification of the membranes
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Pons, Bernad Gemma. "Aide à l’interprétation d’images radar à ouverture synthétique : analyse conjointe des propriétés géométriques et radiométriques des images SAR". Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30013.

Testo completo
Abstract (sommario):
Le travail de cette thèse s'inscrit dans les efforts de recherche qui sont actuellement entrepris sur la segmentation et la classification pour faciliter l'interprétation des images radar. Notre thèse contribue à ces recherches en proposant une démarche semi-automatique d'analyse de scènes pour aider à l'interprétation des images acquises par un radar à ouverture synthétique (SAR). Elle s'attache principalement à l'application des méthodes de segmentation à des problèmes de classification et de reconnaissance d'objets. Son objectif est de proposer des méthodes rapides et simples, aisément compréhensibles par des utilisateurs non experts en traitement d'image. Une architecture en deux étapes est proposée. Lors de la première étape, une partition de l’image SAR est obtenue de manière non supervisée à l’aide d’une grille active statistique fondée sur la minimisation de la complexité stochastique. La seconde étape consiste à extraire de chaque région des attributs (statistiques, géométriques, des paramètres de texture) permettant de classer de manière semi-supervisée chaque région extraite. Une approche hiérarchique est retenue. En pratique, l’algorithme proposé fournit une classification initiale de l’occupation des sols ainsi que des mesures de confiance pour chaque région. Cette classification initiale peut être utilisée comme une aide à l'interprétation de l'image ou comme une source d'informations pour des traitements ultérieurs
The work of this thesis is part of the research efforts that are currently being undertaken on segmentation and classification to ease radar images interpretation. Our thesis contributes to this research by proposing a semi-automatic scene analysis approach to assist the interpretation of images acquired by a synthetic aperture radar (SAR). Mainly, it is focused on the application of segmentation methods to classification and object recognition problems. Its aim is to propose fast and simple methods, easily comprehensible by non-expert users in image processing. The proposed approach is a two-stage algorithm. First, a SAR image partition is obtained in a non-supervised manner by using a statistical active grid based on the minimization of the stochastic complexity. Then, discriminative features (statistics, geometrics and texture parameters) are calculated for each extracted region in order to classify them in a semi-supervised manner. A hierarchical approach is adopted. In practice, the proposed algorithm provides an initial land use classification as well as confidence measures for each region. This initial classification can be used as an aid to the image interpretation or as a source of information for further processing
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Bonneau, Stephane. "Chemins minimaux en analyse d’images : nouvelles contributions et applications à l’imagerie biologique". Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090062.

Testo completo
Abstract (sommario):
Initialement introduites en analyse d'images pour minimiser globalement la fonctionnelle des contours actifs géodésiques, les techniques basées sur les chemins minimaux permettent d'extraire d'une image des courbes ouvertes ou fermées de manière robuste. Numériquement, les chemins minimaux sont obtenus en résolvant l'équation Eikonale sur une grille discrète avec un algorithme rapide appelé Fast Marching. Dans cette thèse, nous présentons de nouvelles approches basées sur les chemins minimaux et montrons leur intérêt pour l'analyse d'images biologiques. Cette thèse comporte trois parties. Dans la première partie, nous dressons un état de l'art des modèles déformables basés frontières et des méthodes basées sur les chemins minimaux proposées jusqu'ici dans la littérature. Dans la deuxième partie, nous proposons une nouvelle approche pour automatiquement détecter et suivre, dans des séquences d'images de fluorescence 2D, des objets ponctuels visibles par intermittence. Les trajectoires des objets en mouvement, assimilées à des chemins minimaux définis dans un espace spatiotemporel, sont reconstruites avec une technique de groupement perceptuel basée sur une propagation de fronts dans le volume 2D+T. Dans une troisième partie, nous nous intéressons à l'extraction de surfaces dans des images 3D. Nous introduisons d'abord une approche par propagation de fronts permettant de paver une surface fermée par un ensemble de points. Nous proposons ensuite une méthode pour extraire un patch de surface à partir d'un point en construisant un réseau dense de chemins minimaux, puis étendons cette méthode afin d'extraire une surface fermée, de manière rapide et robuste, à partir de quelques points de surface
Introduced first in image analysis to globally minimize the geodesic active contour functionnal, minimal paths techniques are robust tools for extracting open and closed contours from images. Minimal paths are computed by solving the Eikonal equation on a discrete grid with an efficient algorithm called Fast Marching. In this thesis, we present novel approaches based on minimal paths. The interest of these techniques is illustrated by the analysis of biological images. This thesis consists of three parts. In the first part, we review the relevant litterature in boundary-based deformable models and minimal paths techniques. In the second part, we propose a new approach for automatically detecting and tracking, in sequences of 2D fluorescence images, punctual objects which are intermittently visible. Trajectories of moving objects, considered as minimal paths in a spatiotemporal space, are retrieved using a perceptual grouping approach based on front propagation in the 2D+T volume. The third part adresses the problem of surface extraction in 3D images. First, we introduce a front propagation approach to distribute a set of points on a closed surface. Then, we propose a method to extract a surface patch from a single point by constructing a dense network of minimal paths. We finally present an extension of this method to extract a closed surface, in a fast and robust manner, from a few points lying on the surface
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Bricq, Stéphanie. "Segmentation d’images IRM anatomiques par inférence bayésienne multimodale et détection de lésions". Université Louis Pasteur (Strasbourg) (1971-2008), 2008. https://publication-theses.unistra.fr/public/theses_doctorat/2008/BRICQ_Stephanie_2008.pdf.

Testo completo
Abstract (sommario):
L'imagerie médicale fournit un nombre croissant de données. La segmentation automatique est devenue une étape fondamentale pour l'analyse quantitative de ces images dans de nombreuses pathologies cérébrales comme la sclérose en plaques (SEP). Nous avons focalisé notre étude sur la segmentation d'IRM cérébrales. Nous avons d'abord proposé une méthode de segmentation des tissus cérébraux basée sur le modèle des chaînes de Markov cachées, permettant d'inclure l'information a priori apportée par un atlas probabiliste et prenant en compte les principaux artefacts présents sur les images IRM. Nous avons ensuite étendu cette méthode à la détection de lésions SEP grâce à un estimateur robuste. Nous avons également développé une méthode de segmentation d'IRM 3D basée sur les contours actifs statistiques pour raffiner la segmentation des lésions. Les résultats obtenus ont été comparés avec d'autres méthodes de segmentation et avec des segmentations manuelles réalisées par des médecins
Medical imaging provides a growing number of data. Automatic segmentation has become a fundamental step for quantitative analysis of these images in many brain diseases such as multiple sclerosis (MS). We focused our study on brain MRI segmentation and MS lesion detection. At first we proposed a method of brain tissue segmentation based on hidden Markov chains taking into account neighbourhood information. This method can also include prior information provided by a probabilistic atlas and takes into account the artefacts appearing on MR images. Then we extended this method to detect MS lesions thanks to a robust estimator and prior information provided by a probabilistic atlas. We have also developed a 3D MRI segmentation method based on statistical active contours to refine the lesion segmentation. The results were compared with other existing methods of segmentation, and with manual expert segmentations
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Randrianasoa, Tianatahina Jimmy Francky. "Représentation d'images hiérarchique multi-critère". Thesis, Reims, 2017. http://www.theses.fr/2017REIMS040/document.

Testo completo
Abstract (sommario):
La segmentation est une tâche cruciale en analyse d’images. L’évolution des capteurs d’acquisition induit de nouvelles images de résolution élevée, contenant des objets hétérogènes. Il est aussi devenu courant d’obtenir des images d’une même scène à partir de plusieurs sources. Ceci rend difficile l’utilisation des méthodes de segmentation classiques. Les approches de segmentation hiérarchiques fournissent des solutions potentielles à ce problème. Ainsi, l’Arbre Binaire de Partitions (BPT) est une structure de données représentant le contenu d’une image à différentes échelles. Sa construction est généralement mono-critère (i.e. une image, une métrique) et fusionne progressivement des régions connexes similaires. Cependant, la métrique doit être définie a priori par l’utilisateur, et la gestion de plusieurs images se fait en regroupant de multiples informations issues de plusieurs bandes spectrales dans une seule métrique. Notre première contribution est une approche pour la construction multicritère d’un BPT. Elle établit un consensus entre plusieurs métriques, permettant d’obtenir un espace de segmentation hiérarchique unifiée. Par ailleurs, peu de travaux se sont intéressés à l’évaluation de ces structures hiérarchiques. Notre seconde contribution est une approche évaluant la qualité des BPTs en se basant sur l’analyse intrinsèque et extrinsèque, suivant des exemples issus de vérités-terrains. Nous discutons de l’utilité de cette approche pour l’évaluation d’un BPT donné mais aussi de la détermination de la combinaison de paramètres adéquats pour une application précise. Des expérimentations sur des images satellitaires mettent en évidence la pertinence de ces approches en segmentation d’images
Segmentation is a crucial task in image analysis. Novel acquisition devices bring new images with higher resolutions, containing more heterogeneous objects. It becomes also easier to get many images of an area from different sources. This phenomenon is encountered in many domains (e.g. remote sensing, medical imaging) making difficult the use of classical image segmentation methods. Hierarchical segmentation approaches provide solutions to such issues. Particularly, the Binary Partition Tree (BPT) is a hierarchical data-structure modeling an image content at different scales. It is built in a mono-feature way (i.e. one image, one metric) by merging progressively similar connected regions. However, the metric has to be carefully thought by the user and the handling of several images is generally dealt with by gathering multiple information provided by various spectral bands into a single metric. Our first contribution is a generalized framework for the BPT construction in a multi-feature way. It relies on a strategy setting up a consensus between many metrics, allowing us to obtain a unified hierarchical segmentation space. Surprisingly, few works were devoted to the evaluation of hierarchical structures. Our second contribution is a framework for evaluating the quality of BPTs relying both on intrinsic and extrinsic quality analysis based on ground-truth examples. We also discuss about the use of this evaluation framework both for evaluating the quality of a given BPT and for determining which BPT should be built for a given application. Experiments using satellite images emphasize the relevance of the proposed frameworks in the context of image segmentation
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Zhang, Peng. "Contribution des fonctions de croyance à la segmentation d’images tomodensitométriques thoraciques en radiothérapie conformationnelle". Rouen, 2006. http://www.theses.fr/2006ROUES054.

Testo completo
Abstract (sommario):
La segmentation d’images est un processus visant à décomposer une image en un ensemble de régions. Compte tenu de l’importance de l’imagerie en médecine, il existe de nombreuses applications à la segmentation. L’une d’entre elles est la délinéation des organes à risque et du volume tumoral en radiothérapie conformationnelle. Cependant, la problématique de la segmentation d’images est complexe en raison de la diversité des méthodes d’imagerie et des tissus biologiques à segmenter, du faible contraste parfois rencontré et de la présence de bruit. Compte tenu de cette diversité, nous présentons dans cette thèse l’étude, la conception et le développement d’outils de segmentation d’images TomoDensitoMétriques (TDM) à visée de radiothérapie conformationnelle. La contribution essentielle de ce travail repose sur l’application de la théorie des fonctions de croyance à la segmentation d’images TDM thoraciques. La méthode est nommée « étiquetage crédibiliste ». Pour permettre l’intégration d’informations contextuelles, nous proposons de prendre en considération les corrélations spatiales entre voxels dans la modélisation des données par la fusion d’informations provenant du voisinage. Chaque voxel est considéré comme une vision particulière, qui apporte ainsi une information partielle, complétée ou confirmée par les voxels voisins de la coupe et des coupes voisines. L’intérêt majeur des fonctions de croyance est la gestion de données incertaines et imprécises telles que les niveaux de gris en imagerie médicale, mais également la définition d’un cadre mathématique permettant la fusion d’information provenant de plusieurs sources, ici les voxels voisins. S’appuyant sur cette méthode, nous avons développé le logiciel SIPEC, pour Segmentation d’Image Par Etiquetage Crédibiliste, permettant la délinéation du contour du patient, la segmentation des poumons et du canal médullaire. Nous avons comparé ce logiciel avec le logiciel clinique ECLIPSETM (VARIAN v7. 1. 3) sur 30 séries d’images TDM thoraciques. Les résultats montrent que les outils de segmentation proposés en clinique reposent sur une algorithme beaucoup plus simple et rapide que SIPEC (par exemple, la durée moyenne pour la segmentation automatique des poumons : ECLIPSE (3 minutes) vs SIPEC (10 minutes)), mais au détriment de la qualité de la segmentation. De ce fait, le nombre (par exemple, le nombre de retouches moyen des poumons : ECLIPSE (43) vs SIPEC (5)) et l’importance des retouches sont bien moindres avec le logiciel SIPEC qu’avec le logiciel clinique. Il en résulte une durée totale de segmentation des 3 volumes comparable entre les 2 outils (ECLIPSE (23 minutes) vs SIPEC (20 minutes)), avec l’avantage majeure pour SIPEC d’être automatique et de nécessiter peu de retouches ultérieures. Par ailleurs la durée du traitement devrait suivre l’amélioration de l’algorithme et la rapidité des horloges processeurs. Les perspectives de ce travail sont nombreuses. La technique de segmentation pourrait être appliquée à d’autres modalités d’imagerie (IRM, TEP,. . . ), mais également à l’imagerie multimodalité (TEP-TDM ou autre) en s’appuyant, ici, sur la modélisation de la fusion d’information multimodalité
Image segmentation is a process aiming at partitioning an image into several regions. Taking into account the importance of the imagery in medicine, there are many applications of the segmentation. One of them is the delineation of the organ at the risk and tumoral volume in conformational radiotherapy. However, the problems of image segmentation are complex due to the diversity of the imagery methods and biological tissues to segment, the weak contrast sometimes met and the presence of noise. Considering this diversity, we present in this thesis study, design and development of the tools for segmentation of Computed Tomography (CT) images aiming for conformational radiotherapy. The essential contribution of this work rests on the application of the belief functions theory in the segmentation of thoracic CT images. The method is named "credibilist labeling". To integrate the contextual information, we propose to take into account the space correlations between voxels in the data modeling by fusion of the information coming from the neighbors. Each voxel is considered as a particular vision, which brings thus partial information, supplemented or confirmed by the neighborhood voxels of the slice or the neighborhood slices. The major interest of the belief functions is it’s capacity to deal with uncertainty and imprecise data such as the grey levels in medical imagery, but also the definition of a mathematical frame allowing the fusion of information coming from several sources, here the neighborhood voxels. Based on this method, we developed the software SIPEC, for Segmentation d’Image Par Etiquetage Crédibiliste, allowing delineation of the patient’s contour, segmentation of the lungs and the spinal canal. We compared this software with clinical software ECLIPSETM (VARIAN v7. 1. 3) on 30 sets thoracic CT images. The results show that the tools proposed in clinic for segmentation rest on an algorithm much simpler and rapid than SIPEC (for example, the mean duration for the automatic segmentation of the lungs: ECLIPSE (3 minutes) vs. SIPEC (10 minutes)), but with the detriment of segmentation quality. So the number (for example, the mean manual corrections number for the lungs: ECLIPSE (43) vs. SIPEC (5)) and the importance of the manual corrections are quite less with software SIPEC than with the clinical software. It results the comparable total duration for segmentation of 3 volumes between the 2 tools (ECLIPSE (23 minutes) vs. SIPEC (20 minutes)), with the major advantage for SIPEC: being automatic and requiring few manual corrections. In addition, the treatment duration could be improved by ameliorating the algorithm and the speed of the processor. The prospects for this work are numerous. The segmentation technique could be applied to other imagery methods (MRI, PET…), but also to the multimodality imagery (PET-CT or other) by modeling the fusion of multimodality information
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Morio, Jérôme. "Analyse d’images PolInSAR à l’aide de techniques statistiques et issues de la théorie de l’information". Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30052.

Testo completo
Abstract (sommario):
Les capteurs radar (SAR) aéroportés haute résolution, tels que RAMSES, mis en oeuvre par l'ONERA, permettent de réaliser des images multicomposantes PolInSAR contenant des informations polarimétriques et/ou interférométriques. Ces images permettent de caractériser la nature du sol et du couvert végétal et peuvent donc être utilisées pour le suivi des cultures en agriculture de précision ou le contrôle de l'environnement. L’application de méthodes statistiques et issues de la théorie de l’information (technique de partition par grille active statistique fondée sur la minimisation de la complexité stochastique, entropie de Shannon, distance de Bhattacharyya) peut ainsi permettre de mieux comprendre l’apport de la radiométrie, de la polarimétrie et de l’interférométrie pour la caractérisation du milieu éclairé par le radar et de déterminer les composantes de ces images qui contiennent l’information pertinente selon les applications
High resolution airborne sensors (SAR) like RAMSES operated by the French Aerospace Lab (ONERA) are able to acquire multicomponent images PolInSAR with polarimetric and/or interferometric information on the scene lightened by the radar. This type of images has thus notably some environmental and agricultural applications (culture follow-up, forest height estimation). The complexity of PolInSAR images implies the implementation of elaborated methods based on statistics and on information theory (image partition technique based on the minimization of the stochastic complexity, Shannon entropy, Bhattacharyya distance) in order to estimate the contributions of radiometry, polarimetry and interferometry for the soil characterization and to determine the system components that bring the most useful information depending on its applications
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Retornaz, Thomas. "Détection de textes enfouis dans des bases d’images généralistes : un descripteur sémantique pour l’indexation". Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1511.

Testo completo
Abstract (sommario):
Les bases de données multimédia, aussi bien personnelles que professionnelles, se développent considérablement et les outils automatiques pour leur gestion efficace deviennent indispensables. L’effort des chercheurs pour développer des outils d’indexation basés sur le contenu sont très importants, mais le fossé sémantique est difficile à franchir : les descripteurs de bas niveau généralement utilisés montrent leurs limites dans des cadres applicatifs de plus en plus ouverts. Le texte présent dans les images est souvent relié au contexte sémantique et constitue un descripteur pertinent. Dans cette thèse nous proposons un système de localisation de texte dans des bases d’images génériques, qui tend à être robuste au changement d’échelle et aux déformations usuelles du texte enfoui. Notre système est basé sur un opérateur résiduel numérique, l’ouvert ultime. Dans une première partie nous étudions le comportement de cet opérateur sur des images réelles, et proposons des solutions pour pallier certaines limitations. Dans une seconde partie l’opérateur est inclus dans une chaîne de traitement et complété par différents outils de caractérisation du texte. Les performances de notre approche sont évaluées sur deux bases d’images. Premièrement, nous avons pris part à la campagne d’évaluation ImagEval, remportant la première place dans la catégorie «localisation de texte». Deuxièmement pour situer notre approche par rapport à l’état de l’art, nous avons effectué des tests avec la base d’évaluation I. C. D. A. R. Enfin, un démonstrateur a été réalisé pour EADS. Pour des raisons de confidentialité, ces travaux n’ont pas pu être intégrés à ce manuscrit
Multimedia data bases, both personal and professional, are continuously growing and the need for automatic solutions becomes mandatory. Effort devoted by the research community to content-based image indexing is also growing, but the semantic gap is difficult to cross: the low level descriptors used for indexing are not efficient enough for an ergonomic manipulation of big and generic image data bases. The text present in a scene is usually linked to image semantic context and constitutes a relevant descriptor for content-based image indexing. In this thesis we present an approach to automatic detection of text from natural scenes, which tends to handle the text in different sizes, orientations, and backgrounds. The system uses a non linear scale space based on the ultimate opening operator (a morphological numerical residue). In a first step, we study the action of this operator on real images, and propose solutions to overcome these intrinsic limitations. In a second step, the operator is used in a text detection framework which contains additionally various tools of text categorisation. The robustness of our approach is proven on two different dataset. First we took part to ImagEval evaluation campaign and our approach was ranked first in the text localisation contest. Second, we produced result (using the same framework) on the free ICDAR dataset, the results obtained are comparable with those of the state of the art. Lastly, a demonstrator was carried out for EADS. Because of confidentiality, this work could not be integrated into this manuscript
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Desquesnes, Xavier. "Propagation de fronts et p-laplacien normalisé sur graphes : algorithmes et applications au traitement d’images et de données". Caen, 2012. http://www.theses.fr/2012CAEN2073.

Testo completo
Abstract (sommario):
Cette thèse s’intéresse à la transcription d’équations aux dérivées partielles vers des domaines discrets en exploitant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Dans une première partie, nous proposons une transcription de l’opérateur p-laplacien normalisé au domaine des graphes comme une combinaison linéaire entre le laplacien infini non-local et le laplacien normalisé (ces deux opérateurs étant discrets). Cette adaptation peut être considérée comme une nouvelle classe d’opérateurs p-laplaciens sur graphes, qui interpolent entre le laplacien infini non-local et le laplacien normalisé. Dans une seconde partie, nous nous intéressons aux équations de propagation de fronts sur des graphes de topologie arbitraire. Ces équations sont obtenues par la transcription de la méthode des ensembles de niveaux, définie en continu, vers une formulation discrète définie sur le domaine des graphes. Au delà de la transcription en elle-même, nous proposons une formulation générale et des algorithmes efficaces pour la propagation simultanée de plusieurs fronts évoluant sur un graphe. Les approches proposées dans ces deux premières parties donnent lieu à de nombreuses applications en segmentation d’images et classification de données que nous illustrons dans ce manuscrit. Enfin, dans une troisième partie, nous présentons une application à l’aide au diagnostic informatisé concrétisant l’emploi des différents outils proposés dans les deux premières parties. Nous présentons également le logiciel Antarctic développé au cours de cette thèse
This work deals with the transcription of continuous partial derivative equations to arbitrary discrete domains by exploiting the formalism of partial difference equations defined on weighted graphs. In the first part, we propose a transcription of the normalized p-Laplacian operator to the graph domains as a linear combination between the non-local infinity Laplacian and the normalized Laplacian (both in their discrete version). This adaptation can be considered as a new class of p-Laplacian operators on graphs that interpolate between non-local infinity Laplacian and normalized Laplacian. In the second part, we present an adaptation of fronts propagation equations on weighted graphs. These equations are obtained by the transcription of the continuous level sets method to a discrete formulation on the graphs domain. Beyond the transcription in itself, we propose a very general formulation and efficient algorithms for the simultaneous propagation of several fronts on a single graph. Both transcription of the p-Laplacian operator and level sets method enable many applications in image segmentation and data clustering that are illustrated in this manuscript. Finally, in the third part, we present a concrete application of the different tools proposed in the two previous parts for computer aided diagnosis. We also present the Antarctic software that was developed during this PhD
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Giraud, Remi. "Algorithmes de correspondance et superpixels pour l’analyse et le traitement d’images". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0771/document.

Testo completo
Abstract (sommario):
Cette thèse s’intéresse à diverses composantes du traitement et de l’analyse d’images par méthodes non locales. Ces méthodes sont basées sur la redondance d’information présente dans d’autres images, et utilisent des algorithmes de recherche de correspondance, généralement basés sur l’utilisation patchs, pour extraire et transférer de l’information depuis ces images d’exemples. Ces approches, largement utilisées par la communauté de vision par ordinateur, sont souvent limitées par le temps de calcul de l’algorithme de recherche, appliqué à chaque pixel, et par la nécessité d’effectuer un prétraitement ou un apprentissage pour utiliser de grandes bases de données.Pour pallier ces limites, nous proposons plusieurs méthodes générales, sans apprentissage,rapides, et qui peuvent être facilement adaptées à diverses applications de traitement et d’analyse d’images naturelles ou médicales. Nous introduisons un algorithme de recherche de correspondances permettant d’extraire rapidement des patchs d’une grande bibliothèque d’images 3D, que nous appliquons à la segmentation d’images médicales. Pour utiliser de façon similaire aux patchs,des présegmentations en superpixels réduisant le nombre d’éléments de l’image,nous présentons une nouvelle structure de voisinage de superpixels. Ce nouveau descripteur permet d’utiliser efficacement les superpixels dans des approches non locales. Nous proposons également une méthode de décomposition régulière et précise en superpixels. Nous montrons comment évaluer cette régularité de façon robuste, et que celle-ci est nécessaire pour obtenir de bonnes performances de recherche de correspondances basées sur les superpixels
This thesis focuses on several aspects of image analysis and processing with non local methods. These methods are based on the redundancy of information that occurs in other images, and use matching algorithms, that are usually patch-based, to extract and transfer information from the example data. These approaches are widely used by the computer vision community, and are generally limited by the computational time of the matching algorithm, applied at the pixel scale, and by the necessity to perform preprocessing or learning steps to use large databases. To address these issues, we propose several general methods, without learning, fast, and that can be easily applied to different image analysis and processing applications on natural and medical images. We introduce a matching algorithm that enables to quickly extract patches from a large library of 3D images, that we apply to medical image segmentation. To use a presegmentation into superpixels that reduces the number of image elements, in a way that is similar to patches, we present a new superpixel neighborhood structure. This novel descriptor enables to efficiently use superpixels in non local approaches. We also introduce an accurate and regular superpixel decomposition method. We show how to evaluate this regularity in a robust manner, and that this property is necessary to obtain good superpixel-based matching performances
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Robinault, Lionel. "Mosaïque d’images multi résolution et applications". Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20039.

Testo completo
Abstract (sommario):
Le travail de thèse que nous présentons s’articule autour de l’utilisation de caméras motorisées à trois degrés de liberté, également appelées caméras PTZ. Ces caméras peuvent être pilotées suivant deux angles. L’angle de panorama (θ) permet une rotation autour d’un axe vertical et l’angle de tangage (ϕ) permet une rotation autour d’un axe horizontal. Si, théoriquement, ces caméras permettent donc une vue omnidirectionnelle, elles limitent le plus souvent la rotation suivant l’angle de panorama mais surtout suivant l’angle de tangage. En plus du pilotage des rotations, ces caméras permettent également de contrôler la distance focale permettant ainsi un degré de liberté supplémentaire. Par rapport à d’autres modèles, les caméras PTZ permettent de construire un panorama - représentation étendue d’une scène construite à partir d’une collection d’image - de très grande résolution. La première étape dans la construction d’un panorama est l’acquisition des différentes prises de vue. A cet effet, nous avons réalisé une étude théorique permettant une couverture optimale de la sphère à partir de surfaces rectangulaires en limitant les zones de recouvrement. Cette étude nous permet de calculer une trajectoire optimale de la caméra et de limiter le nombre de prises de vues nécessaires à la représentation de la scène. Nous proposons également différents traitements permettant d’améliorer sensiblement le rendu et de corriger la plupart des défauts liés à l’assemblage d’une collection d’images acquises avec des paramètres de prises de vue différents. Une part importante de notre travail a été consacrée au recalage automatique d’images en temps réel, c’est à dire que chaque étapes est effectuée en moins de 40ms pour permettre le traitement de 25 images par seconde. La technologie que nous avons développée permet d’obtenir un recalage particulièrement précis avec un temps d’exécution de l’ordre de 4ms (AMD1.8MHz). Enfin, nous proposons deux applications de suivi d’objets en mouvement directement issues de nos travaux de recherche. La première associe une caméra PTZ à un miroir sphérique. L’association de ces deux éléments permet de détecter tout objet en mouvement dans la scène puis de se focaliser sur l’un d’eux. Dans le cadre de cette application, nous proposons un algorithme de calibrage automatique de l’ensemble caméra et miroir. La deuxième application n’exploite que la caméra PTZ et permet la segmentation et le suivi des objets dans la scène pendant le mouvement de la caméra. Par rapport aux applications classiques de suivi de cible en mouvement avec une caméra PTZ, notre approche se différencie par le fait que réalisons une segmentation fine des objets permettant leur classification
The thesis considers the of use motorized cameras with 3 degrees of freedom which are commonly called PTZ cameras. The orientation of such cameras is controlled according to two angles: the panorama angle (θ) describes the degree of rotation around on vertical axis and the tilt angle (ϕ) refers to rotation along a meridian line. Theoretically, these cameras can cover an omnidirectional field of vision of 4psr. Generally, the panorama angle and especially the tilt angle are limited for such cameras. In addition to control of the orientation of the camera, it is also possible to control focal distance, thus allowing an additional degree of freedom. Compared to other material, PTZ cameras thus allow one to build a panorama of very high resolution. A panorama is a wide representation of a scene built starting from a collection of images. The first stage in the construction of a panorama is the acquisition of the various images. To this end, we made a theoretical study to determine the optimal paving of the sphere with rectangular surfaces to minimize the number of zones of recovery. This study enables us to calculate an optimal trajectory of the camera and to limit the number of images necessary to the representation of the scene. We also propose various processing techniques which appreciably improve the rendering of the mosaic image and correct the majority of the defaults related to the assembly of a collection of images which were acquired with differing image capture parameters. A significant part of our work was used to the automatic image registration in real time, i.e. lower than 40ms. The technology that we developed makes it possible to obtain a particularly precise image registration with an computation time about 4ms (AMD1.8MHz). Our research leads directly to two proposed applications for the tracking of moving objects. The first involves the use of a PTZ camera and a spherical mirror. The combination of these two elements makes it possible to detect any motion object in the scene and to then to focus itself on one of them. Within the framework of this application, we propose an automatic algorithm of calibration of the system. The second application exploits only PTZ camera and allows the segmentation and the tracking of the objects in the scene during the movement of the camera. Compared to the traditional applications of motion detection with a PTZ camera, our approach is different by the fact that it compute a precise segmentation of the objects allowing their classification
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Boudjelaba, Kamal. "Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images". Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2015/document.

Testo completo
Abstract (sommario):
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application
The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Castro, Miguel. "Navigation endovasculaire augmentée : mise en correspondance d’images pré- et per-opératoires". Rennes 1, 2010. http://www.theses.fr/2010REN1S183.

Testo completo
Abstract (sommario):
Nos travaux s’inscrivent dans le cadre de la navigation endovasculaire (Cathéterisme, pose d’endoprothèse,. . . ), où se posent des problèmes complexes liés à la déformation des structures anatomiques lorsqu’elles sont soumises à l’introduction d’outils relativement rigides (guides rigide, endoprothèse). La contribution de cette thèse concerne l’exploitation optimisée des données per-opératoires et vue d’établir la correspondance préopératoire (3D TDM) et per-opératoire (angiographie 2D) au sein d’un système de réalité augmentée pour l’angionavigation. L’établissement de cette correspondance passe par une décomposition de la transformation 3D/2D (transformation projective plus transformation rigide 3D/3D) ainsi que par des algorithmes d’estimation des différents paramètres (intrinsèques, extrinsèques) sous des contraintes liées à l’environnement interventionnel. Cette approche fait intervenir un processus de calibrage pour les paramètres intrinsèques du C-arm, une décomposition de la transformation rigide 3D/3D en deux transformations dont les deux ensembles de paramètres extrinsèques sont, pour l’un, estimés par recalage dans le plan de la table d’opération, et peuvent être, pour l’autre, donnés par le dispositif d’imagerie ou bien obtenus au moyen d’un système de localisation 3D optique. Le réajustement du modèle 3D décrivant initialement les données patient préopératoires non déformées est envisagé au travers d’une méthode géométrique d’estimation des déformations résultant des interactions outils/tissus en fonction des observations per-opératoires. Des acquisitions sur fantômes dans des conditions cliniques et sur données réelles ont permis d’évaluer l’approche proposée
Our work lies within the scope of the endovascular navigation (catheterization, stenting,. . . ), where complex difficulties related to the anatomical structural deformation arise when they are subjected to the introduction of relatively rigid tools (rigid guides, stent). The contribution of this thesis deals with the optimal use of intraoperative data in order to establish correspondence of preoperative (3D CT) and intraoperative (2D angiography) data within an augmented reality system for angionavigation. The establishment of this correspondence is based on the decomposition of the 3D/2D transformation (projective transformation plus 3D/3D rigid transformation) and algorithms for estimating parameters (intrinsic, extrinsic) under the constraints of the interventional environment. This approach involves a process of calibration for the intrinsic parameters of the C-arm, a decomposition of the 3D/3D rigid transformation into two transformations whereof the two sets of extrinsic parameters are, for one, a registration method restricted to the plane of the operating table, and can be, for the other, given by the imaging device or obtained through a 3D optical tracking system. The readjustment of the 3D model describing the initial nondeformed preoperative patient data is considered through a geometric method estimating deformations due to tool / tissue interactions and based on intraoperative observations. Acquisitions on phantoms under clinical conditions and real data were used to evaluate the proposed approach
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Ruggieri, Vito Giovanni. "Analyse morphologique des bioprothèses valvulaires aortiques dégénérées par segmentation d’images TDM". Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/2be5652f-691e-4682-a0a0-e8db55bb95d9.

Testo completo
Abstract (sommario):
Le but de cette étude est d’évaluer la faisabilité de l’analyse tomodensitométrique 3D des bioprothèses aortiques pour faciliter leur évaluation morphologique durant le suivi et d’aider à la sélection des cas et à l'amélioration de la planification d’une procédure valve-in-valve. Le principal défi concernait le rehaussement des feuillets valvulaires, en raison d’images très bruitées. Un scanner synchronisé était réalisé chez des patients porteurs d’une bioprotèse aortique dégénérée avant réintervention (images in-vivo). Différentes méthodes pour la réduction du bruit étaient proposées. La reconstruction tridimensionnelle des bioprothèses était réalisée en utilisant des méthodes de segmentation de régions par "sticks". Après ré-opération ces méthodes étaient appliquées aux images scanner des bioprothèses explantées (images ex-vivo) et utilisées comme référence. La réduction du bruit obtenue par le filtre stick modifié montrait de meilleurs résultats, en rapport signal/bruit, en comparaison aux filtres de diffusion anisotrope. Toutes les méthodes de segmentation ont permis une reconstruction 3D des feuillets. L’analyse qualitative a montré une bonne concordance entre les images obtenues in-vivo et les altérations des bioprothèses. Les résultats des différentes méthodes étaient comparés par critères volumétriques et discutés. Les images scanner des bioprothèses aortiques nécessitent un traitement de débruitage et de réduction des artéfacts de façon à permettre le rehaussement des feuillets prothétiques. La méthode de segmentation de régions par sticks semble représenter une approche pertinente pour caractériser morphologiquement la dégénérescence des bioprothèses
The aim of the study was to assess the feasibility of CT based 3D analysis of degenerated aortic bioprostheses to make easier their morphological assessment. This could be helpful during regular follow-up and for case selection, improved planning and mapping of valve-in-valve procedure. The challenge was represented by leaflets enhancement because of highly noised CT images. Contrast-enhanced ECG-gated CT scan was performed in patients with degenerated aortic bioprostheses before reoperation (in-vivo images). Different methods for noise reduction were tested and proposed. 3D reconstruction of bioprostheses components was achieved using stick based region segmentation methods. After reoperation, segmentation methods were applied to CT images of the explanted prostheses (ex-vivo images). Noise reduction obtained by improved stick filter showed best results in terms of signal to noise ratio comparing to anisotropic diffusion filters. All segmentation methods applied to in-vivo images allowed 3D bioprosthetic leaflets reconstruction. Explanted bioprostheses CT images were also processed and used as reference. Qualitative analysis revealed a good concordance between the in-vivo images and the bioprostheses alterations. Results from different methods were compared by means of volumetric criteria and discussed. ECG-gated CT images of aortic bioprostheses need a preprocessing to reduce noise and artifacts in order to enhance prosthetic leaflets. Stick region based segmentation seems to provide an interesting approach for the morphological characterization of degenerated bioprostheses
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Atié, Michèle. "Perception des ambiances lumineuses d'architectures remarquables : analyse des impressions en situation réelle et à travers des photographies omnidirectionnelles dans un casque immersif". Electronic Thesis or Diss., Ecole centrale de Nantes, 2024. http://www.theses.fr/2024ECDN0047.

Testo completo
Abstract (sommario):
Cette thèse s’inscrit au croisement des domaines des ambiances lumineuses, de la pédagogie architecturale, de la perception et de l’immersion. Elle se concentre principalement sur la conception et la mise en oeuvre d’une nouvelle méthodologie expérimentale ayant pour but d’évaluer la capacité des photographies statiques omnidirectionnelles stéréoscopiques HDR, projetées dans un casque immersif, à restituer fidèlement des impressions subjectives d’ambiances lumineuses vécues dans des architectures de référence. Une attention particulière est accordée à l’influence des opérateurs de mappage de tons (TMOs). La méthodologie développée comprend plusieurs étapes : la constitution d’une grille d’analyse des ambiances lumineuses de lieux remarquables basée sur des propos d'experts ; la mise en place d’une méthode de collecte de données in situ pour l’évaluation des ambiances lumineuses (questionnaire, relevés lumineux, captationsphotographiques omnidirectionnelles HDR) ; et la mise en place d’une méthode d’évaluation des ambiances lumineuses dans un casque immersif. Les résultats fournissent des connaissances sur les caractéristiques des ambiances lumineuses in situ de sept architectures remarquables et sur la fidélité de perception de chaque impression d’ambiance lumineusedans le casque immersif en fonction des TMOs. Ils mettent également en évidence le lien entre les impressions sélectionnées par les propos d’experts et celles évaluées in situ et dans le casque immersif. Ces connaissances sont utiles pour des applications pédagogiques futures en architecture
This thesis is at the crossroads of the fields of luminous atmospheres, architectural pedagogy, perception and immersion. It focuses on the design and implementation of a new experimental methodology for evaluating the ability of HDR stereoscopic omnidirectional static photographs, projected in an immersive Head-Mounted Display (HMD), to faithfully reproducesubjective impressions of luminous atmospheres experienced in reference architectural places. Specific consideration is given to the impact of tone mapping operators (TMOs). Our methodology involves several steps: designing a grid for analyzing the luminous atmospheres of iconic places based on expert judgement; implementing in situ data collection to assess luminous atmospheres (questionnaire, light measurements, HDR omnidirectional photographic recordings), and implementinga method for assessing luminous atmospheres in an HMD. The results provide knowledge about the characteristics of the in situ luminous atmospheres of seven iconic buildings and the perceptual fidelity of each luminous atmosphere’s impression in the HMD, depending on the TMOs. The findings also highlight the relationship between the impressions selected by the experts and those assessed in situ and in the HMD. This knowledge is useful for future pedagogical applications in architecture
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Deslandes, François. "Modélisation de la dynamique des corps lipidiques chez Arabidopsis thaliana". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA042.

Testo completo
Abstract (sommario):
L'objectif du projet de thèse est de décortiquer les mécanismes responsables du phénotype des corps lipidiques à l'échelle cellulaire et à l'échelle de la graine. Dans un premier temps, l'étude d'un modèle de la forme de gouttes lipidiques situées entre les deux feuillets d'une bicouche lipidique révèle l'existence d'un volume critique au delà duquel une transition spontanée d'une forme symétrique allongée vers une forme sphérique a lieu. Une étude de ce mécanisme de bourgeonnement est donnée et apporte un éclairage sur la formation des corps lipidiques. La segmentation de corps lipidiques dans des images de microscopie confocale et leur suivi temporel permet de détecter des événements de fusion entre corps lipidiques. Une méthode basée sur l'hypothèse de conservation du volume permet de détecter ces événements à partir des mesures de volumes des corps lipidiques le long des trajectoires pour plusieurs embryons d'A. thaliana. Enfin, un modèle de coalescence des corps lipidiques au cours du développement de jeunes embyrons d'A. thaliana est développé. Les taux de fusion de ce modèle sont estimés et comparés pour plusieurs embryons, sauvage et mutants d'oléosines, à partir de mesures de volumes de corps lipidiques issues d'images à plusieurs stades de développement
The aim of the PhD project is to dissect the mechanisms involved in the phenotype of lipid droplets both at the cellular level and the seed level. Studying a model of a lipid droplet embedded in the leaflets of a lipid bilayer reveals the existence of a critical volume at which the shape of the droplet breaks from a symmetrical elongated lens to a spherical protrusion. This budding mechanisms provides new insights in the formation of lipid droplets. Segmentation and tracking of lipid droplets from timelapse confocal microscopy images allows the detection of lipid droplets fusion events. A method based on the conservation of volume during the fusion event is developed and applied to detect fusion events for several embryos of A. thaliana. A model of the coalescence of lipid droplets during the development of early A. thaliana embryos is developed. The fusion rate is estimated and compared in different wild type and mutant embryos. The estimation is based on lipid droplets volumes measured from images at different stages of the development of the embryos
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Burte, Victor. "Étude des stratégies de mouvement chez les parasitoïdes du genre Trichogramma : apports des techniques d’analyse d’images automatiques". Electronic Thesis or Diss., Université Côte d'Azur (ComUE), 2018. http://theses.univ-cotedazur/2018AZUR4223.

Testo completo
Abstract (sommario):
Les parasitoïdes du genre Trichogramma sont des micro-hyménoptères oophages très utilisés comme auxiliaires de lutte biologique. Ma thèse a pour objet la caractérisation phénotypique des stratégies de mouvement de cet auxiliaire, spécifiquement les mouvements impliqués dans l’exploration de l’espace et la recherche des œufs hôtes. Ces derniers sont des phénotypes de grande importance dans le cycle de vie des trichogrammes, et aussi des caractères d’intérêt pour évaluer leur efficacité en lutte biologique. Les trichogrammes étant des organismes de très petite taille (moins de 0,5 mm), difficilement observables, l’étude de leur mouvement peut tirer profit des avancées technologiques dans l’acquisition et l’analyse automatique des images. C’est cette stratégie que j’ai suivi en combinant un volet de développement méthodologique et un volet expérimental. Dans une première partie méthodologique, je présente trois grands types de méthodes d’analyse d’images que j’ai utilisées et contribué à développer au cours de ma thèse. Dans un second temps, je présente trois applications de ces méthodes à l’étude du mouvement chez le trichogramme. Premièrement, nous avons caractérisé au laboratoire les préférences d’orientation (phototaxie, géotaxie et leur interaction) lors de la ponte chez 18 souches de trichogramme, appartenant à 6 espèces. Ce type d’étude requérant le dénombrement d’un très grand nombre d’œufs (sains et parasités), il a été développé un nouvel outil dédié, sous forme d’un plugin ImageJ/FIJI mis à disposition de la communauté. Ce plugin flexible automatise et rend plus productible les tâches de dénombrement et d’évaluation de taux de parasitisme, rendant possible des screenings de plus grande ampleur. Une grande variabilité a pu être mise en évidence au sein du genre, y compris entre souches d’une même espèce. Cela suggère qu’en fonction de la strate végétale à protéger (herbacée, arbustive, arborée), il serait possible de sélectionner des souches afin d’optimiser leur exploitation de la zone ciblée. Dans un second temps, nous avons caractérisé les stratégies d’exploration (vitesses, trajectoires, ...) d’un ensemble de souches et d’espèces de trichogramme pour rechercher des traits propres à chaque souche ou espèce. Pour cela, j’ai mis en œuvre une méthode de tracking de groupes de trichogrammes sur enregistrement vidéo sur de courtes échelles de temps à l’aide du logiciel Ctrax et de scripts R. L’objectif était de développer un protocole de caractérisation haut-débit du mouvement de souches de trichogrammes et d’étudier la variabilité de ces traits au sein du genre. Enfin, nous avons conduit une étude de la dynamique de propagation dans l’espace de groupes de trichogrammes chez l’espèce T. cacoeciae, en mettant au point un dispositif expérimental innovant permettant de couvrir des échelles de temps et d’espace supérieures à celles habituellement imposées par les contraintes de laboratoire.Grâce à l’utilisation de prises de vue très haute résolution / basse fréquence et d’un pipeline d’analyse dédié, la diffusion des individus peut être suivie dans un tunnel de plus 6 mètres de long pendant toute une journée. J’ai notamment pu identifier un effet de la densité en individus ainsi que de la distribution des ressources sur la dynamique de propagation (coefficient de diffusion) des trichogrammes testés
Parasitoids of the genus Trichogramma are oophagous micro-hymenoptera widely used as biological control agents. My PhD is about the phenotypic characterization of this auxiliary's movement strategies, specifically the movements involved in the exploration of space and the search for host eggs. These phenotypes have great importance in the life cycle of trichogramma, and also of characters of interest to evaluate their effectiveness in biological control program. Trichogramma being very small organisms (less than 0.5 mm), difficult to observe, the study of their movement can take advantage of technological advances in the acquisition and automatic analysis of images. This is the strategy I followed by combining a methodological development component and an experimental component. In a first methodological part, I present three main types of image analysis methods that I used and helped to develop during my thesis. In a second time, I present three applications of these methods to the study of the movement of Trichogramma. First, we characterized in the laboratory the orientation preferences (phototaxis, geotaxis and their interaction) during egg laying in 22 trichogram strains belonging to 6 species. This type of study requires the counting of a large number of eggs (healthy and parasitized), it was developed a new dedicated tool in the form of an ImageJ / FIJI plugin made available to the community. This flexible plugin automates and makes more productive the tasks of counting and evaluation of parasitism rate, making possible screenings of greater magnitude. A great variability could be highlighted within the genus, including between strains of the same species. This suggests that depending on the plant layer to be protected (grass, shrub, tree), it would be possible to select trichogramma’s strains to optimize their exploitation of the targeted area. In a second time, we characterized the exploration strategies (velocities, trajectories, ...) of a set of 22 strains from 7 trichogramma species to look for traits specific to each strain or species. I implemented a method for tracking a trichogramma group on video recorded on short time scales using the Ctrax software and R scripts. The aim was to develop a protocol for high-throughput characterization of trichogramma strains movement and to study the variability of these traits within the genus. Finally, we conducted a study of the propagation dynamics in trichogramma group from the species T. cacoeciae, by developing an innovative experimental device to cover scales of time and space greater than those usually imposed by laboratory constraints. Through the use of pictures taken at very high resolution / low frequency and a dedicated analysis pipeline, the diffusion of individuals can be followed in a tunnel longer than 6 meters during a whole day. In particular, I was able to identify the effect of the population density as well as the distribution of resources on the propagation dynamics (diffusion coefficient) and the parasitism efficiency of the tested strain
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Journet, Nicholas. "Analyse d’images de documents anciens : une approche texture". La Rochelle, 2006. http://www.theses.fr/2006LAROS178.

Testo completo
Abstract (sommario):
Mes travaux de thèse sont liés à la problématique de l'indexation de grosses quantités d'images de documents anciens. Ils visent à traiter un corpus de documents dont le contenu (texte et image) ainsi que la mise en page se trouvent être fortement variables (l'ensemble des ouvrages d'une bibliothèque par exemple). Ainsi, il n'est donc pas envisageable de travailler sur ce corpus tel qu'on le fait habituellement avec les documents contemporains. En effet, les premiers tests que nous avons effectués sur le corpus du Centre d'Etudes Supérieures de la Renaissance de Tours, avec qui nous travaillons, ont confirmé que les approches classiques (guidée par le modèle) sont peu efficaces car il est impossible d'émettre des hypothèses sur la structure physique ou logique des documents traités. . Nous avons également constaté le manque d'outils permettant l'indexation de grandes bases d'images de documents anciens Face à ce double constat, ces travaux de thèse nous ont amené à proposer une méthode de caractérisation du contenu d'images de documents anciens. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de document. Ainsi, en extrayant des signatures liées aux fréquences et aux orientations des différentes parties d'une page, il est possible d'extraire, de comparer ou encore d'identifier des éléments de haut niveau sémantique (lettrines, illustrations, texte, mise en page. . . ) sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Ces indices textures ont permis la création d'outils d'aide à l'indexation de grosses bases d'images de documents anciens
My phd thesis subject is related to the topic of old documents images indexation. The corpus of old documents has specific characteristics. The content (text and image) as well as the layout information are strongly variable. Thus, it is not possible to work on this corpus such as it usually done with contemporary documents. Indeed, the first tests which we realised on the corpus of the “Centre d’Etude de la Renaissance”, with which we work, confirmed that the traditional approaches (driven –model approaches) are not very efficient because it’s impossible to put assumptions on the physical or logical structure of the old documents. We also noted the lack of tools allowing the indexing of large old documents images databases. In this phd work, we propose a new generic method which permits characterization of the contents of old documents images. This characterization is carried out using a multirésolution study of the textures contained in the images of documents. By constructing signatures related with the frequencies and the orientations of the various parts of a page it is possible to extract, compare or to identify different kind of semantic elements (reference letters, illustrations, text, layout. . . ) without making any assumptions about the physical or logical structure of the analyzed documents. These textures information are at the origin of creation of indexing tools for large databases of old documents images
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Derache, François. "Segmentation d’images échographiques pour applications spatiale". Electronic Thesis or Diss., Université Paris Cité, 2022. http://www.theses.fr/2022UNIP7330.

Testo completo
Abstract (sommario):
L'exploration spatiale nous guide plus loin que l’orbite terrestre, avec le retour d’humains sur la Lune et la préparation des missions habitées vers Mars. Plus l’homme s’éloignera de la Terre, plus grand sera le délai de communication entre la Terre et les explorateurs. Ainsi, la télé-opération par un expert, depuis le sol, les équipements présents à bord de vaisseaux orbitant autour de la Terre, tel que l’ISS, ne sera alors plus une option. Il faudra aller vers des équipements autonomes permettant à une personne non spécialiste de pouvoir les utiliser avec efficacité. Ainsi pour faciliter la réalisation d’échographies, lors des missions d’exploration, ce dispositif médical devra être le plus autonome possible, en guidant de façon efficace l’utilisateur dans le positionnement de la sonde d’échographie et dans le réglage de la machine. La méthode proposée dans ces travaux propose une autonomie qui s’acquière en analysant en temps réel les variations de niveaux de gris qui s’apparentent à un organe. Elle utilise l'analyse par niveau de gris des zones d’une image échographique qui s’apparentent à un organe de par leur contraste, leur présence récurrente au cours des images échographiques successives. Puis, la méthode permet de segmenter l’organe identifié en décomposant le problème en 1D afin de détecter le contour. Pour cela, on remonte dans toutes les directions depuis le centre de l’organe pour relever le niveau de gris et détecter des variations brutales de contraste qui permettent de faire la différence entre l’intérieur de l’organe (sombre) et les tissus (clairs). Les résultats sont ensuite affinés pour obtenir un contour en temps réel et ne nécessitant que très peu de ressources de calcul
Medical ultrasound scan is a common and relevant medical imaging process for medical monitoring and research. Non-invasive and low-cost, it also provides real-time images without ionizing radiations. As the space exploration will guide us further away from Earth, to the Moon, Mars and beyond, delay will impact real time interaction (Mars up to 40min delay) and tele operated system will no longer be an option, especially for astronauts medical monitoring and research protocols. Communication delays with the crew will extend, band coverage will rarefy, and lot of other challenges will appear. Furthermore, human physiological response will be a new field of investigation to make sure that astronaut underwent a safe evolution; do not develop any pathology that could affect the mission performances. To facilitate long distance sonography allowing any inexperienced user to perform an organ scan for a later post analysis by a professional, autonomous ultrasounds device, integrating automated detection of targeted organs is the next step. Our method suggests an innovative solution to identify, analyze, and segment organs in ultrasounds scans based on the greyscale study through a 1 dimensional approach. The method consists in analyzing a volume of images captured during volumic scans, identifying the organ, displaying the long and short axis views of it. The method will allow a distant expert sonographer to deliver a reliable medical diagnostic remotely. Our method analyzes, detects and segments organs in ultrasounds scan based on the greyscale variation along a one-dimensional segment in a 3D volume using a common 2D scanning probe
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Salmeron, Eva. "Mise en coïncidence automatique des contours extraits d’images aériennes et d’éléments cartographiques". Compiègne, 1986. http://www.theses.fr/1986COMPD018.

Testo completo
Abstract (sommario):
Les méthodes étudiées partent d’extraction automatique de primitives sur des images aériennes ou satellites monochromes, notamment les contours caractéristiques (amers). On peut les comparer aux contours ou tracés cartographiques des amers (routes, voies ferrées, rivières, etc…). Deux nouvelles méthodes sont ensuite proposées pour calculer le déplacement (translation, rotation) entre l’image aérienne et son modèle-carte. Une stratégie globale, basée sur des tables de distances, calcule la coïncidence optimale entre les deux graphiques (contours, contours symboliques). Une autre méthode, basée sur des notions plus locales et sur une relaxation probabiliste, étudie la mise en correspondance des segments de droite composant les contours des deux graphiques. Ces deux approches fournissent des résultats satisfaisant sur de vrais couples image aérienne-carte.
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Vulgarakis, Minov Sofija. "Integration of imaging techniques for the quantitative characterization of pesticide sprays". Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS068/document.

Testo completo
Abstract (sommario):
Dans les 50 dernières années, les avancées dans le domaine de la protection des plantes ont contribué à augmenter les rendements et à assurer une large production. Facile à utiliser et plutôt bon marché à l’époque, les pesticides ont prouvé leur efficacité. Cependant, quand ils sont appliqués aux cultures, une partie du produit n’atteint pas sa cible et est perdu dans l’air ou au sol. Par conséquent, des efforts ont été consentis pour améliorer leur efficacité et leur innocuité sanitaire, souvent grâce à des lois environnementales internationales. Les produits sont appliqués à partir de matériels combinant type de buse/pression induisant des gammes de vitesses et de tailles de gouttelettes très diverses (Chapitre 2). Une mesure simultanée de ces vitesses et tailles est ainsi d’une grande importance dans le processus de pulvérisation. Il existe de nombreuses méthodes pour la mesure des caractéristiques des gouttelettes qui peuvent être divisées en trois catégories: mécaniques, électriques et optiques. Ces dernières apparaissent comme les plus pertinentes puisqu’étant non invasives et en perturbant donc pas le processus de pulvérisation. Les améliorations récentes dans le domaine du traitement des images et la réduction du coût des systèmes d’imagerie ont ainsi accru l’intérêt des techniques d’imagerie rapide pour les applications agricoles telles que la pulvérisation de pesticides. Cette thèse s’est donc focalisée sur le développement d’une telle technique pour la caractérisation des sprays (micro et macro). Les travaux effectués ont permis de démontrer que les caractéristiques d’un jet de pesticides peuvent être correctement et précisément mesurées par des techniques d’imagerie non-invasives couplées à des traitements spécifiques. Les travaux à venir consisteraient notamment en l’amélioration de la précision des mesures effectuées: précision sub-pixellique, calcul des profondeurs de champ, mesure de particules non sphériques
In recent years, advances in plant protection have contributed considerably to increasing crop yields in a sustainable way. Easy to apply and rather inexpensive, pesticides have proven to be very efficient. However, when pesticides are applied to crops some of the spray may not reach the target, but move outside the intended spray area. This can cause serious economic and environmental problems. Most of the pesticides are applied using agricultural sprayers. These sprayers use hydraulic nozzles which break the liquid into droplets with a wide range of droplet sizes and velocities and determine the spray pattern. Small droplets are prone to wind drift, while large droplets can runoff from the target surface and deposit on the soil. Therefore, efforts are being undertaken to come to a more sustainable use of pesticides which is more and more regulated by international environmental laws. One of the main challenges is to reduce spray losses and maximize spray deposition and efficacy by improving the spray characteristics and the spray application process. Because mechanisms of droplets leaving a hydraulic spray nozzle are very complex and difficult to quantify or model, there is a need for accurate quantification techniques. The recent improvements in digital image processing, sensitivity of imaging systems and cost reduction have increased the interest in high-speed (HS) imaging techniques for agricultural applications in general and for pesticide applications in specific. This thesis focused on the development and application of high speed imaging techniques to measure micro (droplet size and velocity) and macro (spray angle and shape, liquid sheet length) spray characteristics.The general aim was to show that the spray characteristics from agricultural spray nozzles can be measured correctly with the developed imaging techniques in a non-intrusive way. After a review of the spray application process and techniques for spray characterization (Chapter 2), two image acquisition systems were developed in Chapter 3 based on single droplet experiments using a high speed camera and a piezoelectric droplet generator. 58 combinations of lenses, light sources, diffusers, and exposure times were tested using shadowgraph (background) imaging and evaluated based on image quality parameters (signal to noise rate, entropy ratio and contrast ratio), light stability and overexposure ratio and the accuracy of the droplet size measurement. These resulted into development of two image acquisition systems for measuring the macro and micro spray characteristics. The HS camera with a macro video zoom lens at a working distance of 143 mm with a larger field of view (FOV) of 88 mm x 110 mm in combination with a halogen spotlight and a diffuser was selected for measuring the macro spray characteristics (spray angle, spray shape and liquid sheet length). The optimal set-up for measuring micro spray characteristics (droplet size and velocity) consisted of a high speed camera with a 6 μs exposure time, a microscope lens at a working distance of 430 mm resulting in a FOV of 10.5 mm x 8.4 mm, and a xenon light source used as a backlight without diffuser. In Chapter 4 image analysis and processing algorithms were developed for measuring single droplet characteristics (size and velocity) and different approaches for image segmentation were presented. With the set-up for micro spray characterization and using these dedicated image analysis algorithms (Chapter 4), measurements using a single droplet generator in droplet on demand (DOD) and continuous mode were performed in Chapter 5. The effects of the operating parameters, including voltage pulse width and pulse amplitude with 4 nozzle orifice sizes (261 μm, 123 μm, 87 μm and 67 μm) on droplet diameter and droplet velocity have been characterized (...)
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Bouraoui, Bessem. "Segmentation automatique de l’arbre coronarien à partir d’images angiographiques 3D+T de scanner". Strasbourg, 2009. http://www.theses.fr/2009STRA6171.

Testo completo
Abstract (sommario):
Pour un diagnostic médical fiable, la nécessité d’une description précise et correcte de l’état d’une structure anatomique est de plus en plus indispensable. Les progrès en acquisition d'images en tomographie par rayons X permettent maintenant, en routine clinique, d'obtenir plusieurs images 3D du cœur en une apnée de quelques cycles cardiaques. L'analyse et la visualisation de cette séquence cardiaque (3D+t) permettront au cardiologue d'interpréter plus facilement cette suite d'images. Le but de cette thèse est de segmenter les différentes structures vasculaires présentes dans cette images de cœur 4D (3D+t) obtenue en tomographie par rayons X. La série temporelle de la séquence cardiaque est composée d'environ une dizaine d'images 3D. Comme première étape on privilégiera la segmentation des artères coronaires, dont la présence d’une anomalie forme la cause principale d’un infarctus engendrant dans 80% des cas une mort subite. Pour atteindre cet objectif, nous aurons recours à diverses méthodes et techniques en morphologie mathématique (croissance de régions, squelettisation, transformée en tout ou rien en niveaux de gris, etc. ), tout en intégrant des informations anatomiques des structures cardiaques afin d'automatiser entièrement le processus de segmentation. Différentes étapes pour la segmentation des artères coronaires ont été réalisées : réduction de la zone de recherches par détection du coeur en entier, automatisation de la détection des germes des artères coronaires coronaires par détection de l'aorte, et détection des artères coronaires par croissance de région
The objective of this thesis is to segment automatically the coronary arteries in images of scanner X. The images do not comprise only the heart, but also all the trunk of the body. A first stage consisted in removing any other structure than the heart in the image. An extraction of the aorta appeared necessary to us, then a localization of the germs of the coronary arteries will be carried out on the wall of this aorta. Once these germs are detected, an application of region growth is carried out, with a criterion of acceptance based on the Hit-ot-Miss transform. We based ourselves on a mathematical morphology operator, the Hit-ot-Miss transform. We combined his extension to the gray levels, with the blur alternative, which made our contribution to mathematical morphology. This work contributes to the evolution and the development of the vascular segmentation on two plans. In pratical terms of the contribution, three fully automatic algorithms were worked out, a first one to segment the heart, a second one to segment the aorta, and a third one for the segmentation of the coronary arteries. These algorithms have encouraging results, validated by an expert in cardiology, with 90% of correct results, the 10% remainders correspond to images of bad quality. In terms of methodology, this work allowed to integrate an new approach of segmentation, consisting in guiding the tools for image treatment by a priori knowledge, like her anatomical knowledge
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Bediaf, Houda. "Quantification et modélisation par traitement d'images de la répartition des produits pulvérisés à l'échelle de la feuille en fonction de son état de surface et la nature du produit". Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS005/document.

Testo completo
Abstract (sommario):
Dans le cadre de la pulvérisation agricole, la diminution de la quantité des intrants est devenue une étape cruciale, et ce notamment en viticulture. La pulvérisation de précision en viticulture implique cependant une maitrise conjointe du matériel utilisé, des produits et de la répartition de ces produits sur le feuillage. Dans ce contexte, nombreuses sont les recherches menées sur l’optimisation d’utilisation des produits phytosanitaires, leur objectif final étant de réduire de manière significative la quantité d’intrants dans la culture. Cependant, peu de travaux ont été effectués sur l’étude du comportement des produits directement sur le feuillage, ce qui constitue donc l’objectif de cette thèse. La première partie de ce travail est consacrée particulièrement à l’analyse de l’état de la surface foliaire, en se focalisant spécifiquement sur l’étude de la rugosité de surface de la feuille qui constitue un paramètre essentiel dans le processus d’adhésion du produit pulvérisé sur la feuille. L’analyse de la surface de la feuille est réalisée en déterminant les caractéristiques texturales extraites d’images microscopiques. Un nouvel indicateur de rugosité est proposé ainsi que, des paramètres spatiaux et fréquentiels sont utilisés pour estimer et la rugosité de la feuille. Ces paramètres permettent ensuite la caractérisation de l’homogénéité de la surface et la détection des nervures/poils au niveau de la surface de la feuille. Cette partie représente une base fondamentale pour mieux comprendre le comportement des gouttelettes pulvérisées sur la feuille de vigne. La deuxième partie de ce travail de thèse est consacrée à des études expérimentales, qui ont pour but de définir et construire des modèles statistiques permettant d’estimer la quantité de produit restant sur la feuille ou la surface occupée par les gouttes. Ces modèles prennent en considération différents paramètres de pulvérisation, tels que la taille de la goutte et sa vitesse, la tension superficielle du produit, l’angle d’inclinaison et la rugosité de la surface de la feuille. Ces modèlespourraient être vus comme des outils de décision communs pour optimiser la quantité du produit pulvérisé et l’estimation du produit restant sur la feuille, et comme un outil d’aide pour optimiser les bancs d’essais et de tests de la qualité de la pulvérisation
In the context of agricultural spraying, reducing the amount of input became a crucial step particularly in viticulture. The development of spraying precision in this domain needs the mastery of the use of spray equipment, product and distribution of these products on the foliage. In this area, many research have been done, their main goal being to optimize the use of plant product protection and to reduce significantly the input quantity inside the culture. However, few research has been done on the behavior of the product directly on the foliage which constitutes finally the main goal of this thesis. The first part of this report deals particularly with the analysis of leaf surface state by focusing precisely on the leaf surface roughness, one of the main parameters in product adhesion process. A leaf surface analysis is performed by determining the textural features extracted from microscopic images. A new roughness indicator is proposed and, spatial and frequency parameters were used to estimate and characterize the leaf roughness. These parameters allow both the characterization of surface homogeneity and the detection of the presence of rib/hair on the leaf surface. Indeed, this part represents a fundamental basis for understanding the spray droplet behavior on the vine leaf. The second part of this thesis deals with experimental studies which aim to define and to create statistical models to estimate the amount of product remaining on the leaf surface or the surface occupied by droplets. These models consider different spray parameters, such as droplet size and velocity, surface tension of the product, slope angle and roughness of the leaf. These models could be seen as aid-decision tools to optimize the amount of spray and the estimated product remaining on the leaf
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Chérigui, Safa. "Techniques de codage d’images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches". Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S135/document.

Testo completo
Abstract (sommario):
Au cours de ces dernières années, le domaine de la compression vidéo a connu un essor considérable avec le standard H.264/AVC et l'arrivée de son successeur HEVC. La prédiction spatiale de ces standards repose sur la propagation unidirectionnelle de pixels voisins. Bien que très efficace pour étendre des motifs répondants aux mêmes caractéristiques, cette prédiction présente des performances limitées lorsqu'il s'agit de propager des textures complexes. Cette thèse vise à explorer de nouveaux schémas de prédiction spatiale afin d'améliorer les techniques actuelles de prédiction intra, en étendant ces schémas locaux et monodimensionnels à des schémas globaux, multidimensionnels et multi-patches. Une première méthode de prédiction hybride intégrant correspondance de bloc et correspondance de gabarit (template) a été investiguée. Cette approche hybride a ensuite été étendue en prédiction multi-patches de type "neighbor embedding" (NE). L'autre partie de la thèse est dédiée à l'étude des épitomes dans un contexte de compression d'images. L'idée est d'exploiter la redondance spatiale de l'image d'origine afin d'extraire une image résumé contenant les patches de texture les plus représentatifs de l'image, puis ensuite utiliser cette représentation compacte pour reconstruire l'image de départ. Ce concept d'épitome a été intégré dans deux schémas de compression, l'un de ces algorithmes s'avère vraiment en rupture avec les techniques traditionnelles dans la mesure où les blocs de l'image sont traités, à l'encodeur et au décodeur, dans un ordre spatial qui dépend du contenu et cela dans un souci de propagation des structures de l'image. Dans ce dernier algorithme de compression, des modes de prédiction directionnelle intra H.264 étendus et des méthodes avancées de prédiction multi-patches y ont été également introduits. Ces différentes solutions ont été intégrées dans un encodeur de type H.264/AVC afin d'évaluer leurs performances de codage par rapport aux modes intra H.264 et à l'état de l'art relatif à ces différentes techniques
In recent years, video compression field has increased significantly since the apparition of H.264/AVC standard and of its successor HEVC. Spatial prediction in these standards are based on the unidirectional propagation of neighboring pixels. Although very effective to extend pattern with the same characteristics, this prediction has limited performances to extrapolate complex textures. This thesis aims at exploring new spatial prediction schemes to improve the current intra prediction techniques, by extending these local schemes to global, multidimensional and multi-patches schemes. A hybrid prediction method based on template and block matching is first investigated. This hybrid approach is then extended to multi-patches prediction of type "Neighbor Embedding" (NE). The other part of this thesis is dedicated to the study of epitome image within the scope of image compression. The idea is to exploit spatial redundancies within the original image in order to first extract a summary image containing the texture patches the most representative of the image, and then use this compacted representation to rebuild the original image. The concept of epitome has been incorporated in two compression schemes, one of these algorithms is in rupture with the traditional techniques since the image blocks are processed, both at encoder and decoder sides, in a spatial order that depends on the image content and this in the interest of propagating image structures. In this last compression algorithm, extended H.264 Intra directional prediction modes and advanced multi-patches prediction methods have been also included. These different solutions have been integrated in an H.264/AVC encoder in order to assess their coding performances with respect to H.264 intra modes and the state of the art relative to these different techniques
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Maaloul, Boutheina. "Des algorithmes de détection d'accidents routiers par vidéo surveillance". Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0028.

Testo completo
Abstract (sommario):
Les systèmes automatiques de vidéo surveillance ont été développés pour détecter et analyser les comportements anormaux et les situations de risque dans de nombreux domaines. L'une des applications de la vidéosurveillance est la surveillance du trafic. L'analyse du mouvement dans les routes vise à détecter les comportements de circulation anormaux et les événements soudains. Les accidents de la route peuvent causer des blessures graves touchant principalement la tête et le cerveau, entraînant des handicapes et même la mort. Chaque minute supplémentaire pour assister les blessés fait la différence entre la vie et la mort, ce qui est révélée par l'Heure d'or (Golden Hour). Par conséquent, fournir une assistance rapide pour les blessés est obligatoire. De plus, les accidents peuvent causer des embouteillages entraînant d’éventuels autres accidents s’ils ne sont pas notifiés rapidement. Par conséquent, il est important de concevoir un système capable d'organiser une réponse d'urgence efficace. Cette réponse devrait être basée, d'une part sur une détection automatique par analyse vidéo, puis sur une notification rapide. De nombreuses villes en France sont équipées de caméras de surveillance installées sur différentes routes. La surveillance du trafic est effectuée par des opérateurs humains pour visualiser l’état de circulation des routes. Le flux vidéo de ce réseau de caméras existant est livré non traité au centre de gestion du trafic, ainsi, il n'y a pas de stockage des scènes d'accident. De plus, il n'y a pas de technologie associée pour une gestion rapide en cas d’urgence. Les objectifs de cette thèse sont d’abord l'identification de scénarios d'accidents et la collecte de données liées à un accident de la route; ensuite, la conception et le développement d'algorithmes de traitement vidéo pour la détection automatique des accidents sur les autoroutes. Les solutions développées utiliseront les caméras fixes existantes, afin de ne pas nécessiter d'investissements importants dans l'infrastructure. Les approches proposées sont basées sur l'utilisation de l'algorithme de flux optique et des calculs statistiques pour l'extraction de caractéristiques et la reconnaissance d'accidents. La solution proposée est suffisante et robuste au bruit et à la lumière
Automatic video surveillance systems have been developed to detect and analyze abnormal behavior or situation of risk in many fields reducing human monitoring of activities captured by cameras (security surveillance, abnormal behavior detection, etc.). One of the applications of video surveillance is the traffic monitoring. Analyzing the motion in roads aims to detect abnormal traffic behavior and sudden events, especially in case of Emergency and Disaster Management (EDM). Road accidents can cause serious injuries affecting mostly the head and the brain, leading to lifelong disabilities and even death; each additional rescue minute can mean the difference between life and death as revealed by the golden Hour[Lerner et al., 2001]. Therefore, providing a rapid assistance for injuries is mandatory. Moreover, if not addressed promptly, accidents may cause traffic jams, eventually leading to more accidents, and even greater loss of lives and properties. Many cities in France are equipped with video surveillance cameras installed on different roads and highways. Traffic monitoring is done by human operators to visualize the congestion of a road or to measure the flow of the traffic. The video stream of this existing network of cameras is delivered unprocessed to the traffic management center. Thus, there are no video storage of accident scenes. In addition, there is no associated technology for a rapid emergency management. Therefore, it is important to design a system able toorganizean effective emergency response. This response should be based, firstly on an automatic detection by video analysis, then, on a rapid notification allowing the optimization of the emergency intervention itinerary without affecting the traffic state. Our work resolves the first part of the emergency response.The objectives of this thesis are firstly the identification of accident scenarios and the collection of data related to road accident; next, the design and the development of video processing algorithms for the automatic detection of accidents in highways. The developed solutions will use the existing fixed cameras, so as not to require significant investments in infrastructure. The core of the proposed approaches will focus on the use of the dense Optical Flow (OF) algorithm [Farnebäck, 2003] and heuristic computations for features extraction and accident recognition. The purpose of the dense OF is to estimate the motion of each pixel in a region of interest (ROI) between two given frames. At the output of the dense OF, a dense features could be extracted which is more performant than features extracted at some points. Defining thresholds for accident detection in various environment is very challenging. Therefore, studying the motion at a global scale in the image, allows defining a dynamic thresholds for accident detection using statistic computations. The proposed solution is sufficient and robust to noise and light changing
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Mansouri, Abdelkhalek. "Generic heuristics on GPU to superpixel segmentation and application to optical flow estimation". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA012.

Testo completo
Abstract (sommario):
Déterminer des clusters dans des nuages de points et apparier des graphes sont des tâches primordiales en informatique, analyse de donnée, traitement d’image, généralement modélisées par des problèmes d’optimisation de classe NP-difficile. Avec l’avènement des multiprocesseurs à bas coût, l’accélération des procédures heuristiques pour ces tâches devient possible et nécessaire. Nous proposons des implantations parallèles sur système GPU (graphics processing unit) pour des algorithmes génériques appliqués ici à la segmentation d’image en superpixels et au problème du flot optique. Le but est de fournir des algorithmes génériques basés sur des structures de données décentralisées et aisément adaptables à différents problèmes d’optimisation sur des graphes et plateformes parallèles.Les algorithmes parallèles proposés sur GPU incluent le classique k-means et le calcul de forêt couvrante minimum pour la segmentation en superpixels. Ils incluent également un algorithme de recherche locale parallèle et un algorithme mémétique à base de population de solutions appliqués à l’estimation du flot optique via des appariements de superpixels. Tandis que les opérations sur les données exploitent le GPU, l’algorithme mémétique opère en tant que coalition de processus exécutés en parallèle sur le CPU multi-cœur et requérant des ressources GPU. Les images sont des nuages de points de l’espace euclidien 3D (domaine espace-intensité), et aussi des graphes auxquels sont associés des grilles de processeurs. Les kernels GPU exécutent des transformations en parallèle sous contrôle du CPU qui a un rôle réduit de détection des conditions d’arrêt et de séquencement des transformations.La contribution présentée est composée de deux grandes parties. Dans une première partie, nous présentons des outils pour la segmentation en superpixels. Une implémentation parallèle de l’algorithme des k-means est présentée et appliquée aux données 3D. Elle est basée sur une subdivision cellulaire de l’espace 3D qui permet des recherches de plus proche voisin en parallèle en temps optimal constant pour des distributions bornées. Nous présentons également une application de l’algorithme parallèle de calcul de forêt couvrante de Boruvka à la segmentation superpixel de type ligne de partage-des-eaux (watershed). Dans une deuxième partie, en se basant sur les superpixels générés, des procédures parallèles de mise en correspondance sont dérivées pour l’estimation du flot optique avec prise en compte des discontinuités. Ces méthodes incluent des heuristiques de construction et d’amélioration, telles que le winner-take-all et la recherche locale parallèle, et leur intégration dans une métaheuristique à base de population. Diverses combinaisons d’exécution sont présentées et évaluées en comparaison avec des algorithmes de l’état de l’art performants
Finding clusters in point clouds and matching graphs to graphs are recurrent tasks in computer science domain, data analysis, image processing, that are most often modeled as NP-hard optimization problems. With the development and accessibility of cheap multiprocessors, acceleration of the heuristic procedures for these tasks becomes possible and necessary. We propose parallel implantation on GPU (graphics processing unit) system for some generic algorithms applied here to image superpixel segmentation and image optical flow problem. The aim is to provide generic algorithms based on standard decentralized data structures to be easy to improve and customized on many optimization problems and parallel platforms.The proposed parallel algorithm implementations include classical k-means algorithm and application of minimum spanning forest computation for super-pixel segmentation. They include also a parallel local search procedure, and a population-based memetic algorithm applied to optical flow estimation based on superpixel matching. While data operations fully exploit GPU, the memetic algorithm operates like a coalition of processes executed in parallel on the multi-core CPU and requesting GPU resources. Images are point clouds in 3D Euclidean space (space-gray value domain), and are also graphs to which are assigned processor grids. GPU kernels execute parallel transformations under CPU control whose limited role only consists in stopping criteria evaluation or sequencing transformations.The presented contribution contains two main parts. Firstly, we present tools for superpixel segmentation. A parallel implementation of the k-means algorithm is presented with application to 3D data. It is based on a cellular grid subdivision of 3D space that allows closest point findings in constant optimal time for bounded distributions. We present an application of the parallel Boruvka minimum spanning tree algorithm to compute watershed minimum spanning forest. Secondly, based on the generated superpixels and segmentation, we derive parallel optimization procedures for optical flow estimation with edge aware filtering. The method includes construction and improvement heuristics, as winner-take-all and parallel local search, and their embedding into a population-based metaheuristic framework. The algorithms are presented and evaluated in comparison to state-of-the-art algorithms
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Shao, Clémentine. "Images and models for decision support in aortic dissection surgery". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S121.

Testo completo
Abstract (sommario):
La décision clinique, concernant le traitement de la dissection aortique de type B, est encore actuellement controversée dans certaines configurations. La simulation numérique est envisagée pour obtenir des informations sur l’hémodynamique de manière non-invasive. Nous avons ; i) proposé une méthode de segmentation semi-automatique pour la simulation fluide ; ii) implémenté des simulations spécifiques patient basées sur une nouvelle méthode pour la définition des conditions aux limites ; iii) créé des modèles d’ordre réduit à partir des simulations fluides dynamiques. Ces modèles permettent de calculer rapidement les contraintes de pression et de cisaillement pour différents scénarios cliniques
The clinical decision concerning the treatment of type B aortic dissection is still controversial in some configurations. CFD approachs were investigated to assess the hemodynamics in a noninvasive way. In this context, we : i) proposeda semi-automatic method for the segmentation of aortic dissections ; ii) implemented a CFD model using a novel method for the definition of the boundary conditions ; iii) created reduced order models from 3D dynamic fluid simulations. These models allow to calculate in real time the wall shear stress and pressure for different clinical scenarios
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Baconnais, Maxime. "Méthode intégrée de corrélation d’images et de corrélation d’images virtuelles". Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0069.

Testo completo
Abstract (sommario):
La corrélation d’images numériques (DIC) est maintenant couramment utilisée dans les milieux académiques et industriels. En effet, cette méthode permet de mesurer le champ de déplacement d’une surface avec une grande précision, une bonne résolution et avec un système expérimental simple. Cependant, la corrélation d’images ne permet pas une mesure précise dans les zones de frontière, bord des échantillons et fissures.L’objectif de cette thèse est d’utiliser la méthode de corrélation d’images virtuelles (VIC) pour mesure la position des bords et améliorer la précision de laDIC dans ces zones. La stratégie proposée repose sur trois points : la création d’un maillage de mesure adapté à la géométrie, la génération d’un masque de pixel permettant de supprimer les pixels du bord et la résolution sous contrainte de la DIC.Différents cas tests sur des images synthétiques et d’application sur des données expérimentales permettent de montrer l’intérêt de la méthode intégrée de corrélation d’images et de corrélation d’images virtuelles. Tout d’abord, la connaissance de la position initiale du bord permet la création automatique d’un maillage adapté. Il est également montré que la simple utilisation d’un masque de pixel permet de ré-duire significativement l’erreur sur le bord, aussi biendans les cas synthétiques que réels. Pour le cas de la résolution sous contrainte, il est montré que celle-ci permet de réduire les erreurs de mesures dans les cas synthétiques. Cependant, ce résultat n’a pas pu être confirmé dans les cas d’applications, la qualité des bords ne permettant pas une mesure précise et donc une amélioration des résultats de DIC
Digital Image Correlation (DIC) is now com-monly used in academic and industrial settings. In-deed, this method allows to measure the displace-ment field of a surface with high accuracy, good reso-lution and with a simple experimental setup. Howe-ver, image correlation does not allows accurate mea-surement in border areas, sample edges and cracks.The objective of this thesis is to use the VirtualImage Correlation (VIC) method to measure the po-sition of the edges and improve the accuracy of theDIC in these areas. The proposed strategy is basedon three points : the creation of a adapted measure-ment mesh to the geometry, the generation of a pixelmask to remove the edge pixels and the constrainedresolution of the DIC.Different test cases on synthetic images and ex-perimental data show the interest of the integra-ted method. First, the knowledge of the initial posi-tion of the border allows the automatic creation ofan adapted mesh. It is also shown that the simpleuse of a pixel mask reduces significantly the boun-dary error, both in synthetic and real cases. For thecase of constrained resolution, it is shown that itreduces measurement errors in synthetic cases. Ho-wever, this result could not be confirmed in the ap-plication cases, due to the quality of the boundarydoes not allows an accurate measurement and thusan improvement of the DIC results
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Samrouth, Khouloud. "Représentation et compression à haut niveau sémantique d’images 3D". Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0025/document.

Testo completo
Abstract (sommario):
La diffusion de données multimédia, et particulièrement les images, continuent à croitre de manière très significative. La recherche de schémas de codage efficaces des images reste donc un domaine de recherche très dynamique. Aujourd'hui, une des technologies innovantes les plus marquantes dans ce secteur est sans doute le passage à un affichage 3D. La technologie 3D est largement utilisée dans les domaines de divertissement, d'imagerie médicale, de l'éducation et même plus récemment dans les enquêtes criminelles. Il existe différentes manières de représenter l'information 3D. L'une des plus répandues consiste à associer à une image classique dite de texture, une image de profondeur de champs. Cette représentation conjointe permet ainsi une bonne reconstruction 3D dès lors que les deux images sont bien corrélées, et plus particulièrement sur les zones de contours de l'image de profondeur. En comparaison avec des images 2D classiques, la connaissance de la profondeur de champs pour les images 3D apporte donc une information sémantique importante quant à la composition de la scène. Dans cette thèse, nous proposons un schéma de codage scalable d'images 3D de type 2D + profondeur avec des fonctionnalités avancées, qui préserve toute la sémantique présente dans les images, tout en garantissant une efficacité de codage significative. La notion de préservation de la sémantique peut être traduite en termes de fonctionnalités telles que l'extraction automatique de zones d'intérêt, la capacité de coder plus finement des zones d'intérêt par rapport au fond, la recomposition de la scène et l'indexation. Ainsi, dans un premier temps, nous introduisons un schéma de codage scalable et joint texture/profondeur. La texture est codée conjointement avec la profondeur à basse résolution, et une méthode de compression de la profondeur adaptée aux caractéristiques des cartes de profondeur est proposée. Ensuite, nous présentons un schéma global de représentation fine et de codage basé contenu. Nous proposons ainsi schéma global de représentation et de codage de "Profondeur d'Intérêt", appelé "Autofocus 3D". Il consiste à extraire finement des objets en respectant les contours dans la carte de profondeur, et de se focaliser automatiquement sur une zone de profondeur pour une meilleure qualité de synthèse. Enfin, nous proposons un algorithme de segmentation en régions d'images 3D, fournissant une forte consistance entre la couleur, la profondeur et les régions de la scène. Basé sur une exploitation conjointe de l'information couleurs, et celle de profondeur, cet algorithme permet la segmentation de la scène avec un degré de granularité fonction de l'application visée. Basé sur cette représentation en régions, il est possible d'appliquer simplement le même principe d'Autofocus 3D précédent, pour une extraction et un codage de la profondeur d'Intérêt (DoI). L'élément le plus remarquable de ces deux approches est d'assurer une pleine cohérence spatiale entre texture, profondeur, et régions, se traduisant par une minimisation des problèmes de distorsions au niveau des contours et ainsi par une meilleure qualité dans les vues synthétisées
Dissemination of multimedia data, in particular the images, continues to grow very significantly. Therefore, developing effective image coding schemes remains a very active research area. Today, one of the most innovative technologies in this area is the 3D technology. This 3D technology is widely used in many domains such as entertainment, medical imaging, education and very recently in criminal investigations. There are different ways of representing 3D information. One of the most common representations, is to associate a depth image to a classic colour image called texture. This joint representation allows a good 3D reconstruction, as the two images are well correlated, especially along the contours of the depth image. Therefore, in comparison with conventional 2D images, knowledge of the depth of field for 3D images provides an important semantic information about the composition of the scene. In this thesis, we propose a scalable 3D image coding scheme for 2D + depth representation with advanced functionalities, which preserves all the semantics present in the images, while maintaining a significant coding efficiency. The concept of preserving the semantics can be translated in terms of features such as an automatic extraction of regions of interest, the ability to encode the regions of interest with higher quality than the background, the post-production of the scene and the indexing. Thus, firstly we introduce a joint and scalable 2D plus depth coding scheme. First, texture is coded jointly with depth at low resolution, and a method of depth data compression well suited to the characteristics of the depth maps is proposed. This method exploits the strong correlation between the depth map and the texture to better encode the depth map. Then, a high resolution coding scheme is proposed in order to refine the texture quality. Next, we present a global fine representation and contentbased coding scheme. Therefore, we propose a representation and coding scheme based on "Depth of Interest", called "3D Autofocus". It consists in a fine extraction of objects, while preserving the contours in the depth map, and it allows to automatically focus on a particular depth zone, for a high rendering quality. Finally, we propose 3D image segmentation, providing a high consistency between colour, depth and regions of the scene. Based on a joint exploitation of the colour and depth information, this algorithm allows the segmentation of the scene with a level of granularity depending on the intended application. Based on such representation of the scene, it is possible to simply apply the same previous 3D Autofocus, for Depth of Interest extraction and coding. It is remarkable that both approaches ensure a high spatial coherence between texture, depth, and regions, allowing to minimize the distortions along object of interest's contours and then a higher quality in the synthesized views
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Baudin, Pierre-Yves. "De la segmentation au moyen de graphes d’images de muscles striés squelettiques acquises par RMN". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0033/document.

Testo completo
Abstract (sommario):
La segmentation d’images anatomiques de muscles striés squelettiques acquises par résonance magnétique nucléaire (IRM) présente un grand intérêt pour l’étude des myopathies. Elle est souvent un préalable nécessaire pour l’étude les mécanismes d’une maladie, ou pour le suivi thérapeutique des patients. Cependant, le détourage manuel des muscles est un travail long et fastidieux, au point de freiner les recherches cliniques qui en dépendent. Il est donc nécessaire d’automatiser cette étape. Les méthodes de segmentation automatique se basent en général sur les différences d’aspect visuel des objets à séparer et sur une détection précise des contours ou de points de repère anatomiques pertinents. L’IRM du muscle ne permettant aucune de ces approches, la segmentation automatique représente un défi de taille pour les chercheurs. Dans ce rapport de thèse, nous présentons plusieurs méthodes de segmentation d’images de muscles, toutes en rapport avec l’algorithme dit du marcheur aléatoire (MA). L’algorithme du MA, qui utilise une représentation en graphe de l’image, est connu pour être robuste dans les cas où les contours des objets sont manquants ou incomplets et pour son optimisation numérique rapide et globale. Dans sa version initiale, l’utilisateur doit d’abord segmenter de petites portions de chaque région de l’image, appelées graines, avant de lancer l’algorithme pour compléter la segmentation. Notre première contribution au domaine est un algorithme permettant de générer et d’étiqueter automatiquement toutes les graines nécessaires à la segmentation. Cette approche utilise une formulation en champs aléatoires de Markov, intégrant une connaissance à priori de l’anatomie et une détection préalable des contours entre des paires de graines. Une deuxième contribution vise à incorporer directement la connaissance à priori de la forme des muscles à la méthode du MA. Cette approche conserve l’interprétation probabiliste de l’algorithme original, ce qui permet de générer une segmentation en résolvant numériquement un grand système linéaire creux. Nous proposons comme dernière contribution un cadre d’apprentissage pour l’estimation du jeu de paramètres optimaux régulant l’influence du terme de contraste de l’algorithme du MA ainsi que des différents modèles de connaissance à priori. La principale difficulté est que les données d’apprentissage ne sont pas entièrement supervisées. En effet, l’utilisateur ne peut fournir qu’une segmentation déterministe de l’image, et non une segmentation probabiliste comme en produit l’algorithme du MA. Cela nous amène à faire de la segmentation probabiliste optimale une variable latente, et ainsi à formuler le problème d’estimation sous forme d’une machine à vecteurs de support latents (latent SVM). Toutes les méthodes proposées sont testées et validées sur des volumes de muscles squelettiques acquis par IRM dans un cadre clinique
Segmentation of magnetic resonance images (MRI) of skeletal striated muscles is of crucial interest when studying myopathies. Diseases understanding, therapeutic followups of patients, etc. rely on discriminating the muscles in MRI anatomical images. However, delineating the muscle contours manually is an extremely long and tedious task, and thus often a bottleneck in clinical research. Typical automatic segmentation methods rely on finding discriminative visual properties between objects of interest, accurate contour detection or clinically interesting anatomical points. Skeletal muscles show none of these features in MRI, making automatic segmentation a challenging problem. In spite of recent advances on segmentation methods, their application in clinical settings is difficult, and most of the times, manual segmentation and correction is still the only option. In this thesis, we propose several approaches for segmenting skeletal muscles automatically in MRI, all related to the popular graph-based Random Walker (RW) segmentation algorithm. The strength of the RW method relies on its robustness in the case of weak contours and its fast and global optimization. Originally, the RW algorithm was developed for interactive segmentation: the user had to pre-segment small regions of the image – called seeds – before running the algorithm which would then complete the segmentation. Our first contribution is a method for automatically generating and labeling all the appropriate seeds, based on a Markov Random Fields formulation integrating prior knowledge of the relative positions, and prior detection of contours between pairs of seeds. A second contribution amounts to incorporating prior knowledge of the shape directly into the RW framework. Such formulation retains the probabilistic interpretation of the RW algorithm and thus allows to compute the segmentation by solving a large but simple sparse linear system, like in the original method. In a third contribution, we propose to develop a learning framework to estimate the optimal set of parameters for balancing the contrast term of the RW algorithm and the different existing prior models. The main challenge we face is that the training samples are not fully supervised. Specifically, they provide a hard segmentation of the medical images, instead of the optimal probabilistic segmentation, which corresponds to the desired output of the RW algorithm. We overcome this challenge by treating the optimal probabilistic segmentation as a latent variable. This allows us to employ the latent Support Vector Machine (latent SVM) formulation for parameter estimation. All proposed methods are tested and validated on real clinical datasets of MRI volumes of lower limbs
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Haj, Hassan Hawraa. "Détection et classification temps réel de biocellules anormales par technique de segmentation d’images". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0043.

Testo completo
Abstract (sommario):
Le développement de méthodes de la détection en temps réel de cellules anormales (pouvant être considérées comme des cellules cancéreuses) par captures et traitements bio-images sont des axes de recherche importants dans le domaine biomédical car cela contribue à diagnostiquer un cancer. C’est dans ce contexte que se situe ces travaux de thèse. Plus précisément, les travaux présentés dans ce manuscrit, se focalise sur le développement de procédures de lecture, de détection et de classification automatiques de bio-images de cellules anormales considérées comme des cellules cancéreuses. Par conséquent, une première étape du travail à consister à déterminer une solution de détection, à partir d’images microscopiques multispectrales permettant une répétitivité d’images sur une gamme de longueurs d'ondes de certains types de bio-images anormales associées à différents stades ou évolutions de cellules cancéreuses. L’approche développée dans ces travaux repose sur l’exploitation d’une nouvelle méthode de segmentation basée sur l'intensité de la couleur et pouvant être appliquée sur des séquences d'objets dans une image en reformant de manière adaptative et itérative la localisation et la couverture de contours réels de cellules. Cette étape préalable de segmentation est primordiale et permet une classification des tissus anormaux en utilisant la méthode de réseau de neurones à convolution (CNN) appliqué sur les images microscopiques segmenté de type snake. L’approche permet d’obtenir de bas résultats comparativement à une approche basée sur d’autres méthodes de segmentation de la littérature. En effet, cette méthode de classification atteint des valeurs de performance de 100% pour la phase d’apprentissage et de 99.168 % pour les phases de test. Cette méthode est comparée à différents travaux antérieurs et basée sur différentes fonctionnalités d'extraction, et a prouvé son efficacité par rapport à ces autres méthodes. En terme de perspectives, les travaux futurs visent à valider notre approche sur des ensembles de données plus larges, et à explorer différentes architectures CNN selon différents critères d’optimisation
Development of methods for help diagnosis of the real time detection of abnormal cells (which can be considered as cancer cells) through bio-image processing and detection are most important research directions in information science and technology. Our work has been concerned by developing automatic reading procedures of the normal and abnormal bio-images tissues. Therefore, the first step of our work is to detect a certain type of abnormal bio-images associated to many types evolution of cancer within a Microscopic multispectral image, which is an image, repeated in many wavelengths. And using a new segmentation method that reforms itself in an iterative adaptive way to localize and cover the real cell contour, using some segmentation techniques. It is based on color intensity and can be applied on sequences of objects in the image. This work presents a classification of the abnormal tissues using the Convolution neural network (CNN), where it was applied on the microscopic images segmented using the snake method, which gives a high performance result with respect to the other segmentation methods. This classification method reaches high performance values, where it reaches 100% for training and 99.168% for testing. This method was compared to different papers that uses different feature extraction, and proved its high performance with respect to other methods. As a future work, we will aim to validate our approach on a larger datasets, and to explore different CNN architectures and the optimization of the hyper-parameters, in order to increase its performance, and it will be applied to relevant medical imaging tasks including computer-aided diagnosis
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Burte, Victor. "Étude des stratégies de mouvement chez les parasitoïdes du genre Trichogramma : apports des techniques d’analyse d’images automatiques". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4223/document.

Testo completo
Abstract (sommario):
Les parasitoïdes du genre Trichogramma sont des micro-hyménoptères oophages très utilisés comme auxiliaires de lutte biologique. Ma thèse a pour objet la caractérisation phénotypique des stratégies de mouvement de cet auxiliaire, spécifiquement les mouvements impliqués dans l’exploration de l’espace et la recherche des œufs hôtes. Ces derniers sont des phénotypes de grande importance dans le cycle de vie des trichogrammes, et aussi des caractères d’intérêt pour évaluer leur efficacité en lutte biologique. Les trichogrammes étant des organismes de très petite taille (moins de 0,5 mm), difficilement observables, l’étude de leur mouvement peut tirer profit des avancées technologiques dans l’acquisition et l’analyse automatique des images. C’est cette stratégie que j’ai suivi en combinant un volet de développement méthodologique et un volet expérimental. Dans une première partie méthodologique, je présente trois grands types de méthodes d’analyse d’images que j’ai utilisées et contribué à développer au cours de ma thèse. Dans un second temps, je présente trois applications de ces méthodes à l’étude du mouvement chez le trichogramme. Premièrement, nous avons caractérisé au laboratoire les préférences d’orientation (phototaxie, géotaxie et leur interaction) lors de la ponte chez 18 souches de trichogramme, appartenant à 6 espèces. Ce type d’étude requérant le dénombrement d’un très grand nombre d’œufs (sains et parasités), il a été développé un nouvel outil dédié, sous forme d’un plugin ImageJ/FIJI mis à disposition de la communauté. Ce plugin flexible automatise et rend plus productible les tâches de dénombrement et d’évaluation de taux de parasitisme, rendant possible des screenings de plus grande ampleur. Une grande variabilité a pu être mise en évidence au sein du genre, y compris entre souches d’une même espèce. Cela suggère qu’en fonction de la strate végétale à protéger (herbacée, arbustive, arborée), il serait possible de sélectionner des souches afin d’optimiser leur exploitation de la zone ciblée. Dans un second temps, nous avons caractérisé les stratégies d’exploration (vitesses, trajectoires, ...) d’un ensemble de souches et d’espèces de trichogramme pour rechercher des traits propres à chaque souche ou espèce. Pour cela, j’ai mis en œuvre une méthode de tracking de groupes de trichogrammes sur enregistrement vidéo sur de courtes échelles de temps à l’aide du logiciel Ctrax et de scripts R. L’objectif était de développer un protocole de caractérisation haut-débit du mouvement de souches de trichogrammes et d’étudier la variabilité de ces traits au sein du genre. Enfin, nous avons conduit une étude de la dynamique de propagation dans l’espace de groupes de trichogrammes chez l’espèce T. cacoeciae, en mettant au point un dispositif expérimental innovant permettant de couvrir des échelles de temps et d’espace supérieures à celles habituellement imposées par les contraintes de laboratoire.Grâce à l’utilisation de prises de vue très haute résolution / basse fréquence et d’un pipeline d’analyse dédié, la diffusion des individus peut être suivie dans un tunnel de plus 6 mètres de long pendant toute une journée. J’ai notamment pu identifier un effet de la densité en individus ainsi que de la distribution des ressources sur la dynamique de propagation (coefficient de diffusion) des trichogrammes testés
Parasitoids of the genus Trichogramma are oophagous micro-hymenoptera widely used as biological control agents. My PhD is about the phenotypic characterization of this auxiliary's movement strategies, specifically the movements involved in the exploration of space and the search for host eggs. These phenotypes have great importance in the life cycle of trichogramma, and also of characters of interest to evaluate their effectiveness in biological control program. Trichogramma being very small organisms (less than 0.5 mm), difficult to observe, the study of their movement can take advantage of technological advances in the acquisition and automatic analysis of images. This is the strategy I followed by combining a methodological development component and an experimental component. In a first methodological part, I present three main types of image analysis methods that I used and helped to develop during my thesis. In a second time, I present three applications of these methods to the study of the movement of Trichogramma. First, we characterized in the laboratory the orientation preferences (phototaxis, geotaxis and their interaction) during egg laying in 22 trichogram strains belonging to 6 species. This type of study requires the counting of a large number of eggs (healthy and parasitized), it was developed a new dedicated tool in the form of an ImageJ / FIJI plugin made available to the community. This flexible plugin automates and makes more productive the tasks of counting and evaluation of parasitism rate, making possible screenings of greater magnitude. A great variability could be highlighted within the genus, including between strains of the same species. This suggests that depending on the plant layer to be protected (grass, shrub, tree), it would be possible to select trichogramma’s strains to optimize their exploitation of the targeted area. In a second time, we characterized the exploration strategies (velocities, trajectories, ...) of a set of 22 strains from 7 trichogramma species to look for traits specific to each strain or species. I implemented a method for tracking a trichogramma group on video recorded on short time scales using the Ctrax software and R scripts. The aim was to develop a protocol for high-throughput characterization of trichogramma strains movement and to study the variability of these traits within the genus. Finally, we conducted a study of the propagation dynamics in trichogramma group from the species T. cacoeciae, by developing an innovative experimental device to cover scales of time and space greater than those usually imposed by laboratory constraints. Through the use of pictures taken at very high resolution / low frequency and a dedicated analysis pipeline, the diffusion of individuals can be followed in a tunnel longer than 6 meters during a whole day. In particular, I was able to identify the effect of the population density as well as the distribution of resources on the propagation dynamics (diffusion coefficient) and the parasitism efficiency of the tested strain
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Aderghal, Karim. "Classification of multimodal MRI images using Deep Learning : Application to the diagnosis of Alzheimer’s disease". Thesis, Bordeaux, 2021. http://www.theses.fr/2021BORD0045.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous intéressons à la classification automatique des images IRM cérébrales pour le diagnostic de la maladie d’Alzheimer (MA). Nous cherchons à construire des modèles intelligents qui fournissent au clinicien des décisions sur l’état de la maladie d’un patient à partir de caractéristiques visuelles extraites d’images IRM. L’objectif consiste à classifier les patients (sujets) en trois catégories principales : sujets sains (NC), sujets atteints de troubles cognitifs légers (MCI), et sujets atteints de la maladie d’Alzheimer (AD). Nous utilisons des méthodes d’apprentissage profond (Deep learning), plus précisément les réseaux neuronaux convolutifs (CNN) basés sur des biomarqueurs visuels à partir d’images IRM multimodales (IRM structurelle et l’IRM de tenseur de diffusion - DTI), pour détecter les changements structurels dans le cerveau, en particulier dans la région hippocampique du cortex limbique. Nous proposons une approche appelée "2-D+e" appliquée sur notre ROI (Region-of-Interest): hippocampe. Cette approche permet d’extraire des coupes 2D à partir de trois plans (sagittale, coronale et axiale) de notre région en préservant les dépendances spatiales entre les coupes adjacentes selon chaque dimension. Nous présentons une étude complète de différentes méthodes artificielles d’augmentation de données, ainsi que différentes approches d’équilibrage de données pour analyser l’impact de ces conditions sur nos modèles pendant la phase d’entraînement. Ensuite, nous proposons nos méthodes pour combiner des informations provenant de différentes sources (projections/modalités) avec notamment deux stratégies de fusion (fusion précoce et fusion tardive). Enfin, nous présentons des schémas d’apprentissage par transfert en introduisant trois cadres : (i) un schéma inter-modale (IRM structurelle et DTI), (ii) un schéma inter-domaine qui implique des données externes (MNIST), (iii) et un schéma hybride avec ces deux méthodes (i) et (ii). Les méthodes que nous proposons conviennent à l’utilisation des réseaux (CNN) peu profonds pour les images IRM multimodales. Elles donnent des résultats encourageants même si le modèle est entraîné sur de petits ensembles de données, ce qui est souvent le cas en analyse d’images médicales
In this thesis, we are interested in the automatic classification of brain MRI images to diagnose Alzheimer’s disease (AD). We aim to build intelligent models that provide decisions about a patient’s disease state to the clinician based on visual features extracted from MRI images. The goal is to classify patients (subjects) into three main categories: healthy subjects (NC), subjects with mild cognitive impairment (MCI), and subjects with Alzheimer’s disease (AD). We use deep learning methods, specifically convolutional neural networks (CNN) based on visual biomarkers from multimodal MRI images (structural MRI and DTI), to detect structural changes in the brain hippocampal region of the limbic cortex. We propose an approach called "2-D+e" applied to our ROI (Region-of-Interest): the hippocampus. This approach allows extracting 2D slices from three planes (sagittal, coronal, and axial) of our region by preserving the spatial dependencies between adjacent slices according to each dimension. We present a complete study of different artificial data augmentation methods and different data balancing approaches to analyze the impact of these conditions on our models during the training phase. We propose our methods for combining information from different sources (projections/modalities), including two fusion strategies (early fusion and late fusion). Finally, we present transfer learning schemes by introducing three frameworks: (i) a cross-modal scheme (using sMRI and DTI), (ii) a cross-domain scheme that involves external data (MNIST), and (iii) a hybrid scheme with these two methods (i) and (ii). Our proposed methods are suitable for using shallow CNNs for multimodal MRI images. They give encouraging results even if the model is trained on small datasets, which is often the case in medical image analysis
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Halawana, Hachem. "Dématriçage partiel d’images CFA pour la mise en correspondance stéréoscopique couleur". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10149/document.

Testo completo
Abstract (sommario):
La mise en correspondance stéréoscopique consiste à retrouver dans les images couleur gauche et droite les primitives homologues. Dans ce but, des mesures de similarité entre les pixels dans une paire d’images sont calculées. Un coût de correspondance est généralement calculé à chaque pixel de l’image gauche pour tous les décalages dans un champ prédéfini, c'est à dire pour un ensemble limité de pixels candidats dans l’image droite. Ensuite, le pixel candidat qui minimise le coût est retenu et sa position donne la disparité. Les coûts de mise en correspondance supposent que les pixels homologues ont presque les mêmes composantes couleur. Les composantes couleur sont dégradées par le dématriçage quand les images couleur ont été acquises par un caméra équipée d'un seul capteur. L'idée est de tenter une mise en correspondance directement à partir des images CFA. De cette façon, il serait possible de travailler sur des intensités de couleurs dont on est sûr. Le fait de travailler sur les images CFA soulève différents problèmes. Tout d'abord, le nombre d'informations est considérablement réduit par rapport à une image couleur idéale: nous en avons trois fois moins. Il faut donc que nous travaillions avec des outils capables de pallier cette carence. Ensuite, rien ne nous permet d'affirmer que des pixels homologues vont être codés dans des couleurs similaires dans les deux images stéréoscopiques CFA. Nous suggérons d'estimer partiellement les éléments manquants et ensuite de mettre en correspondance les pixels. Nous avons prouvé que ce dématriçage partiel donne de meilleurs résultats que le dématriçage total
Most color stereovision setups include single-sensor cameras which provide Color Filter Array (CFA) images. In those images, a single color component is sampled at each pixel rather than the three required ones (R,G,B). We show that standard demosaicing techniques, used to determine the two missing color components, are not well adapted when the resulting color pixels are compared for estimating the disparity map. In order to avoid this problem while exploiting color information, we propose a partial demosaicing designed for dense stereovision based on pairs of Bayer CFA images. Finally, experimental results obtained with benchmark stereo image pairs show that stereo matching applied to partially demosaiced images outperforms stereo matching applied to standard demosaiced images
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia