To see the other types of publications on this topic, follow the link: Représentation d'images.

Dissertations / Theses on the topic 'Représentation d'images'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Représentation d'images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Randrianasoa, Tianatahina Jimmy Francky. "Représentation d'images hiérarchique multi-critère." Thesis, Reims, 2017. http://www.theses.fr/2017REIMS040/document.

Full text
Abstract:
La segmentation est une tâche cruciale en analyse d’images. L’évolution des capteurs d’acquisition induit de nouvelles images de résolution élevée, contenant des objets hétérogènes. Il est aussi devenu courant d’obtenir des images d’une même scène à partir de plusieurs sources. Ceci rend difficile l’utilisation des méthodes de segmentation classiques. Les approches de segmentation hiérarchiques fournissent des solutions potentielles à ce problème. Ainsi, l’Arbre Binaire de Partitions (BPT) est une structure de données représentant le contenu d’une image à différentes échelles. Sa construction est généralement mono-critère (i.e. une image, une métrique) et fusionne progressivement des régions connexes similaires. Cependant, la métrique doit être définie a priori par l’utilisateur, et la gestion de plusieurs images se fait en regroupant de multiples informations issues de plusieurs bandes spectrales dans une seule métrique. Notre première contribution est une approche pour la construction multicritère d’un BPT. Elle établit un consensus entre plusieurs métriques, permettant d’obtenir un espace de segmentation hiérarchique unifiée. Par ailleurs, peu de travaux se sont intéressés à l’évaluation de ces structures hiérarchiques. Notre seconde contribution est une approche évaluant la qualité des BPTs en se basant sur l’analyse intrinsèque et extrinsèque, suivant des exemples issus de vérités-terrains. Nous discutons de l’utilité de cette approche pour l’évaluation d’un BPT donné mais aussi de la détermination de la combinaison de paramètres adéquats pour une application précise. Des expérimentations sur des images satellitaires mettent en évidence la pertinence de ces approches en segmentation d’images<br>Segmentation is a crucial task in image analysis. Novel acquisition devices bring new images with higher resolutions, containing more heterogeneous objects. It becomes also easier to get many images of an area from different sources. This phenomenon is encountered in many domains (e.g. remote sensing, medical imaging) making difficult the use of classical image segmentation methods. Hierarchical segmentation approaches provide solutions to such issues. Particularly, the Binary Partition Tree (BPT) is a hierarchical data-structure modeling an image content at different scales. It is built in a mono-feature way (i.e. one image, one metric) by merging progressively similar connected regions. However, the metric has to be carefully thought by the user and the handling of several images is generally dealt with by gathering multiple information provided by various spectral bands into a single metric. Our first contribution is a generalized framework for the BPT construction in a multi-feature way. It relies on a strategy setting up a consensus between many metrics, allowing us to obtain a unified hierarchical segmentation space. Surprisingly, few works were devoted to the evaluation of hierarchical structures. Our second contribution is a framework for evaluating the quality of BPTs relying both on intrinsic and extrinsic quality analysis based on ground-truth examples. We also discuss about the use of this evaluation framework both for evaluating the quality of a given BPT and for determining which BPT should be built for a given application. Experiments using satellite images emphasize the relevance of the proposed frameworks in the context of image segmentation
APA, Harvard, Vancouver, ISO, and other styles
2

Maurice, A. "Traitement, analyse et représentation d'images infrarouges." Aix-Marseille 3, 1987. http://www.theses.fr/1987AIX30071.

Full text
Abstract:
Ce mémoire présente successivement les trois classes de traitements informatiques nécessaires à l'exploitation d'une image infrarouge à savoir ; traitements d'Amélioration, de Calcul et d'Analyse. La numérisation générant un bruit non négligeable, la première classe rassemble les traitements que doivent subir toutes images pour être mieux exploitables. La seconde classe inclue" la saisie des paramétres de la scène : [paramétres physiques (températures et émissivité globale et paramétres électroniques (gain de la caméra)!, le calcul des températures réelles des objets observés, leurs corrections éventuelles en regard des émissivités propres, la réalisation d'histogrammes ou de profils sur la totalité de l'image ou sur des fenêtres. La dernière classe (analyse de la scène) rassemble des procédures d'extractions des contours des formes présentes sur l'image. Cette extraction passe par la recherche du seuil 4e caractéristique de binarisation, puis la recherche et le codage des contours extérieurs et intérieurs. Cette analyse a conduit à la réalisation d'un logiciel de thermographie assistée par ordinateur, convivial et intenactif, qui permet l'exploitation rapide d'images infrarouges.
APA, Harvard, Vancouver, ISO, and other styles
3

Pacanowski, Romain. "Modes de représentation pour l'éclairage en synthèse d'images." Thèse, Bordeaux 1, 2009. http://hdl.handle.net/1866/3279.

Full text
Abstract:
En synthèse d'images, le principal calcul à effectuer pour générer une image a été formalisé dans une équation appelée équation du rendu [Kajiya1986]. Cette équation est la intègre la conservation de l'\'energie dans le transport de la lumi\`ere. Elle stipule que l'énergie lumineuse renvoyée, par les objets d'une scène, dans une direction donnée est égale à la somme de l'énergie émise et réfléchie par ceux-ci. De plus, l'énergie réfléchie par un élément de surface est définie comme la convolution de l'éclairement incident avec une fonction de réflectance. Cette dernière modélise le matériau (au sens physique) de l'objet et joue le rôle d'un filtre directionnel et énergétique dans l'équation du rendu, simulant ainsi la manière dont la surface se comporte vis-à-vis d'une réflexion. Dans ce mémoire de thèse, nous introduisons de nouvelles représentations pour la fonction de réflectance ainsi que pour la représentation de l'éclairement incident. Dans la première partie de ce mémoire, nous proposons deux nouveaux modèles pour représenter la fonction de réflectance. Le premier modèle s'inscrit dans une démarche artistique et est destiné à faciliter la création et l'édition des reflets spéculaires. Son principe est de laisser l'utilisateur peindre et esquisser les caractéristiques (forme, couleur, gradient et texture) du reflet spéculaire dans un plan de dessin paramétrisé en fonction de la direction de la réflexion miroir de la lumière. Le but du second modèle est de représenter de manière compacte et efficace les mesures des matériaux isotropes. Pour ce faire, nous introduisons une nouvelle représentation à base de polynômes rationnels. Les coefficients de ces derniers sont obtenus à l'aide d'un processus d'approximation qui garantit une solution optimale au sens de la convergence. Dans la seconde partie de ce mémoire, nous introduisons une nouvelle représentation volumétrique pour l'éclairement indirect représenté directionnellement à l'aide de vecteurs d'irradiance. Nous montrons que notre représentation est compacte et robuste aux variations géométriques et qu'elle peut être utilisée comme système de cache pour du rendu temps réel ou non, ainsi que dans le cadre de la transmission progressive des données (streaming). Enfin, nous proposons deux types de modifications de l'éclairement incident afin de mettre en valeur les détails et les formes d'une surface. Le première modification consiste à perturber les directions de l'éclairement incident tandis que la seconde consiste à en modifier l'intensité.<br>In image synthesis, the main computation involved to generate an image is characterized by an equation named rendering equation [Kajiya1986]. This equation represents the law of energy conservation. It stipulates that the light emanating from the scene objects is the sum of the emitted energy and the reflected energy. Moreover, the reflected energy at a surface point is defined as the convolution of the incoming lighting with a reflectance function. The reflectance function models the object material and represents, in the rendering equation, a directional and energetic filter that describes the surface behavior regarding the reflection. In this thesis, we introduce new representations for the reflectance function and the incoming lighting. In the first part of this thesis, we propose two new models for the reflectance function. The first model is targeted for artists to help them create and edit highlights. Our main idea is to let the user paint and sketch highlight characteristics (shape, color, gradient and texture) in a plane parametrized by the incident lighting direction. The second model is designed to represent efficiently isotropic material data. To achieve this result, we introduce a new representation of the reflectance function that uses rational polynomials. Their coefficients are computed using a fitting process that guarantees an optimal solution regarding convergence. In the second part of this thesis, we introduce a new volumetric structure for indirect illumination that is directionally represented with irradiance vector. We show that our representation is compact and robust to geometric variations, that it can be used as caching system for interactive and offline rendering and that it can also be transmitted with streaming techniques. Finally, we introduce two modifications of the incoming lighting to improve the shape depiction of a surface. The first modification consists in warping the incoming light directions whereas the second one consists in scaling the intensity of each light source.<br>Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
APA, Harvard, Vancouver, ISO, and other styles
4

Maistre, Nicolas de. "Progressivité et scalabilité pour la représentation d'images numériques." Rennes 1, 1998. http://www.theses.fr/1998REN10038.

Full text
Abstract:
Le travail presente concerne le developpement de techniques de compression progressive d'images numeriques ou de sequences d'images numeriques en vue de leurs transmissions sur des reseaux atm. La compression progressive peut etre caracterisee par un emboitement des flux binaires de codage obtenus par compression d'une meme image ou sequence d'images, a differents taux. Et elle s'avere apporter une solution elegante a plusieurs problemes souleves par la transmission de flux video sur reseaux. Dans un premier temps, plusieurs schemas de transmission progressive d'images fixes, s'appuyant sur des decompositions en paquets d'ondelettes (2d) orthogonales, ont ete developpes pour s'integrer dans un processus de transmission defini par une suite de contraintes en debits. Ils recourent a une selection ou une quantification progressive des sous-bandes frequentielles, considerees comme independantes, l'inter-dependance n'etant ici que partiellement abordee. Un algorithme de minimisation convexe permet alors d'optimiser ces decompositions en fonctions des contraintes posees. S'agissant du codage de sequences video, une approche frequentielle de la progressivite (ou scalabilite) spatiale est etudiee en premier, sur les schemas de codage inter-images dits hybrides, predictifs par compensation du mouvement. En complement d'etudes anterieures, ce travail porte sur differents positionnements de la boucle de compensation de mouvement dans un schema hybride. Puis, trois approches de la comptabilite par quantification progressive de l'image d'erreur de compensation transformee, sont proposees et comparees dans leurs resultats. Enfin, dans un troisieme schema de codage compatible, cette scalabilite spatiale est associee a une scalabilite temporelle de type ipb , mise en uvre a differents niveaux de resolution spatiale.
APA, Harvard, Vancouver, ISO, and other styles
5

Monasse, Pascal. "Représentation morphologique d'images numériques et application au recalage." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090037.

Full text
Abstract:
La représentation d'une image numérique par un tableau de pixels n'est pas une information assez hiérarchique pour l'analyse d'images. Observant que le contraste importe bien moins que la géométrie, nous représentons cette information géométrique par les composantes connexes d'ensembles de niveaux dont nous remplissons les trous, la hiérarchie s'obtenant alors naturellement par l'ordre d'inclusion. La propriété attrayante de ces caractéristiques est qu'elles représentent exactement l'image. Deux filtres morphologiques déduits de cette représentation sont proposés. Puisqu'ils reposent sur cette représentation, ils présentent la propriété intéressante d'être invariants par inversion du contraste : on les qualifie d'autoduaux dans le vocabulaire de la morphologie mathématique. Nous utilisons ensuite cette représentation dans la deuxième partie pour traiter de l'un des problèmes les plus élémentaires en traitement de plusieurs images : le recalage. Notre méthode repose sur les éléments de base de notre représentation, nommés formes, qui sont donc des caractéristiques stables pour effectuer le recalage. Nous cherchons les formes de chaque image dans l'autre image, établissant ainsi des correspondances entre formes d'une image et de l'autre image. Puis une procédure de vote des correspondances sélectionne le mouvement dominant. Nous montrons que cette méthode a le mérite de donner un recalage d'une précision subpixellique dans des conditions tout à fait défavorables.
APA, Harvard, Vancouver, ISO, and other styles
6

Darles, Emmanuelle. "Représentation et rendu de l'océan en synthèse d'images réalistes." Phd thesis, Université de Limoges, 2008. http://tel.archives-ouvertes.fr/tel-00914626.

Full text
Abstract:
De nos jours, les images de synthèse sont omniprésentes dans notre quotidien. Le réalisme de ces images est grandissant, surprenant, et il n'est souvent pas aisé de distinguer la réalité de la virtualité, cette réalité faite et enrichie par toute la complexité des phénomènes naturels qui nous entourent. L'eau est un de ces phénomènes dont la variété et la richesse dynamique rend la représentation complexe. Nous nous intéressons dans cette thèse 'a sa forme la plus étendue, celle des océans, qui font partie intégrante de nos paysages. Dans un premier temps, nous étudions les méthodes permettant la simulation et le rendu de l'océan à la fois dans le domaine physique mais aussi dans le domaine de la synthèse d'images réalistes. Dans le second chapitre, nous proposons une nouvelle méthode de rendu unifiée permettant une visualisation plus rapide de l'océan au large et permettant d'approximer les échanges lumineux surfaciques et sous-surfaciques, l'écume et les phénomènes d' éblouissements. Dans le chapitre 3, nous nous intéressons au déferlement des vagues en proposant une nouvelle approche adaptative basée physique permettant de reproduire ce phénomène et de réduire les temps de calculs imposés par la résolution des équations de la mécanique des fluides en 3D. Dans le quatrième chapitre, nous étendons ce modèle en proposant une approche hiérarchique permettant une plus forte accélération du processus de résolution et d'obtenir une simulation proche de l'interactivité.
APA, Harvard, Vancouver, ISO, and other styles
7

Rafaa, Az-Eddine. "Représentation multirésolution et compression d'images : ondelettes et codage scalaire et vectoriel." Metz, 1994. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1994/Rafaa.Az_Eddine.SMZ9447.pdf.

Full text
Abstract:
La pyramide d'ondelettes est une nouvelle forme de représentation de l'image. Son codage offre par conséquent une nouvelle méthode de compression des échantillons numériques de l'image. Cette technique est en mesure de supplanter les méthodes traditionnelles et bien établies des transformées blocs qui ont dominé l'état de l'art de ces dernières années. Dans un but de transparence, ce mémoire est organisé en trois parties. La première fait une synthèse théorique ainsi que l'historique de la représentation en multirésolution qui aboutit à la représentation en pyramide d'ondelettes de l'image. La deuxième partie englobe l'aspect scalaire des différentes composantes de la pyramide: caractéristiques statistiques, codage par quantification scalaire ou par zone morte, associe à une allocation de bits optimale par voie analytique ou algorithmique. Enfin, la troisième partie décrit l'aspect vectoriel du codage. La pyramide est dans ce cas repartie en entités élémentaires, sous forme d'arbre d'éléments vectoriels auxquelles un codage hybride à base de la Q. S. Et la Q. V. Leur a été adapte. Cette structure a permis en outre la description de l'activité fréquentielle et directionnelle locale dans l'image puis l'introduction de la notion de classification de ces activités. Pour étendre la validité du codeur élaboré, des extensions aux images couleurs et aux séquences d'images ont aussi été présentées<br>Wavelet pyramidal is a new form of image representation. Its coding scheme allows a new method of image data compression. This technical may well supplant the well established block-transform methods which have been state of art for these last years. In a suitable purpose, this work is achieved in three parts. The first part provides theorical and historical synthesis of multiresolution representation which converge into Wavelets pyramidal representation of images. The second part investigate scalar point of view of different pyramid components : statistical characteristics, coding scheme with scalar quantization or with dead-zone, related to optimal bit allocation whether analytical or algorithmic. Finally, the third part deals with vector coding scheme. The pyramid is then dispatched into elementary entities which are performed on a hierarchical vector tree as which we applied an hybrid coding based on QS and QV. This structure allows local directivity and frequency activity description in image, and then an introduction to the notion of activity classification. To extend the validity of the elaborated encoder, extensions to colours images and images sequences was presented too
APA, Harvard, Vancouver, ISO, and other styles
8

Urvoy, Matthieu. "Les tubes de mouvement : nouvelle représentation pour les séquences d'images." Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00642973.

Full text
Abstract:
En quelques années, le trafic vidéo a augmenté de manière spectaculaire sur de nombreux médias. D'ici 2014, on estime que la quasi-intégralité du trafic IP sera composée de données vidéo. De même, l'usage de la vidéo sur les téléphones mobiles aura subi une augmentation sans précédent. Or, on estime que les infrastructures réseau, malgré les progrès constants en matière de transmission, ne pourront pas supporter une telle charge. A ce titre, il est plus que jamais capital d'améliorer nos capacités à compresser les vidéos. Depuis 30 ans, la recherche travaille à l'élaboration de techniques de décorrélation, notamment afin de réduire les redondances spatiales et temporelles des séquences d'images et les compresser. A ce jour, l'approche classique est basée sur le concept de macroblocs : le contenu spatial est divisé en un ensemble de blocs. Le long de l'axe temporel, les images sont traitées une à une, sans faire apparaître de continuité évidente. Bien que cette approche soit déjà très efficace (cf. standards AVC et futur HEVC), l'emploi d'approches en rupture reste toujours envisageable. Celles-ci offrent, entre autre, la possibilité de décrire l'évolution temporelle du contenu de manière continue. Cependant, elles mettent souvent en oeuvre des outils dont l'utilisation, en pratique, est délicate. Ce travail de thèse propose une nouvelle représentation, qui combine les avantages de l'approche classique et ceux de certaines approches en rupture, puis en étudie la viabilité. On cherche à exhiber la persistance temporelle des textures, à travers une description continue le long de l'axe temporel. A l'instar de l'approche classique, la représentation proposée est basée sur des blocs. Au lieu de réinitialiser la description à chaque image, notre représentation suit l'évolution de blocs initialement repérés à un instant de référence. Ces blocs, ainsi que leur trajectoire spatio-temporelle, sont appelés tubes de mouvement. Trois problématiques sont soulevées. Tout d'abord, les tubes doivent être capable de représenter continuités et discontinuités du mouvement, ainsi que de suivre les déplacements et les déformations de patchs de texture. Des mécanismes de régularisation sont également mis en place, et s'assurent que l'évolution des tubes se fait de manière cohérente. Ensuite, la représentation doit gérer les recouvrements et les découvrements de tubes, et donc la manière dont la texture doit être synthétisée. Enfin, la problématique de vie et de mort des tubes}est probablement la plus délicate: comment détecter la disparition ou l'impossibilité de suivre un patch de texture ? Le cas échéant, le tube correspondant devra être arrêté, ceci afin de garantir une représentation aussi compacte que possible. Les résultats montreront que notre représentation est viable, et ses performances seront comparées à celles du standard AVC.
APA, Harvard, Vancouver, ISO, and other styles
9

Baere, Campos Neves José Alberto. "Contribution à la construction automatique de représentation 3D d'objets solides." Compiègne, 1989. http://www.theses.fr/1989COMPD171.

Full text
Abstract:
Ce travail présente un système de construction automatique de représentations 3D d'objets solides, où sur les données d'entrée sont des images en niveaux de gris acquises sur l'objet. Dans une première étape nous construisons une représentation du volume occupée dans l'espace à partir de ces images. Ensuite nous déterminons une représentation approchée du type fil de fer de l'objet, utilisée pour affichage et pour la définition interactive de repères fonctionnels. Partant du code volumique de base, nous proposons un nouveau système de codage de la surface de l'objet. Cette représentation est ensuite segmentée en faces planes de l'objet dont nous déterminons et codons les contours.
APA, Harvard, Vancouver, ISO, and other styles
10

Martin, Aurélie. "Représentations parcimonieuses adaptées à la prédiction d'images." Rennes 1, 2010. http://www.theses.fr/2010REN1S161.

Full text
Abstract:
La compression numérique est devenue un outil indispensable pour la transmission et le stockage de contenus multimédias de plus en plus volumineux. Pour répondre à ces besoins, la norme actuelle de compression vidéo, H. 264/AVC, se base sur un codage prédictif visant à réduire la quantité d'information à transmettre. Une image de prédiction est générée, puis soustraite à l'originale pour former une image résiduelle contenant un minimum d'information. La prédiction H. 264/AVC de type intra repose sur la propagation de pixels voisins, le long de quelques directions prédéfinies. Bien que très efficace pour étendre des motifs répondants aux mêmes caractéristiques, cette prédiction présente des performances limitées pour l'extrapolation de signaux bidimensionnels complexes. Pour pallier cette problématique, les travaux de cette thèse proposent un nouveau schéma de prédiction basée sur les représentations parcimonieuses. Le but de l'approximation parcimonieuse est ici de rechercher une extrapolation linéaire approximant le signal analysé en termes de fonctions bases, choisies au sein d'un ensemble redondant. Les performances de cette approche ont été éprouvées dans un schéma de compression basé sur la norme H. 264/AVC. Nous proposons également un nouveau schéma de prédiction spatiale inter-couches dans le cadre de la compression « scalable » basé sur H. 264/SVC. Le succès de telles prédictions repose sur l'habileté des fonctions de base à étendre correctement des signaux texturés de natures diverses. Dans cette optique, nous avons également exploré des pistes visant la création de panels de fonctions de base, adaptées pour la prédiction de zones texturées<br>Digital compression has become an essential tool for transmission and storage of increasingly large multimedia content. To meet these needs, the current standard for video compression, H. 264/ AVC, is based on a predictive encoding to reduce the amount of information transmitted. An image prediction is generated, and then subtracted to the original to form a residual image containing few information. H. 264/AVC intra prediction is based on the spread of neighboring pixels, along some predefined directions. Although very effective to extend pattern with the same characteristics, this prediction has limited performances to extrapolate complex two-dimensional signals. To mitigate this problem, this thesis work offer a new prediction scheme based on sparse representations. The goal of sparse approximation techniques is to look for a linear expansion approximating the analyzed signal in terms of functions chosen from a large and redundant set. Performances of this approach have been proven in a compression scheme based on H. 264/AVC standard. We also propose a new spatial inter-layer prediction scheme within the framework of scalable H. 264/SVC-based compression. The success of such predictions is based on the skill of basis functions to properly extend textured signals of various kinds. Accordingly to this, we have also explored solutions to create panels of basis functions adapted for the textured areas prediction
APA, Harvard, Vancouver, ISO, and other styles
11

El, Sayad Ismail. "Une représentation visuelle avancée pour l'apprentissage sémantique dans les bases d'images." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00666531.

Full text
Abstract:
Avec l'augmentation exponentielle de nombre d'images disponibles sur Internet, le besoin en outils efficaces d'indexation et de recherche d'images est devenu important. Dans cette thèse, nous nous baserons sur le contenu visuel des images comme source principale d'informations pour leur représentation. Basés sur l'approche des sacs de mots visuels, nous proposons une représentation visuelle avancée. Chaque image est modélisée par un mélange de catégories visuelles sémantiques, reliées à des catégories de haut niveau. Dans un premier temps, nous améliorons l'approche des sacs de mots visuels en caractérisant la constitution spatio-colorimétrique d'une image par le biais d'un mélange de n Gaussiennes dans l'espace de caractéristiques. Cela permet de proposer un nouveau descripteur de contour qui joue un rôle complémentaire avec le descripteur SURF. Cette proposition nous permet de résoudre le problème lié à la perte d'informations spatiales des sacs de mots visuels, et d'incorporer différentes informations relatives au contenu de l'image. Dans un deuxième temps, nous introduisons un nouveau modèle probabiliste basé sur les catégories : le modèle MSSA Multilayer Semantic Significance Analysis ou Analyse multi-niveaux de la pertinence sémantique dans le but d'étudier la sémantique des mots visuels construits. Ce modèle permet de construire des mots visuels sémantiquement cohérents (SSVW - Semantically Significant Visual Word). Ensuite, nous renforçons la capacité de catégorisation des SSVW en construisant des phrases visuelles sémantiquement cohérentes (SSVP - \textit{Semantically Significant Visual Phrase}), à partir des SSVW qui apparaissent fréquemment. Nous améliorons également l'invariance intra-classes des SSVW et des SSVP en les indexant en fonction de leur répartition, ce qui nous amène à générer une représentation d'un glossaire visuel invariant et sémantiquement cohérent (SSIVG - Semantically Significant Invariant Visual Glossary). Enfin, nous proposons un nouveau schéma de pondération spatiale ainsi qu'un classifieur multi-classes basé sur un vote. Nos résultats expérimentaux extensifs démontrent que la représentation visuelle proposée permet d'atteindre de meilleures performances comparativement aux représentations traditionnelles utilisées dans le domaine de la recherche, la classification et de la reconnaissance d'objets.
APA, Harvard, Vancouver, ISO, and other styles
12

Jeannic, Guillaume. "Représentation structurelle d'images par transformées locales en ondelettes orientées et codage." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00350555.

Full text
Abstract:
Dans un contexte de compression d'images fixes, de nouvelles représentations implantées par des techniques de redressement (lifting) orienté ont été imaginées. Pour ce travail de thèse, trois variantes de ces transformées sont évaluées comparativement selon un critère de minimisation de l'énergie des hautes fréquences reconstruites et selon la direction de régularité locale. Cette direction de régularité est estimée par des approches basées extraction de contours ou minimisation d'une fonction de coût. Les deux approches proposées permettent de plus une classification de l'activité directionnelle des blocs de l'image. Ces représentations des caractéristiques géométriques de l'image utilisées pour guider le filtrage en ondelettes orientées, est codé pour être transmis au décodeur. Les coûts de ces différentes représentations sont comparés. Finalement une quantification adaptée est proposée pour tenir compte à la fois des différentes classes structurelles et de l'anisotropie de la représentation.
APA, Harvard, Vancouver, ISO, and other styles
13

Meyer, Alexandre. "Représentation d'arbres réalistes et efficaces pour la synthèse d'images de paysages." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10242.

Full text
Abstract:
Cette thèse est consacrée à des représentations d'arbres pour la synthèse d'images de haute-qualité ou temps réel. Les techniques de modélisation d'arbres permettent à ce jour la génération d'espèces et de formes diverses. Cependant, leur représentation géométrique nécessite une multitude de polygones, source d'un coût de calcul important et de gros problèmes d'aliassage lors du rendu. La construction de niveaux de détails par simplification de maillage ne peut s'appliquer à un arbre sans en modifier l'opacité et l'illumination globale, à cause du caractère disparate du feuillage. En suivant l'idée de représenter feuilles et branches par paquet intégrant les aspects géométriques et photométriques, nous avons conçu deux nouvelles représentations. La première, destinée au rendu haute-qualité, est basée sur le calcul analytique du modèle d'illumination global d'une géométrie représentant un rameau d'aiguilles de conifère. En nous servant des connaissances a priori concernant la distribution géométrique des aiguilles, nous avons mis au point une hiérarchie de trois shaders capables de représenter à une échelle donnée les effets cumulés des niveaux plus fins, sans les échantillonner, et en tenant compte de l'auto-ombrage et de la visibilité. Le caractère analytique de ces shaders permet à la fois d'accélérer considérablement les temps de calculs et d'obtenir des images de qualité, avec très peu d'aliassage. La deuxième, destiné au rendu temps réel, se compose d'une hiérarchie d'images correspondant à l'échantillonnage des directions de vue et de lumière, que nous affichons à l'aide de billboards. Nous lui associons une structure de visibilité pré-calculée, basée sur des cubes de visibilité, pour traiter l'ombrage. Notre implémentation permet l'affichage interactif d'une forêt de 1 000 arbres avec illumination, auto-ombrage, ombrage, et avec possibilité de déplacer interactivement la source de lumière.
APA, Harvard, Vancouver, ISO, and other styles
14

Aldea, Emanuel. "Apprentissage de données structurées pour l'interprétation d'images." Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0053.

Full text
Abstract:
La plupart des méthodes de classification d’images s'appuient en premier lieu sur les attributs des objets d'intérêt. Cependant, les informations spatiales liées aux relations entre ces objets sont également utiles, comme cela a été montré en segmentation et reconnaissance de structures dans les images, et leur intégration dans des méthodes d'apprentissage et de classification commence à apparaître et évoluer. Les modélisations floues permettent de représenter à la fois l'imprécision de la relation et le passage graduel de la satisfaction à la non satisfaction de cette relation. L'objectif de ce travail est d'explorer les techniques de représentation de l’information spatiale et leur intégration dans les classifieurs d'images qui utilisent les noyaux de graphes. Nous justifions le choix de graphes étiquetés pour représenter les images dans le contexte de l'apprentissage SVM, ainsi que les adaptations nécessaires par rapport aux domaines connexes. A partir des mesures d’adjacence floues entre les objets d'intérêt, nous définissons une famille de représentations de graphes déterminés par des seuils différents appliqués à ces mesures spatiales. Enfin, nous employons plusieurs noyaux dans un apprentissage multiple afin de mettre en place des classifieurs qui peuvent tenir compte des différentes représentations graphiques de la même image à la fois. Les résultats montrent que l'information spatiale complète les caractéristiques visuelles des éléments distinctifs dans les images et que l'adaptation des fonctions noyau pour les représentations spatiales floues est bénéfique en termes de performances<br>Image interpretation methods use primarily the visual features of low-level or high-level interest elements. However, spatial information concerning the relative positioning of these elements is equally beneficial, as it has been shown previously in segmentation and structure recognition. Fuzzy representations permit to assess at the same time the imprecision degree of a relation and the gradual transition between the satisfiability and the non-satisfiability of a relation. The objective of this work is to explore techniques of spatial information representation and their integration in the learning process, within the context of image classifiers that make use of graph kernels. We motivate our choice of labeled graphs for representing images, in the context of learning with SVM classifiers. Graph kernels have been studied intensively in computational chemistry and biology, but an adaptation for image related graphs is necessary, since image structures and properties of the information encoded in the labeling are fundamentally different. We illustrate the integration of spatial information within the graphical model by considering fuzzy adjacency measures between interest elements, and we define a family of graph representations determined by different thresholds applied to these spatial measures. Finally, we employ multiple kernel learning in order to build up classifiers that can take into account different graphical representations of the same image at once. Results show that spatial information complements the visual features of distinctive elements in images and that adapting the discriminative kernel functions for the fuzzy spatial representations is beneficial in terms of performance
APA, Harvard, Vancouver, ISO, and other styles
15

Petit, Frédéric. "Traitement et analyse d'images couleur sous-marines : modèles physiques et représentation quaternionique." Poitiers, 2010. http://theses.edel.univ-poitiers.fr/theses/2010/Petit-Frederic/2010-Petit-Frederic-These.pdf.

Full text
Abstract:
Les océans représentent la majeure partie de la surface de la planète. Couvrant plus de 70% de la surface de la Terre, l'exploration de l'environnement marin est un thème de recherche essentiel. De nombreuses technologies ont été développées afin de surveiller et de suivre l' évolution de l'environnement marin. La vision par ordinateur et le traitement d' images ont été étudiés dans ce cadre ces dernières années afin de développer de nouveaux outils pour l'océanographie. Les images acquises sous l'eau souffrent de nombreuses dégradations dues à l'environnement aquatique. Nous nous sommes intéréssé au développement de traitements prenant en compte la nature physique des phénomènes qui interfèrent lors de l'acquisition. L'exploitation d'un modèle bio-optique a permis d'établir une corrélation entre des propriétés bio-optiques et des attributs colorimétriques des images. L'inversion de la propagation de la lumière a alors été réalisée en établissant un modèle d'estimation des paramètres physiques impliqués à partir des informations colorimétriques de l'image et de mettre en oeuvre une correction complètement automatique d' images sous-marines. Dans un deuxième temps, dans un but de détection d'objets d'intérêts, nous nous sommes interessé à un critère quaternionique permettant une extraction ciblée de zones/objets possèdant une ou plusieurs caractéristiques colorométriques communes par le biais d'une définition hypercomplexe de sous-espaces couleurs basée sur la teinte. Cette méthode a été testée sur des vidéos sous-marines en réalisant une extraction de poissons de couleur unie<br>The main part of the surface of the planet corresponds to the oceans. Covering more than 70% of the earth surface, the exploration of the underwater environment is an essential research domain. Many technologies has been developped to survey and to follow the evolution of the underwater environment. Computer vision and image processing applied to this area has been studied these last years to developp new tools for the oceanography. Underwater imagery suffer of many degradations due to the underwater environment. This work focus on processings taking into account the physical nature of the phenomenons interacting during the image acquisition. A Biooptical model has been used to link optical and chemical properties of the medium to colorimetric attributes of the image. The light propagation inversion is then performed by defining an estimation model of the physical parameters involved from colorimetric informations of the image and computing a fully automated underwater image enhancement. In a second time, focusing on object detection, a quaternionic criterion has been defined to perform an specific extraction of objects/areas sharing one or several common colorimetric feature by using an hypercomplex definition of color subspace based on the hue. This method has been tested on submarine video by computing an monochromatic fish extraction
APA, Harvard, Vancouver, ISO, and other styles
16

Lee, Hyun-Soo. "Étude comparative de la classification de textures fondée sur la représentation vectorielle." Le Havre, 1992. http://www.theses.fr/1992LEHA0002.

Full text
Abstract:
Ce travail consiste à comparer les différentes représentations vectorielles de textures afin d'en choisir une pour notre prochaine étape : la segmentation d'image texturée. A travers 27 expériences de l'analyse discriminante et 24 de la classification hiérarchique, en utilisant sept images de texture naturelle de l'album de P. Brodatz « Texture », nous avons essayé de trouver le meilleur vecteur caractéristique de texture parmi les 4 suivants, obtenus à partir du périodogramme, des coefficients du modèle autorégressif (AR), de l'estimation spectrale du modèle AR et des matrices de cooccurrence. Ces expériences nous montrent que le vecteur caractéristique dont les composantes sont les coefficients du modèle AR de la texture correspondante est suffisamment bonne pour assurer l'analyse d'image fondée sur la texture
APA, Harvard, Vancouver, ISO, and other styles
17

Tochon, Guillaume. "Analyse hiérarchique d'images multimodales." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT100/document.

Full text
Abstract:
Il y a un intérêt grandissant pour le développement d’outils de traitements adaptés aux images multimodales (plusieurs images de la même scène acquises avec différentes caractéristiques). Permettant une représentation plus complète de la scène, ces images multimodales ont de l'intérêt dans plusieurs domaines du traitement d'images, mais les exploiter et les manipuler de manière optimale soulève plusieurs questions. Cette thèse étend les représentations hiérarchiques, outil puissant pour le traitement et l’analyse d’images classiques, aux images multimodales afin de mieux exploiter l’information additionnelle apportée par la multimodalité et améliorer les techniques classiques de traitement d’images. Cette thèse se concentre sur trois différentes multimodalités fréquemment rencontrées dans le domaine de la télédétection. Nous examinons premièrement l’information spectrale-spatiale des images hyperspectrales. Une construction et un traitement adaptés de la représentation hiérarchique nous permettent de produire une carte de segmentation de l'image optimale vis-à-vis de l'opération de démélange spectrale. Nous nous concentrons ensuite sur la multimodalité temporelle, traitant des séquences d’images hyperspectrales. En utilisant les représentations hiérarchiques des différentes images de la séquence, nous proposons une nouvelle méthode pour effectuer du suivi d’objet et l’appliquons au suivi de nuages de gaz chimique dans des séquences d’images hyperspectrales dans le domaine thermique infrarouge. Finalement, nous étudions la multimodalité sensorielle, c’est-à-dire les images acquises par différents capteurs. Nous appuyant sur le concept des tresses de partitions, nous proposons une nouvelle méthodologie de segmentation se basant sur un cadre de minimisation d’énergie<br>There is a growing interest in the development of adapted processing tools for multimodal images (several images acquired over the same scene with different characteristics). Allowing a more complete description of the scene, multimodal images are of interest in various image processing fields, but their optimal handling and exploitation raise several issues. This thesis extends hierarchical representations, a powerful tool for classical image analysis and processing, to multimodal images in order to better exploit the additional information brought by the multimodality and improve classical image processing techniques. %when applied to real applications. This thesis focuses on three different multimodalities frequently encountered in the remote sensing field. We first investigate the spectral-spatial information of hyperspectral images. Based on an adapted construction and processing of the hierarchical representation, we derive a segmentation which is optimal with respect to the spectral unmixing operation. We then focus on the temporal multimodality and sequences of hyperspectral images. Using the hierarchical representation of the frames in the sequence, we propose a new method to achieve object tracking and apply it to chemical gas plume tracking in thermal infrared hyperspectral video sequences. Finally, we study the sensorial multimodality, being images acquired with different sensors. Relying on the concept of braids of partitions, we propose a novel methodology of image segmentation, based on an energetic minimization framework
APA, Harvard, Vancouver, ISO, and other styles
18

Chevrier, Christine. "Génération de séquences composées d'images de synthèse et d'images vidéo." Nancy 1, 1996. http://www.theses.fr/1996NAN10121.

Full text
Abstract:
Les études d'impact en architecture sont réalisées jusqu'à présent sur la base de dessins, de photographies retouchées, de maquettes ou plus récemment encore d'images de synthèse. Mais ces techniques sont coûteuses et peu réalistes. La synthèse d'image seule nécessite une modélisation tridimensionnelle non seulement de la future construction mais aussi de son environnement (immeubles, rues, ouvrages d'art, végétation, etc). Cette façon de procéder s'avère longue et fournit des images peu réalistes eu égard à la complexité du monde réel et à l'impossibilité d'en modéliser tous les détails. La composition d'images de synthèse et de photographies peut être un autre moyen de représentation plus fiable et plus rapide. L'incrustation d'images de synthèse de projets dans leur site réel que l'on a préalablement photographié est une technique prometteuse à la fois du point de vue temps car elle ne nécessite pas de modélisation détaillée de l'environnement existant, et du point de vue réalisme car celui-ci est garanti par la photographie même. Une telle technique où la réalité est «augmentée» par l'addition d'images d'objets qui ne sont encore que virtuels (puisqu'à l'état de projet) pose néanmoins de nombreux problèmes qu'il convient de résoudre pour obtenir une cohérence au niveau de l'image, à la fois du point de vue géométrique et du point de vue photométrique. Pour ce faire, la conception et la mise en oeuvre de modèles d'analyse et de synthèse d'images sont nécessaires. Appliquée dans le cadre du calcul d'une séquence d'images (ou film vidéo) et non plus dans celui d'une seule image, cette technique peut augmenter le réalisme d'une simulation de façon spectaculaire. L’objectif de ce travail était la mise au point, le test et l'intégration de diverses méthodes d'analyse et de synthèse pour la composition réaliste d'images de synthèse et d'images vidéo dans le cadre de la simulation de projets d'architecture et de projets urbains. Ce mémoire présente les différentes étapes nécessaires à l'incrustation réaliste d'objets virtuels dans un environnement réel. Pour chacune de ces étapes, diverses méthodes ont été proposées, mises en oeuvre et testées afin de sélectionner la ou les solutions les plus adaptées et de les intégrer dans la plate-forme de développement de l'équipe. L'application de cette étude a été la simulation du projet d'éclairage du Pont Neuf à Paris dans une séquence vidéo. Parallèlement à ce travail d'intégration, je me suis plus particulièrement intéressée au problème posé par la génération de séquences d'images de synthèse afin d'accélérer le processus d'incrustation de ces images dans des films vidéo. Une nouvelle technique d'interpolation d'images de synthèse est ainsi présentée (dans le cas où un observateur se déplace dans une scène statique). Cette méthode est générale (non limitée aux environnements parfaitement diffus) et ne requiert aucune approximation du mouvement de la caméra. De plus, cette méthode permet d'interpoler des images entrelacées comme le sont les images vidéo, dans le but d'un meilleur résultat visuel<br>The visual impact assessment of architectural projects in urban environments is usually based on manual drawings, paintings on photographs, scale models or computer-generated images. These techniques are either too expensive or not realistic enough. Strictly using computer images means requiring an accurate 3D model of the environment. Computing such a model takes a long time and the results lack of visual accuracy. Our technique of overlaying computer generated images onto photographs of the environment is considerably more effective and reliable. This method is a promising solution regarding computation time (no accurate 3D model of the environment) as weIl as visual realism (provided by the photograph itself). Such a solution requires nevertheless to solve lots of problems in order to get geometrical and photometrical coherence in the resulting image. To this end, image analysis and image synthesis methods have to be designed and developed. The method is generalized to produce an animated film, and can furthermore greatly increase the realism of the simulation. My Ph. D. Work was to test and integrate various image analysis and synthesis techniques for the composition of computer generated images with pictures or video film. This report explains the steps required for a realistic encrustation. For each of these steps, various techniques were tested in order to be able to choose the most suitable solutions according to the state of the most recent researches and to the applications we were dealing with (architectural and urban projects). The application of this work was the simulation of the Paris Bridges illumination projects. Concurrently to this work, I present a new method for the interpolation of computer images for the generation of a sequence of images. This method requires no approximation of the camera motion. Since video images are interlaced, sequences of computer images need to be interleaved too. The interpolation technique we propose is capable of doing this
APA, Harvard, Vancouver, ISO, and other styles
19

Binse, Michel. "Représentation de connaissances et complexité de Kolmogorov : le cas du dessin au trait." Lille 1, 1994. http://www.theses.fr/1994LIL10129.

Full text
Abstract:
La ressemblance de deux objets s'etablit a la fois par ce qu'ils ont d'analogue (information mutuelle) et d'identique (information commune). Nous utilisons ici le mot information dans son sens de contenu descriptionnel, ce qui nous place dans le cadre de la complexite de kolmogorov. Le theoreme de gacs et korner (1973) affirme que l'information commune est probablement negligeable devant l'information mutuelle. Pour ne pas nous placer dans le cadre de ce theoreme, nous limitons le domaine a des langages restreints, en nous dotant d'un droit logarithmique a negliger. Ce defaut logarithmique est suffisamment large pour permettre de profiter des proprietes enoncees par levin et kolmogorov et suffisamment limite pour que les objets distincts inclus (au sens de l'information) dans un objet donne, soient en nombre polynomial. Nous imposons des contraintes a ce langage restreint pour que toute l'information mutuelle soit faite d'information commune. De tels langages seront appeles booleens. En effet, apres avoir fixe une axiomatique, nous montrons que l'on peut manipuler les objets comme des ensembles. Nous illustrons par des exemples les resultats theoriques. Nous abordons alors le cas du dessin au trait, proposons un langage de representation booleen, specifions des qualites vis a vis d'un espace semantique et illustrons par des exemples, des contre exemples, et un compromis: une representation pyramidale. Nous montrons alors comment le traitement booleen permet de rester dans le raisonnable pour construire des bases de connaissance. Une seconde partie presente un vaste panorama des methodes d'apprentissage et de representation des connaissances, appliquees au cas du dessin au trait.
APA, Harvard, Vancouver, ISO, and other styles
20

Chaumont, Marc. "Représentation en objets vidéo pour un codage progressif et concurrentiel des séquences d'images." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00004146.

Full text
Abstract:
L'objectif de cette thèse est de valider l'hypothèse selon laquelle le codage par objets vidéo peut permettre d'obtenir des gains significatifs en utilisant le codage dynamique (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Afin de répondre à cet objectif, différents points ont été étudiés. Le premier point concerne l'étude de la segmentation en objet vidéo de manière automatique. Nous avons proposé un modèle d'objet faisant intervenir la notion de suivi long terme via la représentation d'un objet sous la forme mouvement/texture (avec l'utilisation d'un maillage actif pour représenter le mouvement). Un algorithme de clustering 3D a été développé basé sur ce modèle. Dans un deuxième temps, nous nous sommes attaché à l'amélioration des techniques de codage objet via la hiérarchisation ("scalabilité") du flux vidéo. Pour cela, nous utilisons un schéma de codage ondelette 3D et nous introduisons notamment un codage de contours avec perte. Enfin le dernier point étudié concerne le codage dynamique d'objets vidéo (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Les codeurs utilisés sont : le codeur H264/AVC, un codeur ondelette 3D, un codeur 3D et un codeur par mosaïque. La répartition automatique des débits permet d'obtenir des résultats dépassant ceux produits par chaque codeur pris séparément, tout en offrant le découpage du flux en objets vidéo. Mots clés : Segmentation en objets vidéo, segmentation long terme, modèle d'objet vidéo, fonctionelle d'énergie, clustering, maillage actif, mosaïque, codage vidéo, codage d'objet vidéo, décorrélation mouvement texture forme, hiérarchisation : scalabilté, ondelettes spatiotemporelles, ondelette 3D, codage de contour, codage de forme, prolongement : padding, codage dynamique, codage concurrentiel, optimisation débit-distorsion, répartition des débits, antialiasing.
APA, Harvard, Vancouver, ISO, and other styles
21

Damiand, Guillaume. "Définition et étude d'un modèle topologique minimal de représentation d'images 2d et 3d." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2001. http://tel.archives-ouvertes.fr/tel-00211340.

Full text
Abstract:
Dans cette thèse, nous définissons et étudions un modèle topologique de représentation d'images segmentées en 2 et 3 dimensions : la carte topologique. La définition d'un tel modèle est primordiale afin de définir des algorithmes de segmentation efficaces. Ce problème a été beaucoup étudié en dimension 2, mais les solutions proposées sont difficilement extensibles en dimension 3. <br /><br />Pour répondre à ce problème, nous définissons d'abord la carte topologique en dimension 2 en ayant comme préoccupation principale son extension en dimension supérieure. Nous introduisons une notion de niveau de simplification qui permet une définition progressive, chaque niveau s'obtenant simplement à partir du niveau précédent par application d'un type particulier de fusion. Cette notion permet de simplifier la définition de la carte topologique qui correspond au dernier niveau. Ces niveaux de simplification s'étendent sans difficulté majeure en dimension 3, et en dimension n. Ils facilitent également l'étude de la carte topologique et la preuve de ses propriétés. Ce modèle est en effet minimal, complet, invariant par rotation, translation et homothétie, et unique.<br /><br />Nous présentons des algorithmes d'extraction permettant de construire ce modèle à partir d'images segmentées. Un premier algorithme << naïf >> effectue plusieurs passes sur l'image et n'est pas linéaire en dimension 3. Nous étudions ensuite un algorithme optimal d'extraction, basé sur la notion de précode, effectuant un seul balayage de l'image et un nombre minimal d'opérations. Les niveaux de simplification permettent de regrouper les nombreux cas à traiter, en étudiant pour chaque niveau les cas supplémentaires par rapport au niveau précédent.
APA, Harvard, Vancouver, ISO, and other styles
22

Abadi, Mohamed. "Couleur et texture pour la représentation et la classification d'images satellite multi-résolutions." Antilles-Guyane, 2008. http://www.theses.fr/2008AGUY0215.

Full text
Abstract:
La Caractérisation des couverts forestiers et des parcelles agricoles est d'un grand intérêt pour différents organismes locaux et nationaux. Ces derniers sont à la recherche d'outils spécifiques permettant de réaliser avec précision la séparation entre ces espaces. Ce travail de recherche propose d'utiliser des techniques de traitement d'images appliquées sur des images satellite pour réaliser une classification des différents couverts. La chaine de traitement mise en place est la suivante: Après avoir représenté de manière optimale les images sources, nous définisson et calculons des attributs de couleur et de texture avant d'appliquer un algorithme de classification. La représentation optimale des données est faite (i) en déterminant l'espace couleur hybride permettant d'obtenir une discrimination maximale des classes tout en minimisant la corrélation entre les composantes de cet espace. (ii) en réalisant une fusion de l'image panchromatique et de l'image multispectrale. Les attributs sont ensuite extraits pour caractériser les classes en utilisant la couleur et la texture à travers différentes approches (statistiques, géométriques, fréquentielles, fractales et multifractales). Enfin, différentes techniques de classification (MMG, SVM, K-means, ISODATA) sont utilisées afin de séparer les couverts forestiers des couverts agricoles. L'originalité de nos travaux consiste à construire un espace couleur hybride basé sur les composantes intensité. Saturation et teinte en utilisant une approche multi-objective. Ce même espace est utilisé lors du processus de fusion d'images afin de généraliser les méthode perceptuelles<br>Land use mapping and characterization are very important for local and national institutions. These institutions are nowadays searching for specifie and specialized tools that can distinguish betweendifferent land covers. This research work proposes to use different methods for satellite image processing. Allowing a strong and reliable land cover classification. The conceptual and experimental design has been developed as it follows. First, an optimal description of ail images is done. Then, COIOL and texture attributs are defined and computed. Finally, sorne algorithm classifications are realized. The optimal description of ail images is made by (i) determination of the hybrid colour space to obtain a good discrimination of this classes while correlation between space components is mininized. (ii) merging a high spatial resolution panchromatic image with a low spatial resolution multispectral image in order to obtain a high spatial and spectral resolutions image. Attributes are then extracted to characterize land cover classes using colour and texture information through different approaches (statistics, geometry, frequency, fractal, multifractal). At last, different classification techniques are applied (SVM, MMG, K-means, ISODATA) in order to separate forest areas from agriculturc parcels. Our work originality is based on the construction of a hybrid colour space derived from the image intensity, saturation and hue omponents using a multiobjective approach that integrates the correlation and discriminating power. This same space ls used in the merging images process in order to aeneralize the perceptual methods
APA, Harvard, Vancouver, ISO, and other styles
23

Bai, Cong. "Analyse d'images pour une recherche d'images basée contenu dans le domaine transformé." Phd thesis, INSA de Rennes, 2013. http://tel.archives-ouvertes.fr/tel-00907290.

Full text
Abstract:
Cette thèse s'inscrit dans la recherche d'images basée sur leur contenu. La recherche opère sur des images eprésentéesdans un domaine transformé et où sont construits directement les vecteurs de caractéristiques ou indices. Deux types detransformations sont explorés : la transformée en cosinus discrète ou Discrete Cosine Transform (DCT) et la transforméen ondelettes discrète ou Discrete Wavelet Transform (DWT), utilisés dans les normes de compression JPEG et JPEG2000. Basés sur les propriétés des coefficients de la transformation, différents vecteurs de caractéristiquessont proposés. Ces vecteurs sont mis en oeuvre dans la reconnaissance de visages et de textures couleur.Dans le domaine DCT, sont proposés quatre types de vecteurs de caractéristiques dénommés "patterns" : Zigzag-Pattern,Sum-Pattern, Texture-Pattern et Color-Pattern. Le premier type est l'amélioration d'une approche existante. Les trois derniers intègrent la capacité de compactage des coefficients DCT, sachant que certains coefficients représentent une information de directionnalité. L'histogramme de ces vecteurs est retenu comme descripteur de l'image. Pour une réduction de la dimension du descripteur lors de la construction de l'histogramme il est défini, soit une adjacence sur des patterns proches puis leur fusion, soit une sélection des patterns les plus fréquents. Ces approches sont évaluées sur des bases de données d'images de visages ou de textures couramment utilisées. Dans le domaine DWT, deux types d'approches sont proposés. Dans le premier, un vecteur-couleur et un vecteur-texture multirésolution sont élaborés. Cette approche se classe dans le cadre d'une caractérisation séparée de la couleur et de la texture. La seconde approche se situe dans le contexte d'une caractérisation conjointe de la couleur et de la texture. Comme précédemment, l'histogramme des vecteurs est choisi comme descripteur en utilisant l'algorithme K-means pour construire l'histogramme à partir de deux méthodes. La première est le procédé classique de regroupement des vecteurs par partition. La seconde est un histogramme basé sur une représentation parcimonieuse dans laquelle la valeur des bins représente le poids total des vecteurs de base de la représentation.
APA, Harvard, Vancouver, ISO, and other styles
24

Rick, Andreas. "Représentation de la variabilité dans le traitement d'images flou : application à la mammographie numérique." Paris 6, 1999. http://www.theses.fr/1999PA066431.

Full text
Abstract:
Pour de nombreuses taches de classification dans le cadre du traitement d'images, la variabilite d'une image a l'autre represente une limite de la performance de la classification. Un exemple illustrant ce probleme est la detection des lesions en mammographie. Dans cette these, notre but est de reduire l'influence de la variabilite inter-images, en utilisant le contexte dans l'image. A cette fin, nous proposons une methode de parametrisation des histogrammes d'attributs calcules sur l'image, qui permet une representation compacte de ces histogrammes avec peu de parametres. A partir d'une base d'apprentissage, nous construisons un prototype qui contient un modele de la variabilite et des liens entre les parametres. Le modele etabli de cette maniere est ensuite utilise pour adapter le prototype a chaque nouveau cas. Cette nouvelle demarche, proposee pour le traitement de la variabilite dans le cadre de la classification floue, est appliquee a une base de donnees simulee et a une base d'images mammographiques dans le but de detecter des opacites.
APA, Harvard, Vancouver, ISO, and other styles
25

Labelle, Lilian. "Représentation adaptative d'images appliquées à un schéma de codage orienté régions de séquences TV." Rennes 1, 1996. http://www.theses.fr/1996REN10026.

Full text
Abstract:
Les standards de compression de signaux audiovisuels actuels couvrent un grand nombre d'applications mais sont neanmoins insuffisants pour repondre aux nouveaux besoins en communications. En effet, en plus de la necessite de transmettre de plus en plus d'informations d'un point a un autre, les futurs services audiovisuels necessitent des representations d'images qui soient accessibles par leur contenu de maniere a pouvoir les manipuler plus aisement. Ce memoire presente une methode d'echantillonnage qui met en uvre la theorie de l'evolution geometrique des courbes et des surfaces. Ce type de methodes consiste a optimiser les points de controle (ou echantillons) de ces modeles de courbes ou de surfaces de maniere a obtenir la meilleure representation du signal a representer. Habituellement, la determination de ces valeurs passent par le calcul de l'erreur quadratique moyenne entre le signal original et le modele. Cependant, le calcul d'un tel critere implique que les deux signaux soient prealablement parametres. En pratique, ne possedant aucun moyen pour definir une parametrisation commune de ces signaux, ils sont parametres independamment l'un de l'autre et de facon arbitraire. Ainsi, ce type d'approches fournit des representations qui sont fortement dependantes de ces choix. Pour s'affranchir de ce probleme de parametrisation, nous avons developpe une methode iterative basee sur la theorie de l'evolution des courbes et des surfaces qui positionnent les points de controle 2d ou 3d de maniere a minimiser un critere purement geometrique. En associant cette methode a la theorie des graphes, nous avons developpe une representation de cartes de contours ou chaque segment contour est represente par une courbe b-spline, et, en etendant cette methode au cas des surfaces, nous avons defini une representation par elements finis d'images numeriques. Pour valider notre approche, nous avons compare ces representations de contours et de surfaces images a celles que l'on obtient par moindres carres et nous montrons que la minimisation d'un critere geometrique permet d'obtenir des representations de signaux 2d et 3d de meilleure qualite, d'un point de vue visuel, que celles que l'on obtient par une approche algebrique.
APA, Harvard, Vancouver, ISO, and other styles
26

Jessel, Jean-Pierre. "Modélisation par réseaux d'atomes pour la représentation d'objet et pour l'illumination globale." Toulouse 3, 1992. http://www.theses.fr/1992TOU30231.

Full text
Abstract:
La qualité d'une image de synthèse, outre l'aspect artistique ou esthétique, est un critère lié à la perception humaine, mais deux facteurs techniques essentiels entrent en jeu : la modélisation des objets représentés et la simulation des effets de lumière. Les recherches, dont nous proposons de développer les résultats dans cette thèse traitent les deux aspects : d'une part la modélisation des objets, d'autre part l'éclairage de scène et le rendu. Le travail dont ce rapport est le reflet a été réalisé autour du projet Voxar, une architecture parallèle dont l'objectif est l'abaissement des couts pour produire des images de qualité. La modélisation que nous avons introduite, la représentation des objets par réseaux de mailles d'atomes, permet de stocker ponctuellement sur un objet des propriétés locales comme la couleur, la texture, la température, l'éclairage reçu. Cette modélisation est compatible avec une répartition des objets dans un ensemble de processeurs d'après des critères spatiaux. Nous présentons les techniques étudiées et mises en oeuvre pour représenter des objets décrits à partir de modélisations classiques et des objets naturels. L'application d'illumination globale que nous proposons est étudiée pour une implantation sur une architecture multi-processeur et tire profit des possibilités de la modélisation et des spécificités de Voxar pour le lancer de rayons et la gestion de l'espace. La conception de l'application par un ensemble de tâches concurrentes et son implantation sur Voxar sont décrites
APA, Harvard, Vancouver, ISO, and other styles
27

Türkan, Mehmet. "Nouvelles méthodes de synthèse de texture : application à la prédiction et à l’inpainting d’images." Rennes 1, 2011. http://www.theses.fr/2011REN1S108.

Full text
Abstract:
This thesis presents novel exemplar-based texture synthesis methods for image prediction (i. E. , predictive coding) and image inpainting problems. The main contributions of this study can also be seen as extensions to simple template matching, however the texture synthesis problem here is well-formulated in an optimization framework with different constraints. The image prediction problem has first been put into sparse representations framework by approximating the template with a sparsity constraint. The proposed sparse prediction method with locally and adaptive dictionaries has been shown to give better performance when compared to static waveform (such as DCT) dictionaries, and also to the template matching method. The image prediction problem has later been placed into an online dictionary learning framework by adapting conventional dictionary learning approaches for image prediction. The experimental observations show a better performance when compared to H. 264/AVC intra and sparse prediction. Finally a neighbor embedding framework has been proposed for image prediction using two data dimensionality reductions methods: non-negative matrix factorization (NMF) and locally linear embedding (LLE). This framework has then been extended to the image inpainting problem. The experimental evaluations demonstrate the effectiveness of the underlying ideas in both image prediction and inpainting applications<br>Cette thèse présente de nouvelles méthodes de synthèse de texture basées sur l'exemple pour les problèmes de prédiction d'images (c'est à dire, codage prédictif) et d'inpainting d'images. Les principales contributions de cette étude peuvent aussi être vues comme des extensions du template matching. Cependant, le problème de synthèse de texture tel que nous le définissons ici se situe plutôt dans un contexte d'optimisation formalisée sous différentes contraintes. Le problème de prédiction d'images est d'abord situé dans un contexte de représentations parcimonieuses par l'approximation du template sous contraintes de parcimonie. La méthode de prédiction proposée avec les dictionnaires adaptés localement montrent de meilleures performances par rapport aux dictionnaires classiques (tels que la transformée en cosinus discrète (TCD)), et à la méthode du template matching. Le problème de prédiction d'images est ensuite placé dans un cadre d'apprentissage de dictionnaires en adaptant les méthodes traditionnelles d'apprentissage pour la prédiction de l'image. Les observations expérimentales montrent une meilleure performance comparativement à des méthodes de prédiction parcimonieuse et des prédictions intra de type H. 264/AVC. Enfin un cadre neighbor embedding est proposé pour la prédiction de l'image en utilisant deux méthodes de réduction de dimensionnalité: la factorisation de matrice non négative (FMN) et le locally linear embedding (LLE). Ce cadre estensuite étendu au problème d'inpainting d'images. Les évaluations expérimentales démontrent l'efficacité des idées sous-jacentes pour la compression via la prédiction d'images et l'inpainting d'images
APA, Harvard, Vancouver, ISO, and other styles
28

Quirion, Sébastien. "Segmentation temporelle de mouvements cycliques humains à partir d'une représentation squelettique." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23739/23739.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Dolveck-Guilpart, Bénédicte. "Deux problèmes de représentation et d'identification d'un milieu à partir de sondages." Montpellier 2, 1989. http://www.theses.fr/1989MON20222.

Full text
Abstract:
Deux problemes de representation et d'identification d'un milieu a partir de sondages sont abordes. L'un concerne la reconstruction du potentiel dans le probleme de schrodinger a une dimension, lorsque les coefficients de reflexion sont des fractisons rationnelles exactes. Un algorithme efficace est propose. Nous traitons aussi de la modelisation des milieux discontinus a une dimension et particulierement des homogeneisations couramment pratiquees pour modeliser ces milieux. L'autre probleme porte sur la reconstruction pratique d'images tomographiques a partir d'un jeu de donnees incomplet. Deux techniques sont presentees et testees en milieux reels
APA, Harvard, Vancouver, ISO, and other styles
30

Leray, Pascal. "Modélisation et architecture de machines de sysnthèse d'images pour la représentation d'images et le rendu d'objets tri-dimensionnels (3D)sur écrans graphiques à balayage." Paris 2, 1990. http://www.theses.fr/1990PA020117.

Full text
Abstract:
La modelisation des objets et le rendu realiste de l'image sont les deux taches fondamentales necessaires a la synthese d'image tri-dimensionnelle (3d). A la modelisation des objets est utilisee pour constituer une representation interne au systeme informatique des objets 3d. Cette modelisation peut etre rapprochee des representations mentales de l'environnement constituees dans le cerveau humain. B la synthese ou rendu est utilise pour afficher des images realistes de notre monde 3d : il peut etre rapproche de la faculte de dessiner de l'homme. Mais a l'heure actuelle dans les stations graphiques ces deux taches sont dissociees, a la difference du dessinateur humain qui analyse en permanence ce qu'il trace et le compare a la representation mentale interne de son cerveau. Notre premier but est de faire l'inventaire des techniques existantes de modelisation et de rendu. Ensuite nous decrivons deux solutions nouvelles pour : - un systeme de numerisation-modelisation directe d'objets sur station de travail - une nouvelle architecture de machine de rendu. Enfin, nous introduisons le concept de reseaux neuronaux et nous expliquons comment ceux-ci peuvent etre utilises dans les taches a et b de maniere similaire a l'extraction de formes et d'informations semantiques a partir de l'ombrage des images (shape from shading) realise dans le cerveau humain. Nous brossons en conclusion un tableau prospectif de la synthese d'image 3d, dans laquelle l'analyse d'objets et les reseaux neuronaux seront de plus en plus associes. Ces deux techniques complementaires et reversibles pourraient apporter des possibilites insoupconnees a la conception de formes, aux banques<br>Solid modelling and image rendering are the two fundamental tasks for 3d image synthesis a solid modelling is used to represent internal 3d data base, strongly correlated with mental representation of the world in the humain brain. B image rendering is used to display realistic images of our 3d world : it can be coupled with the drawing possibilities of mankind. But at present in our graphic workstations, these two tasks are not associated, at the difference of the humain beeing, which analyses in real time what he draws, and compares it to its mental representations of the environment. The first goal of this report is to analyse existing tools which are currently used in tasks a and b after we describe two new solutions for : a direct digititizing system of 3d objects a new architecture for rendering at the end, we introduce the new concept of neural networks, and we explain how it could be used to perform tasks a and b , as it is associated in the humain brain with image analysis by shape from shading techniques. Conclusion is a projection on future image synthesis systems, where 3d object analysis based on shape from shading and neural network could be tightly coupled with image rendering. These two processes could be at that time reversible, giving large new possibilities to computer design, picture data bases
APA, Harvard, Vancouver, ISO, and other styles
31

Renouf, Arnaud. "Modélisation de la formulation d'applications de traitement d'images." Caen, 2007. http://www.theses.fr/2007CAEN2021.

Full text
Abstract:
Dans cette thèse, nous présentons une étude de la formulation d'applications de traitement d'images. Une telle formulation a pour but d'expliciter les informations nécessaires et suffisantes pour qu'un expert de traitement d'images développe des applications plus robustes et plus fiables. Nous proposons un modèle de formulation au niveau « expertise de traitement d'images » ; il comporte la spécification de l'objectif de l'application et la définition de la classe d'images. L'objectif est spécifié par une tâche et un ensemble de contraintes. La classe d'images est définie en considérant trois niveaux de description (physique, perceptif et sémantique). La formalisation de ce modèle a abouti à une ontologie dont la validité a été éprouvée par rétro-ingénierie d'applications existantes. Cela a permis de vérifier que les informations couvertes par l'ontologie sont nécessaires et suffisantes à la justification des choix réalisés lors de la conception. Nous avons également étudié la formulation pour un utilisateur novice en traitement d'images. Nous proposons un modèle d'interaction qui amène les utilisateurs à fournir les informations qui définissent complètement leurs applications. La formulation à ce niveau repose sur un certain nombre de principes : la spécification de l'objectif est initiée par les post-traitements, la définition de la classe d'images est guidée par la caractérisation de la chaîne d'acquisition au niveau physique et par la construction d'un arbre des objets au niveau sémantique. La formalisation de ce modèle a aussi abouti à une ontologie et un système de formulation a été implémenté pour aider les utilisateurs à construire eux-mêmes leurs formulations<br>In this thesis, we present a study of the formulation of image processing applications. Such a formulation has to make explicit the necessary and sufficient information for an image processing expert to develop more robust and more reliable applications. We propose a formulation model at the image processing expert level. It consists of the objective specification and the image class definition. The objective is specified by a task and a set of constraints. The image class is defined considering three levels of description (physical, perceptive and semantic). This model formalization provided an ontology whose validity was verified by reverse engineering of existing applications. This process allowed to check that the information represented in the ontology is necessary and sufficient to justify the choices made during the design. We also studied the formulation for users inexperienced in the image processing field. We propose an interaction model which leads the user to give the information that completely defines their applications. At this level, the formulation lies on different principles: the objective specification is initiated by the post-processing, the image class definition is guided by the acquisition system characterization at the physical level and by the construction of a business objects tree at the semantic level. This model formalization also provided an ontology and a formulation system was developped to help users to build their formulations themselves
APA, Harvard, Vancouver, ISO, and other styles
32

He, Xiyan. "Sélection d'espaces de représentation pour la décision en environnement non-stationnaire : application à la segmentation d'images texturées." Troyes, 2009. http://www.theses.fr/2009TROY0027.

Full text
Abstract:
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système de décision en présence de bruit our de non stationnarité sur les mesures. L'approche proposée consiste à fragmenter l'espace de représentation initial en un ensemble de sous-espaces, puis à prendre la décision à l'aide des sous-espaces qui ne sont pas affectés par les non stationnarités (on parlera alors d'espaces homogènes). Pour cela, nous avons proposé trois approches pour sélectionner des sous-espaces homogènes issus de l'espace initial. L'une, reposant sur un ensemble de classifieurs des PPV, associée à une heuristique visant à sélectionner les sous-espaces générés aléatoirement à partir de l'espace initial. La seconde est basée sur le même principe que la première, mais le mode de génération des sous-espaces n'est plus aléatoire, il se fait via une version adaptée de LASSO. Enfin, nous avons étudié une méthode de sélection de sous-espaces de représentation homogènes via one-class SVM. La segmentation d'images texturées constitue une application tout à fait appropriée pour illustrer nos méthodes et évaluer leurs performances. Les résultats obtenus attestent de la pertinence des approches que nous avons proposées. Nos travaux se sont limités à l'étude des problèmes à deux classes<br>The objectif of this thesis is to improve or preserve the performance of a decision système in the presence of noise, loss of information or feature non-stationarity. The proposed method consists in first generating an ensemble of feature subspaces from the initial full-dimensional space, and then making the decision by usins only the subspaces which are supposed to be immune to the non-stationary disturbance (we call these subspaces as homogenous subspaces). Based on this idea, we propose three different approaches to make the system decision by using an ensemble of carefully constructed homogenous subspaces. The first approach uses an ensemble of NN classifiers, combined with a heuristic strategy targeting to select the so-called homogeneous feature subspaces among a large number of subspaces that are randomly generated from the initial space. The second approach follows the same principle; however, the geenration of the subspaces is no longer a random process, but is accomplished by using a modified and adaptive LASSO algorithm. Finally, in the third approach, the homogeneous feature subspace selection and the decision are realized by using one-class SVMs. The textured image segmentation constitutes an appropriate application for the evalution of the proposed approaches. The obtained experimental results demonstrate the effectiveness of the three decision systems that we have developed. Finally, it is worthwhile pointing out that all the work presented in this thesis is limited to the two-class classification problem
APA, Harvard, Vancouver, ISO, and other styles
33

Elst, Johannes van den. "Modélisation de connaissances pour le pilotage de programmes de traitement d'images." Nice, 1996. http://www.theses.fr/1996NICE4995.

Full text
Abstract:
Le pilotage de programmes consiste en la (re)utilisation des programmes d'une bibliothèque prédéfinie. Ceci exige des connaissances sur les programmes, les entités manipulées par les programmes, ainsi que des connaissances sur la façon de sélectionner les programmes pertinents, de les ordonner, de les exécuter, et finalement de contrôler leur exécution et d'optimiser leurs résultats pour un domaine d'application particulier. Dans cette thèse nous présentons comment ces connaissances peuvent être représentées explicitement pour le domaine du traitement d'images. Une telle description explicite des connaissances rend les compétences des experts accessibles aux utilisateurs novices et leur permet de composer et d'exécuter des processus composites basés sur des programmes de traitement d'images élémentaires. Nous proposons une spécification fonctionnelle des connaissances sur les programmes de la bibliothèque, sur les données manipulées, ainsi que sur la planification et l'exécution des programmes. Cette spécification fonctionnelle a été implantée dans un moteur de pilotage de programmes pulsar. Ce moteur a été testé avec une application de détection d'objets dans des scènes routières (Prométhée) et une application en imagerie médicale (afsim)
APA, Harvard, Vancouver, ISO, and other styles
34

Dombre, Julien. "Systèmes de représentation multi-échelles pour l'indexation et la restauration d'archives médiévales couleur." Poitiers, 2003. http://www.theses.fr/2003POIT2314.

Full text
Abstract:
Nos travaux ont été motivés par un problème pratique visant à rechercher des objets au sein d'images et en particulier dans des bases d'images de fresques médiévales. Les outils développés devront aider les historiens de l'art dans leur travail quotidien en leur fournissant la possibilité de retrouver et de caractériser des images ou des objets similaires dans l'ensemble des images dont ils disposent. Cette étude se situe par conséquent dans le cadre de la recherche d'images par le contenu. Pour résoudre ce problème, les méthodes classiques sont inefficaces car elles caractérisent les images globalement sans prendre en compte l'arrangement des objets qui les compose. La méthode proposée décrit l'image par un graphe pyramidal considérant alors l'image composée d'objets complexes en relation les uns avec les autres. Un algorithme de segmentation multi-échelles génère un ensemble de partitions cohérentes entre elles isolant ainsi les objets puis leurs parties. Les graphes d'adjacence des différents niveaux sont alors liés les uns avec les autres pour obtenir le graphe pyramidal de l'image. Au sein de cette structure de représentation de haut-niveau, nous avons ensuite cherché à caractériser chaque région le plus correctement possible à partir de sa couleur, sa texture et sa forme. Divers algorithmes sont enfin proposés pour utiliser de manière combinée ces description des objets ainsi que l'information spatiale et pyramidale de la représentation pour déterminer la similarité entre images et détecter des objets semblables au sein de la base d'images. De nombreux exemples expérimentaux illustrent ce manuscrit et montrent que cette approche est globalement plus performante que les systèmes existants<br>Our work has been motivated by a practical problem aiming at seeking objects within images and in particular in image databases of medieval frescos. The developed tools will have to help the art historians in their daily work in enabling retrieving of similar images or objects in the group of the images they have. This study is consequently within the framework of content based image retrieval. In order to solve this problem, the traditional methods are ineffective because they characterize the images as a whole without taking the arrangement of the objects which composes them into account. Suggested method describes the image by a pyramidal graph. The images are considered to be made up complex objects in relationship. A algorithm computes several coherent segmentations isolating the objects and theirs parts. Then, the adjacency graphs of the various levels are linked in order to obtain the pyramidal graph of the image. Within this high-level representation structure, we characterize each region most correctly as possible using its color, its texture and its shape. Various algorithms are finally proposed to use these descriptions of the objects, the spatial and the pyramidal informations of the representation in order to determine the similarity between images or to detect similar objects within the database. Many experimental examples illustrate this manuscript and show that this approach is overall more powerful than the existing systems
APA, Harvard, Vancouver, ISO, and other styles
35

Melki, Michaël. "Etude d'un modèle de représentation symbolique multi-résolution d'une image à base de graphes." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0074/these.pdf.

Full text
Abstract:
Dans cette thèse, nous étudions un modèle de représentation symbolique et multi-résolution d'une image. Pour cela, nous distinguons les informations concernant la structure de l'image, c'est à dire les différents blocs, ou régions, qui la composent, des informations concernant le contenu de cette dernière, c'est à dire ce que représente chacun de ces blocs. Nous nous intéresserons alors tout particulièrement aux informations de structure : plutôt que de représenter de manière complète les différents blocs de l'image, nous nous focaliserons sur l'étude de certaines propriétés vérifiées par ces derniers. En imposant certaines contraintes sur la nature des blocs considérés, nous pouvons alors dégager quelques propriétés simples qui nous permettent de caractériser complètement la topologie d'une image. Il est alors possible de construire un modèle de représentation de la structure d'une image à base de graphes de manière à représenter ces propriétés, et donc en même temps la topologie de la structure de l'image. Dans ce modèle, chaque bloc est représenté par un sommet d'un graphe, et en lui associant un symbole, choisi dans un alphabet donné, pour représenter son contenu, nous obtenons un modèle de représentation symbolique de l'image. Nous définissons ensuite un processus pour construire une nouvelle image de plus faible résolution à partir d'une image donnée à l'aide de règles de réductions, prenant compte à la fois de la structure et du contenu symbolique de l'image. Ce processus est lui-même étudié de manière à proposer différentes techniques pour par exemple apprendre à paramétrer les règles, ou encore pour accélérer ou fiabiliser le processus. Il peut être utilisé pour construire des segmentations d'une image à différents niveaux de résolution en se basant sur des informations purement symboliques, ou encore pour extraire une information donnée dans une image, en appliquant le processus jusqu'à obtenir une image ne contenant qu'un unique bloc dont le symbole contient l'information recherchée<br>In this PhD, we present a symbolic, multi-resolution model for representing an image. To do that, we consider both the structure of the image, that is the blocs from which it is constituted, and its content. We first focus on the structural part of the image. Under some constraints, a few properties can be enough to fully characterize the topology of the structure. This leads us to a graph-based representation for the structure of an image, which can be completed by adding symbolic information to the nodes to represent the content part of the image. We then propose a process to build an lower resolution image from an input image. This process uses reduction rules that take into account both the structure and the content of the image, and could be used either to segment an image at different resolution levels or to extract some information from it. Then we study this process to define methods that can be used for learning some of the parameters of the rules, for speeding up the building process, or for making the whole process more reliable
APA, Harvard, Vancouver, ISO, and other styles
36

Meyer, André. "Segmentation de nuage de points suivant les lignes caractéristiques." Rouen, INSA, 2002. http://www.theses.fr/2002ISAM0003.

Full text
Abstract:
Les techniques optiques actuelles permettent de numériser des scènes (monuments, pièces mécaniques) en nuages de milliers de points. De nombreux travaux permettant d'associer une représentation facettée à ces nuages de points ont été présentés. Pour pouvoir être mieux utilisés dans un processus de contrôle géométrique et dimensionnel ou pour une reconstruction CAO, les nuages doivent être décomposés en sous-ensembles représentant des surfaces élémentaires. Cette thèse présente une méthode pour segmenter les nuages facettés suivant les lignes caractéristiques. Dans un premier temps, les zones de présence potentielle d'une arête sont repérées de manière classique par un calcul de courbures. Dans ces zones, le positionnement précis du début de l'arête est obtenu en ajustant localement une surface présentant une discontinuité de tangence. L'ensemble de l'arête est ensuite déterminé en poursuivant pas à pas cet ajustement dans le prolongement de l'arête déjà construite. Deux modèles locaux de surface sont utilisés, l'un comportant une arête vive, le second comportant un congé de raccordement. Les arêtes obtenues sont ensuite raccordées. Dans un second temps, le nuage facetté est déformé pour que des côtés de facette se confondent avec les arêtes construites. Ces côtés de facette sont identifiés en côtés frontières. La segmentation de la représentation facettée repose alors sur un processus de croissance de région. Une facette germe s'expanse par ses côtés jusqu'à rencontrer des côtés frontières. Pour identifier les différents sous-domaines, ce processus est répété à partir d'une nouvelle facette non encore traitée jusqu'à épuisement des facettes.
APA, Harvard, Vancouver, ISO, and other styles
37

Nguyen, Nhu Van. "Représentations visuelles de concepts textuels pour la recherche et l'annotation interactives d'images." Phd thesis, Université de La Rochelle, 2011. http://tel.archives-ouvertes.fr/tel-00730707.

Full text
Abstract:
En recherche d'images aujourd'hui, nous manipulons souvent de grands volumes d'images, qui peuvent varier ou même arriver en continu. Dans une base d'images, on se retrouve ainsi avec certaines images anciennes et d'autres nouvelles, les premières déjà indexées et possiblement annotées et les secondes en attente d'indexation ou d'annotation. Comme la base n'est pas annotée uniformément, cela rend l'accès difficile par le biais de requêtes textuelles. Nous présentons dans ce travail différentes techniques pour interagir, naviguer et rechercher dans ce type de bases d'images. Premièrement, un modèle d'interaction à court terme est utilisé pour améliorer la précision du système. Deuxièmement, en se basant sur un modèle d'interaction à long terme, nous proposons d'associer mots textuels et caractéristiques visuelles pour la recherche d'images par le texte, par le contenu visuel, ou mixte texte/visuel. Ce modèle de recherche d'images permet de raffiner itérativement l'annotation et la connaissance des images. Nous identifions quatre contributions dans ce travail. La première contribution est un système de recherche multimodale d'images qui intègre différentes sources de données, comme le contenu de l'image et le texte. Ce système permet l'interrogation par l'image, l'interrogation par mot-clé ou encore l'utilisation de requêtes hybrides. La deuxième contribution est une nouvelle technique pour le retour de pertinence combinant deux techniques classiques utilisées largement dans la recherche d'information~: le mouvement du point de requête et l'extension de requêtes. En profitant des images non pertinentes et des avantages de ces deux techniques classiques, notre méthode donne de très bons résultats pour une recherche interactive d'images efficace. La troisième contribution est un modèle nommé "Sacs de KVR" (Keyword Visual Representation) créant des liens entre des concepts sémantiques et des représentations visuelles, en appui sur le modèle de Sac de Mots. Grâce à une stratégie d'apprentissage incrémental, ce modèle fournit l'association entre concepts sémantiques et caractéristiques visuelles, ce qui contribue à améliorer la précision de l'annotation sur l'image et la performance de recherche. La quatrième contribution est un mécanisme de construction incrémentale des connaissances à partir de zéro. Nous ne séparons pas les phases d'annotation et de recherche, et l'utilisateur peut ainsi faire des requêtes dès la mise en route du système, tout en laissant le système apprendre au fur et à mesure de son utilisation. Les contributions ci-dessus sont complétées par une interface permettant la visualisation et l'interrogation mixte textuelle/visuelle. Même si pour l'instant deux types d'informations seulement sont utilisées, soit le texte et le contenu visuel, la généricité du modèle proposé permet son extension vers d'autres types d'informations externes à l'image, comme la localisation (GPS) et le temps.
APA, Harvard, Vancouver, ISO, and other styles
38

Voravuthikunchai, Winn. "Représentation des images au moyen de motifs fréquents et émergents pour la classification et la recherche d'images." Caen, 2013. http://www.theses.fr/2013CAEN2084.

Full text
Abstract:
Cette thèse a pour but d'améliorer les performances sur différentes tâches de vision par ordinateur en se focalisant sur l'étape de représentation des images. Notre idée clé est d'intégrer des relations entre les descripteurs de l'image à sa représentation originelle, ces relations apportant une information additionnelle par exemple pour discriminer des images. La recherche de telles relations n'est pas simple compte-tenu de la grande combinatoire entre descripteurs. Nous proposons d'employer des techniques de fouille de données fondées sur la recherche de motifs pour mettre en évidence des relations pertinentes entre les descripteurs d'images. En effet, le fouille de données est appropriée pour l'analyse de grandes quantités de données et la découverte des motifs intéressants traduisant des dépendances, le regroupement de données, la détection d'anomalies. Un premier obstacle à l'emploi de techniques de fouille de données en vision par ordinateur porte sur le recordage des descripteurs des images. Ces dernières possèdent usuellement des valeurs réelles alors que les méthodes d'extraction de motifs sont appropriées aux données discrètes. Pour traiter ce problème, nous proposons des techniques fondées sur des seuillages locaux. Le nombre de motifs extraits étant élevés, ceux-ci ne peuvent pas être directement utilisés dans une tâche comme la classification supervisée. Aussi, nous présentons une méthode d'agrégation des motifs permettant d' obtenir une représentation compacte évitant le sur-apprentissage. Les résultats expérimentaux sur de nombreuses bases d'images montrent que notre approche est largement au niveau de l'état de l'art. Nous montrons que les caractéristiques de la fouille de données sont aussi propices à d'autres tâches de vision par ordinateur. Ainsi, nous avons conçu une méthode de détection de doublons reposant sur l'utilisation de motifs fermés dans de grandes bases d'images. Nous avons testé notre méthode sur une base de 1 million d'images obtenues avec Google image : les doublons sont découverts en moins de 3 minutes. Enfin, nous avons développé une méthode de re-classer d'images fondée sur le nombre de motifs fréquents que chaque image supporte, cette méthode permet d'améliorer le classement initial<br>In this thesis, our aim is to achieve better results in several tasks in computer vision by focusing on the image representation part. Our idea is to integrate feature dependencies to the original feature representation. Although feature dependencies can give additional useful information to discriminate images, it is a nontrivial task to select a subset of feature combinations from the power set of the features which has an excessively large cardinality. We employ pattern mining techniques to efficiently produce a tractable set of effective combinations. Pattern mining is a process that can analyze large quantities of data and extract interesting patterns such as groups of data records (cluster analysis), unusual records (anomaly detection) and dependencies (association rule mining). The first encountered problem is how to encode image features which are typically real valued as binary transaction items suitable for pattern mining algorithms. We propose some solutions based on local thresholding. The number of extracted patterns is still very high and to use them directly as new features for inferring a supervised classification models leads to overfitting. A solution by aggregating the patterns and have a compact representation which does not overfit to the training data is presented. We have achieved state-of-the-art results on several image classification benchmarks. Along the path of exploration, we realize pattern mining algorithms are suitable especially for large scale tasks as they are very efficient and scale gracefully to the number of images. We have found two suitable applications. The first one is to detect groups of duplicates in very large dataset. In order to run our experiment, we created a database of one million images. The images are randomly downloaded from Google. We have discovered the duplicate groups in less than three minutes. Another application that we found suitable for applying pattern mining techniques is image re-ranking. Our method can improves the original ranking score by a large margin and compare favorably to existing approaches
APA, Harvard, Vancouver, ISO, and other styles
39

Amrani, Morade. "Modélisation et simulation d'objets déformables." Lyon 1, 2002. http://www.theses.fr/2002LYO10256.

Full text
Abstract:
Nous traitons, dans ce mémoire, du problème de la modélisation et de la simulation d'objets déformables. Nos travaux s'inscrivant dans le cadre d'un projet médical où les objets déformables sont des organes, nous avons porté une attention particulière au réalisme physique. Nous avons proposé une approche basée sur les systèmes de particules. Divers problèmes liés à ce modèle ont ainsi été résolus et nous avons établi une relation entre l'élasticité de l'objet réel et les paramètres du modèle. Afin de réduire les temps de calcul, nous avons étudié la possibilité d'utiliser dans une même scène des systèmes de particules et des surfaces implicites. Cette approche nous a permis de produire des simulations réaliste du comportement de certains organes, en particulier le système vessie prostate rectum, et les poumons.
APA, Harvard, Vancouver, ISO, and other styles
40

Aghaei, Mazaheri Jérémy. "Représentations parcimonieuses et apprentissage de dictionnaires pour la compression et la classification d'images satellites." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S028/document.

Full text
Abstract:
Cette thèse propose d'explorer des méthodes de représentations parcimonieuses et d'apprentissage de dictionnaires pour compresser et classifier des images satellites. Les représentations parcimonieuses consistent à approximer un signal par une combinaison linéaire de quelques colonnes, dites atomes, d'un dictionnaire, et ainsi à le représenter par seulement quelques coefficients non nuls contenus dans un vecteur parcimonieux. Afin d'améliorer la qualité des représentations et d'en augmenter la parcimonie, il est intéressant d'apprendre le dictionnaire. La première partie de la thèse présente un état de l'art consacré aux représentations parcimonieuses et aux méthodes d'apprentissage de dictionnaires. Diverses applications de ces méthodes y sont détaillées. Des standards de compression d'images sont également présentés. La deuxième partie traite de l'apprentissage de dictionnaires structurés sur plusieurs niveaux, d'une structure en arbre à une structure adaptative, et de leur application au cas de la compression d'images satellites en les intégrant dans un schéma de codage adapté. Enfin, la troisième partie est consacrée à l'utilisation des dictionnaires structurés appris pour la classification d'images satellites. Une méthode pour estimer la Fonction de Transfert de Modulation (FTM) de l'instrument dont provient une image est étudiée. Puis un algorithme de classification supervisée, utilisant des dictionnaires structurés rendus discriminants entre les classes à l'apprentissage, est présenté dans le cadre de la reconnaissance de scènes au sein d'une image<br>This thesis explores sparse representation and dictionary learning methods to compress and classify satellite images. Sparse representations consist in approximating a signal by a linear combination of a few columns, known as atoms, from a dictionary, and thus representing it by only a few non-zero coefficients contained in a sparse vector. In order to improve the quality of the representations and to increase their sparsity, it is interesting to learn the dictionary. The first part of the thesis presents a state of the art about sparse representations and dictionary learning methods. Several applications of these methods are explored. Some image compression standards are also presented. The second part deals with the learning of dictionaries structured in several levels, from a tree structure to an adaptive structure, and their application to the compression of satellite images, by integrating them in an adapted coding scheme. Finally, the third part is about the use of learned structured dictionaries for the classification of satellite images. A method to estimate the Modulation Transfer Function (MTF) of the instrument used to capture an image is studied. A supervised classification algorithm, using structured dictionaries made discriminant between classes during the learning, is then presented in the scope of scene recognition in a picture
APA, Harvard, Vancouver, ISO, and other styles
41

Kouassi, Rémi Kessé. "Etude des transformations linéaires pour la représentation des images multicomposantes : application a la quantification et à la segmentation des images couleur." Dijon, 2000. http://www.theses.fr/2000DIJOS054.

Full text
Abstract:
Cette thèse traite de l'utilisation des transformations linéaires pour la représentation, la quantification et la segmentation des images couleurs. La principale transformation linéaire de cette étude est fondée sur le développement de Karhunen-Loeve dont l'analyse et l'approximation nous ont permis de mettre en évidence des propriétés intéressantes pour l'analyse des images couleur. Une de ces propriétés est la formulation mathématique du critère de stationnarité colorimétrique. Le critère de stationnarité colorimétrique nous permet non seulement d'estimer la qualité de l'approximation de l'espace de Karhunen-Loeve par une représentation en cosinus discrète ou en sinus discrète mais aussi de construire un algorithme de quantification des images couleur. Cet algorithme de quantification prend en compte la distribution spatiale des couleurs dans le système de représentation. Il tient également compte de la fréquence d'occurrence des couleurs de l'image. Nous exposons également une méthode de segmentation au sens contours des images couleur. Nous proposons l'utilisation du gradient multi-spectral (GMS) lorsque les images sont représentées dans un espace corrélé comme le système RVB. Dans le cas contraire d'un système de représentation non corrélé, comme l'espace de Karhunen-Loeve et ses espaces approximés (DCT, DST), nous proposons une technique de fusion des contours marginaux obtenus à partir des deux premiers plans des espaces considérés.
APA, Harvard, Vancouver, ISO, and other styles
42

Moreau, Guillaume. "Représentation et construction des systèmes d'information par l'image." Habilitation à diriger des recherches, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00488770.

Full text
Abstract:
Nous nous intéressons au lien entre l'image numérique et un système d'information dans un cadre de conception de produit centré sur l'usager. Dans une première partie, nous nous intéressons à la perception par l'usager des environnements virtuels représentant un système d'information. La fidélité perceptive de l'environnement virtuel est étudié à plusieurs niveaux : psychophysique, fonctionnel et enfin sensible. La seconde partie est consacrée à la construction d'environnements virtuels fidèles au monde réel : nous abordons d'abord leur fidélité géométrique via la vision par ordinateur, puis la fidélité comportementale en reproduisant le comportement humain dans les environnements virtuels. Enfin, dans la dernière partie, nous proposons de considérer l'interaction entre le monde réel et le système d'information comme un système fonctionnant en boucle fermée : le système peut être représenté par des images mais aussi construit et mis à jour directement avec des images. Le domaine d'application visé est le système d'information géographique.
APA, Harvard, Vancouver, ISO, and other styles
43

Ben, salem Yosra. "Fusion d'images multimodales pour l'aide au diagnostic du cancer du sein." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0062/document.

Full text
Abstract:
Le cancer du sein est le cancer le plus répandu chez les femmes de plus de 40 ans. En effet, des études ont montré qu'une détection précoce et un traitement approprié du cancer du sein augmentent de manière significative les chances de survie. La mammographie constitue le moyen d'investigation le plus utilisé dans le diagnostic des lésions mammaires. Cependant, cette technique peut être insuffisante pour montrer les structures du sein et faire apparaître les anomalies présentes et le médecin peut faire appel à d'autres modalités d'imagerie telle que l'imagerie IRM. Ces modalités sont généralement complémentaires. Par conséquent, le médecin procède à une fusion mentale des différentes informations sur les deux images dans le but d'effectuer le diagnostic adéquat. Pour assister le médecin et l'aider dans ce processus, nous proposons une solution permettant de fusionner les deux images. Bien que l'idée de la fusion paraisse simple, sa mise en oeuvre pose de nombreux problèmes liés non seulement au problème de fusion en général mais aussi à la nature des images médicales qui sont généralement des images mal contrastées et présentant des données hétérogènes, imprécises et ambigües. Notons que les images mammographiques et les images IRM présentent des représentations très différentes des informations, étant donnée qu'elles sont prises dans des conditions distinctes. Ce qui nous amène à poser la question suivante: Comment passer de la représentation hétérogène des informations dans l'espace image, à un autre espace de représentation uniforme. Afin de traiter cette problématique, nous optons pour une approche de traitement multi-niveaux : niveau pixel, niveau primitives, niveau objet et niveau scène. Nous modélisons les objets pathologiques extraits des différentes images par des ontologies locales. La fusion est ensuite effectuée sur ces ontologies locales et résulte en une ontologie globale contenant les différentes connaissances sur les objets pathologiques du cas étudié. Cette ontologie globale sert à instancier une ontologie de référence modélisant les connaissances du diagnostic médical des lésions mammaires. Un raisonnement à base de cas est exploité pour fournir les rapports diagnostic des cas les plus similaires pouvant aider le médecin à prendre la meilleure décision. Dans le but de modéliser l'imperfection des informations traitées, nous utilisons la théorie des possibilités avec les différentes ontologies. Le résultat fourni est présenté sous forme de rapports diagnostic comportant les cas les plus similaires au cas étudié avec des degrés de similarité exprimés en mesures de possibilité. Un modèle virtuel 3D complète le rapport diagnostic par un aperçu simplifié de la scène étudiée<br>The breast cancer is the most prevalent cancer among women over 40 years old. Indeed, studies evinced that an early detection and an appropriate treatment of breast cancer increases significantly the chances of survival. The mammography is the most tool used in the diagnosis of breast lesions. However, this technique may be insufficient to evince the structures of the breast and reveal the anomalies present. The doctor can use additional imaging modalities such as MRI (Magnetic Reasoning Image). Therefore, the doctor proceeds to a mental fusion of the different information on the two images in order to make the adequate diagnosis. To assist the doctor in this process, we propose a solution to merge the two images. Although the idea of the fusion seems simple, its implementation poses many problems not only related to the paradigm of fusion in general but also to the nature of medical images that are generally poorly contrasted images, and presenting heterogeneous, inaccurate and ambiguous data. Mammography images and IRM images present very different information representations, since they are taken under different conditions. Which leads us to pose the following question: How to pass from the heterogeneous representation of information in the image space, to another space of uniform representation from the two modalities? In order to treat this problem, we opt a multilevel processing approach : the pixel level, the primitive level, the object level and the scene level. We model the pathological objects extracted from the different images by local ontologies. The fusion is then performed on these local ontologies and results in a global ontology containing the different knowledge on the pathological objects of the studied case. This global ontology serves to instantiate a reference ontology modeling knowledge of the medical diagnosis of breast lesions. Case-based reasoning (CBR) is used to provide the diagnostic reports of the most similar cases that can help the doctor to make the best decision. In order to model the imperfection of the treated information, we use the possibility theory with the ontologies. The final result is a diagnostic reports containing the most similar cases to the studied case with similarity degrees expressed with possibility measures. A 3D symbolic model complete the diagnostic report with a simplified overview of the studied scene
APA, Harvard, Vancouver, ISO, and other styles
44

Qureshi, Rashid Jalal. "Reconnaissance de formes et symboles graphiques complexes dans les images de documents." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4001.

Full text
Abstract:
Ce travail de thèse se situe à la croisée de trois thématiques de recherche : la mise en place de représentations structurelles pour décrire le contenu d’images de documents, la reconnaissance structurelle des formes et graphiques complexes et la localisation des symboles dans les images de documents. Pour répondre aux problématiques de l’analyse d’images de documents, nous avons choisi d’utiliser les graphes comme outils de représentation des contenus des images. La nouvelle représentation obtenue exploite un graphe multi-primitive et multi-attribut améliorant à la fois la tâche de localisation mais aussi la tâche de reconnaissance de formes graphiques contenues dans les documents. Une nouvelle approche générique et automatique est également présentée pour la localisation des symboles graphiques dans les images de documents. Notre approche de localisation des symboles nécessite un minimum de connaissances a priori sur les domaines ou sur le type de symboles présents dans les images. Concernant l’étape de reconnaissance, nous présentons trois stratégies originales pour la mise en correspondance de graphes, combinant les approches structurelle et statistique. Elles aident à la résolution du problème de complexité et évitent un temps de calcul exponentiel intolérable. Les nouvelles techniques d’appariement de graphes que nous proposons sont basées sur des fonctions de similarité qui tilisent aussi bien des valeurs numériques que symboliques pour produire un score. Ces mesures de similarité ont de nombreuses propriétés intéressantes comme un fort pouvoir discriminant, une invariance aux transformations affines et une faible sensibilité au bruit<br>This thesis presents our contributions related to three major research areas in the field of document image analysis i.e., structural representation of documents images, spotting symbols in graphical documents and symbols recognition. We proposed to represent the contents of the document images using multi-attributed graphs, which not only improves the task of symbols spotting, but also the task of symbols recognition. We present a new generic and automatic approach for the purpose of spotting symbols in graphical documents. Our approach to locate symbols requires minimum priori knowledge about the type of document or the type of symbols found in these documents. Concerning symbol recognition we present three new strategies combining structural and statistical approaches. The proposed approaches helped to solve the problem of time and space complexity and offers robustness against noise and distortion present in images. The new graph matching techniques that we are proposing are based on similarity function that uses both numerical and symbolic values of the nodes and edges attributes of the graphs to produce a score of similarity between two graphs. These similarity measures have many interesting properties such as a strong discriminating power, nvariance to affine transformations, and low sensitivity to noise
APA, Harvard, Vancouver, ISO, and other styles
45

Chessel, Anatole. "Vision par ordinateur et otolithe : de la perception visuelle à une représentation des connaissances." Rennes 1, 2007. http://www.theses.fr/2007REN1S184.

Full text
Abstract:
Cette thèse s'intéresse à l'application des techniques de vision par ordinateur aux images d'otolithes de poisson, de petites concrétions calcaires d'un grand intérêt en biologie et écologie marine. Des considérations tant biologiques que perceptuelles permettent d'identifier dans les images de coupes d'otolithes deux informations comme étant utiles et importantes à l'analyse et l'utilisation des otolithes: l'évolution géométrique de la forme de l'otolithe, et les marques de croissances, des courbes correspondant localement à des crêtes et vallées. Un algorithme basé sur la détection a contrario est proposé pour extraire itérativement ces deux informations. Celui-ci passe par une reconstruction par interpolation de l'orientation en chaque point de l'image. Les buts incluent à la fois une meilleure compréhension et modélisation des otolithes et l'automatisation de processus fastidieux manuellement, comme l'estimation de l'âge pour la gestion des stock de poissons<br>This work studies the application of computer vision methods to the analysis of fish otoliths. Fish otoliths are small calcerous concretions set in fishes inner ears of much interest in biology and ecology. From both biological and perceptual analysis, two informations from otoliths sections images are characterised as being useful and important in the analysis and use of otolith: the global geometrical evolution of the outline, and the growth rings, corresponding to ridges and valley of the image. An algorithm based on an a contrario detection is proposed to iteratively compute both of those informations. An orientation field of the tangent to the locally relevant structures is estimated in this algorithm using orientation interpolation techniques. Biological aims include a better understanding of otolith formation and automating tedious tasks such as fish age estimation, of key importance in fish stock management
APA, Harvard, Vancouver, ISO, and other styles
46

Dabbech, Arwa. "Déconvolution d'images en radioastronomie centimétrique pour l'exploitation des nouveaux interféromètres radio : caractérisation du milieu non thermique des amas de galaxies." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4016/document.

Full text
Abstract:
Dans le cadre de la préparation du Square Kilometre Array (SKA), le plus large radio interféromètre au monde, de nouveaux défis de traitement d'images sont à relever. En effet, les données fournies par SKA auront un débit énorme, nécessitant ainsi un traitement en temps réel. En outre, grâce à sa résolution et sa sensibilité sans précédent, les observations seront dotées d'une très forte dynamique sur des champs de vue très grands. De nouvelles méthodes de traitement d'images robustes, efficaces et automatisées sont alors exigées. L'objectif de la thèse consiste à développer une nouvelle méthode permettant la restauration du modèle de l'image du ciel à partir des observations. La méthode est conçue pour l'estimation des images de très forte dynamique avec une attention particulière à restaurer les émissions étendues et faibles en intensité, souvent noyées dans les lobes secondaires de la PSF et le bruit. L'approche proposée est basée sur les représentations parcimonieuses, nommée MORESANE. L'image du ciel est modélisée comme étant la superposition de sources, qui constitueront les atomes d'un dictionnaire de synthèse inconnu, ce dernier sera estimé par des a priori d'analyses. Les résultats obtenus sur des simulations réalistes montrent que MORESANE est plus performant que les outils standards et très compétitifs avec les méthodes récemment proposées dans la littérature. MORESANE est appliqué sur des simulations d'observations d'amas de galaxies avec SKA1 afin d'investiguer la détectabilité du milieu non thermique intra-amas. Nos résultats indiquent que cette émission, avec SKA, sera étudiée jusqu'à l'époque de la formation des amas de galaxies massifs<br>Within the framework of the preparation for the Square Kilometre Array (SKA), that is the world largest radio telescope, new imaging challenges has to be conquered. The data acquired by SKA will have to be processed on real time because of their huge rate. In addition, thanks to its unprecedented resolution and sensitivity, SKA images will have very high dynamic range over wide fields of view. Hence, there is an urgent need for the design of new imaging techniques that are robust and efficient and fully automated. The goal of this thesis is to develop a new technique aiming to reconstruct a model image of the radio sky from the radio observations. The method have been designed to estimate images with high dynamic range with a particular attention to recover faint extended emission usually completely buried in the PSF sidelobes of the brighter sources and the noise. We propose a new approach, based on sparse representations, called MORESANE. The radio sky is assumed to be a summation of sources, considered as atoms of an unknown synthesis dictionary. These atoms are learned using analysis priors from the observed image. Results obtained on realistic simulations show that MORESANE is very promising in the restoration of radio images; it is outperforming the standard tools and very competitive with the newly proposed methods in the literature. MORESANE is also applied on simulations of observations using the SKA1 with the aim to investigate the detectability of the intracluster non thermal component. Our results indicate that these diffuse sources, characterized by very low surface brightness will be investigated up to the epoch of massive cluster formation with the SKA
APA, Harvard, Vancouver, ISO, and other styles
47

Orzan, Alexandrina. "Images basées sur les contours : représentation, création et manipulation." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0179.

Full text
Abstract:
La présente thèse propose une nouvelle représentation pour les images qui se base sur les contours. Cette représentation est particulièrement adaptée aux images vectorielles et permet via l’apposition d’informations à ces mêmes contours, l’ajout de dégrades complexes de couleurs, d’effets d’éclairage et de textures que l’on peut dès lors « draper » dans l’image. Cet encodage par les contours s’applique également aux images bitmap, et la manipulation de ces contours confère des moyens d’édition plus évolués que l’édition pixellique. Cette représentation commune entre les images bitmap et vectorielles constitue enfin une méthode de vectorisation efficace. On s’intéresse aussi aux possibilités de création et de modification que fournit cette nouvelle représentation. Nous proposons à cette fin un ensemble unifié d’algorithmes pour créer, manipuler et modifier ces images<br>This thesis proposes a novel image primitive—the diffusion curve. This primitive relies on the principle that images can be defined via their discontinuities, and concentrates image features along contours. The diffusion curve can be defined in vector graphics, as well as in raster graphics, to increase user control during the process of art creation. The vectorial diffusion curve primitive augments the expressive powers of vector images by capturing complex spatial appearance behaviours. Diffusion curves represent a simple and easy to manipulate support for complex content representation and edition. In raster images, diffusion curves define a higher level structural organization of the pixel image. This structure is used to create simplified or exaggerated representations of photographs in a way consistent with the original image content. Finally, a fully automatic vectorization method is presented, that converts raster diffusion curve to vector diffusion curve
APA, Harvard, Vancouver, ISO, and other styles
48

Cinquin, Philippe. "Application des fonctions-spline au traitement d'images numériques." Habilitation à diriger des recherches, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00325721.

Full text
Abstract:
Étude portant sur la modélisation d'images a traiter. Application des fonctions spline. Diverses techniques d'approximation sont mises en œuvre et des algorithmes spécifiques sont développés pour s'adapter au volume important des données. L'intérêt de cette représentation confirmée est illustré sur trois exemples d'origine médicale
APA, Harvard, Vancouver, ISO, and other styles
49

Pontier, Serge. "Reconstruction d'objets déformables à l'aide de fonctions implicites." Lyon 1, 2000. http://www.theses.fr/2000LYO10078.

Full text
Abstract:
Depuis plusieurs années, un effort important est réalisé dans le domaine de l'imagerie médicale pour obtenir des représentations des différents organes du corps humain. Celles-ci sont calculées à partir des informations fournies par les systèmes d'acquisition (IRM, échographie. . . ). Il s'agit le plus souvent de contours 2D parallèles contenant de nombreux points. Depuis peu, des travaux sont menés sur la mise au point de simulateurs médicaux, qui permettent, par exemple, de simuler des interventions chirurgicales. Pour cela, la représentation statique des organes n'est plus suffisante. Il devient nécessaire de prendre en compte l'aspect dynamique pour pouvoir représenter le comportement des organes, tel que la respiration, les battements cardiaques, l'interaction entre les organes. . . De nouveaux modèles et de nouvelles méthodologies doivent donc être développées pour obtenir des représentations géométriques et dynamiques des organes. Dans cette thèse, nous nous intéressons au problème de la reconstruction des objets déformables dans le milieu médical. La première étape a été de mettre au point une méthode de reconstruction à partir de contours 2D parallèles. La contrainte importante était d'obtenir un modèle géométrique qui puisse être facilement utilisé dans une simulation. La deuxième étape de notre travail a consisté à développer un système dynamique utilisant les modèles obtenus pour simuler le comportement physique des objets. Notre méthode de reconstruction débute par le calcul d'un squelette 3D de l'objet. Afin d'obtenir une squelettisation rapide et efficace, nous avons créé une méthode originale qui consiste à obtenir le squelette 3D par la mise en correspondance des squelettes 2D de chaque contour. Le squelette est ensuite pondéré et combiné à une fonction de potentiel pour définir la surface de l'objet. Cette méthode de reconstruction permet de modéliser rapidement des objets de topologie complexe, avec des branches et des trous. Le modèle dynamique mis en place est une combinaison du modèle masses/ressorts et du modèle implicite. Le principe est d'utiliser les points forts des deux modèles pour compenser leurs points faibles. Le modèle implicite permet d'améliorer la détection des collisions qui est un point faible des systèmes de masses/ressorts. Le modèle des masses/ressorts permet d'obtenir des déformations plus réalistes et plus faciles à contrôler, ce qui est difficile avec le modèle des objets implicites. Le squelette de l'objet est transformé en un réseau de ressorts et est déformé sous l'action des forces de contact propagées depuis la surface. La propagation est réalisée grâce à des ressorts reliant la surface au squelette. Ce modèle dynamique permet d'obtenir des comportements réalistes pour des objets qui ne sont pas hautement déformables
APA, Harvard, Vancouver, ISO, and other styles
50

Boutry, Frédéric. "Analyse de scènes dynamiques par représentation espace-temps des éléments mobiles : application à la conduite automatique de véhicules guidés." Lille 1, 1988. http://www.theses.fr/1988LIL10048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography