Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Traitement d'image vectorielle.

Rozprawy doktorskie na temat „Traitement d'image vectorielle”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 24 najlepszych rozpraw doktorskich naukowych na temat „Traitement d'image vectorielle”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Even, Melvin. "Animation 2D esquissée assistée par ordinateur". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0457.

Pełny tekst źródła
Streszczenie:
L’animation 2D traditionnelle est un processus exigeant à la fois en temps et en expertise, étant donné que les animateurs doivent dessiner à la main des milliers d’images afin de créer une séquence d’animation complète. Avec l’avènement de l’animation par ordinateur, les artistes ont désormais la possibilité d’utiliser l’animation 3D et des techniques de type marionnettes en 2D, qui éliminent la nécessité de dessiner manuellement chaque image, mais sacrifient souvent les pratiques artistiques uniques et le style caractéristique de l’animation 2D traditionnelle. D’autre part, les outils numériques qui émulent l’animation 2D traditionnelle sur papier facilite certaines tâches telles que le dessin et le coloriage, mais obligent toujours les animateurs à dessiner chaque image à la main. Dans le monde académique, de nombreuses méthodes assistées par ordinateur ont été mises au point pour automatiser la génération de dessins intermédiaires “propres” (i.e.,non esquissé), à partir d’images clés. Cependant, ces méthodes ont tendance à être limitées par des processus de création rigides et un contrôle artistique limité, en grande partie à cause des défis que représentent la mise en correspondance et l’interpolation des traits. Dans cette thèse, nous adoptons une nouvelle approche pour répondre à ces limitations en nous concentrant sur une étape antérieure de l’animation en utilisant des dessins esquissés (i.e., des croquis). Notre principale innovation consiste à reformuler les problèmes de mise en correspondance et d’interpolation en utilisant des “transient embeddings”, qui consistent en des groupes de traits qui existent temporairement entre les images clés. Ces structures transportent les traits des images clés par le biais d’une grille de contrôle 2D. Notre système génère des images intermédiaires esquissées en temps réel, permettant aux artistes de prévisualiser et d’éditer leur animation à l’aide d’outils offrant un contrôle précis sur la dynamique de l’animation. Cela garantit une continuité fluide du mouvement, même lorsque des changements topologiques complexes sont introduits, et permet l’exploration de mouvements de manière non linéaire. Nous démontrons ces capacités sur des exemples classiques d’animation 2D. Une autre tâche notoirement complexe est la représentation des mouvements 3D et de la profondeur à travers des dessins animés en 2D. Les artistes doivent accorder une attention particulière aux effets d’occultation et à leur évolution dans le temps, ce qui en fait un processus fastidieux. Les méthodes de génération d’images intermédiaires assistées par ordinateur, telles que les outils d’animation type marionnette, permettent de traiter ces effets d’occultation à l’avance à l’aide d’un “rig” 2D, au détriment de la flexibilité et de l’expression artistique. Dans cette thèse, nous abordons également les effets d’occultation sans sacrifier le contrôle non linéaire de l’animation. Notre contribution sur ce sujet est double : une méthode rapide pour calculer des masques 2D à partir de dessins esquissés, avec un système semi-automatique pour l’agencement dynamique des parties du dessin ; et une méthode intuitive pour l’artiste permettant de contrôler automatiquement ou manuellement la visibilité dynamique des traits pour les auto-occultations. Notre système aide les artistes à produire des animations 2D avec des effets de profondeur convaincants, y compris des tours de tête, des effets de raccourci, des rotations, des volumes qui se chevauchent et même de la transparence
Traditional 2D animation is a time-intensive process requiring a high level of expertise, as animators must draw thousands of individual frames by hand to create a complete animation sequence. With the advent of computer animation, artists now have the option to use 3D animation or 2D puppet-style techniques, which eliminate the need to manually draw each frame but often sacrifice the unique workflows and artistic style characteristic of traditional 2D animation. Alternatively, digital tools that emulate traditional 2D animation streamline tasks like drawing and coloring, but still require animators to draw each frame by hand. In academia, many computer-assisted methods have been developed to automate the inbetweening of clean line drawings, in which intermediate frames are automatically generated from input key drawings. However, these methods tend to be constrained by rigid workflows and limited artistic control, largely due to the challenges of stroke matching and interpolation. In this thesis, we take a novel approach to address these limitations by focusing on an earlier stage of animation using rough drawings (i.e., sketches). Our key innovation is to recast the matching and interpolation problems using transient embeddings, which consist in groups of strokes that exist temporarily across keyframes. A transient embedding carries strokes between keyframes both forward and backward in time through a sequence of transformed lattices. Our system generates rough inbetweens in real-time allowing artists to preview and edit their animation using tools that offer precise artistic control over the dynamics of the animation. This ensures smooth continuity of motion, even when complex topological changes are introduced and enables non-linear exploration of movements. We demonstrate these capabilities on state-of-the-art 2D animation examples. Another notoriously difficult task is the representation 3D motion and depth through 2D animated drawings. Artists must pay particular attention to occlusions and how they evolve through time, a tedious process. Computer-assisted inbetweening methods such as cut-out animation tools allow for such occlusions to be handled beforehand using a 2D rig, at the expense of flexibility and artistic expression. We also address occlusion handling without sacrificing non-linear control. Our contribution in that matter is two-fold: a fast method to compute 2D masks from rough drawings with a semi-automatic dynamic layout system for occlusions between drawing parts; and an artist-friendly method to both automatically and manually control the dynamic visibility of strokes for self-occlusions. Our system helps artists produce convincing 3D-like 2D animations, including head turns, foreshortening effects, out-of-plane rotations, overlapping volumes and even transparency
Style APA, Harvard, Vancouver, ISO itp.
2

Chanussot, Jocelyn. "Approches vectorielles ou marginales pour le traitement d'images multi-composantes". Chambéry, 1998. http://www.theses.fr/1998CHAMS025.

Pełny tekst źródła
Streszczenie:
Ce travail envisage deux approches pour le traitement numérique des images multicomposantes : l'approche marginale (chaque composante est traitée séparément), et l'approche vectorielle (l'image est traitée globalement en considérant chaque pixel comme un vecteur). La première partie traite de l'approche vectorielle pour les opérateurs utilisant la notion d'ordre (filtres d'ordre et morphologiques). Une réflexion sur la notion d'ordre dans les espaces multidimensionnels est menée. Nous montrons quels avantages présente l'utilisation d'une véritable relation vectorielle d'ordre total (par opposition aux relations de pré-ordre et aux ordres partiels), et nous proposons une relation originale baptisée «par entrelacement de bits». L'étude géométrique de la représentation équivalente de toute relation d'ordre total sous forme de «space filling curve» permet de caractériser les relations étudiées et de justifier notre approche. Les résultats de notre méthode sont présentés sur des images couleur. La seconde partie traite de la détection automatique des structures linéaires sur des images satellitaires (failles géologiques en imagerie SPOT multispectrale, routes en imagerie radar multidate) et met en œuvre l'approche marginale. Un détecteur de lignes à base d'opérateurs morphologiques est proposé, et l'intérêt d'un pré-filtrage est mis en évidence par une étude comparative. Les résultats obtenus sur chaque composante sont fusionnés afin d'améliorer les performances (détections et fausses alarmes). Pour pallier les insuffisances des opérateurs de type union ou intersection, deux approches sont proposées. La première consiste à utiliser un opérateur réalisant directement un compromis, la seconde à combiner deux opérateurs opposés pour un résultat intermédiaire. Différentes implantations de ces stratégies, utilisant notamment des opérateurs flous, sont présentées.
Style APA, Harvard, Vancouver, ISO itp.
3

Chevaillier, Béatrice. "Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle". Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ005S.

Pełny tekst źródła
Streszczenie:
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité
Dynamic-Contrast-Enhanced Magnetic Resonance Imaging has a great potential for renal function assessment but has to be evaluated on a large scale before its clinical application. Registration of image sequences and segmentation of internal renal structures is mandatory in order to exploit acquisitions. We propose a reliable and user-friendly tool to partially automate these two operations. Statistical registration methods based on mutual information are tested on real data. Segmentation of cortex, medulla and cavities is performed using time-intensity curves of renal voxels in a two step process. Classifiers are first built with pixels of the slice that contains the largest proportion of renal tissue : two vector quantization algorithms, namely the K-means and the Growing Neural Gas with targeting, are used here. These classifiers are first tested on synthetic data. For real data, as no ground truth is available for result evaluation, a manual anatomical segmentation is considered as a reference. Some discrepancy criteria like overlap, extra pixels and similarity index are computed between this segmentation and functional one. The same criteria are also evaluated between the referencee and another manual segmentation. Results are comparable for the two types of comparisons. Voxels of other slices are then sorted with the optimal classifier. Generalization theory allows to bound classification error for this extension. The main advantages of functional methods are the following : considerable time-saving, easy manual intervention, good robustness and reproductibility
Style APA, Harvard, Vancouver, ISO itp.
4

Lee, Hyun-Soo. "Étude comparative de la classification de textures fondée sur la représentation vectorielle". Le Havre, 1992. http://www.theses.fr/1992LEHA0002.

Pełny tekst źródła
Streszczenie:
Ce travail consiste à comparer les différentes représentations vectorielles de textures afin d'en choisir une pour notre prochaine étape : la segmentation d'image texturée. A travers 27 expériences de l'analyse discriminante et 24 de la classification hiérarchique, en utilisant sept images de texture naturelle de l'album de P. Brodatz « Texture », nous avons essayé de trouver le meilleur vecteur caractéristique de texture parmi les 4 suivants, obtenus à partir du périodogramme, des coefficients du modèle autorégressif (AR), de l'estimation spectrale du modèle AR et des matrices de cooccurrence. Ces expériences nous montrent que le vecteur caractéristique dont les composantes sont les coefficients du modèle AR de la texture correspondante est suffisamment bonne pour assurer l'analyse d'image fondée sur la texture
Style APA, Harvard, Vancouver, ISO itp.
5

Chevaillier, Béatrice. "Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle". Phd thesis, Université de Metz, 2010. http://tel.archives-ouvertes.fr/tel-00557235.

Pełny tekst źródła
Streszczenie:
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
Style APA, Harvard, Vancouver, ISO itp.
6

Rafaa, Az-Eddine. "Représentation multirésolution et compression d'images : ondelettes et codage scalaire et vectoriel". Metz, 1994. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1994/Rafaa.Az_Eddine.SMZ9447.pdf.

Pełny tekst źródła
Streszczenie:
La pyramide d'ondelettes est une nouvelle forme de représentation de l'image. Son codage offre par conséquent une nouvelle méthode de compression des échantillons numériques de l'image. Cette technique est en mesure de supplanter les méthodes traditionnelles et bien établies des transformées blocs qui ont dominé l'état de l'art de ces dernières années. Dans un but de transparence, ce mémoire est organisé en trois parties. La première fait une synthèse théorique ainsi que l'historique de la représentation en multirésolution qui aboutit à la représentation en pyramide d'ondelettes de l'image. La deuxième partie englobe l'aspect scalaire des différentes composantes de la pyramide: caractéristiques statistiques, codage par quantification scalaire ou par zone morte, associe à une allocation de bits optimale par voie analytique ou algorithmique. Enfin, la troisième partie décrit l'aspect vectoriel du codage. La pyramide est dans ce cas repartie en entités élémentaires, sous forme d'arbre d'éléments vectoriels auxquelles un codage hybride à base de la Q. S. Et la Q. V. Leur a été adapte. Cette structure a permis en outre la description de l'activité fréquentielle et directionnelle locale dans l'image puis l'introduction de la notion de classification de ces activités. Pour étendre la validité du codeur élaboré, des extensions aux images couleurs et aux séquences d'images ont aussi été présentées
Wavelet pyramidal is a new form of image representation. Its coding scheme allows a new method of image data compression. This technical may well supplant the well established block-transform methods which have been state of art for these last years. In a suitable purpose, this work is achieved in three parts. The first part provides theorical and historical synthesis of multiresolution representation which converge into Wavelets pyramidal representation of images. The second part investigate scalar point of view of different pyramid components : statistical characteristics, coding scheme with scalar quantization or with dead-zone, related to optimal bit allocation whether analytical or algorithmic. Finally, the third part deals with vector coding scheme. The pyramid is then dispatched into elementary entities which are performed on a hierarchical vector tree as which we applied an hybrid coding based on QS and QV. This structure allows local directivity and frequency activity description in image, and then an introduction to the notion of activity classification. To extend the validity of the elaborated encoder, extensions to colours images and images sequences was presented too
Style APA, Harvard, Vancouver, ISO itp.
7

Akrout, Nabil. "Contribution à la compression d'images par quantification vectorielle : algorithmes et circuit intégré spécifique". Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0017.

Pełny tekst źródła
Streszczenie:
La première partie du mémoire déc rit le développement d'algorithmes ong1naux très rapides de génération des catalogues nécessaires à la quantification vectorielle. Une compara1son de nos algorithmes avec les algorithmes classiques est également réalisée. Ensuite, nous proposons une méthode de quantification vectorielle hiérarchique adaptée à l'analyse de l'image en sous-bandes. Après décomposition pyramidale de l'image en image sous-bandes, on procède à la quantification vectorielle directionnelle des sous-bandes avec des mots codes de forme et de taille adaptées à la résolution et à la direction des détails. La deuxième partie de ce mémoire définit une architecture originale de circuit CMOS à grande échelle d'intégration pour la quantification vectorielle. Le débit d'entrée maximal a été fixé à 15 M pixels/seconde, afin de s'intégrer dans la lignée des circuits existants tout en restant dans un domaine de faisabilité acceptable. Seul un parallélisme massif peut satisfaire la contrainte de vitesse. Cependant, pour limiter la surface de silicium, nous avons proposé un traitement original avec une architecture "bit-série" pipeline et un fort parallélisme au niveau du calcul des distances. Architecture de ce circuit a été brevetée (brevet d'invention n° 9402482)
Recently, Vector Quantization (VQ) has received considerable attention and become an effective tool for image compression. It provides High compression ratio and simple decoding process. However, studies on practical implementation of VQ have revealed some major difficulties such as edge integrity and code book design efficiency. After doing the state-of-the-art in the field of Vector Quantization, we focus on: - Iterative and non-iterative code book generation algorithms. The main idea of non-iterative algorithms consists of creating progressively the code words, during only one scanning of the training set. At the beginning, the code book is initialized by the first vector found in the training set, then each input vector is mapped into the nearest neighbor codeword, which minimizes the distortion error. This error is then compared with per-defined thresholds. The performance of iterative and non-iterative code book generation algorithms are compared: the code books generated by non-iterative algorithms require less than 2 percent of the time required by iterative algorithms. - To propose a new procedure for image compression as an improvement on vector quantization of sub-bands. Codewords having vertical and horizontal shape will be used to vector quantize the high-frequency sub-images, obtained from a multiresolution analysis scheme. The codewords shapes take into account the orientation and resolution of each subband details in order to -preserve edges at low bit rates. Their sizes are defined according to the correlation distances in each subband for the horizontal and vertical directions. - The intensive computational demands of vector quantization (V. Q. ) for important applications in speech and image compression have motivated the need for dedicated processors with very high throughput capabilities. Bit-serial systolic architectures offer one of the most promising approaches for fulfilling the demanding V. Q. Speed requirements in many applications. We propose a novel family of architectural techniques which offer efficient computation of Manhattan distance measures for nearest neighbor code book searching. Manhattan distance requires much less computation and VLSI chip area, because there is no multiplier. Compared to Euclidean distance. This gave rise to the idea of implementing Manhattan distance directly in hardware for real-time image coding. Very high V. Q. Throughput can be achieved by a massive parallelism. Therefore, it requires an important VLSI chip area. To avoid this difficulty, we carry out a "bit-serial" pipelined processing for nearest neighbor code book searching. This architecture is more suitable for real-time coding. Several alternative configurations allow reasonable tradeoffs between speed and VLSI chip area required
Style APA, Harvard, Vancouver, ISO itp.
8

Alshatti, Wael. "Approches vectorielles du filtrage et de la détection de contours dans des images multi-spectrales". Chambéry, 1994. http://www.theses.fr/1994CHAMS022.

Pełny tekst źródła
Streszczenie:
La représentation d'une image peut être rendue plus riche que la classique représentation en niveaux de gris par l'utilisation d'une base multi-spectrale. Les images couleur, certaines images bio-médicales ou les images satellites sont des images multi-spectrales. L'image peut être vue alors comme un champ vectoriel. L'objectif de ce travail est d'étudier et de définir des méthodes de traitement basées sur des approches vectorielles, prenant en compte la corrélation existant entre les différentes composantes spectrales. La première partie du travail concerne le filtrage des images multi-spectrales. Après avoir présenté une étude comparative des solutions existantes, une nouvelle classe de filtres est proposée. Ces filtres ont un comportement qui peut être contrôlé par deux paramètres. Selon les valeurs de ces paramètres, deux familles de filtres peuvent être définies. La première regroupe des NL-filtres qui offrent de meilleures propriétés de lissage que les NL-filtres. La deuxième famille peut être vue comme une extension au cas vectoriel des filtres de rang scalaire. Ces filtres possèdent des propriétés intéressantes de rehaussement de contraste, ce qui facilite les étapes ultérieures de segmentation et d'analyse. Des études et des essais montrent les performances de ces deux familles. La deuxième partie du travail présente les différentes approches vectorielles de la détection de contours dans des images multi-spectrales.
Style APA, Harvard, Vancouver, ISO itp.
9

Furlan, Gilbert. "Contribution à l'étude et au développement d'algorithmes de traitement du signal en compression de données et d'images". Nice, 1990. http://www.theses.fr/1990NICE4433.

Pełny tekst źródła
Streszczenie:
Cette thèse a pour but d'une part la compression de données sans perte d'information, et d'autre part la compression d'images fixes. La compression de données est basée sur une modélisation markovienne adaptative d'ordre variable réalisée par l'algorithme du contexte qui approxime la complexité stochastique de la source en utilisant le principe de la longueur de description minimale (LDM). Le codage est obtenu par un codage arithmétique multi-niveaux. Nous nous attachons dans un premier temps, à minimiser l'occupation mémoire en appliquant le principe de la LDM au développement du modèle. Nous montrons dans un deuxième temps que l'application différentielle de la LDM pour le choix des nœuds de codage permet d'optimiser la gestion du modèle en arbre. Nous montrons enfin que l'algorithme ainsi modifié permet d'atteindre les taux de compression les plus élevés à l'heure actuelle et ce pour un ensemble de sources multimédia et une complexité moyenne. Nous avons adopté pour la compression des images fixes une décomposition en sous-bandes par les filtres de Johnston. Dans le cadre d'un codage à faible complexité des signaux de sous-bande par quantification et DPCM, nous introduisons un algorithme d'allocation des ressources de codage à facteur psychovisuel. Nous proposons ensuite, un codage par quantification vectorielle prédictive. Nous réduisons alors la taille mémoire requise pour le stockage du répertoire par l'utilisation d'un répertoire linéaire que nous rendons en partie adaptatif. Enfin, nous montrons que le codage entropique par l'algorithme du contexte des signaux codés permet une diminution moyenne du débit de l'ordre de 30% sans perte de qualité. Appliqué directement aux signaux de sous-bandes, nous obtenons des images de qualité exceptionnelle pour des débits compris entre 1 et 1. 5 bits/pixel
Style APA, Harvard, Vancouver, ISO itp.
10

Moravie, Philippe. "Parallélisation d'une méthode de compression d'images : transformée en ondelettes, quantification vectorielle et codage d'Huffman". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT123H.

Pełny tekst źródła
Streszczenie:
La taille des images satellitaires actuelles et a venir, est telle qu'il devient indispensable de les compresser a bord et en temps-reel. Or la charge de traitement induite par les algorithmes de compression d'images est si importante, qu'elle interdit l'usage des processeurs sequentiels classiques, au profit des machines paralleles. Aussi, nous presentons ici, une etude de la parallelisation d'une technique de compression d'images basee sur la transformee en ondelettes discrete (tod), la quantification vectorielle (qv) et le codage entropique (ce). Initialement, nous avons etudie et implemente le parallelisme intrinseque a chacun de ces 3 algorithmes, de maniere a determiner l'ensemble des caracteristiques architecturales indispensables a l'execution en temps-reel de la compression. Ainsi, nous avons pu definir trois concepts architecturaux pour l'algorithme de mallat (tod), trois autres pour la quantification vectorielle arborescente (qv) et enfin, deux pour le codage d'huffman (ce). La contrainte de polyvalence de l'architecture de notre futur systeme de compression, nous a conduit a ne retenir que 3 concepts globaux parmi les 3 3 2 systemes de compression potentiels. La contrainte d'execution en temps-reel n'etant pas respectee dans tous les cas (pour toutes les combinaisons de parametres de compression), nous avons defini et evalue deux optimisations algorithmiques : la precision virgule fixe et la fusion entre le codage entropique et la quantification vectorielle. Ainsi, nous avons pu definir et dimensionner une machine generaliste embarquable multi-simd, capable de soutenir les contraintes temps-reel du domaine satellitaire. A la question de la definition d'une architecture parallele optimale pour la compression d'images, nous avons donc repondu par la presentation de 3 modeles de machines, dont l'une a la particularite d'etre generaliste et donc d'etre reutilisable pour d'autres applications a bord.
Style APA, Harvard, Vancouver, ISO itp.
11

Batard, Thomas. "Géométrie différentielle des fibrés vectoriels et algèbres de Clifford appliquées au traitement d'images multicanaux". Phd thesis, Université de La Rochelle, 2009. http://tel.archives-ouvertes.fr/tel-00684250.

Pełny tekst źródła
Streszczenie:
Le sujet de cette thèse est l'apport d'applications du formalisme des algèbres de Clifford au traitement d'images multicanaux. Nous y introduisons également l'utilisation du cadre des fibrés vectoriels en traitement d'image. La Partie 1 est consacrée à la segmentation d'images multicanaux. Nous généralisons l'approche de Di Zenzo pour la détection de contours en construisant des tenseurs métriques adaptés au choix de la segmentation. En utilisant le cadre des fibrés en algèbres de Clifford, nous montrons que le choix d'une segmentation d'une image est directement lié au choix d'une métrique, d'une connexion et d'une section sur un tel fibré. La Partie 2 est consacrée à la régularisation. Nous utilisons le cadre des équations de la chaleur associées à des Laplaciens généralisés sur des fibrés vectoriels. Le résultat principal que nous obtenons est qu'en considérant l'équation de la chaleur associée à l'opérateur de Hodge sur le fibré de Clifford d'une variété Riemannienne bien choisie, nous obtenons un cadre global pour régulariser de manière anisotrope des images (vidéos) multicanaux, et des champs s'y rapportant tels des champs de vecteurs ou des champs de repères orthonormés. Enfin, dans la Partie 3, nous nous intéressons à l'analyse spectrale via la définition d'une transformée de Fourier d'une image multicanaux. Cette définition repose sur une théorie abstraite de la transformée de Fourier basée sur la notion de représentation de groupe. De ce point de vue, la transformée de Fourier usuelle pour les images en niveau de gris est basée sur les représentations irréductibles du groupe des translations du plan. Nous l'étendons aux images multicanaux en lui associant les représentations réductibles de ce groupe.
Style APA, Harvard, Vancouver, ISO itp.
12

Lennon, Marc. "Methodes d'analyse d'images hyperspectrales : exploitation du capteur aéroporté CASI pour des applications de cartographie agro-environnementale en Bretagne". Rennes 1, 2002. http://www.theses.fr/2002REN10130.

Pełny tekst źródła
Streszczenie:
A partir de l'étude des caractéristiques spécifiques des images optiques issues de la télédétection hyperspectrale, des stratégies d'analyse et méthodes associées sont proposées pour extraire l'information pertinente avec un point de vue traitement du signal. Le signal est exploré dans ses deux dimensions spatiales et dans sa dimension spectrale, en tirant parti des propriétés structurelles, statistiques ou topologiques des données. Des méthodes de réduction de dimensionnalité, filtrage, analyse de texture, classification et démixage spectral sont proposées, et appliquées à l'extraction de l'information utile à la cartographie des éléments paysagers de faible taille au sein d'un bassin versant bocager à partir de données issues du capteur aéroporté CASI. Ces produits cartographiques inédits sont utiles aux experts de l'environnement pour la conception d'opérations de conseil et d'aménagement paysager, dans un but de lutte efficace contre le phénomène des marées vertes en Bretagne.
Style APA, Harvard, Vancouver, ISO itp.
13

Pignol, Michel. "Realisation d'un mini-processeur vectoriel travaillant en arithmetique flottante 32 bits, adapte au traitement frequentiel d'images". Clermont-Ferrand 2, 1986. http://www.theses.fr/1986CLF2D181.

Pełny tekst źródła
Streszczenie:
Dans un premier temps nous avons etudie les differentes architectures de calculateurs rapides et les techniques mises en oeuvre pour realiser des traitements numeriques a vitesses elevees. Puis dans un deuxieme temps nous developpons une programmation originale de la fft diminuant de 20% la charge de calcul; nous demontrons la necessite de travailler en arithmetique flottante pour effectuer des fft bidimensionnelles. Enfin nous decrivons l'architecture du processeur microprogrammable tant sur le plan materiel (parallelisme, pipeline,. . . ) que logiciel (microprogrammes, bibliotheque) et presentons les performances obtenues
Style APA, Harvard, Vancouver, ISO itp.
14

Pignol, Michel. "Réalisation d'un mini-processeur vectoriel travaillant en arithmétique flottante 32 bits, adapté au traitement fréquentiel d'images". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37600413t.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
15

Anwander, Alfred. "Segmentation d'images couleur par un opérateur gradient vectoriel multiéchelle et contour actif : application à la quantification des phases minéralogiques du clinker de cimen". Lyon, INSA, 2001. http://theses.insa-lyon.fr/publication/2001ISAL0062/these.pdf.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est la quantification des phases de clinker de ciment par analyse d'images couleur issues d'un microscope optique. La segmentation des cristaux a été abordée par une double démarche adaptée aux contraintes industrielles : La première porte sur une méthode originale de calcul du gradient couleur dans le cas des images acquises avec une camera couleur standard mono-CCD. Ces images multi-spectrales ont la particularité de présenter une résolution réduite des composantes couleur par rapport à celle de la luminosité. L'adaptation d'une approche multi-échelle et une pondération des composantes sont intégrée dans un nouvel opérateur de gradient couleur multi-échelle (GCM). Les études comparatives avec des techniques classiques, effectuées dans le cadre de la détection des contours, montrent la contribution du GCM. Le deuxième modèle original concerne la segmentation d'images par un contour déformable de type "ballon". Notre modèle stabilise la déformation par normalisation de la longueur du contour actif avant chaque itération. Ceci permet des grandes déformations du contour sans requérir le ré-échantillonnage de la courbe, étape nécessaire dans l’approche classique. L’algorithme est plus rapide et plus robuste et autorise un contour initial loin du contour final. Le logiciel développé en partenariat avec la société Lafarge Ciments intègre ces différentes techniques de traitement d'image couleur : Pré-traitement des images, segmentation par approche contour effectuée à l'aide du GCM des images microscopiques couleur, une fermeture des contours. Les régions homogènes ainsi segmentées, sont ensuite classifiées grâce à des paramètres de texture et de couleur. Le système fourni une quantification des trois phases principales du clinker et une analyse statistique des dimensions des cristaux. Il remplace une mesure manuelle longue et fastidieuse et permet d’augmenter la qualité de la fabrication par des mesures plus fréquentes en sortie du four à ciment
The objective of this thesis is the quantification of cement clinker phases by analysis of color images acquired with an optical microscope. The segmentation of the crystals is approached in a double way adapted to industrial constraints. The first introduces an orignal computation of the color gradient for images acquired with a standard mono-CCD color camera. These multispectral images have the particularity of a reduced resolution of color components compared to that of luminance. The adaptation of a multiscale approach and weighting of the components are integrated in a new multiscale color gradient (MCG) operator. Comparative studies with classical techniques in the domain of edge detection, show the contribution of the MCG. The second original model concerns image segmentation by deformable contours of “balloon” type. Our model stabilizes the deformation by normalizing the contour length at each iteration. This allows big deformations of the contour without re-sampling of the contour, which is necessary in the classical approach. The algorithm is faster, more robust and allows an initial contour which is far from the final contour. The software developed in partnership with the company “Lafarge Ciments” integrates the different color image processing techniques. Pre-processing of the images, segmentation by edge detection using the MCG of the microscopic color images and edge closing. The homogeneous regions segmentation in this way are classified using color and texture parameters. The system computes a quantification of the three clinker phases and a statistical analysis of the crystal dimensions. It replaces long and tiring manual measurements and allows a high quality production by more frequent measurements at the exit of the cement kiln
Style APA, Harvard, Vancouver, ISO itp.
16

Allanic, Hervé. "Utilisation du modèle vectoriel topologique pour la reconnaissance des formes". Paris 12, 2002. http://www.theses.fr/2002PA120026.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur l'étude et la réalisation d'un système d'interprétation d'image fondé sur l'utilisation d'un réseau sémantique afin d'assurer la fusion de primitives symboliques extraites d'une image. Nos travaux s'appuient sur l'utilisation d'un Modèle Vectoriel Topologique (MVT), très utilisé dans le domaine de la cartographie numérique. Ce modèle permet de manipuler des informations sémantiques associées à des données géométriques. Après avoir vérifié l'intérêt du MVT vis à vis du domaine de l'interprétation des images, nous avons défini les caractéristiques d'un système basé sur ce modèle. La suite de la thèse à consisté à définir les différents types données et de tâches, à élaborer l'architecture globale du système puis à réaliser deux démonstrateurs validant l'approche choisie
This thesis presents a work on an image understanding system based on semantic networks which aim is to realize data fusion with symbolic primitives extracted from an image. We use a Topological Vectorial Model (MVT) which is broadly used in the Geographic Information Systems. This model can handle semantic informations together with geometrical datas. After looking at the relevance of the MVT for the image understanding area, we have defined the characteristics of a system based on this model. We have then been able to define data and task types, to create system architecture and to validate the approach on two applications
Style APA, Harvard, Vancouver, ISO itp.
17

Anwander, Alfred Neyran Bruno Baskurt Atilla. "Segmentation d'images couleur par un opérateur gradient vectoriel multiéchelle et contour actif application à la quantification des phases minéralogiques du clinker de ciment /". Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=anwander.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
18

Clienti, Christophe. "Architectures flot de données dédiées au traitement d'images par morphologie mathématique". Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005758.

Pełny tekst źródła
Streszczenie:
Nous abordons ici la thématique des opérateurs et processeurs flot de données dédiés au traitement d'images et orientés vers la morphologie mathématique. L'objectif principal est de proposer des architectures performantes capables de réaliser les opérations simples de ce corpus mathématique afin de proposer des opérateurs morphologiques avancés. Ces dernières années, des algorithmes astucieux ont été proposés avec comme objectif de réduire la quantité des calculs nécessaires à la réalisation de transformations telle que la ligne de partage des eaux. Toutefois, les mises en œuvre proposées font souvent appel à des structures de données complexes qui sont difficiles à employer sur des machines différentes des processeurs généralistes monocœurs. Les processeurs standard poursuivant aujourd'hui leur évolution vers une augmentation du parallélisme, ces implémentations ne nous permettent pas d'obtenir les gains de performance escomptés à chaque nouvelle génération de machine. Nous proposons alors des mises en œuvre rapides des opérations complexes de la morphologie mathématique par des machines exploitant fortement le parallélisme intrinsèque des opérations basiques. Nous étudions dans une première partie les processeurs de voisinage travaillant directement sur un flot de pixels et nous proposons différentes méthodologies de conception rapide de pipelines dédiés à une application. Nous proposons également une structure de pipeline programmable via l'utilisation de processeurs vectoriels avec différentes possibilités de chaînage. Enfin, une étude avec des machines est proposée afin d'observer la pertinence de notre approche.
Style APA, Harvard, Vancouver, ISO itp.
19

Aptoula, Erchan. "Morphological colour image analysis : Applied to content-based image description, annotation and retrieval". Université Louis Pasteur (Strasbourg) (1971-2008), 2008. https://publication-theses.unistra.fr/public/theses_doctorat/2008/APTOULA_Erchan_2008.pdf.

Pełny tekst źródła
Streszczenie:
Cette thèse porte principalement sur l'extension de la morphologie mathématique aux images couleur. Les opérateurs morphologiques qui en dérivent sont ensuite appliqués au problème de la recherche d'images par le contenu. L'étude de ce problème débute avec le choix d'un espace de couleurs pertinent, et il a été décidé d'utiliser les espaces de couleurs s'appuyant sur un triplet luminance-saturation-teinte, plébiscités pour leur intuitivité et leur bonne représentation du système de la vision humaine. Suite au choix d'espace de couleurs, nos efforts se sont portés sur le seul prérequis pour permettre l'extension de la morphologie mathématique aux données multivariées : un ordre et des opérateurs d'extremums pour des données vectorielles. Plus précisément, nous nous sommes intéressés à l'approche lexicographique, du fait de ses propriétés théoriques intéressantes et de sa capacité d'adaptation à différents contextes applicatifs. Plusieurs solutions ont été proposées pour s'affranchir de son principal inconvénient qui consiste en la prioritisation extrême de la première bande spectrale ou couleur. En outre, une attention particulière a été portée au traitement de la teinte, susceptible de poser des problèmes si elle est ordonnée comme une valeur scalaire alors que sa nature est périodique. Par conséquent nous présentons une approche utilisant plusieurs teintes de référence. Cette partie se termine par l'extension aux images multivariées de la transformée en tout-ou-rien, découlant des résultats obtenus précédemment. La deuxième partie de ce travail concerne l'application de la morphologie couleur au problème de la recherche d'images par le contenu. Dans ce but, nous avons introduit plusieurs descripteurs globaux de couleur et de texture. Plus précisément, nous nous sommes intéressés au concept d'histogramme multi-échelles et avons élaboré deux méthodes permettant leur intégration avec les opérateurs morphologiques. En outre, des granulométries spécifiques aux images couleur ont aussi été étudiées. Pour la description de texture, nous avons combiné les deux principaux outils morphologiques de caractérisation de texture, la granulométrie et la covariance. Finalement, nous avons proposé l'architecture d'un système pour la description, l'indexation et la recherche par le contenu à base de mots-clés, qui fournit une solution flexible en termes d'adaptabilité aux différents niveaux d'hétérogénéité de collections d'images
This thesis concentrates mainly on the extension of mathematical morphology to colour images. The resulting morphological operators are then applied to the problem of general purpose content-based colour image retrieval. First the choice of a colour space is discussed and polar spaces of type luminance-saturation-hue are endorsed on the grounds of their intuitiveness, as far as the human visual perception is concerned. The rest of the first part focuses on the sole requirement for the extension of mathematical morphology to multivariate data: a vector ordering. Specifically, due to its multiple positive properties, we concentrate on the lexicographical approach. We further introduce several variations to it, with the purpose of rendering possible a finer tuning of the processing balance among image channels, and between chromatic and achromatic information in the particular of colour images. Their practical interest is illustrated through a comparative study, that is carried out on the properties of several vector orderings. Moreover, considering the periodic nature of hue values, that does not lend itself to scalar ordering, an image specific approach based on multiple reference hues is proposed. This part is concluded with the extension of the hit-or-miss transform to colour images, as an example based on its findings. The second part is dedicated to the application of colour morphology to the problem of content-based image retrieval. To this end, novel morphology based colour and texture descriptors, using the principles developed in the first part, are presented and compared against state-of-the-art approaches with multiple image databases. In particular, multiscale histogram variations are studied as global colour descriptors, whereas the information extracted by granulometry and morphological covariance is combined with the purpose of texture characterisation. Finally a semi-supervised, keyword-based image annotation and retrieval architecture is developed, based on the aforementioned operators, leading to a flexible solution in terms of adaptability to various image collection heterogeneity levels, providing feedback support and capable of semantic queries
Style APA, Harvard, Vancouver, ISO itp.
20

Zhao, Yili. "Étude et réalisation d'un système de transmission d'images numériques à bas débit". Nancy 1, 1989. http://www.theses.fr/1989NAN10266.

Pełny tekst źródła
Streszczenie:
La transmission ou le stockage d'image sont d'un grand intérêt avec le développement des communications. Les progrès technologiques obtenus dans le traitement numérique rendent aujourd'hui possible la réalisation de systèmes performants, dans lesquels la compression des données joue un rôle essentiel. Le domaine d'application de la compression du signal vidéo est très varié : vidéo-conférence, satellite, fac-similé, médical, diffusion, distribution de câble, etc. . . En pratique, les techniques de compression vidéo ne peuvent être dissociées des objectifs de l'utilisateur. L'efficacité s'analyse à partir de la qualité subjective et de la complexité désirée. La mauvaise restitution de quelques points dans l'image, par exemple, n'est pas forcément critique dans le domaine civil, mais peut être dramatique pour l'interprétation dans le domaine militaire. Il n'est donc pas possible de classer de façon générale les performances des méthodes de compression
Style APA, Harvard, Vancouver, ISO itp.
21

Cachier, Pascal. "Recalage non rigide d'images médicales volumiques : contributions aux approches iconiques et géométriques". Phd thesis, Ecole Centrale Paris, 2002. http://tel.archives-ouvertes.fr/tel-00630493.

Pełny tekst źródła
Streszczenie:
Le recalage non rigide d'images est un problème classique en vision par ordinateur qui revient à déformer une image afin qu'elle ressemble à une autre. Les techniques existantes, très nombreuses, sont généralement répertoriées selon l'information utilisée pour le recalage. D'un côté les algorithmes iconiques utilisent l'intensité des images. De l'autre, les algorithmes géométiques utilisent des amers géométriques extraits des images, comme les bords d'un objet. Dans cette thèse, nous montrons d'abord que cette classification n'est pas assez fine pour expliquer certaines différences fondamentales dans le comportement de certains algorithmes. Nous proposons de ce fait de diviser la classe des algorithmes iconiques en deux : nous distinguons d'une part les algorithmes iconiques standard, et d'autre part les algorithmes de recalage d'amers iconiques. Nous introduisons une énergie générale de recalage d'amers iconiques, puis nous développons des instances particulières de cette énergie ayant des propriétés spéciales selon l'application visée : ajout de contraintes géométriques supplémentaires, invariance au biais non uniforme, régularisation vectorielle avec des effets croisés, invariance par échange des images. Nous montrons des applications de nos algorithmes en suivi du mouvement dans des séquences échographiques tridimensionnelles, en relage intersujet de cerveaux, et en interpolation de formes et d'intensités.
Style APA, Harvard, Vancouver, ISO itp.
22

Orzan, Alexandrina. "Images basées sur les contours : représentation, création et manipulation". Grenoble INPG, 2009. http://www.theses.fr/2009INPG0179.

Pełny tekst źródła
Streszczenie:
La présente thèse propose une nouvelle représentation pour les images qui se base sur les contours. Cette représentation est particulièrement adaptée aux images vectorielles et permet via l’apposition d’informations à ces mêmes contours, l’ajout de dégrades complexes de couleurs, d’effets d’éclairage et de textures que l’on peut dès lors « draper » dans l’image. Cet encodage par les contours s’applique également aux images bitmap, et la manipulation de ces contours confère des moyens d’édition plus évolués que l’édition pixellique. Cette représentation commune entre les images bitmap et vectorielles constitue enfin une méthode de vectorisation efficace. On s’intéresse aussi aux possibilités de création et de modification que fournit cette nouvelle représentation. Nous proposons à cette fin un ensemble unifié d’algorithmes pour créer, manipuler et modifier ces images
This thesis proposes a novel image primitive—the diffusion curve. This primitive relies on the principle that images can be defined via their discontinuities, and concentrates image features along contours. The diffusion curve can be defined in vector graphics, as well as in raster graphics, to increase user control during the process of art creation. The vectorial diffusion curve primitive augments the expressive powers of vector images by capturing complex spatial appearance behaviours. Diffusion curves represent a simple and easy to manipulate support for complex content representation and edition. In raster images, diffusion curves define a higher level structural organization of the pixel image. This structure is used to create simplified or exaggerated representations of photographs in a way consistent with the original image content. Finally, a fully automatic vectorization method is presented, that converts raster diffusion curve to vector diffusion curve
Style APA, Harvard, Vancouver, ISO itp.
23

Alata, Olivier. "Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique". Habilitation à diriger des recherches, Université de Poitiers, 2010. http://tel.archives-ouvertes.fr/tel-00573224.

Pełny tekst źródła
Streszczenie:
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
Style APA, Harvard, Vancouver, ISO itp.
24

Tang, Hui. "Méthodologies de visualisation 3D en imagerie médicale". Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355629.

Pełny tekst źródła
Streszczenie:
Ce mémoire de Thèse se focalise sur certains des problèmes non résolus en visualisation scientifique. Plus particulièrement nous avons pris une problématique médicale bien spécifique, la chirurgie conservatrice des tumeurs rénales, comme cadre applicatif pour l'élaboration de nouvelles solutions incluant des techniques de recalage de données, de segmentation et de visualisation 3D.
L'uroscan fournit 3 à 4 volumes présentant une information complémentaire sur l'anatomie rénale. La première étape consiste à mettre en correspondance ces différents volumes par une technique de recalage rigide du volume rénal basée sur la maximisation locale de l'information mutuelle.
L'idée principale de ce mémoire de Thèse est de proposer une visualisation de l'anatomie rénale directement à partir de ces données fusionnées. Pour cela, une technique de classification statistique des données basée sur une modélisation de la distribution des valeurs par un mélange de Gaussiennes incluant une information spatiale a été développée. Différentes techniques de visualisation 3D ont ensuite été adaptées à la représentation de cette information et comparées entre-elles.
Les techniques de représentation de surfaces peuvent être accélérées par des procédures de simplifications de maillages. Dans ce cadre, nous avons proposé deux métriques de description de la surface basées sur les moments géométriques et pouvant être incluses dans une telle procédure.
Ces différentes solutions, même si elles ont été développées dans le cadre de la représentation des structures anatomiques rénale, sont suffisamment génériques pour être utilisées ou adaptées à d'autres organes ou à d'autres applications médicales.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii