Indice

  1. Tesi

Letteratura scientifica selezionata sul tema "Traitement d'image vectorielle"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Traitement d'image vectorielle".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Tesi sul tema "Traitement d'image vectorielle"

1

Even, Melvin. "Animation 2D esquissée assistée par ordinateur". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0457.

Testo completo
Abstract (sommario):
L’animation 2D traditionnelle est un processus exigeant à la fois en temps et en expertise, étant donné que les animateurs doivent dessiner à la main des milliers d’images afin de créer une séquence d’animation complète. Avec l’avènement de l’animation par ordinateur, les artistes ont désormais la possibilité d’utiliser l’animation 3D et des techniques de type marionnettes en 2D, qui éliminent la nécessité de dessiner manuellement chaque image, mais sacrifient souvent les pratiques artistiques uniques et le style caractéristique de l’animation 2D traditionnelle. D’autre part, les outils numériques qui émulent l’animation 2D traditionnelle sur papier facilite certaines tâches telles que le dessin et le coloriage, mais obligent toujours les animateurs à dessiner chaque image à la main. Dans le monde académique, de nombreuses méthodes assistées par ordinateur ont été mises au point pour automatiser la génération de dessins intermédiaires “propres” (i.e.,non esquissé), à partir d’images clés. Cependant, ces méthodes ont tendance à être limitées par des processus de création rigides et un contrôle artistique limité, en grande partie à cause des défis que représentent la mise en correspondance et l’interpolation des traits. Dans cette thèse, nous adoptons une nouvelle approche pour répondre à ces limitations en nous concentrant sur une étape antérieure de l’animation en utilisant des dessins esquissés (i.e., des croquis). Notre principale innovation consiste à reformuler les problèmes de mise en correspondance et d’interpolation en utilisant des “transient embeddings”, qui consistent en des groupes de traits qui existent temporairement entre les images clés. Ces structures transportent les traits des images clés par le biais d’une grille de contrôle 2D. Notre système génère des images intermédiaires esquissées en temps réel, permettant aux artistes de prévisualiser et d’éditer leur animation à l’aide d’outils offrant un contrôle précis sur la dynamique de l’animation. Cela garantit une continuité fluide du mouvement, même lorsque des changements topologiques complexes sont introduits, et permet l’exploration de mouvements de manière non linéaire. Nous démontrons ces capacités sur des exemples classiques d’animation 2D. Une autre tâche notoirement complexe est la représentation des mouvements 3D et de la profondeur à travers des dessins animés en 2D. Les artistes doivent accorder une attention particulière aux effets d’occultation et à leur évolution dans le temps, ce qui en fait un processus fastidieux. Les méthodes de génération d’images intermédiaires assistées par ordinateur, telles que les outils d’animation type marionnette, permettent de traiter ces effets d’occultation à l’avance à l’aide d’un “rig” 2D, au détriment de la flexibilité et de l’expression artistique. Dans cette thèse, nous abordons également les effets d’occultation sans sacrifier le contrôle non linéaire de l’animation. Notre contribution sur ce sujet est double : une méthode rapide pour calculer des masques 2D à partir de dessins esquissés, avec un système semi-automatique pour l’agencement dynamique des parties du dessin ; et une méthode intuitive pour l’artiste permettant de contrôler automatiquement ou manuellement la visibilité dynamique des traits pour les auto-occultations. Notre système aide les artistes à produire des animations 2D avec des effets de profondeur convaincants, y compris des tours de tête, des effets de raccourci, des rotations, des volumes qui se chevauchent et même de la transparence
Traditional 2D animation is a time-intensive process requiring a high level of expertise, as animators must draw thousands of individual frames by hand to create a complete animation sequence. With the advent of computer animation, artists now have the option to use 3D animation or 2D puppet-style techniques, which eliminate the need to manually draw each frame but often sacrifice the unique workflows and artistic style characteristic of traditional 2D animation. Alternatively, digital tools that emulate traditional 2D animation streamline tasks like drawing and coloring, but still require animators to draw each frame by hand. In academia, many computer-assisted methods have been developed to automate the inbetweening of clean line drawings, in which intermediate frames are automatically generated from input key drawings. However, these methods tend to be constrained by rigid workflows and limited artistic control, largely due to the challenges of stroke matching and interpolation. In this thesis, we take a novel approach to address these limitations by focusing on an earlier stage of animation using rough drawings (i.e., sketches). Our key innovation is to recast the matching and interpolation problems using transient embeddings, which consist in groups of strokes that exist temporarily across keyframes. A transient embedding carries strokes between keyframes both forward and backward in time through a sequence of transformed lattices. Our system generates rough inbetweens in real-time allowing artists to preview and edit their animation using tools that offer precise artistic control over the dynamics of the animation. This ensures smooth continuity of motion, even when complex topological changes are introduced and enables non-linear exploration of movements. We demonstrate these capabilities on state-of-the-art 2D animation examples. Another notoriously difficult task is the representation 3D motion and depth through 2D animated drawings. Artists must pay particular attention to occlusions and how they evolve through time, a tedious process. Computer-assisted inbetweening methods such as cut-out animation tools allow for such occlusions to be handled beforehand using a 2D rig, at the expense of flexibility and artistic expression. We also address occlusion handling without sacrificing non-linear control. Our contribution in that matter is two-fold: a fast method to compute 2D masks from rough drawings with a semi-automatic dynamic layout system for occlusions between drawing parts; and an artist-friendly method to both automatically and manually control the dynamic visibility of strokes for self-occlusions. Our system helps artists produce convincing 3D-like 2D animations, including head turns, foreshortening effects, out-of-plane rotations, overlapping volumes and even transparency
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Chanussot, Jocelyn. "Approches vectorielles ou marginales pour le traitement d'images multi-composantes". Chambéry, 1998. http://www.theses.fr/1998CHAMS025.

Testo completo
Abstract (sommario):
Ce travail envisage deux approches pour le traitement numérique des images multicomposantes : l'approche marginale (chaque composante est traitée séparément), et l'approche vectorielle (l'image est traitée globalement en considérant chaque pixel comme un vecteur). La première partie traite de l'approche vectorielle pour les opérateurs utilisant la notion d'ordre (filtres d'ordre et morphologiques). Une réflexion sur la notion d'ordre dans les espaces multidimensionnels est menée. Nous montrons quels avantages présente l'utilisation d'une véritable relation vectorielle d'ordre total (par opposition aux relations de pré-ordre et aux ordres partiels), et nous proposons une relation originale baptisée «par entrelacement de bits». L'étude géométrique de la représentation équivalente de toute relation d'ordre total sous forme de «space filling curve» permet de caractériser les relations étudiées et de justifier notre approche. Les résultats de notre méthode sont présentés sur des images couleur. La seconde partie traite de la détection automatique des structures linéaires sur des images satellitaires (failles géologiques en imagerie SPOT multispectrale, routes en imagerie radar multidate) et met en œuvre l'approche marginale. Un détecteur de lignes à base d'opérateurs morphologiques est proposé, et l'intérêt d'un pré-filtrage est mis en évidence par une étude comparative. Les résultats obtenus sur chaque composante sont fusionnés afin d'améliorer les performances (détections et fausses alarmes). Pour pallier les insuffisances des opérateurs de type union ou intersection, deux approches sont proposées. La première consiste à utiliser un opérateur réalisant directement un compromis, la seconde à combiner deux opérateurs opposés pour un résultat intermédiaire. Différentes implantations de ces stratégies, utilisant notamment des opérateurs flous, sont présentées.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Chevaillier, Béatrice. "Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle". Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ005S.

Testo completo
Abstract (sommario):
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité
Dynamic-Contrast-Enhanced Magnetic Resonance Imaging has a great potential for renal function assessment but has to be evaluated on a large scale before its clinical application. Registration of image sequences and segmentation of internal renal structures is mandatory in order to exploit acquisitions. We propose a reliable and user-friendly tool to partially automate these two operations. Statistical registration methods based on mutual information are tested on real data. Segmentation of cortex, medulla and cavities is performed using time-intensity curves of renal voxels in a two step process. Classifiers are first built with pixels of the slice that contains the largest proportion of renal tissue : two vector quantization algorithms, namely the K-means and the Growing Neural Gas with targeting, are used here. These classifiers are first tested on synthetic data. For real data, as no ground truth is available for result evaluation, a manual anatomical segmentation is considered as a reference. Some discrepancy criteria like overlap, extra pixels and similarity index are computed between this segmentation and functional one. The same criteria are also evaluated between the referencee and another manual segmentation. Results are comparable for the two types of comparisons. Voxels of other slices are then sorted with the optimal classifier. Generalization theory allows to bound classification error for this extension. The main advantages of functional methods are the following : considerable time-saving, easy manual intervention, good robustness and reproductibility
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Lee, Hyun-Soo. "Étude comparative de la classification de textures fondée sur la représentation vectorielle". Le Havre, 1992. http://www.theses.fr/1992LEHA0002.

Testo completo
Abstract (sommario):
Ce travail consiste à comparer les différentes représentations vectorielles de textures afin d'en choisir une pour notre prochaine étape : la segmentation d'image texturée. A travers 27 expériences de l'analyse discriminante et 24 de la classification hiérarchique, en utilisant sept images de texture naturelle de l'album de P. Brodatz « Texture », nous avons essayé de trouver le meilleur vecteur caractéristique de texture parmi les 4 suivants, obtenus à partir du périodogramme, des coefficients du modèle autorégressif (AR), de l'estimation spectrale du modèle AR et des matrices de cooccurrence. Ces expériences nous montrent que le vecteur caractéristique dont les composantes sont les coefficients du modèle AR de la texture correspondante est suffisamment bonne pour assurer l'analyse d'image fondée sur la texture
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Chevaillier, Béatrice. "Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle". Phd thesis, Université de Metz, 2010. http://tel.archives-ouvertes.fr/tel-00557235.

Testo completo
Abstract (sommario):
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Rafaa, Az-Eddine. "Représentation multirésolution et compression d'images : ondelettes et codage scalaire et vectoriel". Metz, 1994. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1994/Rafaa.Az_Eddine.SMZ9447.pdf.

Testo completo
Abstract (sommario):
La pyramide d'ondelettes est une nouvelle forme de représentation de l'image. Son codage offre par conséquent une nouvelle méthode de compression des échantillons numériques de l'image. Cette technique est en mesure de supplanter les méthodes traditionnelles et bien établies des transformées blocs qui ont dominé l'état de l'art de ces dernières années. Dans un but de transparence, ce mémoire est organisé en trois parties. La première fait une synthèse théorique ainsi que l'historique de la représentation en multirésolution qui aboutit à la représentation en pyramide d'ondelettes de l'image. La deuxième partie englobe l'aspect scalaire des différentes composantes de la pyramide: caractéristiques statistiques, codage par quantification scalaire ou par zone morte, associe à une allocation de bits optimale par voie analytique ou algorithmique. Enfin, la troisième partie décrit l'aspect vectoriel du codage. La pyramide est dans ce cas repartie en entités élémentaires, sous forme d'arbre d'éléments vectoriels auxquelles un codage hybride à base de la Q. S. Et la Q. V. Leur a été adapte. Cette structure a permis en outre la description de l'activité fréquentielle et directionnelle locale dans l'image puis l'introduction de la notion de classification de ces activités. Pour étendre la validité du codeur élaboré, des extensions aux images couleurs et aux séquences d'images ont aussi été présentées
Wavelet pyramidal is a new form of image representation. Its coding scheme allows a new method of image data compression. This technical may well supplant the well established block-transform methods which have been state of art for these last years. In a suitable purpose, this work is achieved in three parts. The first part provides theorical and historical synthesis of multiresolution representation which converge into Wavelets pyramidal representation of images. The second part investigate scalar point of view of different pyramid components : statistical characteristics, coding scheme with scalar quantization or with dead-zone, related to optimal bit allocation whether analytical or algorithmic. Finally, the third part deals with vector coding scheme. The pyramid is then dispatched into elementary entities which are performed on a hierarchical vector tree as which we applied an hybrid coding based on QS and QV. This structure allows local directivity and frequency activity description in image, and then an introduction to the notion of activity classification. To extend the validity of the elaborated encoder, extensions to colours images and images sequences was presented too
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Akrout, Nabil. "Contribution à la compression d'images par quantification vectorielle : algorithmes et circuit intégré spécifique". Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0017.

Testo completo
Abstract (sommario):
La première partie du mémoire déc rit le développement d'algorithmes ong1naux très rapides de génération des catalogues nécessaires à la quantification vectorielle. Une compara1son de nos algorithmes avec les algorithmes classiques est également réalisée. Ensuite, nous proposons une méthode de quantification vectorielle hiérarchique adaptée à l'analyse de l'image en sous-bandes. Après décomposition pyramidale de l'image en image sous-bandes, on procède à la quantification vectorielle directionnelle des sous-bandes avec des mots codes de forme et de taille adaptées à la résolution et à la direction des détails. La deuxième partie de ce mémoire définit une architecture originale de circuit CMOS à grande échelle d'intégration pour la quantification vectorielle. Le débit d'entrée maximal a été fixé à 15 M pixels/seconde, afin de s'intégrer dans la lignée des circuits existants tout en restant dans un domaine de faisabilité acceptable. Seul un parallélisme massif peut satisfaire la contrainte de vitesse. Cependant, pour limiter la surface de silicium, nous avons proposé un traitement original avec une architecture "bit-série" pipeline et un fort parallélisme au niveau du calcul des distances. Architecture de ce circuit a été brevetée (brevet d'invention n° 9402482)
Recently, Vector Quantization (VQ) has received considerable attention and become an effective tool for image compression. It provides High compression ratio and simple decoding process. However, studies on practical implementation of VQ have revealed some major difficulties such as edge integrity and code book design efficiency. After doing the state-of-the-art in the field of Vector Quantization, we focus on: - Iterative and non-iterative code book generation algorithms. The main idea of non-iterative algorithms consists of creating progressively the code words, during only one scanning of the training set. At the beginning, the code book is initialized by the first vector found in the training set, then each input vector is mapped into the nearest neighbor codeword, which minimizes the distortion error. This error is then compared with per-defined thresholds. The performance of iterative and non-iterative code book generation algorithms are compared: the code books generated by non-iterative algorithms require less than 2 percent of the time required by iterative algorithms. - To propose a new procedure for image compression as an improvement on vector quantization of sub-bands. Codewords having vertical and horizontal shape will be used to vector quantize the high-frequency sub-images, obtained from a multiresolution analysis scheme. The codewords shapes take into account the orientation and resolution of each subband details in order to -preserve edges at low bit rates. Their sizes are defined according to the correlation distances in each subband for the horizontal and vertical directions. - The intensive computational demands of vector quantization (V. Q. ) for important applications in speech and image compression have motivated the need for dedicated processors with very high throughput capabilities. Bit-serial systolic architectures offer one of the most promising approaches for fulfilling the demanding V. Q. Speed requirements in many applications. We propose a novel family of architectural techniques which offer efficient computation of Manhattan distance measures for nearest neighbor code book searching. Manhattan distance requires much less computation and VLSI chip area, because there is no multiplier. Compared to Euclidean distance. This gave rise to the idea of implementing Manhattan distance directly in hardware for real-time image coding. Very high V. Q. Throughput can be achieved by a massive parallelism. Therefore, it requires an important VLSI chip area. To avoid this difficulty, we carry out a "bit-serial" pipelined processing for nearest neighbor code book searching. This architecture is more suitable for real-time coding. Several alternative configurations allow reasonable tradeoffs between speed and VLSI chip area required
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Alshatti, Wael. "Approches vectorielles du filtrage et de la détection de contours dans des images multi-spectrales". Chambéry, 1994. http://www.theses.fr/1994CHAMS022.

Testo completo
Abstract (sommario):
La représentation d'une image peut être rendue plus riche que la classique représentation en niveaux de gris par l'utilisation d'une base multi-spectrale. Les images couleur, certaines images bio-médicales ou les images satellites sont des images multi-spectrales. L'image peut être vue alors comme un champ vectoriel. L'objectif de ce travail est d'étudier et de définir des méthodes de traitement basées sur des approches vectorielles, prenant en compte la corrélation existant entre les différentes composantes spectrales. La première partie du travail concerne le filtrage des images multi-spectrales. Après avoir présenté une étude comparative des solutions existantes, une nouvelle classe de filtres est proposée. Ces filtres ont un comportement qui peut être contrôlé par deux paramètres. Selon les valeurs de ces paramètres, deux familles de filtres peuvent être définies. La première regroupe des NL-filtres qui offrent de meilleures propriétés de lissage que les NL-filtres. La deuxième famille peut être vue comme une extension au cas vectoriel des filtres de rang scalaire. Ces filtres possèdent des propriétés intéressantes de rehaussement de contraste, ce qui facilite les étapes ultérieures de segmentation et d'analyse. Des études et des essais montrent les performances de ces deux familles. La deuxième partie du travail présente les différentes approches vectorielles de la détection de contours dans des images multi-spectrales.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Furlan, Gilbert. "Contribution à l'étude et au développement d'algorithmes de traitement du signal en compression de données et d'images". Nice, 1990. http://www.theses.fr/1990NICE4433.

Testo completo
Abstract (sommario):
Cette thèse a pour but d'une part la compression de données sans perte d'information, et d'autre part la compression d'images fixes. La compression de données est basée sur une modélisation markovienne adaptative d'ordre variable réalisée par l'algorithme du contexte qui approxime la complexité stochastique de la source en utilisant le principe de la longueur de description minimale (LDM). Le codage est obtenu par un codage arithmétique multi-niveaux. Nous nous attachons dans un premier temps, à minimiser l'occupation mémoire en appliquant le principe de la LDM au développement du modèle. Nous montrons dans un deuxième temps que l'application différentielle de la LDM pour le choix des nœuds de codage permet d'optimiser la gestion du modèle en arbre. Nous montrons enfin que l'algorithme ainsi modifié permet d'atteindre les taux de compression les plus élevés à l'heure actuelle et ce pour un ensemble de sources multimédia et une complexité moyenne. Nous avons adopté pour la compression des images fixes une décomposition en sous-bandes par les filtres de Johnston. Dans le cadre d'un codage à faible complexité des signaux de sous-bande par quantification et DPCM, nous introduisons un algorithme d'allocation des ressources de codage à facteur psychovisuel. Nous proposons ensuite, un codage par quantification vectorielle prédictive. Nous réduisons alors la taille mémoire requise pour le stockage du répertoire par l'utilisation d'un répertoire linéaire que nous rendons en partie adaptatif. Enfin, nous montrons que le codage entropique par l'algorithme du contexte des signaux codés permet une diminution moyenne du débit de l'ordre de 30% sans perte de qualité. Appliqué directement aux signaux de sous-bandes, nous obtenons des images de qualité exceptionnelle pour des débits compris entre 1 et 1. 5 bits/pixel
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Moravie, Philippe. "Parallélisation d'une méthode de compression d'images : transformée en ondelettes, quantification vectorielle et codage d'Huffman". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT123H.

Testo completo
Abstract (sommario):
La taille des images satellitaires actuelles et a venir, est telle qu'il devient indispensable de les compresser a bord et en temps-reel. Or la charge de traitement induite par les algorithmes de compression d'images est si importante, qu'elle interdit l'usage des processeurs sequentiels classiques, au profit des machines paralleles. Aussi, nous presentons ici, une etude de la parallelisation d'une technique de compression d'images basee sur la transformee en ondelettes discrete (tod), la quantification vectorielle (qv) et le codage entropique (ce). Initialement, nous avons etudie et implemente le parallelisme intrinseque a chacun de ces 3 algorithmes, de maniere a determiner l'ensemble des caracteristiques architecturales indispensables a l'execution en temps-reel de la compression. Ainsi, nous avons pu definir trois concepts architecturaux pour l'algorithme de mallat (tod), trois autres pour la quantification vectorielle arborescente (qv) et enfin, deux pour le codage d'huffman (ce). La contrainte de polyvalence de l'architecture de notre futur systeme de compression, nous a conduit a ne retenir que 3 concepts globaux parmi les 3 3 2 systemes de compression potentiels. La contrainte d'execution en temps-reel n'etant pas respectee dans tous les cas (pour toutes les combinaisons de parametres de compression), nous avons defini et evalue deux optimisations algorithmiques : la precision virgule fixe et la fusion entre le codage entropique et la quantification vectorielle. Ainsi, nous avons pu definir et dimensionner une machine generaliste embarquable multi-simd, capable de soutenir les contraintes temps-reel du domaine satellitaire. A la question de la definition d'une architecture parallele optimale pour la compression d'images, nous avons donc repondu par la presentation de 3 modeles de machines, dont l'une a la particularite d'etre generaliste et donc d'etre reutilisable pour d'autres applications a bord.
Gli stili APA, Harvard, Vancouver, ISO e altri
Più fonti
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia