To see the other types of publications on this topic, follow the link: Transformée en cosinus discrète modifiée.

Dissertations / Theses on the topic 'Transformée en cosinus discrète modifiée'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 22 dissertations / theses for your research on the topic 'Transformée en cosinus discrète modifiée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Virette, David. "Étude de transformées temps-fréquence pour le codage audio faible retard en haute qualité." Rennes 1, 2012. http://www.theses.fr/2012REN1E014.

Full text
Abstract:
In recent years there has been a phenomenal increase in the number of products and applications which make use of audio coding formats. Among the most successful audio coding schemes, we can list the MPEG-1 Layer III (mp3), the MPEG-2 Advanced Audio Coding (AAC) or its evolution MPEG-4 High Efficiency-Advanced Audio Coding (HE-AAC). More recently, perceptual audio coding has been adapted to achieve low delay audio coding and to become suitable for conversational applications. Traditionally, the use of filter bank such as the Modified Discrete Cosine Transform (MDCT) is a central component of perceptual audio coding and its adaptation to low delay audio coding has become a very popular re­search topic. Low delay transforms have been developed Fin order to main­tain the performances of this main component while reducing dramatically the associated algorithmic delay. This work presents a low delay block switching tool which aliows the di­rect transition between long transform and short transform without the in­sertion of transition window. The same principle has been extended to de­fine new perfect reconstruction conditions for the MDCT with relaxed con­straints compared to the original definition. A seamless reconstruction method has been derived allowing to increase the flexibility of transform coding schemes with the possibility to select a transform window inde­pendently from the previous and the following frames. Additionally, based on this new approach, a new low delay window design procedure has been derived allowing to obtain an analytic defmition. Those new approaches have been successfully applied to the newly devel­oped MPEG low delay audio coding (LD-AAC and ELD-AAC) allowing to significantly improve the quality for transient signais. Moreover, the low delay window design has been adopted in G. 718, a scalable speech and au­dio codec standardized in ITU-T and has demonstrated its benefit in terms of delay reduction while maintaining the audio quality of a traditional MDCT.
APA, Harvard, Vancouver, ISO, and other styles
2

Eude, Thierry. "Compression d'images médicales pour la transmission et l'archivage, par la transformée en cosinus discrète." Rouen, 1993. http://www.theses.fr/1993ROUES056.

Full text
Abstract:
En milieu hospitalier, l'utilisation de l'imagerie prend une place de plus en plus importante. Mais la quantité d'informations que représentent les images quand on parle d'archivage ou de transmission numérique pose des problèmes très préoccupants. Une réponse à ceux-ci consiste à compresser ces images. De nombreuses méthodes existent. La plus utilisée est basée sur la transformée en cosinus discrète (TCD). Elle constitue le noyau de la norme JPEG sur la compression des images fixes. Les travaux présentés dans ce manuscrit, consistent à déterminer des outils pouvant être intégrés à cette norme, et adaptés spécifiquement aux images médicales. Une étude statistique a donc été faite de façon extensive pour déterminer les lois que suivent les coefficients résultant de la TCD de ces images. Les résultats obtenus sont alors utilisés pour adapter la compression
APA, Harvard, Vancouver, ISO, and other styles
3

Auclair, Beaudry Jean-Sébastien. "Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrète." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1511.

Full text
Abstract:
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
APA, Harvard, Vancouver, ISO, and other styles
4

Dugas, Alexandre. "Architecture de transformée de cosinus discrète sur deux dimensions sans multiplication et mémoire de transposition." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6174.

Full text
Abstract:
Au cours des dix dernières années, les capacités technologiques de transmission vidéo rendent possible une panoplie d'applications de télésanté. Ce média permet en effet la participation de médecins spécialisés à des interventions médicales ayant lieu à des endroits distants. Cependant, lorsque ces dernières se déroulent loin des grands centres, les infrastructures de télécommunication n'offrnt pas un débit assez important pour permettre à la fois une transmission d'images fluides et de bonne qualité. Un des moyens entrepris pour pallier ce problème est l'utilisation d'encodeur et décodeur vidéo (CODEC) permettant de compresser les images avant leur transmission et de les décompresser à la réception. Il existe un bon nombre de CODEC vidéo offrant différent compromis entre la qualité d'image, la rapidité de compression, la latence initiale de traitement et la robustesse du protocole de transmission. Malheureusement, aucun n'est en mesure de rencontrer simultanément toutes les exigences définies en télésanté. Un des problèmes majeurs réside dans le délai de traitement initial causé par la compression avec perte du CODEC. L'objet de la recherche s'intéresse donc à deux CODEC qui répondent aux exigences de délais de traitement et de qualité d'image en télésanté, et plus particulièrement pour une application de téléassistance en salle d'urgence. L'emphase est mise sur les modules de quantification des CODEC qui utilisent la transformée en cosinus discrète. Cette transformée limite la transmission des images vidéo fluide et quasi sans délais en raison des délais de traitement initiaux issus des nombreuses manipulations arithmétiques qu'elle requiert. À l'issu de la recherche, une structure efficace de la transformée en cosinus est proposée afin de présenter une solution au temps de latence des CODEC et ainsi de répondre aux exigences de télécommunication en télésanté. Cette solution est implémentée dans un CODEC JPEG développé en VHDL afin de simuler un contexte d'application réelle.
APA, Harvard, Vancouver, ISO, and other styles
5

Hmida, Hedi. "Étude et comparaison d'algorithmes de transformée en cosinus discrète en vue de leur intégration en VLSI." Paris 11, 1988. http://www.theses.fr/1988PA112133.

Full text
Abstract:
On envisage actuellement l'utilisation de la transformée en cosinus discrète (TCD), pour la compression de données d'images fixes (télécopie, vidéotexte. . . ) ou animées (TV, visio-conférence. . . ). Des algorithmes rapides de calcul de cette transformée existent mais des problèmes (liés à la structure des algorithmes) se posent au niveau de leur intégration en VLSI. Nous avons situé ce travail au niveau de l'interaction algorithme ­ architecture à plusieurs niveaux: d'une part, l'étude de deux algorithmes classiques de TCD nous a permis de sélectionner un certain nombre d'opérateurs spécifiques des algorithmes rapides à 2 dimensions. Et, après une présentation générale des architectures de circuits VLSI (architecture série, parallèle, pipeline, systolique. . . ), nous proposons un ensemble d'opérateurs arithmétiques nouveaux. La nouveauté porte soit sur la réduction de la complexité d'opérateurs classiques (schémas simplifiés d'additionneurs), soit sur l'originalité de leurs fonction (additionneur­ soustracteur, ou "papillon"). Puis, nous appliquons l'ensemble de ces outils à l'implantation d'algorithmes classiques, en essayant de dégager les points qui favorisent ou qui gênent leur implantation VLSI. Ceci résulte d'une part dans plusieurs propositions d'architectures mais aussi (et surtout) d'un essai de mise en évidence des problèmes propres à ces algorithmes, ce qui nous a conduit à proposer plusieurs nouveaux algorithmes corrigeant les défauts essentiels des algorithmes classiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Abedi, Safdar Ali Syed. "Exploring Discrete Cosine Transform for Multi-resolution Analysis." Digital Archive @ GSU, 2005. http://digitalarchive.gsu.edu/cs_theses/12.

Full text
Abstract:
Multi-resolution analysis has been a very popular technique in the recent years. Wavelets have been used extensively to perform multi resolution image expansion and analysis. DCT, however, has been used to compress image but not for multi resolution image analysis. This thesis is an attempt to explore the possibilities of using DCT for multi-resolution image analysis. Naive implementation of block DCT for multi-resolution expansion has many difficulties that lead to signal distortion. One of the main causes of distortion is the blocking artifacts that appear when reconstructing images transformed by DCT. The new algorithm is based on line DCT which eliminates the need for block processing. The line DCT is one dimensional array based on cascading the image rows and columns in one transform operation. Several images have been used to test the algorithm at various resolution levels. The reconstruction mean square error rate is used as an indication to the success of the method. The proposed algorithm has also been tested against the traditional block DCT.
APA, Harvard, Vancouver, ISO, and other styles
7

Maschio, Nicole. "Contribution à la compression d'images numériques par codage prédictif et transformée en cosinus discrète avec utilisation de codes arithmétiques." Nice, 1989. http://www.theses.fr/1989NICE4281.

Full text
Abstract:
Amélioration, sans dégradation de la qualité de l'image, du rendement de systèmes de compressions d'images bases respectivement sur le codage prédictif et sur la transformée en cosinus discrète. On traite le signal a la sortie du quantificateur
APA, Harvard, Vancouver, ISO, and other styles
8

Urbano, Rodriguez Luis Alberto. "Contribution à la compression d'images par transformée en cosinus discrète en imagerie médicale, et évaluation sur une base d'images multi-modalités." Tours, 1991. http://www.theses.fr/1991TOUR3307.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Coudoux, François-Xavier. "Evaluation de la visibilité des effets de blocs dans les images codées par transformée : application à l'amélioration d'images." Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/a0a7cc38-609d-4d86-9c3a-a018590bc012.

Full text
Abstract:
Les méthodes de codage avec perte basées sur la Transformée en Cosinus Discrète constituent la base de la plupart des standards actuels de compression d'images numériques. Ce type de codage par Transformée nécessite une segmentation préalable de l'image en blocs de pixels disjoints. L'effet de blocs constitue le principal défaut de ce type de codage: les frontières entre blocs adjacents deviennent visibles pour des taux de compression élevés. Ce défaut est particulièrement gênant pour l'observateur, et affecte sévèrement la qualité visuelle de l'image reconstruite. Le but de notre étude est de proposer une méthode de détection locale des artefacts, ainsi qu'une mesure de leur importance visuelle. Cette mesure, qui prend en compte plusieurs propriétés du système visuel humain, caractérise la dégradation introduite dans l'image par la distorsion de blocs. Elle est utilisée afin d'établir un critère de qualité globale des images codées JPEG. Ce critère permet de quantifier la qualité des images reconstruites, en attribuant une note de qualité à l'image dégradée. Une application directe des résultats de la mesure des visibilités des effets de blocs concerne la détection et la correction de ces défauts à l'intérieur d'une image traitée par blocs. Nous présentons une méthode originale de réduction des effets de blocs; elle consiste en un filtrage local adaptatif à la visibilité des artefacts de blocs dans l'image. La correction apportée permet de réduire sensiblement les défauts les plus visibles, sans dégrader le reste de l'image. La méthode est validée dans le cas d'images fixes codées JPEG; son extension immédiate aux standards MPEG1 et MPEG2 de compression de séquences d'images reste possible, moyennant éventuellement la prise en compte des propriétés temporelles de la vision. Une implémentation matérielle est envisagée sous forme d'un circuit électronique, qui pourra être utilisé sur les terminaux de consultation multimédia afin d'améliorer la qualité visuelle de l'image avant affichage final.
APA, Harvard, Vancouver, ISO, and other styles
10

Nortershauser, David. "Résolution de problèmes inverses tridimensionnels instationnaires de conduction de la chaleur." Toulouse, ENSAE, 2000. http://www.theses.fr/2000ESAE0017.

Full text
Abstract:
L'étude a pour objectif l'estimation d'échanges de chaleur surfaciques transitoires dans des environnements agressifs, c'est à dire inaccessibles à la mesure directe, tant dans les cas linéaires que non-linéaires. Les champs d'application concernés sont vastes : chambres de combustion, systèmes anti-givrage, caractérisation de réactions chimiques exothermiques. Une méthode de résolution inverse permet de résoudre ces problèmes. Une équation d'observation formée par des mesures de températures surfaciques sur une face est nécessaire à l'estimation des échanges. Dans la mesure où ces méthodes inverses sont très sensibles au bruit de mesure, il a été nécessaire d'adopter une stratégie de stabilisation des solutions efficace. De ce fait, l'utilisation d'une transformée en cosinus discrète (T. C. D. ) afin de filtrer et/ou compacter les données du problème constitue un point clé de l'étude. Chaque outil présenté est soumis à des tests numériques afin de connaître son domaine de validité. De plus, deux expériences de laboratoire permettent de juger des principales sources d'erreur rencontrées lors de la confrontation des modèles à la réalité.
APA, Harvard, Vancouver, ISO, and other styles
11

Muller, Rikus. "Applying the MDCT to image compression." Thesis, Stellenbosch : University of Stellenbosch, 2009. http://hdl.handle.net/10019.1/1197.

Full text
Abstract:
Thesis (DSc (Mathematical Sciences. Applied Mathematics))--University of Stellenbosch, 2009.
The replacement of the standard discrete cosine transform (DCT) of JPEG with the windowed modifed DCT (MDCT) is investigated to determine whether improvements in numerical quality can be achieved. To this end, we employ an existing algorithm for optimal quantisation, for which we also propose improvements. This involves the modelling and prediction of quantisation tables to initialise the algorithm, a strategy that is also thoroughly tested. Furthermore, the effects of various window functions on the coding results are investigated, and we find that improved quality can indeed be achieved by modifying JPEG in this fashion.
APA, Harvard, Vancouver, ISO, and other styles
12

Mammeri, Abdelhamid. "Compression et transmission d'images avec énergie minimale application aux capteurs sans fil." Thèse, Université de Sherbrooke, 2010. http://hdl.handle.net/11143/5800.

Full text
Abstract:
Un réseau de capteurs d'images sans fil (RCISF) est un réseau ad hoc formé d'un ensemble de noeuds autonomes dotés chacun d'une petite caméra, communiquant entre eux sans liaison filaire et sans l'utilisation d'une infrastructure établie, ni d'une gestion de réseau centralisée. Leur utilité semble majeure dans plusieurs domaines, notamment en médecine et en environnement. La conception d'une chaîne de compression et de transmission sans fil pour un RCISF pose de véritables défis. L'origine de ces derniers est liée principalement à la limitation des ressources des capteurs (batterie faible , capacité de traitement et mémoire limitées). L'objectif de cette thèse consiste à explorer des stratégies permettant d'améliorer l'efficacité énergétique des RCISF, notamment lors de la compression et de la transmission des images. Inéluctablement, l'application des normes usuelles telles que JPEG ou JPEG2000 est éner- givore, et limite ainsi la longévité des RCISF. Cela nécessite leur adaptation aux contraintes imposées par les RCISF. Pour cela, nous avons analysé en premier lieu, la faisabilité d'adapter JPEG au contexte où les ressources énergétiques sont très limitées. Les travaux menés sur cet aspect nous permettent de proposer trois solutions. La première solution est basée sur la propriété de compactage de l'énergie de la Transformée en Cosinus Discrète (TCD). Cette propriété permet d'éliminer la redondance dans une image sans trop altérer sa qualité, tout en gagnant en énergie. La réduction de l'énergie par l'utilisation des régions d'intérêts représente la deuxième solution explorée dans cette thèse. Finalement, nous avons proposé un schéma basé sur la compression et la transmission progressive, permettant ainsi d'avoir une idée générale sur l'image cible sans envoyer son contenu entier. En outre, pour une transmission non énergivore, nous avons opté pour la solution suivante. N'envoyer fiablement que les basses fréquences et les régions d'intérêt d'une image. Les hautes fréquences et les régions de moindre intérêt sont envoyées""infiablement"", car leur pertes n'altèrent que légèrement la qualité de l'image. Pour cela, des modèles de priorisation ont été comparés puis adaptés à nos besoins. En second lieu, nous avons étudié l'approche par ondelettes (wavelets ). Plus précisément, nous avons analysé plusieurs filtres d'ondelettes et déterminé les ondelettes les plus adéquates pour assurer une faible consommation en énergie, tout en gardant une bonne qualité de l'image reconstruite à la station de base. Pour estimer l'énergie consommée par un capteur durant chaque étape de la 'compression, un modèle mathématique est développé pour chaque transformée (TCD ou ondelette). Ces modèles, qui ne tiennent pas compte de la complexité de l'implémentation, sont basés sur le nombre d'opérations de base exécutées à chaque étape de la compression.
APA, Harvard, Vancouver, ISO, and other styles
13

Zhu, Zuowei. "Modèles géométriques avec defauts pour la fabrication additive." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN021/document.

Full text
Abstract:
Les différentes étapes et processus de la fabrication additive (FA) induisent des erreurs de sources multiples et complexes qui soulèvent des problèmes majeurs au niveau de la qualité géométrique du produit fabriqué. Par conséquent, une modélisation effective des écarts géométriques est essentielle pour la FA. Le paradigme Skin Model Shapes (SMS) offre un cadre intégral pour la modélisation des écarts géométriques des produits manufacturés et constitue ainsi une solution efficace pour la modélisation des écarts géométriques en FA.Dans cette thèse, compte tenu de la spécificité de fabrication par couche en FA, un nouveau cadre de modélisation à base de SMS est proposé pour caractériser les écarts géométriques en FA en combinant une approche dans le plan et une approche hors plan. La modélisation des écarts dans le plan vise à capturer la variabilité de la forme 2D de chaque couche. Une méthode de transformation des formes est proposée et qui consiste à représenter les effets de variations sous la forme de transformations affines appliquées à la forme nominale. Un modèle paramétrique des écarts est alors établi dans un système de coordonnées polaires, quelle que soit la complexité de la forme. Ce modèle est par la suite enrichi par un apprentissage statistique permettant la collecte simultanée de données des écarts de formes multiples et l'amélioration des performances de la méthode.La modélisation des écarts hors plan est réalisée par la déformation de la couche dans la direction de fabrication. La modélisation des écarts hors plan est effectuée à l'aide d'une méthode orientée données. Sur la base des données des écarts obtenues à partir de simulations par éléments finis, deux méthodes d'analyse modale: la transformée en cosinus discrète (DCT) et l'analyse statistique des formes (SSA) sont exploitées. De plus, les effets des paramètres des pièces et des procédés sur les modes identifiés sont caractérisés par le biais d'un modèle à base de processus Gaussien.Les méthodes présentées sont finalement utilisées pour obtenir des SMSs haute-fidélité pour la fabrication additive en déformant les contours de la couche nominale avec les écarts prédits et en reconstruisant le modèle de surface non idéale complet à partir de ces contours déformés. Une toolbox est développée dans l'environnement MATLAB pour démontrer l'efficacité des méthodes proposées
The intricate error sources within different stages of the Additive Manufacturing (AM) process have brought about major issues regarding the dimensional and geometrical accuracy of the manufactured product. Therefore, effective modeling of the geometric deviations is critical for AM. The Skin Model Shapes (SMS) paradigm offers a comprehensive framework aiming at addressing the deviation modeling problem at different stages of product lifecycle, and is thus a promising solution for deviation modeling in AM. In this thesis, considering the layer-wise characteristic of AM, a new SMS framework is proposed which characterizes the deviations in AM with in-plane and out-of-plane perspectives. The modeling of in-plane deviation aims at capturing the variability of the 2D shape of each layer. A shape transformation perspective is proposed which maps the variational effects of deviation sources into affine transformations of the nominal shape. With this assumption, a parametric deviation model is established based on the Polar Coordinate System which manages to capture deviation patterns regardless of the shape complexity. This model is further enhanced with a statistical learning capability to simultaneously learn from deviation data of multiple shapes and improve the performance on all shapes.Out-of-plane deviation is defined as the deformation of layer in the build direction. A layer-level investigation of out-of-plane deviation is conducted with a data-driven method. Based on the deviation data collected from a number of Finite Element simulations, two modal analysis methods, Discrete Cosine Transform (DCT) and Statistical Shape Analysis (SSA), are adopted to identify the most significant deviation modes in the layer-wise data. The effect of part and process parameters on the identified modes is further characterized with a Gaussian Process (GP) model. The discussed methods are finally used to obtain high-fidelity SMSs of AM products by deforming the nominal layer contours with predicted deviations and rebuilding the complete non-ideal surface model from the deformed contours. A toolbox is developed in the MATLAB environment to demonstrate the effectiveness of the proposed methods
APA, Harvard, Vancouver, ISO, and other styles
14

Atrevi, Dieudonne Fabrice. "Détection et analyse des évènements rares par vision, dans un contexte urbain ou péri-urbain." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE2008.

Full text
Abstract:
L’objectif principal de cette thèse est le développement de méthodes complètes de détection d’événements rares. Les travaux de cette thèse se résument en deux parties. La première partie est consacrée à l’étude de descripteurs de formes de l’état de l’art. D’une part, la robustesse de certains descripteurs face à différentes conditions de luminosité a été étudiée. D’autre part, les moments géométriques ont été comparés à travers une application d’estimation de pose humaine 3D à partir d’image 2D. De cette étude, nous avons montré qu’à travers une application de recherche de formes, les moments géométriques permettent d’estimer la pose d’une personne à travers une recherche exhaustive dans une base d’apprentissage de poses connues.Cette application peut être utilisée dans un système de reconnaissance d’actions pour une analyse plus fine des événements détectés. Dans la deuxième partie, trois contributions à la détection d’événements rares sont présentées. La première contribution concerne l’élaboration d’une méthode d’analyse globale de scène pour la détection des événements liés aux mouvements de foule. Dans cette approche, la modélisation globale de la scène est faite en nous basant sur des points d’intérêt filtrés à partir de la carte de saillance de la scène. Les caractéristiques exploitées sont l’histogramme des orientations du flot optique et un ensemble de descripteur de formes étudié dans la première partie. L’algorithme LDA (Latent Dirichlet Allocation) est utilisé pour la création des modèles d’événements à partir d’une représentation en document visuel à partir de séquences d’images (clip vidéo). La deuxième contribution consiste en l’élaboration d’une méthode de détection de mouvements saillants ou dominants dans une vidéo. La méthode, totalement non supervisée,s’appuie sur les propriétés de la transformée en cosinus discrète pour analyser les informations du flot optique de la scène afin de mettre en évidence les mouvements saillants. La modélisation locale pour la détection et la localisation des événements est au coeur de la dernière contribution de cette thèse. La méthode se base sur les scores de saillance des mouvements et de l’algorithme SVM dans sa version "one class" pour créer le modèle d’événements. Les méthodes ont été évaluées sur différentes bases publiques et les résultats obtenus sont prometteurs
The main objective of this thesis is the development of complete methods for rare events detection. The works can be summarized in two parts. The first part is devoted to the study of shapes descriptors of the state of the art. On the one hand, the robustness of some descriptors to varying light conditions was studied.On the other hand, the ability of geometric moments to describe the human shape was also studied through a3D human pose estimation application based on 2D images. From this study, we have shown that through a shape retrieval application, geometric moments can be used to estimate a human pose through an exhaustive search in a pose database. This kind of application can be used in human actions recognition system which may be a final step of an event analysis system. In the second part of this report, three main contributions to rare event detection are presented. The first contribution concerns the development of a global scene analysis method for crowd event detection. In this method, global scene modeling is done based on spatiotemporal interest points filtered from the saliency map of the scene. The characteristics used are the histogram of the optical flow orientations and a set of shapes descriptors studied in the first part. The Latent Dirichlet Allocation algorithm is used to create event models by using a visual document representation of image sequences(video clip). The second contribution is the development of a method for salient motions detection in video.This method is totally unsupervised and relies on the properties of the discrete cosine transform to explore the optical flow information of the scene. Local modeling for events detection and localization is at the core of the latest contribution of this thesis. The method is based on the saliency score of movements and one class SVM algorithm to create the events model. The methods have been tested on different public database and the results obtained are promising
APA, Harvard, Vancouver, ISO, and other styles
15

Makkaoui, Leila. "Compression d'images dans les réseaux de capteurs sans fil." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00795503.

Full text
Abstract:
Cette thèse forme une contribution au problème de la conservation de l'énergie dans le cas particulier des réseaux de capteurs d'images, où une partie voire tous les nœuds du réseau sont équipés d'une petite caméra à technologie CMOS. Les images engagent des volumes de données très largement supérieurs aux mesures scalaires classiques telles que la température, et donc des dépenses énergétiques plus élevées. L'émetteur radio étant l'un des composants les plus gourmands en énergie, il est évident que la compression de l'image à la source peut réduire significativement l'énergie dépensée pour la transmission de l'image, tant au niveau du nœud caméra que des nœuds formant le chemin jusqu'au point de collecte. Toutefois, les méthodes de compression bien connues (JPEG, JPEG2000, SPIHT) sont mal adaptées à la limitation des ressources de calcul et de mémoire caractéristiques des nœuds-capteurs. Sur certaines plateformes matérielles, ces algorithmes ont même un coût énergétique supérieur au gain qu'ils amènent sur la transmission. Autrement dit, le nœud caméra épuise plus vite sa batterie en envoyant des images compressées que des images non compressées. La complexité de l'algorithme de compression est donc un critère de performance aussi important que le rapport débit-distorsion. Les contributions contenues dans ce mémoire de thèses sont triples : - Tout d'abord, nous avons proposé un algorithme de compression basé sur la transformée en cosinus discrète (DCT 8 points) de complexité réduite, combinant la méthode de DCT rapide la plus efficace de la littérature (DCT de Cordic-Loeffler) à une exécution réduite aux coefficients délimités par une zone carrée de taille k<8, les plus importants dans la reconstruction visuelle. Avec cette approche zonale, le nombre de coefficients à calculer, mais aussi à quantifier et encoder par bloc de 8x8 pixels est réduit à k^2 au lieu de 64, ce qui diminue mécaniquement le coût de la compression. - Nous avons ensuite étudié l'impact de k, donc du nombre de coefficients sélectionnés, sur la qualité de l'image finale. L'étude a été réalisée avec un jeu d'une soixantaine d'images de référence et la qualité des images était évaluée en utilisant plusieurs métriques, le PSNR, le PSNR-HVS et le MMSIM. Les résultats ont servi à identifier, pour un débit donné, la valeur limite de k qu'on peut choisir (statistiquement) sans dégradation perceptible de la qualité, et par conséquent les limites posées sur la réduction de la consommation d'énergie à débit et qualité constants. - Enfin, nous donnons les résultats de performances obtenus par des expérimentations sur une plateforme réelle composée d'un nœud Mica2 et d'une caméra Cyclops afin de démontrer la validité de nos propositions. Dans un scénario considérant des images de 128x128 pixels encodées à 0,5 bpp par exemple, la dépense d'énergie du nœud caméra (incluant compression et transmission) est divisée par 6 comparée au cas sans compression, et par 2 comparée au cas de l'algorithme JPEG standard.
APA, Harvard, Vancouver, ISO, and other styles
16

Tsai, Sheng-Yuan, and 蔡聖源. "FPGA Implementation of modified 2-D Discrete Cosine Transforms." Thesis, 2002. http://ndltd.ncl.edu.tw/handle/74303204802939890101.

Full text
Abstract:
碩士
國立高雄第一科技大學
電腦與通訊工程所
90
The two dimensional discrete cosine transform (2D-DCT) is widely used in digital signal processing, particularly for digital image processing in high speed transmission. There are two classes to realize in hardware structure, including the direct method, and the indirect method which is also called row-column method. It is more efficient for using the direct method. However, due to the computational complexity, the row-column method still has been adopted in the hardware implementation. In the indirect method, one dimensional of the rows or columns DCT coefficient are computed in advance. Then, a transpose matrix is obtained, and the elements of the transpose matrix are saved in a transpose matrix register. By the pivoting the elements of rows and columns, the one dimensional DCT of the transpose matrix is computed again. From performing twice one dimensional DCT transformations, then a two dimensional DCT has been formulated. The processing steps of one dimensional DCT are as follows: (1)Transform the DCT matrix into two 4*4 matrix. Then, change the elements of non-input data to 1’s complements. There 1’s complements have special weight individually. (2)Eight coefficient matrices. Based on these eight coefficient matrices have been obtained by above processing step. The partial products of all DCT coefficient can be found out. In the implementation of the circuit, only 26 adders are needed. (3)From this partial products, by means of adder_shift or 4-2 compressor tree circuit, we sum up all partial products by individual can be gained weight. Thus one dimensional DCT coefficients can be obtained. Compare the architecture of this method with New Distributed Arithmetic Architecture technique(NEDA) structure published in 2000. Our adder s of 1D DCT needed can be reduced from 35 to 26 in the same bit rate. If the hardware is designed in pipelined processing, the speed will be more promoted. The delay time is only equal to the delay of 4-2 compressor tree and an adder.
APA, Harvard, Vancouver, ISO, and other styles
17

Lin, Chen-Chieh, and 林成頡. "A Unified Architecture Design of Recursive Discrete Fourier Transform and Inverse Modified Discrete Cosine Transform." Thesis, 2009. http://ndltd.ncl.edu.tw/handle/53681842824278817088.

Full text
Abstract:
碩士
國立成功大學
電機工程學系碩博士班
97
The thesis presents a novel unified architecture of the recursive Discrete Fourier Transform (DFT) and the Inverse Modified Cosine Transform (IMDCT) algorithms. The proposed design is supporting multi-formats and multi-length frames, such as MP3, AAC, AAC in DRM, AC3, VQ, Ogg (N=12, 36, 64, 128, 240, 256, 512, 1024, 1920, 2048, 4096 and 8192 points) of IMDCT and DFT in DRM (N=288, 256, 176, 112 points). In order to implement the unified architecture, the kernel of the proposed design is adpoted the recursive DFT algorithm. Due to the limit of speed of the recursive DFT architecture, we used 2-D algorithm to improve this problem. Trandicitonally, the coefficients are implemented by lookup table, but the method will cost large chip area. Thus, we use a memory-free algorithm to solve this problem. The proposed design not only reduces amounts of the coefficients greatly but also supports the multi-format for various audio codecs, if it is built in a media platform. For those of implementation, the proposed architecture only costs five multipliers. The cycle counts of the proposed architecture are 242 times improvement, and then the proposed design are lower than other existing literature of the recursive architecture. TSMC 0.18μm CMOS 1P6M technology is used to implement the proposed design. The chip can be operated at the frequency of 25MHz, the core size iii is 2 0.94�e0.99mm , and the power consummation is 22.97mW. Therefore, it is more suitable for multi-format of audio codecs.
APA, Harvard, Vancouver, ISO, and other styles
18

Chen, Che-Hong, and 陳奇宏. "Efficient Recursive Structures for Forward and Inverse Modified Discrete Cosine Transforms." Thesis, 2000. http://ndltd.ncl.edu.tw/handle/70164365153808374242.

Full text
Abstract:
碩士
國立成功大學
電機工程學系
88
The MP3 audio format uses the MPEG-1 audio Layer 3, which is one of the most advanced MPEG (Moving Picture Experts Group) standards for digital audio compression. The MPEG-1 audio Layer 3 has been widely used in internet and wireless communication and storage applications. The modified discrete cosine transform (MDCT) and its inverse transform (IMDCT) are the most complex operations in the MPEG-1 Layer 3 audio coding standard. In this thesis, we propose the new recursive structures for computing MDCT and IMDCT. This recursive structure is based on finite impulse response filters (IIR). We can use several IIR structures for concurrent computing MDCT and IMDCT components. The advantages of the proposed recursive IIR structure are rapid computational efficiency and high throughput rate. With regularity and modularity, the proposed recursive MDCT and IMDCT figured is suitable for VLSI implementation. In this thesis, we also realize a VLSI chip, which can perform both of the efficient recursion algorithms by using COMPASS 0.35µm high performance cell library with TSMC SPQM 0.35µm process technology. The realized VLSI takes about 7.5k gates in 2mm 2mm silicon area. The measurement result shows that the chip can work at about 50MHz clock rate.
APA, Harvard, Vancouver, ISO, and other styles
19

Yao, Shu-Nung, and 姚書農. "A Low-Cost Modified Discrete Cosine Transform Architecture for MPEG AAC." Thesis, 2007. http://ndltd.ncl.edu.tw/handle/30510247881909048281.

Full text
Abstract:
碩士
國立成功大學
電機工程學系碩博士班
95
Most of current audio coding standards use the modified discrete cosine transform (MDCT) to transform an audio sequence from time domain to frequency domain. This thesis presents a low-cost MDCT architecture based on Maclaurin series. Most architectures used lookup table to approach trigonometric function, but the lookup table in MPEG AAC will cause the design large and inflexible. Therefore, we adopt Maclaurin series to design the computation circuit and apply the symmetry and periodic identities of trigonometric function to reduce the circuit complexity. It results that our proposed architecture can be implemented with less area than other MDCT architectures. 0.18 μm TSMC cell library technology is used to synthesize the architecture. The proposed architecture takes about 6040 gates with maximum operation frequency of 58.8 MHz. Therefore, it is suitable for low-cost multimedia applications.
APA, Harvard, Vancouver, ISO, and other styles
20

Tsung-Ming, Lo, and 羅聰明. "The Implementation of Modified Discrete Cosine Transform via Permuted Difference Coefficient." Thesis, 1998. http://ndltd.ncl.edu.tw/handle/65758856736582188678.

Full text
Abstract:
碩士
大同工學院
電機工程研究所
86
This thesis is devoted to the implementations of the modified discrete cosine transform (MDCT).Using the permuted difference coefficient (PDC) method, fewer multipliers is needed only. In additional, one of the important intrinsic properties, the same magnitudes of the absolute value of basis vector's elements in each row within the MDCTs coefficient matrix, makes the proposed permuted difference coefficient structure (PDCS) are all identical for the computationof each coefficient, i.e., they have the equivalent process stages. This new architecture ownsthe advantages of high structural regularity, high speed, and high accuracy. Above all, the proposed architecture has shown its performance for lengh-N=8, 256 and 512 MDCT with the simulation of finite word-length. Two of the main quantization error in this architecture, round-off error of original coefficients and input sequences, are also illustrated in the simulation. It is shown that the round-off error of coefficients is less sensitive than that of inputs. These results in that the representation of the original coefficient in the shorter word length is able to reduce the number of stages of the PDC structure, even to obtain the high signal-to-noise ratio (SNR).
APA, Harvard, Vancouver, ISO, and other styles
21

Hsu, Yu-Hsin, and 徐友信. "A New Fast Algorithm for Computing the Forward and Inverse Modified Discrete Cosine Transforms." Thesis, 2001. http://ndltd.ncl.edu.tw/handle/82446174628541698698.

Full text
Abstract:
碩士
國立交通大學
電機與控制工程系
89
In this thesis, we present two new algorithms for computing the inverse modified discrete cosine transform(IMDCT) such that the computation complexity is equal to but the numerical performance is better than existing fast algorithms. To compute N-point IMDCT, the first algorithm is realized in the following sequence: multiplication of the N/2 input data by an N/2-value cosine sequence, N/2-point fast DCT, and a simple recursive addition. The second algorithm, closely reversing the computation procedures of the first algorithm, is realized in order by simple recursive addition, N/2-point IDCT, and multiplication of the IDCT output by an N/2-value cosine sequence. MDCT realization can be simply obtained by transposing the signal flow graph for evaluating the IMDCT. For the proposed two IMDCT algorithms, we have analyzed the realization complexity and simulated the fixed-point error. Comparing with the existing fast IMDCT algorithms in literature, we observe from the analysis and simulation results that the new algorithms have better numerical accuracy and thus can be realized with short word length, resulting in more efficient realization.
APA, Harvard, Vancouver, ISO, and other styles
22

Suresh, K. "MDCT Domain Enhancements For Audio Processing." Thesis, 2010. http://etd.iisc.ernet.in/handle/2005/1184.

Full text
Abstract:
Modified discrete cosine transform (MDCT) derived from DCT IV has emerged as the most suitable choice for transform domain audio coding applications due to its time domain alias cancellation property and de-correlation capability. In the present research work, we focus on MDCT domain analysis of audio signals for compression and other applications. We have derived algorithms for linear filtering in DCT IV and DST IV domains for symmetric and non-symmetric filter impulse responses. These results are also extended to MDCT and MDST domains which have the special property of time domain alias cancellation. We also derive filtering algorithms for the DCT II and DCT III domains. Comparison with other methods in the literature shows that, the new algorithm developed is computationally MAC efficient. These results are useful for MDCT domain audio processing such as reverb synthesis, without having to reconstruct the time domain signal and then perform the necessary filtering operations. In audio coding, the psychoacoustic model plays a crucial role and is used to estimate the masking thresholds for adaptive bit-allocation. Transparent quality audio coding is possible if the quantization noise is kept below the masking threshold for each frame. In the existing methods, the masking threshold is calculated using the DFT of the signal frame separately for MDCT domain adaptive quantization. We have extended the spectral integration based psychoacoustic model proposed for sinusoidal modeling of audio signals to the MDCT domain. This has been possible because of the detailed analysis of the relation between DFT and MDCT; we interpret the MDCT coefficients as co-sinusoids and then apply the sinusoidal masking model. The validity of the masking threshold so derived is verified through listening tests as well as objective measures. Parametric coding techniques are used for low bit rate encoding of multi-channel audio such as 5.1 format surround audio. In these techniques, the surround channels are synthesized at the receiver using the analysis parameters of the parametric model. We develop algorithms for MDCT domain analysis and synthesis of reverberation. Integrating these ideas, a parametric audio coder is developed in the MDCT domain. For the parameter estimation, we use a novel analysis by synthesis scheme in the MDCT domain which results in better modeling of the spatial audio. The resulting parametric stereo coder is able to synthesize acceptable quality stereo audio from the mono audio channel and a side information of approximately 11 kbps. Further, an experimental audio coder is developed in the MDCT domain incorporating the new psychoacoustic model and the parametric model.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography