To see the other types of publications on this topic, follow the link: Compression (Télécommunications).

Dissertations / Theses on the topic 'Compression (Télécommunications)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Compression (Télécommunications).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sans, Thierry. "Beyond access control - specifying and deploying security policies in information systems." Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0040.

Full text
Abstract:
Les services multimédia de type " streaming ", exigent classiquement des performances élevées du réseau (haut débit, faible taux d'erreur et délai bref), en contradiction avec les importantes contraintes que subissent les réseaux sans fil (bande passante limitée, canaux souvent bruités et états de réseau très changeants). Dans cette thèse, nous étudions l'hypothèse que cet environnement subissant des contraintes importantes exige des architectures spécifiques à l'application, plutôt que des architectures généralistes, afin d'augmenter l'efficacité d'utilisation des ressources du réseau. Plus particulièrement, nous étudions le cas de la compression des en-têtes ROHC de flux vidéo en "streaming" sur les réseaux sans fil. Trois études ont été réalisées. La première étude évalue la performance de ROHC en complément du protocole UDP-Lite. Nous avons constaté que l'utilisation de la bande passante est améliorée par la diminution du taux de perte de paquets. Les deuxième et troisième études considèrent le cas où des utilisateurs joignent un canal commun, de manière aléatoire, pour recevoir la vidéo en " streaming ". Pour que l'affichage de la vidéo démarre, ces utilisateurs doivent attendre la réception de deux contextes, celui de ROHC et celui de la compression vidéo. Des architectures inter-couches, dites " de haut en bas ", ont été développées afin d'adapter les algorithmes de ROHC à ceux de la compression de la vidéo. Nos études montrent que ces architectures parviennent à optimiser l'utilisation de la bande passante, à assurer une robustesse à l'erreur, et à offrir un délai pour démarrer l'affichage de la vidéo plus court que ne le font les architectures généralistes.
Multimedia streaming services in their traditional design require high performance from the network (high bandwidth, low error rates and delay), which is in contradiction with the resource constrains that appear in wireless networks (limited bandwidth, error-prone channels and varying network conditions). In this thesis, we study the hypothesis that this harsh environment with severe resource constraints requires application-specific architectures, rather than general-purpose protocols, to increase the resource usage efficiency. We consider case studies on wireless multicast video streaming. The first study evaluates the performance of ROHC and UDP-Lite. We found that bandwidth usage is improved because packet loss rate is decreased by the packet size reduction achieved by ROHC and the less strict integrity verification policy implemented by UDP-Lite. The second and third studies consider the case where users join a unidirectional common channel at random times to receive video streaming. After joining the transmission, the user have to wait to receive both, video and header compression contexts, to be able to play the multimedia application. This start up delay will depend on the user access time and the initialization and refresh of video and header compression contexts periodicity. "Top-down" cross layer approaches were developed to adapt header compression behavior to video compression. These studies show that application-specific protocol architectures achieve the bandwidth usage, error robustness and delay to start video reproduction needed for wireless networks
APA, Harvard, Vancouver, ISO, and other styles
2

Al-Rababa'a, Ahmad. "Arithmetic bit recycling data compression." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26759.

Full text
Abstract:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016
La compression des données est la technique informatique qui vise à réduire la taille de l'information pour minimiser l'espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d'un problème que nous appelons la redondance causée par la multiplicité d'encodages. La multiplicité d'encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu'une technique de compression a la possibilité, au cours du processus d'encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d'environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n'a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c'est-à-dire qu'elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s'appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu'ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d'améliorer l'efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s'appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l'adaptation du HuBR à l'ACBR. Nous présentons aussi l'analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l'aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c'est qu'elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l'utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d'obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d'obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d'un dictionnaire pluriellement analysable. En outre, nous montrons qu'ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l'algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d'ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l'algorithme de Knuth.
Data compression aims to reduce the size of data so that it requires less storage space and less communication channels bandwidth. Many compression techniques (such as LZ77 and its variants) suffer from a problem that we call the redundancy caused by the multiplicity of encodings. The Multiplicity of Encodings (ME) means that the source data may be encoded in more than one way. In its simplest case, it occurs when a compression technique with ME has the opportunity at certain steps, during the encoding process, to encode the same symbol in different ways. The Bit Recycling compression technique has been introduced by D. Dubé and V. Beaudoin to minimize the redundancy caused by ME. Variants of bit recycling have been applied on LZ77 and the experimental results showed that bit recycling achieved better compression (a reduction of about 9% in the size of files that have been compressed by Gzip) by exploiting ME. Dubé and Beaudoin have pointed out that their technique could not minimize the redundancy caused by ME perfectly since it is built on Huffman coding, which does not have the ability to deal with codewords of fractional lengths; i.e. it is constrained to generating codewords of integral lengths. Moreover, Huffman-based Bit Recycling (HuBR) has imposed an additional burden to avoid some situations that affect its performance negatively. Unlike Huffman coding, Arithmetic Coding (AC) can manipulate codewords of fractional lengths. Furthermore, it has attracted researchers in the last few decades since it is more powerful and flexible than Huffman coding. Accordingly, this work aims to address the problem of adapting bit recycling to arithmetic coding in order to improve the code effciency and the flexibility of HuBR. We addressed this problem through our four (published) contributions. These contributions are presented in this thesis and can be summarized as follows. Firstly, we propose a new scheme for adapting HuBR to AC. The proposed scheme, named Arithmetic-Coding-based Bit Recycling (ACBR), describes the framework and the principle of adapting HuBR to AC. We also present the necessary theoretical analysis that is required to estimate the average amount of redundancy that can be removed by HuBR and ACBR in the applications that suffer from ME, which shows that ACBR achieves perfect recycling in all cases whereas HuBR achieves perfect recycling only in very specific cases. Secondly, the problem of the aforementioned ACBR scheme is that it uses arbitrary-precision calculations, which requires unbounded (or infinite) resources. Hence, in order to benefit from ACBR in practice, we propose a new finite-precision version of the ACBR scheme, which makes it efficiently applicable on computers with conventional fixed-sized registers and can be easily interfaced with the applications that suffer from ME. Thirdly, we propose the use of both techniques (HuBR and ACBR) as the means to reduce the redundancy in plurally parsable dictionaries that are used to obtain a binary variable-to-fixed length code. We theoretically and experimentally show that both techniques achieve a significant improvement (less redundancy) in this respect, but ACBR outperforms HuBR and provides a wider class of binary sources that may benefit from a plurally parsable dictionary. Moreover, we show that ACBR is more flexible than HuBR in practice. Fourthly, we use HuBR to reduce the redundancy of the balanced codes generated by Knuth's algorithm. In order to compare the performance of HuBR and ACBR, the corresponding theoretical results and analysis of HuBR and ACBR are presented. The results show that both techniques achieved almost the same significant reduction in the redundancy of the balanced codes generated by Knuth's algorithm.
APA, Harvard, Vancouver, ISO, and other styles
3

Baskurt, Atilla. "Compression d'images numériques par la transformation cosinus discrète." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0036.

Full text
Abstract:
Après avoir analysé les principales méthodes de compression et distingué parmi celles-ci, les méthodes par transformation, les propriétés essentielles des transformations orthogonales ont été dégagées. Cette étude a permis de montrer que la transformation cosinus discrète (TCD) possède des caractéristiques essentielles pour réaliser une compression efficace. L'outil TCD a ensuite été étudié sous différents aspects, tels que ses propriétés mathématiques, statistiques et les algorithmes rapides associés. Une architecture spécialisée parallèle et pipelinée a été développée afin de montrer la faisabilité de la mise en œuvre de cette transformation, même pour des applications susceptibles de fonctionner à la cadence vidéo (25 images / seconde). En se basant sur ces études, une base complète de méthodologies de quantification et de codage dans le plan transformé a été proposée. L'auto adaptabilité naturelle de l'approche par seuillage nous a conduit à l'adopter et à optimiser le codage du masque de seuillage. Plusieurs méthodes ont été développées et comparées. Nous avons, par ailleurs, proposé une méthode de déconvolution par algorithme itératif de façon à reconstituer une partie des coefficients perdus au moment du seuillage. Les résultats obtenus sont encourageants, en particulier pour les taux de compression élevés. Ces travaux nous ont amené à développer une méthode de compression optimale lorsqu'on ne tient pas compte des contraintes que peut imposer une application particulière. Cette méthode qui utilise un seuillage énergétique constitue une méthode particulièrement efficace. Enfin, dans le cadre de la mission internationale d'exploration interplanétaire Phobos II, nous avons mis au point un algorithme de compression d'images en tenant compte des nombreuses contraintes sévères (matérielles et logicielles) de cette application. Cet algorithme a été ensuite écrit en langage assembleur du calculateur de bord et implanté avec succès sur la sonde Phobos en Mars 1988. La procédure de décompression, développée en parallèle, sera activée dès la réception des premières images de la surface de Phobos à partir d'Avril.
APA, Harvard, Vancouver, ISO, and other styles
4

Piana, Thibault. "Étude et développement de techniques de compression pour les signaux de télécommunications en bande de base." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2024. http://www.theses.fr/2024IMTA0424.

Full text
Abstract:
Cette thèse examine la compression de signaux pour améliorer l’efficacité de la bande passante dans les communications satellitaires, en se concentrant sur les architectures Cloud Radio Access Networks (C-RAN) pour le segment sol. Réalisée sous contrat CIFRE avec Safran Data Systems et encadrée par le Lab-STICC, cette recherche explore les techniques de compression des signaux RF en bande de base, essentielles pour maintenir une haute fidélité des données transmises entre les stations terrestres et les satellites. L’étude s’appuie sur des avancées comme le Ground Station as a Service (GSaaS), qui permet une gestion optimisée des ressources. Elle aborde spécifiquement les défis liés à la compression efficace des larges bandes passantes utilisées, nécessitant des techniques innovantes pour réduire la charge sur les réseaux terrestres sans compromettre la qualité des signaux. Les méthodes de compression sans perte et avec perte sont évaluées, avec une attention particulière aux techniques de compression basée sur des dictionnaires pour leur efficacité en termes de parcimonie et aux méthodes prédictives pour leur capacité à minimiser les écarts entre prédictions et valeurs réelles. Cette recherche illustre un potentiel significatif pour améliorer la gestion des données dans les communications satellitaires, offrant des solutions viables pour les défis actuels et futurs de la compression de données
This thesis investigates signal compression to enhance bandwidth efficiency in satellite communications, focusing on Cloud Radio Access Network (C-RAN) architectures for the ground segment. Conducted under a CIFRE contract with Safran Data Systems and supervised by Lab-STICC, this research explores the techniques of RF baseband signal compression, crucial for maintaining high fidelity of data transmitted between terrestrial stations and satellites. The study leverages advances such as Ground Station as a Service (GSaaS), which facilitates optimized resource management. It specifically addresses the challenges associated with efficiently compressing the wide bandwidths used, which requires innovative techniques to reduce the load on terrestrial networks without compromising signal quality. Lossless and lossy compression methods are evaluated, with particular emphasis on dictionary-based compression techniques for their efficiency in sparsity, and predictive methods for their ability to minimize discrepancies between predicted and actual values. This research demonstrates significant potential to improve data management in satellite communications, offering viable solutions for current and future data compression challenges
APA, Harvard, Vancouver, ISO, and other styles
5

Madre, Guillaume. "Application de la transformée en nombres entiers à l'étude et au développement d'un codeur de parole pour transmission sur réseaux IP." Brest, 2004. http://www.theses.fr/2004BRES2036.

Full text
Abstract:
Notre étude s'inscrit dans le domaine de la compression des signaux vocaux pour la transmission de voix par réseau Internet (VoIP : Voice over Internet Protocol). Les perspectives à moyen terme étant la mise en place d'une application de téléphonie IP, nos travaux fournissent les premiers éléments pour le fonctionnement en réel d'un système de codage de parole et son intégration à un processeur DSP. Ils se sont concentrés sur le codeur de parole G. 729 de type CS-ACELP (Conjugate Structure –Algebraic Code-Excited Linear Prediction), retenu parmi les recommandations de l'Union Internationale des Télécommunications (UIT) et déjà reconnu pour sa faible complexité d'implantation. L'étude principale a été d'améliorer ses performances et diminuer sa charge de calcul tout en maintenant un équilibre entre la qualité de codage et la complexité de calcul engendrée. Pour réduire le coût de calcul de ce codeur, nous avons approfondi les bases mathématiques de la Transformée en Nombres Entiers (NTT : Number Theoretic Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Nous avons introduit plus particulièrement la Transformée en Nombres de Fermat (FNT : Fermat Number Transform) qui est la plus adaptée aux opérations de traitement numérique. Nous avons constaté que son application à certains algorithmes de codage permet une réduction importante de la complexité de calcul. Ainsi, le développement de nouveaux algorithmes performants, pour la Prédiction Linéaire (LP : Linear Prediction) du signal et la modélisation de l'excitation, a permis une modification du codeur G. 729 en vue de son implantation sur un processeur à virgule fixe. De plus, une nouvelle fonction de détection d'activité de parole (VAD : Voice Activity Detection) a permis la mise en place d'une procédure de compression des silences plus efficace et la réduction du débit de transmission
Our study considers the vocal signals compression for the transmission of Voice over Internet Protocol (VoIP). The prospects being the implementation of a telephony IP application, the work provides the first elements for a real-time speech coding system and its integration to a DSP. They are concentrated on the speech CS-ACELP (Conjugate Structure- Algebraic Code-Excited Linear Prediction) G. 729 coder, retained among the International Telecommunications Union (ITU) recommendations and already recognized for its low implementation complexity. The main aspect was to improve its performances and to decrease its computational cost, while maintaining the compromise between the coding quality and the required complexity. To reduce the computational cost of this coder, we looked further into the mathematical bases of the Number Theoretic Transform (NTT) which is brought to find more and more various applications in signal processing. We introduced more particularly the Fermat Number Transform (FNT) which is well suited for digital processing operations. Its application to different coding algorithms allows an important reduction of the computational complexity. Thus, the development of new efficient algorithms, for the Linear Prediction (LP) of the speech signal and the excitation modeling, has allowed a modification of the G. 729 coder and his implementation on a fixed-point processor. Moreover, a new function of Voice Activity Detection (VAD) has carried out the implementation of one more efficient procedure for silences compression and the reduction of the transmission rate
APA, Harvard, Vancouver, ISO, and other styles
6

Prat, Sylvain. "Compression et visualisation de grandes scènes 3D par représentation à base topologique." Rennes 1, 2007. http://www.theses.fr/2007REN1S039.

Full text
Abstract:
Si les applications de visualisation de scènes 3D sont maintenant légion depuis l'avènement de cartes graphiques 3D puissantes permettant un rendu 3D temps-réel, le rendu de grandes scènes 3D reste toujours problématique du fait du trop grand nombre de primitives 3D à traiter pendant le court laps de temps s'écoulant entre deux images successives. D'autre part, la démocratisation d'internet dans les foyers créé de nouveaux besoins, et notamment celui de naviguer dans de grands environnements 3D au travers d'un réseau. Les applications sont en effet nombreuses : jeu vidéo, tourisme virtuel, géolocalisation (GPS), architecture virtuelle, imagerie médicale 3D. . . Dans ce cadre, les utilisateurs échangent des informations concernant l'univers virtuel au travers du réseau. Le sujet de cette thèse s'inscrit entre ces deux problématiques. Nous nous interessons au cas particulier de la visualisation de villes virtuelles dans un contexte « communiquant » où les données 3D transitent sur le réseau. Ce type d'application soulève deux problèmes majeurs : d'une part, la sélection des données pertinentes à transmettre à l'utilisateur, car il est trop coûteux de transmettre l'intégralité de l'univers virtuel 3D avant le début de la navigation ; d'autre part, la prise en compte des contraintes réseau : faible débit, latence, tolérance aux erreurs. Dans cette thèse, nous proposons plusieurs contributions : une méthode de compression générique permettant notamment de traiter les maillages volumiques, une méthode de construction et de partitionnement de scènes 3D urbaines à partir d'emprises au sol, et une méthode optimisée de construction de surfaces complexes à partir d'une soupe de polygones
If visualization applications of 3D scenes are now widespread since the advent of powerful 3D graphics cards allowing real-time 3D rendering, the rendering of large 3D scenes remains problematic because of the too many 3D primitives to handle during the short period of time elapsing between two successive image frames. On the other hand, the democratisation of the Internet at home creates new needs, including the need to navigate into large 3D environments through a network. Applications are indeed numerous: video games, virtual tourism, geolocalization (GPS), virtual architecture, 3d medical imaging. . . Within this context, users exchange and share information regarding the virtual environment over the network. The subject of this thesis is in-between these two issues. We are interested in the special case of viewing virtual cities in a "communicating" fashion where 3D data pass over the network. This type of application raises two major problems: first, the selection of relevant data to be transmitted to the user, because it's too expensive to transmit the full 3D environment before the navigation starts; on the other hand, taking into account the network constraints: low bandwidth, latency, error tolerance. In this thesis, we propose several contributions: a generic compression method, suitable for the compression of volume meshes, a method for constructing and partitioning 3D urban scenes from buildings footprints, and an optimized method for building complex surfaces from a polygon soup
APA, Harvard, Vancouver, ISO, and other styles
7

Malinowski, Simon. "Codes joints source-canal pour transmission robuste sur canaux mobiles." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/malinowski.pdf.

Full text
Abstract:
L'étude menée dans cette thèse s'inscrit dans le contexte du codage conjoint source-canal. L'émergence de ce domaine depuis quelques années est dû aux limites, notamment au niveau applicatif, du théorème de séparation de Shannon. Ce théorème stipule que les opérations de codage de source et de codage de canal peuvent être réalisées séparément sans perte d'optimalité. Depuis quelques années, de nombreuses études visant à réaliser conjointement ces deux opérations ont vu le jour. Les codes de source, comme les codes à longueur variables ou les codes quasi-arithmétique ont beaucoup été étudié. Nous avons travaillé sur ces deux types de codes dans le contexte de codage conjoint source-canal dans ce document. Un modèle d'état pour le décodage souple des codes à longueur variable et des codes quasi-arithmétique est proposé. Ce modèle est paramétré par un entier T qui permet de doser un compromis entre performance et complexité du décodage. Les performances des codes sur ce modèle sont ensuite analysées en étudiant leurs propriétés de resynchronisation. Les méthodes d'étude de ces propriétés ont dû être adaptées aux codes QA et au canal à bruit additif blanc gaussien pour les besoins de cette analyse. Les performances des codes sur le modèle agrégé peuvent ainsi être prévues en fonction de la valeur du paramètre T et du code considéré. Un schéma de décodage robuste avec information adjacente est ensuite proposé. La redondance ajoutée se présente sous la forme de contraintes partielles appliquées pendant le décodage. Cette redondance peut être ajoutée de manière très flexible et ne nécessite pas d'être introduite à l'intérieur du train binaire. Enfin, deux schémas de codage de source distribué utilisant des codes quasi arithmétiques sont proposés. Le premier schéma réalise la compression en poinçonnant la sortie du code, tandis que le deuxième utilise un nouveau type de code : les codes quasi-arithmétiques avec recouvrement d'intervalle. Les résultats présentés par ces deux schémas sont compétitifs comparativement aux schémas classiques utilisant des codes de canal
Joint source-channel coding has been an area of recent research activity. This is due in particular to the limits of Shannon's separation theorem, which states that source and channel coding can be performed separately in order to reach optimality. Over the last decade, various works have considered performing these operations jointly. Source codes have hence been deeply studied. In this thesis, we have worked with these two kind of codes in the joint source-channel coding context. A state model for soft decoding of variable length and quasi-arithmetic codes is proposed. This state model is parameterized by an integer T that controls a trade-off between decoding performance and complexity. The performance of these source codes on the aggregated state model is then analyzed together with their resynchronisation properties. It is hence possible to foresee the performance of a given code with respect to the aggregation parameter T. A robust decoding scheme exploiting side information is then presented. The extra redundancy is under the form of partial length constraints at different time instants of the decoding process. Finally, two different distributed coding schemes based on quasi-arithmetic codes are proposed. The first one is based on puncturing the output of the quasi-arithmetic bit-stream, while the second uses a new kind of codes : overlapped quasi-arithmetic codes. The decoding performance of these schemes is very competitive compared to classical techniques using channel codes
APA, Harvard, Vancouver, ISO, and other styles
8

Ouled, Zaid Azza. "Amélioration des performances des systèmes de compression JPEG et JPEG2000." Poitiers, 2002. http://www.theses.fr/2002POIT2294.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Barland, Rémi. "Évaluation objective sans référence de la qualité perçue : applications aux images et vidéos compressées." Nantes, 2007. http://www.theses.fr/2007NANT2028.

Full text
Abstract:
Le passage au tout numérique et le développement des communications multimédias engendrent une circulation de l’information de plus en plus dense. Cet accroissement massif de la quantité de données échangées génère une saturation progressive des réseaux de transmission. Pour remédier à cette situation, les standards de compression cherchent à exploiter davantage la corrélation spatiale et/ou temporelle pour réduire les débits. La réduction d’information résultante génère des artéfacts visuels qui peuvent altérer le contenu visuel de la scène et donc provoquer une gêne chez l’utilisateur final. Afin de proposer le meilleur service de diffusion possible, la mesure de la qualité perçue est alors nécessaire. Les tests subjectifs qui représentent la méthode de référence pour quantifier la perception des dégradations, sont coûteux, lourds à mettre en œuvre et demeurent inappropriés pour une mesure de la qualité en ligne. Dans cette thèse, nous nous sommes intéressés aux standards de compression (image et vidéo) les plus usuels et avons élaboré des métriques de qualité sans référence basées sur l’exploitation des artéfacts visuels les plus gênants, tels que les effets de blocs, de flou et de ringing. L’approche proposée est modulaire et s’adapte au codeur considéré et au rapport complexité/performance recherché. Pour une faible complexité, la métrique quantifie les dégradations spécifiques au codeur considéré, en exploitant uniquement les propriétés du signal image. Pour atteindre de meilleures performances, au détriment d’une certaine complexité, celle-ci intègre en plus des modèles cognitifs simulant les mécanismes de l’attention visuelle. Les cartes de saillance générées par ces modélisations sont alors utilisées pour affiner les mesures de dégradations purement signal proposées
The conversion to the all-digital and the development of multimedia communications produce an ever-increasing flow of information. This massive increase in the quantity of data exchanged generates a progressive saturation of the transmission networks. To deal with this situation, the compression standards seek to exploit more and more the spatial and/or temporal correlation to reduce the bit rate. The reduction of the resulting information creates visual artefacts which can deteriorate the visual content of the scene and thus cause troubles for the end-user. In order to propose the best broadcasting service, the assessment of the perceived quality is then necessary. The subjective tests which represent the reference method to quantify the perception of distortions are expensive, difficult to implement and remain inappropriate for an on-line quality assessment. In this thesis, we are interested in the most used compression standards (image or video) and have designed no-reference quality metrics based on the exploitation of the most annoying visual artefacts, such as the blocking, blurring and ringing effects. The proposed approach is modular and adapts to the considered coder and to the required ratio between computational cost and performance. For a low complexity, the metric quantifies the distortions specific to the considered coder, only exploiting the properties of the image signal. To improve the performance, to the detriment of a certain complexity, this one integrates in addition, cognitive models simulating the mechanisms of the visual attention. The saliency maps generated are then used to refine the proposed distortion measures purely based on the image signal
APA, Harvard, Vancouver, ISO, and other styles
10

Jégou, Hervé. "Codes robustes et codes joints source-canal pour transmission multimédia sur canaux mobiles." Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-01171129.

Full text
Abstract:
Cette thèse propose des codes robustes et des codes conjoint source / canal pour transmettre des signaux multimédia sur des canaux bruités. Nous proposons des codes entropiques offrant une résistance intrinsèque aux données prioritaires. Ces codes sont étendus pour exploiter la dépendance temporelle du signal. Un nouveau modèle d'état est ensuite proposé et analysé pour le décodage souple de codes à longueur variable avec une contrainte de longueur. Il permet de régler finement le compromis performance de décodage/complexité. Nous proposons également de séparer, au niveau du codage entropique, les étapes de production des mots de codes et de paquétisation. Différentes stratégies de construction de train binaire sont alors proposées. Enfin, la représentation en arbre binaire des codes entropiques est étendue en considérant des règles de réécriture. Cela permet d'obtenir en particulier des codes qui offrent des meilleures performances en décodage souple.
APA, Harvard, Vancouver, ISO, and other styles
11

Chebbo, Salim. "Méthodes à compléxite réduite pour amélioration de la qualité des séquences vidéo codées par blocks." Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0026.

Full text
Abstract:
L'objectif de cette thèse est de concevoir des solutions temps réel afin de réduire les artefacts d'une compression vidéo. Dans ce travail on s'est limité aux trois dégradations les plus répandues et les plus gênantes. Il s'agit de l'effet de bloc, le ringing, et le bruit de papillotement temporel. Un algorithme de post-traitement pour réduire l'effet de bloc est d'abord présenté. Cet algorithme est principalement basé sur un filtrage bidimensionnel adaptatif. En tenant compte de l'activité spatiale des pixels ainsi que l'étape de quantification, la dégradation locale de l'image est évaluée pour sélectionner le mode de filtrage le plus approprié. L’effet de bloc est ensuite réduit par l'application des filtres bidimensionnels et non séparables choisis en fonction du mode de filtrage. La réduction du ringing est réalisée au moyen d'un filtrage médian pondéré. L'originalité de cette solution réside dans l'attribution adaptative de poids pour chaque pixel dans une fenêtre de filtrage, fournissant ainsi une réduction efficace du ringing tout en conservant les détails les plus fins de l'image. En ce qui concerne le traitement des défauts temporels, une mesure objective de la qualité temporelle des séquences vidéo est proposée. Ensuite, un filtre temporel est proposé pour stabiliser les régions de fond des images, en utilisant un filtre temporel bidirectionnel. Finalement, la complexité d'implémentation des solutions proposées a été étudiée afin de prouver l'applicabilité de ces solutions pour des applications temps réel
The objective of this thesis is to propose real time solutions in order to reduce the video compression impairments namely the blocking, the ringing and the temporal flickering. The proposed deblocking filter is mainly based on an adaptive conditional two-dimensional filter, derived from the combination in horizontal and vertical directions of a simple two-mode conditional 1-d filter. Appropriate filters are selected using the local degradation of the image, which is assessed by examining he quantization step as well as the computed spatial pixel activities. The ringing artifact reduction algorithm uses a simple classification method to differentiate at and edge blocks, which are then filtered using a particular weighted median filter. Regarding the temporal impairments, we proposed a new measure to assess the level of these impairments and accordingly estimate the temporal quality of the decoded sequences. The preliminary study of the temporal compression artifacts demonstrated that the level of the temporal fluctuation between consecutive frames is affected by the compression ratio and the group of pictures structure, notably the presence (and period) of intra coded frames in the video sequence. It was also shown that the deringing process reduces the visibility of the mosquito noise, however a temporal filtering remains necessary to reduce the background areas fluctuation. For this reason, we proposed to temporally filter these areas and skip the temporal filtering of moving objects. Finally, the implementation complexity of the proposed solutions was investigated in order to prove the applicability of these solutions for real time applications
APA, Harvard, Vancouver, ISO, and other styles
12

Adjih, Cédric. "Multimédia et accès à l'Internet haut débit : l'analyse de la filière du câble." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0017.

Full text
Abstract:
"La thèse a abordé trois thèmes : - L'accès multiple sur les réseaux câblés. -Un algorithme de contrôle d'admission adaptatif. -Une compression/décompression vidéo par ondelettes adaptative. Les différents thèmes et leur articulation sont les suivants : Accès multiple : Une condition nécessaire pour le haut débit est une transmission efficace des paquets de données IP. A cause du grand délai de propagation, la couche d'accès multiple (MAC) des réseaux câblés constitue un défi important : cette thèse a expérimenté différents variantes d'algorithmes d'accès multiple. Qualité de service : Une fois le problème de transmission résolu, la transmission de flux multimédia pose le problème de "qualité de service" en période de congestion. . . "
APA, Harvard, Vancouver, ISO, and other styles
13

Boumezzough, Ahmed. "Vers un processeur optoélectronique holographique de cryptage des données à haut débit pour les télécommunications." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. http://www.theses.fr/2005STR13025.

Full text
Abstract:
Avec le développement des réseaux multimédia et les échanges d'informations grandissants, la collectivité scientifique s'intéresse de plus en plus aux techniques de cryptage et de compression afin de sécuriser les échanges et de gagner en espace mémoire pour le stockage. Plusieurs algorithmes de cryptage et de compression numériques ont été proposés. Or le codage numérique d'informations exige des temps de calcul importants et des traitements électroniques coûteux. Ceci nous a poussé à considérer l'optique comme une solution, plus particulièrement dans le cas où l'information est sous forme d'images. Ce choix est justifié par la facilité avec laquelle l'optique permet d'obtenir naturellement une transformation de Fourier à deux dimensions grâce à son parallélisme massif. Ce travail de thèse s'articule autour de deux thématiques voisines, la compression et le multiplexage de l'information d'une part, la compression et le cryptage d'autre part. Ces deux problèmes sont abordés sous un même angle, le filtrage. L'information est traitée dans le domaine de Fourier. L'apparition du filtre segmenté pour la corrélation optique, incorporant non pas une mais plusieurs références en même temps nous donne la possibilité de sélectionner dans ce domaine les informations pertinentes propres ou communes à chaque référence. Cette fusion d'information spectrale permet d'extraire les informations utiles dans un spectre et à rejeter les éléments redondants ou non pertinents, réalisant en cela la compression d'image. De la même manière nous utilisons cette propriété pour coder et crypter les images
With the development of multi-media networks and the growing exchanges of information, the scientific community is interested more and more in techniques of encryption and compression in order to make these exchanges safe and to gain memory storage capacity. Several numerical algorithms of encryption and compression were proposed. However the numerical coding of information requires significant computing times and the processing can be very expensive. This led to the consideration of optics as a solution, particularly for images. This choice is justified by the facility which optics carries out two dimensional Fourier transforms with high parallelism. This PhD thesis is built around two neighbouring themes: compression and multiplexing of information on the one hand, compression and encryption on the other hand. These two problems are tackled with the same approach which is filtering. The data are processed in the Fourier domain. As optical correlation, the segmented filter is a way to fuse information in the Fourier domain between several references. It allows extracting specific or relevant information to each or several references and rejecting the redundant information; thus, a compression operation is done. In the same manner, we have used a similar approach for encrypting operations in images
APA, Harvard, Vancouver, ISO, and other styles
14

Doutsi, Effrosyni. "Compression d'images et de vidéos inspirée du fonctionnement de la rétine." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4011/document.

Full text
Abstract:
Cette thèse vise à proposer une nouvelle architecture de codage vidéo qui s’inspire du système visuel des mammifères et de la rétine. La rétine peut être considérée comme une machine intelligente qui traite le stimulus visuel de façon très efficace. De ce fait, elle représente une grande source d'inspiration pour développer de nouveaux systèmes de traitement d’image. Il y a plusieurs raisons pour cela : elle consomme peu d’énergie, elle traite des entrées haute résolution et sa façon de transformer et d’encoder de manière dynamique le stimulus visuel dépasse les normes actuelles. Nous avons souhaité étudier et proposer un codec vidéo inspiré de la rétine. L’algorithme proposé a été appliqué à un flux vidéo d'une manière simple, suivant le principe des standards de codage MJPEG ou MJPEG2000. Cette approche permet au lecteur d’étudier et d’explorer tous les avantages du traitement dynamique de la rétine en termes de compression et de traitement d’image. La performance actuelle du codec que nous avons développé est très prometteuse. Les résultats montrent des performances supérieures à MJPEG pour des débits inférieurs à 100 kbps et MPEG-2 pour des débits supérieurs à 70 kpbs. De plus, à faibles débits, le codec proposé décrit mieux le contenu de la scène d’entrée. De nombreuses perspectives sont proposées afin d'améliorer ce codec inspiré de la rétine qui semblent conduire à un nouveau paradigme en compression vidéo
The goal of this thesis is to propose a novel video coding architecture which is inspired by the mammalian visual system and the retina. If one sees the retina as a machine which processes the visual stimulus, it seems an intelligent and very efficient model to mimic. There are several reasons to claim that, first of all because it consumes low power, it also deals with high resolution inputs and the dynamic way it transforms and encodes the visual stimulus is beyond the current standards. We were motivated to study and release a retina-inspired video codec. The proposed algorithm was applied to a video stream in a very simple way according to the coding standards like MJPEG or MJPEG2000. However, this way allows the reader to study and explore all the advantages of the retina dynamic processing way in terms of compression and image processing. The current performance of the retina-inspired codec is very promising according to some final results which outperform MJPEG for bitrates lo wer than 100 kbps and MPEG-2 for bitrates higher than 70 kpbs. In addition, for lower bitrates, the retina-inspired codec outlines better the content of the input scene. There are many perspectives which concern the improvement of the retina-inspired video codec which seem to lead to a groundbreaking compression architecture. Hopefully, this manuscript will be a useful tool for all the researchers who would like to study further than the perceptual capability of the mammalian visual system and understand how the structure and the functions of the retina can in practice improve the coding algorithms
APA, Harvard, Vancouver, ISO, and other styles
15

Ghenania, Mohamed. "Techniques de conversion de format entre codeurs CELP normalisés : Speech coding format conversion between standardized CELP coders." Rennes 1, 2005. http://www.theses.fr/2005REN11038.

Full text
Abstract:
Cette thèse porte sur la conversion de format en codage de la parole (CELP), ou transcodage. La solution classique de conversion de format, appelée tandem, nécessite la mise en cascade d'une opération de décodage et d'une opération de re-codage. Cette approche par défaut utilisée aujourd'hui dans les réseaux de communications présente des inconvénients en terme de complexité, de délai et de qualité. Pour pallier ces problèmes, l'idée de transcodages dits « intelligents » a été étudiée. En s'appuyant sur les caractéristiques du modèle commun utilisé par les codeurs CELP, la conversion de format peut être rendue plus efficace. Les codeurs CELP extraient du signal puis quantifient et transmettent quatre jeux de paramètres: les coefficients LPC, l'excitation adaptative, l'excitation fixe et les gains associés. Dans cette thèse, on se propose de développer pour ces paramètres des techniques efficaces de conversion entre les principaux codeurs CELP utilisés aujourd'hui
APA, Harvard, Vancouver, ISO, and other styles
16

Moravie, Philippe. "Parallélisation d'une méthode de compression d'images : transformée en ondelettes, quantification vectorielle et codage d'Huffman." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT123H.

Full text
Abstract:
La taille des images satellitaires actuelles et a venir, est telle qu'il devient indispensable de les compresser a bord et en temps-reel. Or la charge de traitement induite par les algorithmes de compression d'images est si importante, qu'elle interdit l'usage des processeurs sequentiels classiques, au profit des machines paralleles. Aussi, nous presentons ici, une etude de la parallelisation d'une technique de compression d'images basee sur la transformee en ondelettes discrete (tod), la quantification vectorielle (qv) et le codage entropique (ce). Initialement, nous avons etudie et implemente le parallelisme intrinseque a chacun de ces 3 algorithmes, de maniere a determiner l'ensemble des caracteristiques architecturales indispensables a l'execution en temps-reel de la compression. Ainsi, nous avons pu definir trois concepts architecturaux pour l'algorithme de mallat (tod), trois autres pour la quantification vectorielle arborescente (qv) et enfin, deux pour le codage d'huffman (ce). La contrainte de polyvalence de l'architecture de notre futur systeme de compression, nous a conduit a ne retenir que 3 concepts globaux parmi les 3 3 2 systemes de compression potentiels. La contrainte d'execution en temps-reel n'etant pas respectee dans tous les cas (pour toutes les combinaisons de parametres de compression), nous avons defini et evalue deux optimisations algorithmiques : la precision virgule fixe et la fusion entre le codage entropique et la quantification vectorielle. Ainsi, nous avons pu definir et dimensionner une machine generaliste embarquable multi-simd, capable de soutenir les contraintes temps-reel du domaine satellitaire. A la question de la definition d'une architecture parallele optimale pour la compression d'images, nous avons donc repondu par la presentation de 3 modeles de machines, dont l'une a la particularite d'etre generaliste et donc d'etre reutilisable pour d'autres applications a bord.
APA, Harvard, Vancouver, ISO, and other styles
17

Rawat, Priyanka. "Improving efficiency of tunneling mechanisms over IP networks." Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0131.

Full text
Abstract:
Durant plusieurs années, le tunneling a été utilisé à diverses fins. Par exemple pour fournir une solution pour les problèmes de sécurité réseau, pour le support de la migration des réseaux (d’IPv4 à IPv6) et pour traverser le NAT. Aujourd’hui le tunneling est utilisé dans les solutions de gestion de la mobilité comme MobileIP et NEMO qui fournissent un accès Internet transparente même en cas de déplacement des noeuds ou des réseaux. Cependant, l’utilisation du tunneling entraine une surcharge au niveau du paquet due à la concaténation des en-têtes. Cette surcharge est encore plus remarquable sur les liaisons sans fil ou radio, qui ont des ressources limitées. Cela rend le tunneling moins efficace parce qu’il détériore la performance dans les réseaux sans fil et mobiles. Ainsi, il devient nécessaire d’améliorer l’efficacité du tunneling sur des réseaux IP. Nous considérons la compression des en-têtes pour réduire la surcharge due aux tunnels IP. Nous montrons que ROHC (Robust Header Compression) peut être appliqué sur des tunnels avec des configurations appropriées. Cependant, nous rencontrons quelques problèmes quand le protocole ROHC est utilisé en présence de tunneling. Ceci nous a motive à concevoir et développer TuCP (Tunneling Compression Protocol), qui une nouvelle méthode de compression d’en-tête pour les protocoles de tunneling. TuCP compresse des en-têtes en présence de tunneling et permet une utilisation efficace et le déploiement des tunnels dans les réseaux sans fil et mobiles. En outre, il fournit une solution qui gère le "out-of-order" paquets
Over the years, tunneling has been used to provide solution for network security problems and migration of networks (from IPv4 to IPv6). More recently tunneling has found application in mobility support solutions such as MobileIP and NEMO Basic Support that provide moving nodes or networks with a transparent Internet access. However, the use of tunneling leads to high protocol header overhead due to multiple protocol headers in each packet. This overhead is even more noticeable on wireless links, which have scarce resources, and mobile networks that are typically connected by means of low bandwidth wireless links. This makes tunneling less efficient and results in performance deterioration in wireless and mobile networks. Thus, there is a requirement to improve efficiency and performance of tunneling over IP networks. We consider header compression for protocol headers to reduce overhead due to IP tunnels. We examine the behavior of ROHC (Robust Header Compression) over long delay links and tunnels. We show that ROHC can be applied over tunnels with proper configurations. We discuss the problems encountered, in presence of tunneling, when ROHC is used over the entire encapsulation consisting of inner IP headers of the IP packet and tunneling headers. This motivates us to design and implement TuCP (Tunneling Compression Protocol), a novel header compression for tunneling protocol headers. TuCP reduces tunneling header overhead and allows an efficient use and deployment of tunneling in wireless and mobile networks. In addition, it provides a solution to manage out of order packets which enables the usage of existing header compression methods like ROHC over IP tunnels
APA, Harvard, Vancouver, ISO, and other styles
18

Aklouf, Mourad. "Video for events : Compression and transport of the next generation video codec." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG029.

Full text
Abstract:
L'acquisition et la diffusion de contenus avec une latence minimale sont devenus essentiel dans plusieurs domaines d'activités tels que la diffusion d'évènements sportifs, la vidéoconférence, la télé-présence, la télé-opération de véhicules ou le contrôle à distance de systèmes. L'industrie de la diffusion en direct a connu une croissance en 2020, et son importance va encore croitre au cours des prochaines années grâce à l'émergence de nouveaux codecs vidéo à haute efficacité reposant sur le standard Versatile Video Coding(VVC)et à la cinquième génération de réseaux mobiles (5G).Les méthodes de streaming de type HTTP Adaptive Streaming (HAS) telles que MPEG-DASH, grâce aux algorithmes d'adaptation du débit de transmission de vidéo compressée, se sont révélées très efficaces pour améliorer la qualité d'expérience (QoE) dans un contexte de vidéo à la demande (VOD).Cependant, dans les applications où la latence est critique, minimiser le délai entre l'acquisition de l'image et son affichage au récepteur est essentiel. La plupart des algorithmes d'adaptation de débit sont développés pour optimiser la transmission vidéo d'un serveur situé dans le cœur de réseau vers des clients mobiles. Dans les applications nécessitant un streaming à faible latence, le rôle du serveur est joué par un terminal mobile qui va acquérir, compresser et transmettre les images via une liaison montante comportant un canal radio vers un ou plusieurs clients. Les approches d'adaptation de débit pilotées par le client sont par conséquent inadaptées. De plus, les HAS, pour lesquelles la prise de décision se fait avec une périodicité de l'ordre de la seconde ne sont pas suffisamment réactives lors d'une mobilité importante du serveur et peuvent engendrer des délais importants. Il est donc essentiel d'utiliser une granularité d'adaptation très fine afin de réduire le délai de bout-en-bout. En effet, la taille réduite des tampons d'émission et de réception afin de minimiser la latence rend plus délicate l'adaptation du débit dans notre cas d'usage. Lorsque la bande passante varie avec une constante de temps plus petite que la période avec laquelle la régulation est faite, les mauvaises décisions de débit de transmission peuvent induire un surcroit de latence important.L'objet de cette thèse est d'apporter des éléments de réponse à la problématique de la transmission vidéo à faible latence depuis des terminaux (émetteurs) mobiles. Nous présentons d'abord un algorithme d'adaptation de débit image-par-image pour la diffusion à faible latence. Une approche de type Model Predictive Control (MPC) est proposée pour déterminer le débit de codage de chaque image à transmettre. Cette approche utilise des informations relatives au niveau de tampon de l'émetteur et aux caractéristiques du canal de transmission. Les images étant codées en direct, un modèle reliant le paramètre de quantification (QP) au débit de sortie du codeur vidéo est nécessaire. Nous avons donc proposé un nouveau modèle reliant le débit au paramètre de quantification et à la distorsion de l'image précédente. Ce modèle fournit de bien meilleurs résultats dans le contexte d'une décision prise image par image du débit de codage que les modèle de référence de la littérature.En complément des techniques précédentes, nous avons également proposé des outils permettant de réduire la complexité de codeurs vidéo tels que VVC. La version actuelle du codeur VVC (VTM10) a un temps d'exécution neuf fois supérieur à celui du codeur HEVC. Par conséquent, le codeur VVC n'est pas adapté aux applications de codage et diffusion en temps réel sur les plateformes actuellement disponibles. Dans ce contexte, nous présentons une méthode systématique, de type branch-and-prune, permettant d'identifier un ensemble d'outils de codage pouvant être désactivés tout en satisfaisant une contrainte sur l'efficacité de codage. Ce travail contribue à la réalisation d'un codeur VVC temps réel
The acquisition and delivery of video content with minimal latency has become essential in several business areas such as sports broadcasting, video conferencing, telepresence, remote vehicle operation, or remote system control. The live streaming industry has grown in 2020 and it will expand further in the next few years with the emergence of new high-efficiency video codecs based on the Versatile Video Coding (VVC) standard and the fifth generation of mobile networks (5G).HTTP Adaptive Streaming (HAS) methods such as MPEG-DASH, using algorithms to adapt the transmission rate of compressed video, have proven to be very effective in improving the quality of experience (QoE) in a video-on-demand (VOD) context.Nevertheless, minimizing the delay between image acquisition and display at the receiver is essential in applications where latency is critical. Most rate adaptation algorithms are developed to optimize video transmission from a server situated in the core network to mobile clients. In applications requiring low-latency streaming, such as remote control of drones or broadcasting of sports events, the role of the server is played by a mobile terminal. The latter will acquire, compress, and transmit the video and transmit the compressed stream via a radio access channel to one or more clients. Therefore, client-driven rate adaptation approaches are unsuitable in this context because of the variability of the channel characteristics. In addition, HAS, for which the decision-making is done with a periodicity of the order of a second, are not sufficiently reactive when the server is moving, which may generate significant delays. It is therefore important to use a very fine adaptation granularity in order to reduce the end-to-end delay. The reduced size of the transmission and reception buffers (to minimize latency) makes it more difficult to adapt the throughput in our use case. When the bandwidth varies with a time constant smaller than the period with which the regulation is made, bad transmission rate decisions can induce a significant latency overhead.The aim of this thesis is to provide some answers to the problem of low-latency delivery of video acquired, compressed, and transmitted by mobile terminals. We first present a frame-by-frame rate adaptation algorithm for low latency broadcasting. A Model Predictive Control (MPC) approach is proposed to determine the coding rate of each frame to be transmitted. This approach uses information about the buffer level of the transmitter and about the characteristics of the transmission channel. Since the frames are coded live, a model relating the quantization parameter (QP) to the output rate of the video encoder is required. Hence, we have proposed a new model linking the rate to the QP of the current frame and to the distortion of the previous frame. This model provides much better results in the context of a frame-by-frame decision on the coding rate than the reference models in the literature.In addition to the above techniques, we have also proposed tools to reduce the complexity of video encoders such as VVC. The current version of the VVC encoder (VTM10) has an execution time nine times higher than that of the HEVC encoder. Therefore, the VVC encoder is not suitable for real-time encoding and streaming applications on currently available platforms. In this context, we present a systematic branch-and-prune method to identify a set of coding tools that can be disabled while satisfying a constraint on coding efficiency. This work contributes to the realization of a real-time VVC coder
APA, Harvard, Vancouver, ISO, and other styles
19

Totozafiny, Théodore. "Compression d'images couleur pour application à la télésurveillance routière par transmission vidéo à très bas débit." Pau, 2007. http://www.theses.fr/2007PAUU3003.

Full text
Abstract:
L'objectif de cette thèse est de valider, pour un réseau sans fil bas débit GSM (débit maximal 9600 bits/s), la possibilité d'obtenir la cadence de la transmission à une image par seconde. Cela contraint la taille de l'image en mémoire à être inférieure à 1. 2 Ko et l'image doit être encodée avec un standard existant. Afin de répondre à cet objectif, différents points ont été étudiés. Le premier point concerne le type de données à envoyer : séquence d'images ou image fixe. Pour cela nous avons réalisé des tests comparatifs, dans notre contexte applicatif, entre la norme de codage vidéo MPEG-4 (la plus répandue actuellement) et le standard de codage d'image fixe JPEG2000 (le plus performant en terme de taux de compression). Le deuxième point concerne la réduction maximale de données à envoyer. L'idée est la suivante : détourner la fonctionnalité de la gestion de régions d'intérêt du standard JPEG2000, afin d'obtenir un taux de compression très élevé 1:250. Nous divisons l'image en deux régions: le fond fixe et les régions mobiles. L'image contenant les régions mobiles est ensuite encodée par la gestion de régions d'intérêt du JPEG2000, implémentée avec la technique Maxshift, puis envoyée au décodeur. Le dernier point étudie la réactualisation de l'image de référence au décodeur. Nous proposons une technique originale réalisant une mise à jour de l'image de référence du décodeur par morceaux. Ces derniers représentent les régions pertinentes dans l'image de référence. Nous conduisons cette mise à jour selon le même principe basé sur la gestion de région d'intérêt. Le déclenchement de la mise à jour est fonction des trois configurations suivantes: sans mouvement, peu de mouvement ou beaucoup de mouvement, définies en fonction du taux de pixels mobiles dans l'image
This thesis presents a feasibility study for transmitting images in GSM wireless networks (9600 bits/s maximal bit rate) with a frequency of one image per second, by using widespread image or video codecs. Due to this constraint, the maximal size of image data is 1. 2 KiB. In particular, the following aspects were studied. First, the type of data to be sent : video streaming or still image sequencing. We carried out several comparative tests, in the context of video surveillance, between video streaming with the MPEG-4 video coding standard (currently, the most widespread) and still image sequencing with JPEG2000 coding standard (currently, the best compression ratio). The second aspect is the maximal reduction of transmission data. Our approach is as follows: to divert the functionality of the JPEG2000's ROI feature at the start, in order to obtain a very high compression ratio—around 1:250. The image is divided in two areas: background and regions of interest (i. E. Mobile object areas). Only the image mobile object regions are compressed with the JPEG2000 ROI feature, implemented using the Maxshift technique. Our technique exploits this property by sending exclusively the ROI data. The last aspect refers to the reference image updating at the decoder. We propose an original technique to update by pieces. These pieces represent the relevant areas of the reference image. To achieve this, we employ the same mechanism for encoding mobile object regions. The definition of the updating strategy, considering the three following configurations: no mobile objects, few mobile objects or many mobile objects, defined accordingly to the rate of mobile pixels in the image
APA, Harvard, Vancouver, ISO, and other styles
20

Ismaïl, Mohamed Amine. "Study and optimization of data protection, bandwidth usage and simulation tools for wireless networks." Nice, 2010. http://www.theses.fr/2010NICE4074.

Full text
Abstract:
La conception de systèmes de communication sans fil supportant les services émergents suscite de plus en plus d'intérêt et ne cesse de poser des problèmes et des défis techniques à la communauté scientifique. Dans cette thèse, nous avons adressé trois de ces problèmes. La première contribution porte sur la fiabilisation des liaisons sans fil et en particulier sur la protection des données contre les évanouissements de longue durée dans le cadre d'un lien "satellite vers mobile". Nous avons proposé un algorithme innovant, appelé Codage Multi-rafale Glissant (CMRG), qui étend la protection “intra-rafale” (MPE-FEC) de DVB-H à une protection “inter-rafale”. Ce nouveau mécanisme permet la récupération de rafales intégralement perdues tout en prenant en compte les spécificités des équipements mobiles de poche. S'appuyant sur une organisation intelligente des données, notre algorithme offre une protection améliorée contre les évanouissements du signal de longue durée tout en utilisant le codage Reed-Solomon implémenté dans les puces DVB-H. CMRG a été approuvé par le Forum DVB et a été intégré à la norme DVB-SH dans laquelle il joue désormais un rôle clé. La deuxième contribution de cette thèse est liée à l'optimisation pratique de la bande passante dans le cadre de liaisons sans fil. Nous avons proposé WANcompress, une technique de compression de bande passante permettant de détecter et d'éliminer le trafic réseau redondant en envoyant uniquement une étiquette au lieu d'envoyer les paquets d'origine. Là où les techniques de compression habituelles opèrent sur des kilooctets (quelques secondes de trafic), WANcompress travaille à une échelle beaucoup plus importante de l'ordre de giga-octets (plusieurs jours, voire semaines de trafic). Nous avons effectué des expérimentations poussées qui ont montré que que Wancompress permet d'atteindre un facteur 25 en compression, ainsi qu'un facteur 22 en accélération. Des essais conduits sur des liens WiMAX et Satellite opérationnels transportant un trafic réel ont montré que WANcompress a amélioré considérablement le débit (jusqu'à 10 fois), et en moyenne 33% de la bande passante a été économisée. La troisième contribution de cette thèse est liée à la simulation des réseaux sans fil. Nous avons proposé un module IEEE 802. 16 WiMAX pour le simulateur ns-3. Notre module fournit une mise en oeuvre détaillée et conforme au standard de la topologie point-à-multipoint (PMP) avec le mode “Time Division Duplex” (TDD). Il supporte un grand nombre de fonctionnalités, permettant ainsi la simulation d'un ensemble riche et varié de scénarios tout en fournissant des résultats proches de la réalité. Ces fonctionnalités incluent notamment la gestion de la qualité de service (QoS), l'ordonnancement efficace du trafic montant et descendant, la classification des paquets, la gestion de la bande passante, la création dynamique de flux de service, ainsi qu'une simulation fiable de la couche OFDM qui permet le passage à l'échelle. Ce module a été fusionné avec la branche principale du simulateur ns-3, et est devenue l'une de ses composantes de base à partir de la version v3. 8
Today, many technical challenges remain in the design of wireless networks to support emerging services. The main contributions of this thesis are three-fold in addressing some of these issues. The first contribution addresses the reliability of wireless links, in particular through data protection against long fading time (also known as slow fading) in the context of a direct satellite-to-mobile link. We propose an innovative algorithm, called Multi Burst Sliding Encoding (MBSE), that extends the existing DVB-H intra-burst (MPEFEC) protection to an inter-burst protection. Our MBSE algorithm allows complete burst losses to be recovered, while taking into account the specificity of mobile hand-held devices. Based on an optimized data organization, our algorithm provides protection against long term fading, while still using the Reed-Solomon code already implemented in mobile hand-held chipsets. MBSE has been approved by the DVB Forum and was integrated in the DVB-SH standard in which it now plays a key role. The second contribution is related to the practical optimization of bandwidth usage in the context of wireless links. We have proposed WANcompress, a bandwidth compression technique for detecting and eliminating redundant network traffic by sending only a label instead of the original packets. It differs from standard compression techniques in that it removes redundant patterns over a large range of time (days/weeks, i. E. Giga-bytes) where as existing compression techniques operate on a smaller windwos scales (seconds, i. E. Few kilo-bytes). We performed intensive experiments that achieved compression factors up to 25 times, and acceleration factors up to 22 times. In a corporate trial conducted over a WiMAX network for one week, WANcompress improved the bitrate up to 10 times, and on average 33% of the bandwidth was saved. The third contribution is related to the simulation of wireless networks. We have proposed a 802. 16 WiMAX module for the widely used ns-3 simulator. Our module provides a detailed and standard-compliant implementation of the Point to Multi-Point (PMP) topology with Time Division Duplex (TDD) mode. It supports a large number of features, thus enabling the simulation of a rich set of WiMAX scenarios, and providing close-to-real results. These features include Quality of Service (QoS) management, efficient scheduling for both up-link and downlink, packet classification, bandwidth management, dynamic flow creation, as well as scalable OFDM physical layer simulation. This module was merged with the main development branch of the ns-3 simulator, and has become one of its standard features as of version v3. 8
APA, Harvard, Vancouver, ISO, and other styles
21

Tizon, Nicolas. "Codage vidéo scalable pour le transport dans un réseau sans fil." Paris, ENST, 2009. http://www.theses.fr/2009ENST0032.

Full text
Abstract:
Depuis quelques années, les données vidéo ont pris une place prépondérante en terme de trafic internet. Aussi, la multiplication des usages a fait émerger des besoins importants en termes d'adaptation du contenu en fonction du réseau ou du type de terminal utilisé. En ce qui concerne le codage source, le codage SVC (extension scalable de H. 264/AVC) constitue un outil très intéressant pour la mise en œuvre de solutions de transport optimisées dans des réseaux hétérogènes, soumis à de fortes contraintes au niveau des taux d'erreurs et particulièrement sensibles à la congestion. Du côté des réseaux, les solutions orientées IP sont devenues prédominantes et au niveau radio pour les réseaux sans fil, la tendance est de restreindre l'usage des canaux dédiés au profit d'une utilisation partagée de la ressource. Dans cette optique, les normes 3GPP prévoient la mise en oeuvre d'entités et de mécanismes de contrôle sensés apporter une QoS différenciée selon le type de service et permettant de gérer de façon rationnelle le partage de cette ressource. C'est dans une perspective d'optimisation du codage source et de la scalabilité de type SVC que s'inscrit une partie du travail réalisé dans cette thèse. Au niveau applicatif, un panel de débouchés peut être envisagé pour ce nouveau codec. En particulier, l'optimisation de la QoS a servi de cadre général aux travaux réalisés au cours de cette thèse. De façon plus précise, l'objectif initial et industriel de cette thèse était de mettre au point une solution de streaming vidéo tirant partie des possibilités du codage SVC pour optimiser l'utilisation de la ressource radio dans un réseaux téléphonique de type 3G
Bitrate adaptation is a key issue when considering streaming applications involving throughput limited networks with error prone channels, as wireless networks. The emergence of recent source coding standards like the scalable extension of H. 264/AVC namely Scalable Video Coding (SVC), that allows to encode in the same bitstream a wide range of spatio-temporal and quality layers, offers new adaptation facilities. The concept of scalability, when exploited for dynamic channel adaptation purposes, raises at least two kinds of issues: how to measure network conditions and how to differentiate transmitted data in terms of distortion contribution ? In this document, we propose and compare different approaches in terms of network architecture in order to comply with different practical requirements. The first approach consists in a video streaming system that uses SVC coding in order to adapt the input stream at the radio link layer as a function of the available bandwidth, thanks to a Media Aware Network Element (MANE) that assigns priority labels to video packets. The second approach consists in not modifying the existing network infrastructure and keeping the adaptation operations in the server that exploits long term feedbacks from the client. Moreover, in this document, we present a recursive distortion model, which is used to dynamically calculate the contribution of each packet to the final distortion. Finally, in the scope of lossy compression with subband decomposition and quantization, a contribution has been proposed in order to jointly resize decoded pictures and adapt the inverse transformation matrices following quantization noise and images content
APA, Harvard, Vancouver, ISO, and other styles
22

Do, Quoc Bao. "Adaptive Post-processing Methods for Film and Video Quality Enhancement." Paris 13, 2011. http://www.theses.fr/2011PA132030.

Full text
Abstract:
L'introduction des nouvelles technologies numériques de traitement et de codage de contenus visuels dans l'industrie du film a permis de réaliser de grandes avancées dans le monde du cinéma. En effet, l'automatisation de certaines tâches lourdes et la maîtrise des outils numériques ont ainsi permis de réaliser des gains de productivité de qualité considérables et des conditions de travail de plus en plus flexibles et maîtrisables. Dans ce travail de thèse, nous poursuivons cet effort de développement de solutions de traitement automatique pour améliorer la qualité des films numériques haute définition. La qualité d'image est un facteur important dans l'industrie du film qu'il convient de maîtriser. Nous nous intéressons ainsi à quelques artéfacts et limitations des outils et processus de production qui affectent la qualité de l'image. Il s'agit des artéfacts de codage tels que les effets de blocs et l'effet de Gibbs (ringing), le bruit de grain et le cas d'une distorsion couleur appelée "écho d'étalonnage". Pour chaque distorsion ou artéfact, un traitement adaptatif, respectant la fidélité d'image et la cohérence visuelle, est proposé et évalué au moyen de mesures objectives. Les résultats obtenus sont très prometteurs et démontrent l'efficacité des méthodes proposées. Des perspectives réalistes sont envisages pour améliorer et étendre les solutions développées à d'autres types contenus multimédia
The introduction of new digital processing and coding techniques of visual contents in the film industry has allowed filmmakers to achieve great technological and commercial advancements. Indeed, the automation of certain complex tasks has enabled to achieve productivity gains and has made advances in terms of reliability and technical accuracy. The picture quality is one of the most important factors in the #lm industry. The main objective of the thesis work is then to propose new methods for improving the quality of high de#nition video in the context of digital cinema. Here we focus on some known annoying artifacts and distortions. A new and less studied artifact occurring during the color processing of the film is also analyzed. All the proposed solutions are developed in a highly constrained environment dictated by the cinema post-production framework. The performances of the developed methods are evaluated using some objective measures and criteria. The obtained results show that the proposed methods can provide efficient solutions for improving HD film quality. Some perspectives for extending these solutions to other visual contents are considered
APA, Harvard, Vancouver, ISO, and other styles
23

Boisson, Guillaume. "Représentations hautement scalables pour la compression vidéo sur une large gamme de débits / résolutions." Rennes 1, 2005. ftp://ftp.irisa.fr/techreports/theses/2005/boisson.pdf.

Full text
Abstract:
Cette thèse concerne la compression vidéo scalable (encodage unique délivrant un flux décodable à différents formats/qualités). On cherche une description finement scalable sur une large gamme de débits/résolutions sans perdre en efficacité par rapport à un codec non-scalable. Le défi réside dans la conciliation de la scalabilité spatiale avec la décorrélation temporelle. Trois architectures sont étudiées: une transformée spatiale en ondelettes suivie d'un codage arithmétique contextuel étendu au lieu du traditionnel filtrage temporel; un schéma (t+2D) utilisant EBCOT pour la texture et un codec mouvement spatialement scalable pour améliorer la qualité à basse résolution; enfin une architecture basée sur une analyse temporelle multi-résolution emboîtée. Ce simulcast à échantillonnage critique et reconstruction parfaite permet une répartition de la qualité entre les résolutions, et constitue un aboutissement satisfaisant dans la compétition des technologies scalables vs non-scalables.
APA, Harvard, Vancouver, ISO, and other styles
24

Dhif, Imen. "Compression, analyse et visualisation des signaux physiologiques (EEG) appliqués à la télémédecine." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066393.

Full text
Abstract:
En raison de la grande quantité d’EEG acquise sur plusieurs journées, une technique de compression efficace est nécessaire. Le manque des experts et la courte durée des crises encouragent la détection automatique des convulsions. Un affichage uniforme est obligatoire pour assurer l’interopérabilité et la lecture des examens EEG transmis. Le codeur certifié médical WAAVES fournit des CR élevés et assure une qualité de diagnostic d’image. Durant nos travaux, trois défis sont révélés : adapter WAAVES à la compression des signaux, détecter automatiquement les crises épileptiques et assurer l’interopérabilité des afficheurs EEG. L’étude du codeur montre qu’il est incapable de supprimer la corrélation spatiale et de compresser des signaux monodimensionnels. Par conséquent, nous avons appliqué l’ICA pour décorréler les signaux, la mise en échelle pour redimensionner les valeurs décimales et la construction d’image. Pour garder une qualité de diagnostic avec un PDR inférieur à 7%, nous avons codé le résidu. L’algorithme de compression EEGWaaves proposé a atteint des CR de l’ordre de 56. Ensuite, nous avons proposé une méthode d’extraction des caractéristiques des signaux EEG basée sur un nouveau modèle de calcul de la prédiction énergétique (EAM) des signaux. Ensuite, des paramètres statistiques ont été calculés et les Réseaux de Neurones ont été appliqués pour détecter les crises épileptiques. Cette méthode nous a permis d’atteindre de meilleure sensibilité allant jusqu’à 100% et une précision de 99.44%. Le dernier chapitre détaille le déploiement de notre afficheur multi-plateforme des signaux physiologiques. Il assure l’interopérabilité des examens EEG entre les hôpitaux
Due to the large amount of EEG acquired over several days, an efficient compression technique is necessary. The lack of experts and the short duration of epileptic seizures require the automatic detection of these seizures. Furthermore, a uniform viewer is mandatory to ensure interoperability and a correct reading of transmitted EEG exams. The certified medical image WAAVES coder provides high compression ratios CR while ensuring image quality. During our thesis, three challenges are revealed : adapting WAAVES coder to the compression of the EEG signals, detecting automatically epileptic seizures in an EEG signal and ensure the interoperability of the displays of EEG exams. The study of WAAVES shows that this coder is unable to remove spatial correlation and to compress directly monodimensional signals. Therefore, we applied ICA to decorrelate signals, a scaling to resize decimal values, and image construction. To keep a diagnostic quality with a PDR less than 7%, we coded the residue. The proposed compression algorithm EEGWaaves has achieved CR equal to 56. Subsequently, we proposed a new method of EEG feature extraction based on a new calculation model of the energy expected measurement (EAM) of EEG signals. Then, statistical parameters were calculated and Neural Networks were applied to classify and detect epileptic seizures. Our method allowed to achieve a better sensitivity up to 100% and an accuracy of 99.44%. The last chapter details the deployment of our multiplatform display of physiological signals by meeting the specifications established by doctors. The main role of this software is to ensure the interoperability of EEG exams between healthcare centers
APA, Harvard, Vancouver, ISO, and other styles
25

Tchiotsop, Daniel. "Modélisations polynomiales des signaux ECG : applications à la compression." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL088N/document.

Full text
Abstract:
La compression des signaux ECG trouve encore plus d’importance avec le développement de la télémédecine. En effet, la compression permet de réduire considérablement les coûts de la transmission des informations médicales à travers les canaux de télécommunication. Notre objectif dans ce travail de thèse est d’élaborer des nouvelles méthodes de compression des signaux ECG à base des polynômes orthogonaux. Pour commencer, nous avons étudié les caractéristiques des signaux ECG, ainsi que différentes opérations de traitements souvent appliquées à ce signal. Nous avons aussi décrit de façon exhaustive et comparative, les algorithmes existants de compression des signaux ECG, en insistant sur ceux à base des approximations et interpolations polynomiales. Nous avons abordé par la suite, les fondements théoriques des polynômes orthogonaux, en étudiant successivement leur nature mathématique, les nombreuses et intéressantes propriétés qu’ils disposent et aussi les caractéristiques de quelques uns de ces polynômes. La modélisation polynomiale du signal ECG consiste d’abord à segmenter ce signal en cycles cardiaques après détection des complexes QRS, ensuite, on devra décomposer dans des bases polynomiales, les fenêtres de signaux obtenues après la segmentation. Les coefficients produits par la décomposition sont utilisés pour synthétiser les segments de signaux dans la phase de reconstruction. La compression revient à utiliser un petit nombre de coefficients pour représenter un segment de signal constitué d’un grand nombre d’échantillons. Nos expérimentations ont établi que les polynômes de Laguerre et les polynômes d’Hermite ne conduisaient pas à une bonne reconstruction du signal ECG. Par contre, les polynômes de Legendre et les polynômes de Tchebychev ont donné des résultats intéressants. En conséquence, nous concevons notre premier algorithme de compression de l’ECG en utilisant les polynômes de Jacobi. Lorsqu’on optimise cet algorithme en supprimant les effets de bords, il dévient universel et n’est plus dédié à la compression des seuls signaux ECG. Bien qu’individuellement, ni les polynômes de Laguerre, ni les fonctions d’Hermite ne permettent une bonne modélisation des segments du signal ECG, nous avons imaginé l’association des deux systèmes de fonctions pour représenter un cycle cardiaque. Le segment de l’ECG correspondant à un cycle cardiaque est scindé en deux parties dans ce cas: la ligne isoélectrique qu’on décompose en séries de polynômes de Laguerre et les ondes P-QRS-T modélisées par les fonctions d’Hermite. On obtient un second algorithme de compression des signaux ECG robuste et performant
Developing new ECG data compression methods has become more important with the implementation of telemedicine. In fact, compression schemes could considerably reduce the cost of medical data transmission through modern telecommunication networks. Our aim in this thesis is to elaborate compression algorithms for ECG data, using orthogonal polynomials. To start, we studied ECG physiological origin, analysed this signal patterns, including characteristic waves and some signal processing procedures generally applied ECG. We also made an exhaustive review of ECG data compression algorithms, putting special emphasis on methods based on polynomial approximations or polynomials interpolations. We next dealt with the theory of orthogonal polynomials. We tackled on the mathematical construction and studied various and interesting properties of orthogonal polynomials. The modelling of ECG signals with orthogonal polynomials includes two stages: Firstly, ECG signal should be divided into blocks after QRS detection. These blocks must match with cardiac cycles. The second stage is the decomposition of blocks into polynomial bases. Decomposition let to coefficients which will be used to synthesize reconstructed signal. Compression is the fact of using a small number of coefficients to represent a block made of large number of signal samples. We realised ECG signals decompositions into some orthogonal polynomials bases: Laguerre polynomials and Hermite polynomials did not bring out good signal reconstruction. Interesting results were recorded with Legendre polynomials and Tchebychev polynomials. Consequently, our first algorithm for ECG data compression was designed using Jacobi polynomials. This algorithm could be optimized by suppression of boundary effects, it then becomes universal and could be used to compress other types of signal such as audio and image signals. Although Laguerre polynomials and Hermite functions could not individually let to good signal reconstruction, we imagined an association of both systems of functions to realize ECG compression. For that matter, every block of ECG signal that matches with a cardiac cycle is split in two parts. The first part consisting of the baseline section of ECG is decomposed in a series of Laguerre polynomials. The second part made of P-QRS-T waves is modelled with Hermite functions. This second algorithm for ECG data compression is robust and very competitive
APA, Harvard, Vancouver, ISO, and other styles
26

Fuchs, Christine. "Etude de la compression de signaux par dispositifs à lignes de transmission non linéaire." Chambéry, 2000. http://www.theses.fr/2000CHAMS028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Bernard, Antoine. "Solving interoperability and performance challenges over heterogeneous IoT networks : DNS-based solutions." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS012.

Full text
Abstract:
L'Internet des Objets (IdO) a évolué depuis cette possibilité théorique de connecter tous les appareils à un réel marché de biens et de services en constante expansion. Les technologies sous-jacentes ont évolué et l'IdO repose aujourd'hui sur de nombreuses technologies de communication différentes: Des technologies à courte portée comme Bluetooth, moyenne portée comme Zigbee ou longue portée comme la technologie LoRa (Long-Range).Les systèmes de l'IdO sont habituellement construits autour d'infrastructures fermées basées sur des systèmes en silo. Créer de l'interopérabilité entre ces silos fermés est un enjeu pour certains cas d'usages cruciaux dans le déploiement des technologies de l'IdO comme les villes intelligentes. Développer la problématique au niveau applicatif est une première étape directement inspirée des pratiques courantes en matière de collecte et d'analyse de données dans le cadre du développement des technologies de traitement de données massives. Cependant, construire des ponts au niveau réseau permettrait de faciliter l'interconnexion entre infrastructures et faciliterait la transition fluide entre technologies de l'IdO afin d'améliorer à bas coût la couverture réseau.Le Système de Nom de Domaine (Domain Name System, DNS), initialement développé pour traduire les noms, lisibles et compréhensibles par les utilisateurs en adresses IP, utilisées par les appareils connectés, est reconnu comme un facilitateur sur les question d'interopérabilité sur Internet. C'est l'un des systèmes les plus anciens déployés sur Internet, développé à la fin des années 1980 pour supporter la croissance de l'infrastructures Internet. Bien qu'ayant beaucoup évolué ces dernières années, en témoignent les nombreuses propositions de modifications au standard publié à son sujet, le DNS reste aujourd'hui l'une des infrastructures les plus centrales du réseau Internet.Le DNS repose sur des principes simples, mais son évolution depuis ses premiers développements ont permis de construire des systèmes complexes grâce à ses nombreuses possibilités de configuration. Dans le cadre cette thèse, qui étudie les possibles améliorations aux services et infrastructures de l'IdO, nous étudions la problématique suivante : Le DNS et son infrastructure peuvent-ils servir de support efficace à l'évolution de l'IdO de la même manière qu'il a accompagné l'évolution d'Internet ?Dans cette optique, nous étudions de possibles améliorations de systèmes de l'IdO sous trois angles.Nous testons tout d'abord un modèle d'itinérance pour réseaux de l'Internet des Objets au travers de la construction d'une fédération reposant sur l'infrastructure du DNS et ses extensions pour en assurer l'interopérabilité, la sécurité de bout-en-bout et optimiser les communications entre infrastructures. Son objectif est de proposer des transitions fluides entre réseaux sur base d'informations stockées à l'aide de l'infrastructure DNS. Nous explorons également les problématiques introduites par le DNS, notamment en termes de latence et d'influence sur les temps de réponse des applications, et comment en limiter l'impact sur les échanges, déjà grandement contraints, entre objet connecté et passerelle radio. Pour cela nous étudions les conséquences de l'utilisation de requêtes DNS anticipées dans un contexte de mobilité en milieu urbain. Nous étudions ensuite la façon dont le Système de Nom de Domaine peut renforcer l'interopérabilité, la disponibilité de ressources et le passage à l'échelle de systèmes de compression de paquets de l'IdO. Enfin, nous explorons la question de la minimisation de trafic en implantant des algorithmes d'apprentissage sur des capteurs et en mesurant les paramètres du système final, en particulier en terme de performances de transmissions et d'efficacité énergétique
The Internet of Things (IoT) evolved from its theoretical possibility to connect anything and everything to an ever-increasing market of goods and services. Its underlying technologies diversified and IoT now encompasses various communication technologies ranging from short-range technologies as Bluetooth, medium-range technologies such as Zigbee and long-range technologies such as Long Range Wide Area Network.IoT systems are usually built around closed, siloed infrastructures. Developing interoperability between these closed silos is crucial for IoT use-cases such as Smart Cities. Working on this subject at the application level is a first step that directly evolved from current practice regarding data collection and analysis in the context of the development of Big Data. However, building bridges at the network level would enable easier interconnection between infrastructures and facilitate seamless transitions between IoT technologies to improve coverage at low cost.The Domain Name System (DNS) basically developed to translate human-friendly computer host-names on a network into their corresponding IP addresses is a known interoperability facilitator on the Internet. It is one of the oldest systems deployed on the Internet and was developed to support the Internet infrastructure's growth at the end of the 80s. Despite its old age, it remains a core service on the Internet and many changes from its initial specifications are still in progress, as proven by the increasing number of new suggestions to modify its standard.DNS relies on simple principles, but its evolution since its first developments allowed to build complex systems using its many configuration possibilities. This thesis investigates possible improvements to IoT services and infrastructures. Our key problem can be formulated as follow: Can the DNS and its infrastructure serve as a good baseline to support IoT evolution as it accompanied the evolution of the Internet?We address this question with three approaches. We begin by experimenting with a federated roaming model IoT networks exploiting the strengths of the DNS infrastructure and its security extensions to improve interoperability, end-to-end security and optimize back-end communications. Its goal is to propose seamless transitions between networks based on information stored on the DNS infrastructure. We explore the issues behind DNS and application response times, and how to limit its impact on constrained exchanges between end devices and radio gateways studying DNS prefetching scenarios in a city mobility context. Our second subject of interest consists of studying how DNS can be used to develop availability, interoperability and scalability in compression protocols for IoT. Furthermore, we experimented around compression paradigms and traffic minimization by implementing machine learning algorithms onto sensors and monitoring important system parameters, particularly transmission performance and energy efficiency
APA, Harvard, Vancouver, ISO, and other styles
28

Fila-Kordy, Barbara. "Automates pour l'analyse de documents XML compressés, applications à la sécurité d'accès." Orléans, 2008. http://www.theses.fr/2008ORLE2029.

Full text
Abstract:
Le problème d'extraction d'information dans les documents XML est un domaine de recherche important en informatique. Nous proposons deux approches pour l'évaluation de requêtes sur les documents XML, compressés ou non, et/ou assujettis à des politiques du contrôle d'accès. La première est basée sur la logique de Horn: les politiques du contrôle d'accès de même que les requêtes sont modélisées comme des clauses de Horn contraintes, et l'évaluation de requêtes s'appuie sur une technique de résolution adaptée. La deuxième approche que nous présentons vise les documents XML pouvant être présentés sous une forme compressée comme des dags. Cette approche est basée sur sept automates de mots, correspondant aux sept axes de base de XPath. Ils courent de façon top-down sur les dags, et permettent d'évaluer les requêtes sur les documents compressés sans devoir les décompresser. Cette technique d'évaluation d'une requête Q, sur un document compressé t, peut être adaptée de façon à fournir la même réponse que l'évaluation de Q sur l'arbre équivalent à t. La complexité de nos deux approches est linéaire par rapport au nombre d'arêtes du document, et la taille de la requête. Outre ces deux approches, nous avons également présenté une approche basée sur les techniques de réécriture qui permet de résoudre le problème d'inclusion de patterns, sur un fragment purement descendant de XPath ; nous déduisons ainsi une condition nécessaire et suffisante pour ce problème (pour les patterns de ce fragment). Cette vue réécriturale peut être adaptée de façon à fournir une technique d'évaluation pour les requêtes modélisées par ces patterns, sur les documents XML arborescents ou compressés comme des dags.
APA, Harvard, Vancouver, ISO, and other styles
29

Toubol, Dominique. "Contribution à l'étude de codeurs prédictifs adaptatifs avec quantificateur vectoriel : codeur pleine bande et codeur en bande de base." Nice, 1990. http://www.theses.fr/1990NICE4371.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur un codeur appartenant à la même famille qu'un système de compression numérique appelé CELP, proposé en 1985 par B. A. Atal et al. Le principe du CELP repose sur une analyse par synthèse utilisant des techniques de prédiction linéaire, et sur une quantification vectorielle du signal d'excitation. Le débit de transmission atteint est inferieur à 10 kbps, pour une qualité sub-téléphonique du signal reconstruit, mais avec une complexité proche de 40 mips. Nous proposons ici un codeur original baptisé ACELP (adaptive code excited linear predictive coder), atteignant le même ordre de qualité, pour une complexité de calculs et une mémoire de stockage cinq fois plus faible, à un débit de 8,5 kpbs. L’originalité de l'ACELP repose sur l'utilisation d'une technique particulière de masquage spectral du bruit de codage, et sur l'emploi d'un répertoire linéaire adaptatif. La structure linéaire permet de réduire la taille de la mémoire de stockage, et le caractère adaptatif accroît les performances du codeur dans une large mesure. Nous présentons une analyse de l'ACELP fonctionnant sur la totalité de la bande de fréquences utile, ainsi qu'une application de notre technique à un codeur à excitation résiduelle en bande de base, le BB-ACELP (base-band ACELP), qui permet de réduire davantage la complexité, sans dégradation préjudiciable de la qualité sur le plan de la perception auditive. En conclusion, nous retiendrons que pour un débit de transmission de 8. 5 kbits/s, des tests d'écoute ont permis d'évaluer la qualité de l'ACELP, comme étant équivalente à celle du GSM fonctionnant à 13 kbps. La complexité, estimée dans ce cas à 8 mips, ne vaut plus que 5 mips dans le cas du BB-ACELP fonctionnant au même débit, et délivrant un signal de qualité équivalente
APA, Harvard, Vancouver, ISO, and other styles
30

Mejri, Asma. "Systèmes de communications multi-utilisateurs : de la gestion d'interférence au codage réseau." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0086.

Full text
Abstract:
Ce travail est dédié à l'analyse, la conception et l'évaluation des performances des schémas de codage de réseaux pour les systèmes des communications multi-terminaux. Nous étudions en premier lieu le protocole « compute-and-forward » dans le canal à accès multiples. Nous proposons un critère de construction de codes de réseaux efficaces pour cette stratégie basé sur la résolution d'un problème du vecteur le plus court d'un réseau de points. En addition, nous développons de nouveaux algorithmes de décodage prouvés numériquement plus performants que le décodeur existant du CF. La deuxième partie concerne l'implémentation du protocole CF dans le canal à relais bidirectionnel et le canal à sources et relais multiples. Nous développons des algorithmes de construction de schémas de codage pour le CF et évaluons théoriquement et par simulations numériques leurs performances. La dernière partie concerne le canal MIMO distribué et en particulier une nouvelle architecture de décodeurs « integer forcing » inspirés par le protocole CF. Nous proposons de nouveaux algorithmes de construction des paramètres optimaux de ces décodeurs et montrons par simulations qu'ils apportent un gain significatif par rapport aux récepteurs linéaires existants
This work is dedicated to the analysis, design and performance evaluation of physical layer network coding strategies in multiuser communication systems. The first part is devoted to study the compute-and-forward protocol in the basic multiple access channel. For this strategy, we propose an optimal solution to design efficient network codes based on solving a lattice shortest vector problem. Moreover, we derive novel bounds on the ergodic rate and the outage probability for the CF operating in fast and slow fading channels respectively. Besides, we develop novel decoding algorithms proved numerically to outperform the traditional decoding scheme for the CF. The second part is dedicated to the design and end-to-end performance evaluation of network codes for the CF and the analog network coding in the two-way relay channel and the multi-source multi-relay channel. For each network model we study the decoding at the relay nodes and the end destination, propose search algorithms for optimal network codes for the CF and evaluate, theoretically and numerically, the end-to-end error rate and achievable transmission rate. In the last part, we study new decoders for the distributed MIMO channel termed integer forcing (if). Inspired by the CF, if receivers take advantage of the interference provided by the wireless medium to decode integer linear combinations of the original codewords. We develop in our work efficient algorithms to select optimal if receivers parameters allowing to outperform existing suboptimal linear receivers
APA, Harvard, Vancouver, ISO, and other styles
31

Vo, Nguyen Dang Khoa. "Compression vidéo basée sur l'exploitation d'un décodeur intelligent." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4136/document.

Full text
Abstract:
Cette thèse de doctorat étudie le nouveau concept de décodeur intelligent (SDec) dans lequel le décodeur est doté de la possibilité de simuler l’encodeur et est capable de mener la compétition R-D de la même manière qu’au niveau de l’encodeur. Cette technique vise à réduire la signalisation des modes et des paramètres de codage en compétition. Le schéma général de codage SDec ainsi que plusieurs applications pratiques sont proposées, suivis d’une approche en amont qui exploite l’apprentissage automatique pour le codage vidéo. Le schéma de codage SDec exploite un décodeur complexe capable de reproduire le choix de l’encodeur calculé sur des blocs de référence causaux, éliminant ainsi la nécessité de signaler les modes de codage et les paramètres associés. Plusieurs applications pratiques du schéma SDec sont testées, en utilisant différents modes de codage lors de la compétition sur les blocs de référence. Malgré un choix encore simple et limité des blocs de référence, les gains intéressants sont observés. La recherche en amont présente une méthode innovante qui permet d’exploiter davantage la capacité de traitement d’un décodeur. Les techniques d’apprentissage automatique sont exploitées pour but de réduire la signalisation. Les applications pratiques sont données, utilisant un classificateur basé sur les machines à vecteurs de support pour prédire les modes de codage d’un bloc. La classification des blocs utilise des descripteurs causaux qui sont formés à partir de différents types d’histogrammes. Des gains significatifs en débit sont obtenus, confirmant ainsi le potentiel de l’approche
This Ph.D. thesis studies the novel concept of Smart Decoder (SDec) where the decoder is given the ability to simulate the encoder and is able to conduct the R-D competition similarly as in the encoder. The proposed technique aims to reduce the signaling of competing coding modes and parameters. The general SDec coding scheme and several practical applications are proposed, followed by a long-term approach exploiting machine learning concept in video coding. The SDec coding scheme exploits a complex decoder able to reproduce the choice of the encoder based on causal references, eliminating thus the need to signal coding modes and associated parameters. Several practical applications of the general outline of the SDec scheme are tested, using different coding modes during the competition on the reference blocs. Despite the choice for the SDec reference block being still simple and limited, interesting gains are observed. The long-term research presents an innovative method that further makes use of the processing capacity of the decoder. Machine learning techniques are exploited in video coding with the purpose of reducing the signaling overhead. Practical applications are given, using a classifier based on support vector machine to predict coding modes of a block. The block classification uses causal descriptors which consist of different types of histograms. Significant bit rate savings are obtained, which confirms the potential of the approach
APA, Harvard, Vancouver, ISO, and other styles
32

Hénocq, Xavier. "Contrôle d'erreur pour transmission de flux vidéo temps réel sur réseaux de paquets hétérogènes et variant dans le temps." Rennes 1, 2002. http://www.theses.fr/2002REN10020.

Full text
Abstract:
Cette thèse s'inscrit dans la problématique de la transmission point à point et multipoint d'applications de visioconférence sur réseau de paquets. Notre objectif est de définir des mécanismes capables d'assurer une qualité de service convenable à ces applications malgré les problèmes de pertes de paquets et de délais de transmission caractérisant ce type de réseau. Une premier mécanisme de contrôle d'erreur basé FEC compatible avec le standard H263+ est proposé. Ce mécanisme s'appuie sur un algorithme d'optimisation débit-distorsion des débits source et canal. Cette optimisation prend en compte le canal par l'intermédiaire d'une métrique de distorsion incorporant la distorsion de codage de source et la distorsion de canal modélisées par un processus de Elliot-Gilbert. Ce mécanisme conduisant à une protection inégale des images, un format de transport adapté aux données inégalement protégées est proposé. Nous étendons ensuite le mécanisme ainsi développé au codage hiérarchique standard. Par la suite, le mécanisme précédent est inséré dans un schéma de régulation de débit multicouche adapté au contexte multipoint hétérogène. Cette régulation s'appuie sur une représentation concise de l'état du réseau fourni par un mécanisme d'agrégation des rapports des récepteurs et se fait suivant un critère d'optimisation de la qualité perçue par l'ensemble des récepteurs. Les temps de latence induits par les FEC et l'interdépendance des différents niveaux de scalabilité sont deux limitations majeures des méthodes précédemment envisagées pouvant être évitées par les techniques de codage par description multiples étudiées dans la seconde partie de cette thèse. Une méthode basée sur des expansions de signal sur base de fonctions redondantes (frame expansion) est envisagée. Nous faisons un parallèle entre les frame expansions et les codes correcteurs définis dans le domaine des réels. Enfin, nous proposons un schéma de codage vidéo par description multiples.
APA, Harvard, Vancouver, ISO, and other styles
33

Buisson, Alexandre. "Implémentation efficace d'un codeur vidéo hiérarchique granulaire sur une architecture à processeurs multimedia." Rennes 1, 2002. http://www.theses.fr/2002REN10083.

Full text
Abstract:
CE MEMOIRE TRAITE DE L'INTEGRATION DES TECHNIQUES DE CODAGE VIDEO PAR MAILLAGES DANS DES SCHEMAS DE CODAGE ET DE LA MISE EN ADEQUATION DE CES ALGORITHMES AVEC UNE ARCHITECTURE MULTI-PROCESSEURS PENTIUM. L'AUGMENTATION CROISSANTE DES CAPACITES DES RESEAUX S'AVERE INSUFFISANTE, FACE A LA MULTIPLICATION DES DONNEES MISES EN CIRCULATION. DE CE FAIT, POUR L'ENSEMBLE DES MEDIA ET EN PARTICULIER POUR LA VIDEO, LES TRES BAS DEBITS RESTENT TOUJOURS UN OBJECTIF MAJEUR. AFIN D'ATTEINDRE CEUX-CI, LES ALGORITHMES DE CODAGE D'IMAGES ET DE VIDEO BASES MAILLAGES SEMBLENT PERTINENTS. CEPENDANT UNE SOLUTION DE CODAGE VIDEO UNIQUEMENT BASEE MAILLAGE RESTE INEXPLOITABLE ET IMMATURE A L'HEURE ACTUELLE. DE CE FAIT, IL SEMBLE JUDICIEUX D'ENVISAGER LEUR USAGE PAR LE BIAIS D'UNE HYBRIDATION AVEC UN CODEUR ROBUSTE. DE PLUS, LA COMPLEXITE DE CES ALGORITHMES ETANT IMPORTANTE, LEUR IMPLEMENTATION EFFICACE REPRESENTE UN POINT CRITIQUE. ON EXPLORE DONC LES TECHNIQUES A METTRE EN OEUVRE POUR AMELIORER LES PERFORMANCES DE CEUX-CI SUR UNE ARCHITECTURE MULTI-PENTIUM. LE CHAPITRE 1 DE CE MEMOIRE PRESENTE UN ETAT DE L'ART DETAILLE DES SOLUTIONS DE CODAGE PAR MAILLAGES. LE CHAPITRE 2 PRESENTE QUANT A LUI, UNE ETUDE CONCERNANT l'INTEGRATION DES MAILLAGES DANS UN MECANISME D'INTERPOLATION TEMPORELLE DE TRAME. LE CHAPITRE 3 DECRIT UN CERTAIN NOMBRE D'OPTIMISATIONS ALGORITHMIQUES. LE CHAPITRE 4 S'INTERESSE A NOTRE PLATEFORME DE DEVELOPPEMENT. LES CHAPITRES 5 ET 6 PROPOSENT DES OPTIMISATIONS ALGORITHMIQUES POUR PERMETTRE UNE EXPLOITATION EFFICACE DE LA PLATEFORME. ENFIN, LE CHAPITRE 6 DECRIT UNE INTEGRATION DES MAILLAGES DANS UNE SOLUTION DE CODAGE H26L. GRACE AUX OPTIMISATIONS DEVELOPPEES, ON A DEMONTRE QUE DES PERFORMANCES QUASI TEMPS-REELLES SONT ENVISAGEABLES. DE PLUS, LES HYBRIDATIONS AVEC UN CODEUR ROBUSTE CONFIRMENT LEURS CAPACITES SOUS-JACENTES A REDUIRE LES COUTS DE CODAGE ET A AMELIORER LA QUALITE PERÇUE DES VIDEOS.
APA, Harvard, Vancouver, ISO, and other styles
34

Guyader, Arnaud. "Contribution aux algorithmes de décodage pour les codes graphiques." Rennes 1, 2002. http://www.theses.fr/2002REN10014.

Full text
Abstract:
En 1993, grâce à leurs nouveaux codes correcteurs d'erreurs, les turbo-codes, Berrou et al. Obtiennent des performances proches de la limite théorique de Shannon. Cette découverte est à l'origine de nouvelles approches, ne se limitant pas au domaine du codage canal, et connues sous le nom de techniques t̀̀urbo'', alliant d'excellentes performances à une complexité algorithmique raisonnable. L'idée initiale était de voir comment appliquer les idées graphiques de décodage approché aux codes courts, d'où la nécessité d'orienter le travail vers l'étude du comportement de la propagation dans les graphes cycliques, et vers une approche plus locale du problème. Des éléments de réponse et, dans certains cas, des améliorations ont été apportés à ces problèmes. Un travail sur le codage conjoint source-canal a été mené en parallèle : c'est une nouvelle application, probante, de la méthode t̀̀urbo''. Elle montre à la fois la puissance de cette idée et la commodité du formalisme des réseaux bayésiens.
APA, Harvard, Vancouver, ISO, and other styles
35

Jerbi, Khaled. "Synthese matérielle haut niveau des programmes flot de données." Rennes, INSA, 2012. https://tel.archives-ouvertes.fr/tel-00827163.

Full text
Abstract:
L’evolution des algorithmes de traitement de la video a implique l’apparition de plusieurs standards. Ces standards presentent plusieurs algorithmes communs. Cependant, il n’est pas facile de reutiliser ces algorithmes a cause du monolithisme des codes. Pour resoudre ces problemes, la communaute iso/iec mpeg a cree le standard « reconfigurable video coding » (rvc) base sur le principe que les algorithmes peuvent etre definis sous la forme d’une librairie de composants separes. Ainsi, les composants sont normalises au lieu du decodeur entier. Mpeg-rvc propose une specification haut-niveau unifiee des technologies mpeg utilisant un langage oriente flot de donnees appele cal (cal actor language) et une plateforme de compilation sur des cibles logicielles et materielles. Le probleme est que les compilateurs hardware ne sont pas capables de compiler les structures haut-niveau du cal qui sont omnipresents dans la majorite des designs rvc-cal evolues. Dans cette these, le langage cal est utilise pour le developpement du codec d’image fixe lar. Le probleme de la generation materielle a ensuite ete resolu en utilisant des transformations automatiques des structures haut-niveau vers leur equivalent en bas-niveau. Ces transformation ont ete testees et validees sur differents designs rvc-cal
The evolution of video processing algorithms involved the advent of several standards. These standards present many common algorithms but designers are not able to reuse them because of their monolithic description. To solve this problem, iso/iec mpeg committee created the reconfigurable video coding (rvc) standard based on the idea that processing algorithms can be defined as a library of components that can be updated separately. Thus, these components of the modular library are standardized instead of the whole decoder. Mpeg rvc framework aims at providing a unified high-level specification of current mpeg coding technologies using a dataflow language called cal actor language (cal). Rvc presents also a compilation framework of the cal for hardware and software targets, but hardware compilers cannot compile high-level features which are omnipresent in most advanced designs. In this thesis, the cal language is used to develop a baseline of the lar still image coder. The problem of hardware generation is later resolved using automatic transformations of the high-level features into their equivalent low-level ones. These transformations are validated using different designs
APA, Harvard, Vancouver, ISO, and other styles
36

Pereira, Roger. "Conception d’une cellule déphaseuse active : bipolarisation pour réseaux réflecteurs en bande X." Rennes 1, 2011. http://www.theses.fr/2011REN1S029.

Full text
Abstract:
Les travaux décris dans ce mémoire ont pour objectif de proposer des solutions antennaires à balayage électronique basées sur le concept d’antennes à réseau réflecteur. Pour se faire, on présente un nouveau dessin de cellule à déphasage actif bipolarisation. La cellule développée est constituée par deux dipôles placés de manière orthogonale à l’intérieur d’une cavité métallique (guide d’onde). Celle-ci est fermée par un court-circuit. Pour maintenir un niveau de polarisation croisée faible, on montre que la symétrie des modes TE10 et TE01 doit être préservé de manière géométrique et électrique. Ainsi, la commande des éléments actifs doit présenter ces symétries. Ceci diminue alors le nombre d’´etat réalisable par la cellule. Dans un premier temps, on montre la validité du concept sur des cellules passives en bande X. Les résultats expérimentaux obtenus alors ont permis d’envisager la réalisation de cellules actives. Pour des raisons de maturité technologique les commutateurs utilisés sont des diodes p. I. N. La dispersion liée aux diodes p. I. N fait alors naître un nouveau type de dissymétrie. Celles-ci semblent prépondérantes par rapport aux dissymétries liées aux erreurs de gravure du motif géométrique. Néanmoins, une solution pour réduire (voire supprimer) leurs effets est présentée et mesurée
In this report the electrically steerable beam antennas based on the concept of reflectarray antennas are studied. A new design using an active dual-polarisation unit-cell for reflectarray applications is investigated. The unit-cell is made of two cross-dipoles orthogonally placed into a metallic cavity (waveguide). This cavity is closed by a short-circuit. To maintain a low level of cross-polarization, it is shown that, the symmetry of the TE10 and TE01 modes have to be respected geometrically and electrically. Thus, the command for the active elements should also be symmetric. This reduces the total number of possible realizable states for the cell. As a first step, the concept was validated for the passive cells in the X frequency band. The experimental results obtained for these cells permitted us to take the study a step further towards the active cell configurations. For the simple reason of the availability of a mature technology, the p. I. N diodes were selected to be used as the switching devices. The dispersive nature of the p. I. N diodes creates a new type of dissymmetry problem. However, this kind of dissymmetry is more critical as compared to the one introduced by the geometric errors during fabrication. Nevertheless, a solution to reduce (and nearly eliminate) this undesirable effect is presented and validated experimentally
APA, Harvard, Vancouver, ISO, and other styles
37

Akbari, Ali. "Modélisation parcimonieuse des signaux : application a la compression d'image, compensation d'erreurs et à l'acquisition comprimée." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS461.pdf.

Full text
Abstract:
La modélisation des signaux peut être vue comme la pierre angulaire de la méthodologie contemporaine de traitement du signal et de l'image. La modélisation parcimonieuse permets la représentation des signaux en termes de combinaisons linéaires d'un ensemble sous-jacent, appelé dictionnaire, de signaux élémentaires connus sous le nom d'atomes. La force motrice de ce modèle est la rareté des coefficients de représentation, c'est-à-dire la décroissance rapide des coefficients de représentation sur le dictionnaire. L'objectif principal de cette thèse est de fournir de nouvelles applications pour cette méthode de modélisation du signal en abordant plusieurs problèmes sous différents angles. On se concentre sur une autre application importante de la modélisation parcimonieuse des signaux, à savoir la résolution des problèmes inverses, notamment la compensation des erreurs, la reconstruction des images incomplètes et la reconstruction des images compresses à partir d'un nombre limité de mesures aléatoires. La modélisation du signal est généralement utilisée comme une connaissance préalable du signal pour résoudre ces problèmes NP-difficiles. Puis, Il commence par l'application directe de la représentation éparse, c'est-à-dire a la compression d'image. Un nouveau codec image basé sur la représentation éparse adaptative sur un dictionnaire formé est proposé, dans lesquels différents niveaux de densité sont assignés aux correctifs d'image appartenant aux régions saillantes. Dans cette thèse, ces défis sont transférés dans des cadres distincts d’acquisition comprimée et plusieurs méthodes de reconstruction sont proposées
Signal models are a cornerstone of contemporary signal and image processing methodology. In this report, two particular signal modeling methods, called analysis and synthesis sparse representation, are studied which have been proven to be effective for many signals, such as natural images, and successfully used in a wide range of applications. Both models represent signals in terms of linear combinations of an underlying set, called dictionary, of elementary signals known as atoms. The driving force behind both models is sparsity of the representation coefficients, i.e. the rapid decay of the representation coefficients over the dictionary. On the other hands, the dictionary choice determines the success of the entire model. According to these two signal models, there have been two main disciplines of dictionary designing; harmonic analysis approach and machine learning methodology. The former leads to designing the dictionaries with easy and fast implementation, while the latter provides a simple and expressive structure for designing adaptable and efficient dictionaries. The main goal of this thesis is to provide new applications to these signal modeling methods by addressing several problems from various perspectives. It begins with the direct application of the sparse representation, i.e. image compression. The line of research followed in this area is the synthesis-based sparse representation approach in the sense that the dictionary is not fixed and predefined, but learned from training data and adapted to data, yielding a more compact representation. A new Image codec based on adaptive sparse representation over a trained dictionary is proposed, wherein different sparsity levels are assigned to the image patches belonging to the salient regions, being more conspicuous to the human visual system. Experimental results show that the proposed method outperforms the existing image coding standards, such as JPEG and JPEG2000, which use an analytic dictionary, as well as the state-of-the-art codecs based on the trained dictionaries. In the next part of thesis, it focuses on another important application of the sparse signal modeling, i.e. solving inverse problems, especially for error concealment (EC), wherein a corrupted image is reconstructed from the incomplete data, and Compressed Sensing recover, where an image is reconstructed from a limited number of random measurements. Signal modeling is usually used as a prior knowledge about the signal to solve these NP-hard problems. In this thesis, inspired by the analysis and synthesis sparse models, these challenges are transferred into two distinct sparse recovery frameworks and several recovery methods are proposed. Compared with the state-of-the-art EC and CS algorithms, experimental results show that the proposed methods show better reconstruction performance in terms of objective and subjective evaluations. This thesis is finalized by giving some conclusions and introducing some lines for future works
APA, Harvard, Vancouver, ISO, and other styles
38

Abdellatif, Slim. "Contribution à la modélisation et à l'analyse de la qualité de service dans les réseaux à commutation de paquets." Toulouse 3, 2002. http://www.theses.fr/2002TOU30041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Sidaty, Naty. "Exploitation de la multimodalité pour l'analyse de la saillance et l'évaluation de la qualité audiovisuelle." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2309/document.

Full text
Abstract:
Les données audiovisuelles font partie de notre quotidien que ce soit pour des besoins professionnels ou tout simplement pour le loisir. Les quantités pléthoriques de ces données imposent un recours à la compression pour le stockage ou la diffusion, ce qui peut altérer la qualité audio-visuelle si les aspects perceptuels ne sont pas pris en compte. L’état de l’art sur la saillance et la qualité est très riche, ignorant souvent l’existence de la composante audio qui a un rôle important dans le parcours visuel et la qualité de l’expérience. Cette thèse a pour objectif de contribuer à combler le manque d’approches multimodales et ce, en suivant une démarche expérimentale dédiée. Les travaux associés se déclinent en deux parties : l’attention audiovisuelle et la qualité multimodale. Tout d'abord, afin de comprendre et d’analyser l’influence de l’audio sur les mouvements oculaires humains, nous avons mené une expérimentation oculométriques impliquant un panel d’observateurs, et exploitant une base de vidéos construite pour ce contexte. L'importance des visages a ainsi été confortée mais en particulier pour les visages parlants qui ont une saillance accrue. Sur la base de ces résultats, nous avons proposé un modèle de saillance audiovisuelle basé sur la détection des locuteurs dans la vidéo et exploitant les informations de bas niveau spatiales et temporelles. Par la suite, nous avons étudié l’influence de l’audio sur la qualité multimodale et multi-­supports. A cette fin, des campagnes d’évaluations psychovisuelles ont été menées dans l’optique de quantifier la qualité multimodale pour des applications de streaming vidéo où différents dispositifs de visualisation sont utilisés
Audiovisual information are part of our daily life either for professional needs or simply for leisure purposes. The plethoric quantity of data requires the use of compression for both storage and transmission, which may alter the audiovisual quality if it does not account for perceptual aspects. The literature on saliency and quality is very rich, often ignoring the audio component playing an important role in the visual scanpath and the quality of experience. This thesis aims at contributing in overing the lack of multimodal approaches, by following a dedicated experimental procedures. The proposed work is twofold: visual attention modelling and multimodal quality evaluation. First, in order to better understand and analyze the influence of audio on humain ocular movements, we run several eyetracking experiments involving a panel of observers and exploiting a video dataset constructed for our context. The importance of faces has been confirmed, particularly for talking faces having an increased saliency. Following these results, we proposed an audiovisual saliency model based on locutors detection in video and relying on spatial and temporal low-­level features. Afterward, the influence of audio on multi-modal and multi-devices quality has been studied. To this end, psychovisual experiments have been conducted with the aim to quantify the multimodal quality in the context of video streaming applications where various display devices could be used
APA, Harvard, Vancouver, ISO, and other styles
40

Canourgues, Lucile. "Algorithmes de routage dans les réseaux mobile ad hoc tactique à grande échelle." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000595/.

Full text
Abstract:
La Transformation qui s'opère depuis quelques années dans les réseaux militaires place le MANET comme une composante principale du domaine tactique. En effet, un MANET met en œuvre des nœuds de communication de grande mobilité, de grande réactivité et qui se déploient rapidement. De nombreuses applications militaires temps réel (ex : "situational awarness") reposent sur des communications de groupes et nécessitent donc l'existence d'un service multicast dans l'environnement tactique où le MANET est utilisé comme réseau de transit. L'objectif de cette thèse est d'étudier la mise en place d'un service multicast optimum dans l'environnement tactique MANET. Nous nous sommes premièrement attachés à définir l'architecture protocolaire multicast à déployer au sein du réseau tactique et plus particulièrement dans le MANET. Le MANET tactique est supposé être composé de plusieurs centaines de nœuds, ce qui implique que la contrainte de passage à l'échelle est déterminante dans le choix de l'architecture protocolaire du service multicast. Nous avons choisi le clustering comme solution de passage à l'échelle. Nous avons alors défini deux protocoles de routage multicast adaptés au MANET: STAMP, chargé des communications multicast à l'intérieur de chaque cluster et SAFIR, chargé des flux multicast entre les clusters. Ces deux protocoles agissent de concert pour fournir un service multicast performant et supportant le passage à l'échelle dans le MANET tactique. [. . . ]
The current Transformation of the military networks adopts the MANET as a main component of the tactical domain. Indeed, a MANET is the right solution to enable highly mobile, highly reactive and quickly deployable tactical networks. Many applications such as the Situational Awareness rely on group communications, underlying the need for a multicast service with the tactical environment where the MANET is employed as a transit network. The purpose of this thesis is to study the setting up of an optimal multicast service within this tactical environment. We firstly focus on defining the protocol architecture to carry out within the tactical network paying particular attention to the MANET. This network is interconnected within different types of networks based on IP technologies and implementing potentially heterogeneous multicast protocols. The tactical MANET is supposed to be made of several hundred of mobile nodes, which implies that the scalability is crucial in the multicast protocol architecture choice. Since the concept of clustering proposes interesting scalability features, we consider that the MANET is a clustered network. Thereby, we define two multicast routing protocols adapted to the MANET: firstly STAMP that is in charge of the multicast communications within each cluster and secondly SAFIR that handles multicast flows between the clusters. These two protocols that can be implemented independently, act in concert to provide an efficient and scalable multicast service for the tactical MANET
APA, Harvard, Vancouver, ISO, and other styles
41

Liu, Yi. "Codage d'images avec et sans pertes à basse complexité et basé contenu." Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0028/document.

Full text
Abstract:
Ce projet de recherche doctoral vise à proposer solution améliorée du codec de codage d’images LAR (Locally Adaptive Resolution), à la fois d’un point de vue performances de compression et complexité. Plusieurs standards de compression d’images ont été proposés par le passé et mis à profit dans de nombreuses applications multimédia, mais la recherche continue dans ce domaine afin d’offrir de plus grande qualité de codage et/ou de plus faibles complexité de traitements. JPEG fut standardisé il y a vingt ans, et il continue pourtant à être le format de compression le plus utilisé actuellement. Bien qu’avec de meilleures performances de compression, l’utilisation de JPEG 2000 reste limitée due à sa complexité plus importe comparée à JPEG. En 2008, le comité de standardisation JPEG a lancé un appel à proposition appelé AIC (Advanced Image Coding). L’objectif était de pouvoir standardiser de nouvelles technologies allant au-delà des standards existants. Le codec LAR fut alors proposé comme réponse à cet appel. Le système LAR tend à associer une efficacité de compression et une représentation basée contenu. Il supporte le codage avec et sans pertes avec la même structure. Cependant, au début de cette étude, le codec LAR ne mettait pas en oeuvre de techniques d’optimisation débit/distorsions (RDO), ce qui lui fut préjudiciable lors de la phase d’évaluation d’AIC. Ainsi dans ce travail, il s’agit dans un premier temps de caractériser l’impact des principaux paramètres du codec sur l’efficacité de compression, sur la caractérisation des relations existantes entre efficacité de codage, puis de construire des modèles RDO pour la configuration des paramètres afin d’obtenir une efficacité de codage proche de l’optimal. De plus, basée sur ces modèles RDO, une méthode de « contrôle de qualité » est introduite qui permet de coder une image à une cible MSE/PSNR donnée. La précision de la technique proposée, estimée par le rapport entre la variance de l’erreur et la consigne, est d’environ 10%. En supplément, la mesure de qualité subjective est prise en considération et les modèles RDO sont appliqués localement dans l’image et non plus globalement. La qualité perceptuelle est visiblement améliorée, avec un gain significatif mesuré par la métrique de qualité objective SSIM. Avec un double objectif d’efficacité de codage et de basse complexité, un nouveau schéma de codage LAR est également proposé dans le mode sans perte. Dans ce contexte, toutes les étapes de codage sont modifiées pour un meilleur taux de compression final. Un nouveau module de classification est également introduit pour diminuer l’entropie des erreurs de prédiction. Les expérimentations montrent que ce codec sans perte atteint des taux de compression équivalents à ceux de JPEG 2000, tout en économisant 76% du temps de codage et de décodage
This doctoral research project aims at designing an improved solution of the still image codec called LAR (Locally Adaptive Resolution) for both compression performance and complexity. Several image compression standards have been well proposed and used in the multimedia applications, but the research does not stop the progress for the higher coding quality and/or lower coding consumption. JPEG was standardized twenty years ago, while it is still a widely used compression format today. With a better coding efficiency, the application of the JPEG 2000 is limited by its larger computation cost than the JPEG one. In 2008, the JPEG Committee announced a Call for Advanced Image Coding (AIC). This call aims to standardize potential technologies going beyond existing JPEG standards. The LAR codec was proposed as one response to this call. The LAR framework tends to associate the compression efficiency and the content-based representation. It supports both lossy and lossless coding under the same structure. However, at the beginning of this study, the LAR codec did not implement the rate-distortion-optimization (RDO). This shortage was detrimental for LAR during the AIC evaluation step. Thus, in this work, it is first to characterize the impact of the main parameters of the codec on the compression efficiency, next to construct the RDO models to configure parameters of LAR for achieving optimal or sub-optimal coding efficiencies. Further, based on the RDO models, a “quality constraint” method is introduced to encode the image at a given target MSE/PSNR. The accuracy of the proposed technique, estimated by the ratio between the error variance and the setpoint, is about 10%. Besides, the subjective quality measurement is taken into consideration and the RDO models are locally applied in the image rather than globally. The perceptual quality is improved with a significant gain measured by the objective quality metric SSIM (structural similarity). Aiming at a low complexity and efficient image codec, a new coding scheme is also proposed in lossless mode under the LAR framework. In this context, all the coding steps are changed for a better final compression ratio. A new classification module is also introduced to decrease the entropy of the prediction errors. Experiments show that this lossless codec achieves the equivalent compression ratio to JPEG 2000, while saving 76% of the time consumption in average in encoding and decoding
APA, Harvard, Vancouver, ISO, and other styles
42

Urban, Fabrice. "Implantation optimisée d'estimateurs de mouvement pour la compression vidéo sur plates-formes hétérogènes multicomposants." Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00266979.

Full text
Abstract:
L'estimation de mouvement est une opération clé pour la compression vidéo, mais implique une complexité de calcul conséquente, accrue par le contexte de la haute définition et l'évolution des standards de compression vidéo. Jusqu'à 60% de la charge de calcul d'un encodeur vidéo H.264 est dédiée à cette opération. L'adéquation entre les algorithmes et les architectures multicomposants est étudiée dans ce nouveau contexte, avec un cadre méthodologique.
Un état de l'art des différentes méthodes d'estimation de mouvement et des architectures matérielles existantes est tout d'abord présenté. Les algorithmes de mise en correspondance de blocs HME et EPZS apparaissent comme les plus performants pour notre étude. La méthode de développement utilisée, ainsi que l'implantation et l'optimisation d'estimateurs de mouvement sur DSP sont ensuite présentés. Un nouvel algorithme d'estimation de mouvement est conçu : HDS. Des implantations parallèles sur plates-formes hétérogènes sont enfin proposées.
APA, Harvard, Vancouver, ISO, and other styles
43

Babel, Marie. "Compression d'images avec et sans perte par la méthode LAR (Locally Adaptive Resolution)." Phd thesis, INSA de Rennes, 2005. http://tel.archives-ouvertes.fr/tel-00131758.

Full text
Abstract:
La diversité des standards actuels en compression d'images vise à la fois à proposer des schémas de codage efficaces et des fonctions de service adaptées à chaque type d'utilisation. Les travaux de cette thèse s'inscrivant dans ce contexte d'une telle compression, leur objectif majeur consiste en l'élaboration d'une méthode unifiée pour un codage avec et sans perte des images fixes et en séquences, intégrant des fonctionnalités avancées du type : scalabilité et représentation en régions hiérarchique, robustesse
aux erreurs.

La méthode LAR (Locally Adaptive Resolution) de base a été élaborée à des fins de compression avec pertes à bas-débits. Par l'exploitation des propriétés intrinsèques du LAR, la définition d'une représentation en régions auto-extractibles apporte une solution de codage efficace à la fois en termes de débit et en termes de qualité d'images reconstruites. Le codage à débit localement variable est facilité par l'introduction de la notion de région d'intérêt ou encore de VOP (Video Object Plane).

L'obtention d'un schéma de compression sans perte s'est effectuée conjointement à l'intégration de la notion de scalabilité, par l'intermédiaire de méthodes pyramidales. Associés à une phase de prédiction, trois codeurs différents répondant à ces exigences ont vu le jour : le LAR-APP, l'Interleaved S+P et le RWHT+P. Le LAR-APP (Approche Pyramidale Prédictive) se fonde sur l'exploitation d'un contexte de prédiction enrichi obtenu par un parcours original des niveaux de la pyramide construite. L'entropie des erreurs d'estimation résultantes (estimation réalisée dans le domaine spatial) s'avère ainsi réduite. Par la définition d'une solution opérant dans le domaine transformé, il nous a été possible d'améliorer plus encore les performances
entropiques du codeur scalable sans perte. L'Interleaved S+P se construit ainsi par l'entrelacement de deux pyramides de coefficients transformés. Quant à la méthode RWHT+P, elle s'appuie sur une forme nouvelle de la transformée Walsh-Hadamard bidimensionnelle. Les performances en termes d'entropie brute se révèlent bien supérieures à celles de l'état-de-l'art : des résultats tout à fait remarquables sont obtenus notamment sur les
images médicales.

Par ailleurs, dans un contexte de télémédecine, par l'association des méthodes pyramidales du LAR et de la transformée Mojette, un codage conjoint source-canal efficace, destiné à la transmission sécurisée des images médicales compressées sur des réseaux bas-débits, a été défini. Cette technique offre une protection différenciée intégrant la nature hiérarchique des flux issus des méthodes multirésolution du LAR pour une qualité de service exécutée de bout-en-bout.

Un autre travail de recherche abordé dans ce mémoire vise à l'implantation automatique des codeurs LAR sur des architectures parallèles hétérogènes multi-composants. Par le biais de la description des algorithmes sous le logiciel SynDEx, il nous a été possible en particulier de réaliser le prototypage de
l'Interleaved S+P sur des plate-formes multi-DSP et multi-PC.

Enfin, l'extension du LAR à la vidéo fait ici l'objet d'un travail essentiellement prospectif. Trois techniques différentes sont proposées, s'appuyant sur un élément commun : l'exploitation de la représentation en régions précédemment évoquée.
APA, Harvard, Vancouver, ISO, and other styles
44

Duverdier, Alban. "Cyclostationnarité et changements d'horloge périodiques." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT136H.

Full text
Abstract:
Parmi les modeles de signaux, on rencontre souvent des processus qui subissent des perturbations, deterministes ou aleatoires, le long de l'axe des temps. Une telle transformation est appelee changement d'horloge ou jitter. Elle modifie en general les proprietes du signal. Par exemple, lorsque le changement d'horloge possede des proprietes periodiques, un signal stationnaire devient cyclostationnaire. L'objectif de cette these est axe sur deux questions. Comment peut-on definir au mieux les changements d'horloge ? qu'apportent les changements d'horloge periodiques, lorsqu'ils sont introduits volontairement ? nous les avons utilises dans des domaines nouveaux. Tout d'abord, ils ont permis de realiser de l'etalement spectral. Puis, nous avons propose une methode originale de transmission multi-utilisateurs. Enfin, nous les avons employes en modelisation. Notre travail est presente suivant cinq chapitres. Le premier chapitre rappelle tout d'abord ce qu'est la cyclostationnarite. Puis, il presente les principales classes de signaux cyclostationnaires et les applications classiques qui s'y rapportent. Dans le second chapitre, apres une synthese bibliographique du filtrage lineaire periodique variant par rapport au temps et de son cas particulier, le changement d'horloge periodique, nous avons defini la notion plus generale de filtrage lineaire cyclostationnaire. Le troisieme chapitre presente une partie originale de notre travail qui est une methode non-conventionnelle d'etalement spectral, realisee a l'aide de filtres lineaires periodiques. Elle peut etre utilisee en particulier en communication pour du brouillage de l'information. Le quatrieme chapitre est consacre a une extension de la methode precedente pour de la transmission multi-utilisateurs. Il s'agit d'une generalisation des methodes a acces multiple faisant appel a un code (cdma). Dans le dernier chapitre, on modelise un signal large bande par un signal a bande limitee soumis a une somme de changements d'horloge periodiques. Cela permet ainsi d'introduire une nouvelle methode de compression.
APA, Harvard, Vancouver, ISO, and other styles
45

Nouri, Nedia. "Évaluation de la qualité et transmission en temps-réel de vidéos médicales compressées : application à la télé-chirurgie robotisée." Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL049N.

Full text
Abstract:
L'évolution des techniques chirurgicales, par l'utilisation de robots, permet des interventions mini-invasives avec une très grande précision et ouvre des perspectives d'interventions chirurgicales à distance, comme l'a démontré la célèbre expérimentation « Opération Lindbergh » en 2001. La contrepartie de cette évolution réside dans des volumes de données considérables qui nécessitent des ressources importantes pour leur transmission. La compression avec pertes de ces données devient donc inévitable. Celle-ci constitue un défi majeur dans le contexte médical, celui de l'impact des pertes sur la qualité des données et leur exploitation. Mes travaux de thèse concernent l'étude de techniques permettant l'évaluation de la qualité des vidéos dans un contexte de robotique chirurgicale. Deux approches méthodologiques sont possibles : l'une à caractère subjectif et l'autre à caractère objectif. Nous montrons qu'il existe un seuil de tolérance à la compression avec pertes de type MPEG2 et H.264 pour les vidéos chirurgicales. Les résultats obtenus suite aux essais subjectifs de la qualité ont permis également de mettre en exergue une corrélation entre les mesures subjectives effectuées et une mesure objective utilisant l'information structurelle de l'image. Ceci permet de prédire la qualité telle qu'elle est perçue par les observateurs humains. Enfin, la détermination d'un seuil de tolérance à la compression avec pertes a permis la mise en place d'une plateforme de transmission en temps réel sur un réseau IP de vidéos chirurgicales compressées avec le standard H.264 entre le CHU de Nancy et l'école de chirurgie
The digital revolution in medical environment speeds up development of remote Robotic-Assisted Surgery and consequently the transmission of medical numerical data such as pictures or videos becomes possible. However, medical video transmission requires significant bandwidth and high compression ratios, only accessible with lossy compression. Therefore research effort has been focussed on video compression algorithms such as MPEG2 and H.264. In this work, we are interested in the question of compression thresholds and associated bitrates are coherent with the acceptance level of the quality in the field of medical video. To evaluate compressed medical video quality, we performed a subjective assessment test with a panel of human observers using a DSCQS (Double-Stimuli Continuous Quality Scale) protocol derived from the ITU-R BT-500-11 recommendations. Promising results estimate that 3 Mbits/s could be sufficient (compression ratio aroundthreshold compression level around 90:1 compared to the original 270 Mbits/s) as far as perceived quality is concerned. Otherwise, determining a tolerance to lossy compression has allowed implementation of a platform for real-time transmission over an IP network for surgical videos compressed with the H.264 standard from the University Hospital of Nancy and the school of surgery
APA, Harvard, Vancouver, ISO, and other styles
46

Cerra, Daniele. "Contribution à la théorie algorithmique de la complexité : méthodes pour la reconnaissance de formes et la recherche d'information basées sur la compression des données." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00562101.

Full text
Abstract:
L'assimilation du contenu informatif à la complexité de calcul a plus de 50 ans, mais une manière d'exploiter pratiquement cette idée est venue plus récemment, avec la définition de mesures de similarité basées sur la compression des données, qui permettent d'estimer la quantité d'information partagée entre deux objets. Ces techniques sont effectivement utilisées dans des applications sur divers types de données avec une approche universelle et pratiquement sans paramètres. Toutefois, les difficultés de les appliquer à des grands ensembles de données ont été rarement abordées. Cette thèse propose une nouvelle mesure de similarité basée sur la compression des dictionnaires qui est plus rapide comparativement aux solutions connues, sans perte de performance. Cela augmente l'applicabilité de ces notions, ce qui permet de les tester sur des ensembles de données de taille jusqu'à 100 fois plus grande que ceux précédemment analysés dans la littérature. Ces résultats ont été obtenus par l'étude des relations entre la théorie du codage classique, la compression des données et la notion de complexité par Kolmogorov. Les objets sont décomposés dans un dictionnaire, qui est considéré comme un ensemble de règles pour générer un code ayant une signification sémantique de la structure de l'image: les dictionnaires extraits décrivent les régularités des données, et sont comparés pour estimer l'information partagée entre deux objets. Cela permet de définir un système de recherche des images qui nécessite une supervision minimale par l'utilisateur, car il saute les étapes d'extraction de caractéristiques typiques, souvent dépendantes de paramètres. Ainsi, les hypothèses subjectives qui peuvent fausser l'analyse sont enlevées, et a leur place une approche guidée par les données est adoptée. Diverses applications sont présentées, et ces méthodes sont employées sans aucun changement des paramètres à différents types de données: photographies numériques, images radar, textes, génomes d'ADN, et signaux sismiques.
APA, Harvard, Vancouver, ISO, and other styles
47

Cochachin, Henostroza Franklin Rafael. "Noise-against-Noise Decoders : Low Precision Iterative Decoders." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS527.

Full text
Abstract:
Dans cette thèse, deux décodeurs améliorés sont définis en utilisant un canal d’entrée quantifié avec seulement 3 ou 4 bits de précision pour les codes low-density parity-check (LDPC). Un algorithme de post-traitement pour les décodeurs itératifs de faible précision est également proposé. L'un des décodeurs proposés, appelé décodeur Noise-Against-Noise Min-Sum (NAN- MS), intègre une certaine quantité de perturbations aléatoires dues à une injection délibérée de bruit. L'autre des décodeurs proposés, appelé décodeur Sign-Preserving Min-Sum (SP-MS), conserve toujours le signe des messages et utilise toutes les combinaisons possibles pouvant être générées pour une précision donnée. De plus, le décodeur SP-MS peut réduire la précision de ses messages d'un bit tout en maintenant les mêmes performances de correction d'erreur. Le décodeur NAN-MS et le décodeur SP-MS présentent un gain de SNR pouvant atteindre 0,43 dB dans la région du waterfall de la courbe de performances. D'autre part, l'algorithme de post- processing proposé est très efficace et facilement adaptable aux décodeurs de faible précision. Pour le code IEEE ETHERNET, l'algorithme de post-processing implémenté dans un décodeur SP- MS de très faible précision permet de réduire le niveau d'erreur au-dessous d'un FER de 10-10. Sur un ASIC en technologie 28nm, une architecture entièrement parallèle du décodeur peut être mis en place sur une surface de 1.76 mm2, avec un débit de décodage de 319.34 Gbit/s et une efficacité matérielle de 181.44 Gbit/s/mm2
In this thesis, two improved decoders are defined using quantized input channel with only 3 or 4 bits of precision for low-density parity-check (LDPC) codes. Also, a post-processing algorithm for low precision iterative decoders is proposed. One of the proposed decoders, named Noise- Against-Noise Min-Sum (NAN-MS) decoder, incorporates a certain amount of random perturbation due to deliberate noise injection. The other of the proposed decoders, named Sign- Preserving Min-Sum (SP-MS) decoder, always preserve the sign of the messages and it uses all the possible combinations that can be generated for a given precision. Also, the SP-MS decoder can reduce the precision of its messages by one bit maintaining the same error correcting performance. The NAN-MS decoder and the SP-MS decoder present a SNR gain up to 0.43 dB the waterfall region of the performance curve. On the other hand, the proposed post-processing algorithm is very efficient and easily adaptable in low precision decoders. For the IEEE ETHERNET code, the post-processing algorithm implemented in a very low precision SP-MS decoder helps to lower the error floor below a FER of 10-10. On an ASIC of 28 nm of technology, the implementation results of a fully parallel architecture produces an area consumed by the decoder of 1.76 mm2, a decoding throughput of 319.34 Gbit/s, and a hardware efficiency of 181.44 Gbit/s/mm2
APA, Harvard, Vancouver, ISO, and other styles
48

Mejri, Asma. "Systèmes de communications multi-utilisateurs : de la gestion d'interférence au codage réseau." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0086/document.

Full text
Abstract:
Ce travail est dédié à l'analyse, la conception et l'évaluation des performances des schémas de codage de réseaux pour les systèmes des communications multi-terminaux. Nous étudions en premier lieu le protocole « compute-and-forward » dans le canal à accès multiples. Nous proposons un critère de construction de codes de réseaux efficaces pour cette stratégie basé sur la résolution d'un problème du vecteur le plus court d'un réseau de points. En addition, nous développons de nouveaux algorithmes de décodage prouvés numériquement plus performants que le décodeur existant du CF. La deuxième partie concerne l'implémentation du protocole CF dans le canal à relais bidirectionnel et le canal à sources et relais multiples. Nous développons des algorithmes de construction de schémas de codage pour le CF et évaluons théoriquement et par simulations numériques leurs performances. La dernière partie concerne le canal MIMO distribué et en particulier une nouvelle architecture de décodeurs « integer forcing » inspirés par le protocole CF. Nous proposons de nouveaux algorithmes de construction des paramètres optimaux de ces décodeurs et montrons par simulations qu'ils apportent un gain significatif par rapport aux récepteurs linéaires existants
This work is dedicated to the analysis, design and performance evaluation of physical layer network coding strategies in multiuser communication systems. The first part is devoted to study the compute-and-forward protocol in the basic multiple access channel. For this strategy, we propose an optimal solution to design efficient network codes based on solving a lattice shortest vector problem. Moreover, we derive novel bounds on the ergodic rate and the outage probability for the CF operating in fast and slow fading channels respectively. Besides, we develop novel decoding algorithms proved numerically to outperform the traditional decoding scheme for the CF. The second part is dedicated to the design and end-to-end performance evaluation of network codes for the CF and the analog network coding in the two-way relay channel and the multi-source multi-relay channel. For each network model we study the decoding at the relay nodes and the end destination, propose search algorithms for optimal network codes for the CF and evaluate, theoretically and numerically, the end-to-end error rate and achievable transmission rate. In the last part, we study new decoders for the distributed MIMO channel termed integer forcing (if). Inspired by the CF, if receivers take advantage of the interference provided by the wireless medium to decode integer linear combinations of the original codewords. We develop in our work efficient algorithms to select optimal if receivers parameters allowing to outperform existing suboptimal linear receivers
APA, Harvard, Vancouver, ISO, and other styles
49

Urvoy, Matthieu. "Les tubes de mouvement : nouvelle représentation pour les séquences d'images." Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00642973.

Full text
Abstract:
En quelques années, le trafic vidéo a augmenté de manière spectaculaire sur de nombreux médias. D'ici 2014, on estime que la quasi-intégralité du trafic IP sera composée de données vidéo. De même, l'usage de la vidéo sur les téléphones mobiles aura subi une augmentation sans précédent. Or, on estime que les infrastructures réseau, malgré les progrès constants en matière de transmission, ne pourront pas supporter une telle charge. A ce titre, il est plus que jamais capital d'améliorer nos capacités à compresser les vidéos. Depuis 30 ans, la recherche travaille à l'élaboration de techniques de décorrélation, notamment afin de réduire les redondances spatiales et temporelles des séquences d'images et les compresser. A ce jour, l'approche classique est basée sur le concept de macroblocs : le contenu spatial est divisé en un ensemble de blocs. Le long de l'axe temporel, les images sont traitées une à une, sans faire apparaître de continuité évidente. Bien que cette approche soit déjà très efficace (cf. standards AVC et futur HEVC), l'emploi d'approches en rupture reste toujours envisageable. Celles-ci offrent, entre autre, la possibilité de décrire l'évolution temporelle du contenu de manière continue. Cependant, elles mettent souvent en oeuvre des outils dont l'utilisation, en pratique, est délicate. Ce travail de thèse propose une nouvelle représentation, qui combine les avantages de l'approche classique et ceux de certaines approches en rupture, puis en étudie la viabilité. On cherche à exhiber la persistance temporelle des textures, à travers une description continue le long de l'axe temporel. A l'instar de l'approche classique, la représentation proposée est basée sur des blocs. Au lieu de réinitialiser la description à chaque image, notre représentation suit l'évolution de blocs initialement repérés à un instant de référence. Ces blocs, ainsi que leur trajectoire spatio-temporelle, sont appelés tubes de mouvement. Trois problématiques sont soulevées. Tout d'abord, les tubes doivent être capable de représenter continuités et discontinuités du mouvement, ainsi que de suivre les déplacements et les déformations de patchs de texture. Des mécanismes de régularisation sont également mis en place, et s'assurent que l'évolution des tubes se fait de manière cohérente. Ensuite, la représentation doit gérer les recouvrements et les découvrements de tubes, et donc la manière dont la texture doit être synthétisée. Enfin, la problématique de vie et de mort des tubes}est probablement la plus délicate: comment détecter la disparition ou l'impossibilité de suivre un patch de texture ? Le cas échéant, le tube correspondant devra être arrêté, ceci afin de garantir une représentation aussi compacte que possible. Les résultats montreront que notre représentation est viable, et ses performances seront comparées à celles du standard AVC.
APA, Harvard, Vancouver, ISO, and other styles
50

Greco, Claudio. "Diffusion robuste de la vidéo en temps réel sur réseau sans fil." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0032.

Full text
Abstract:
Au cours de cette dernière dizaine d’années, l’intérêt pour la diffusion en temps réel de séquences vidéo sur réseaux sans fil ad-hoc a grandi sans cesse, en raison de l'attrayante propriété d’être capable de déployer un système de communication visuelle à tout moment et en tout lieu, sans la nécessité d'une infrastructure préexistante. Une large gamme d'applications des opérations militaires et de sauvetage, jusqu'aux applications commerciales, éducatives, récréatives, a été envisagée, ce qui a crée un grand intérêt pour toutes les technologies concernées. L'objectif de cette thèse est de fournir un service efficace et robuste de diffusion vidéo en temps réel sur réseaux mobiles ad-hoc, avec un aperçu des solutions disponibles à ce moment, et de proposer de nouvelles solutions qui permettraient de surmonter les limites de celles actuelles. Nos contributions touchent à plusieurs aspects du paradigme mobile vidéo streaming : une nouvelle technique de codage vidéo par descriptions multiples, qui fournit une qualité vidéo acceptable, même en présence d'un taux élevé de pertes ; un protocole cross-layer pour la création et le maintien d'un réseau de overlay, qui, avec un échange de messages limité, géré de façon repartie un ensemble d'arbres de multicast, un pour chaque description du flux ; un cadre original de fonctions distribuées pour l'optimisation congestion-distorsion, qui, grâce à une représentation compacte des informations de topologie, permet aux nœuds d'apprendre la structure du overlay et d'optimiser leur comportement en conséquence ; et enfin, une intégration avec le paradigme émergent du codage réseau
During the last decade, real-time video streaming over ad-hoc networks has gathered an increasing interest, because of the attractive property of being able to deploy a visual communication system anytime and anywhere, without the need for a pre-existing infrastructure. A wide range of target applications, from military and rescue operations, to business, educational, and recreational scenarios, has been envisaged, which has created great expectations with respect to the involved technologies. The goal of this thesis is to provide an efficient and robust real-time video streaming system over mobile ad-hoc networks, proposing cross-layer solutions that overcome the limitations of both the application and network solutions available at this time. Our contributions cover several aspects of the mobile video streaming paradigm: a new multiple description video coding technique, which provides an acceptable video quality even in presence of high loss rates; a novel cross-layer design for an overlay creation and maintenance protocol, which, with a low overhead, distributedly manages a set of multicast trees, one for each description of the stream; an original distributed congestion-distortion optimisation framework, which, through a compact representation of the topology information, enables the nodes to learn the structure of the overlay and optimise their behaviour accordingly; and, finally, an integration with the emerging network coding paradigm
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography