To see the other types of publications on this topic, follow the link: SONET (transmission des données).

Dissertations / Theses on the topic 'SONET (transmission des données)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'SONET (transmission des données).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Di, Stefano Andrea. "Refroidissement d'atomes par laser : de la diffusion spatiale dans un réseau quasi-périodique aux instabilités du piège magnéto-optique." Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-183-184.pdf.

Full text
Abstract:
Ce travail de thèse est consacré à l'étude expérimentale des propriétés d'un échantillon d'atomes froids de césium. Trois aspects différents de la physique de ces systèmes ont été abordés. Dans la première partie, nous décrivons une étude des propriétés de diffusion spatiale dans un réseau optique à géométrie quasi-périodique. Les caractéristiques déjà très intéressantes du mouvement diffusif dans un potentiel lumineux sont enrichies par la brisure de l'invariance par translation du potentiel, qui donne lieu à des effets particuliers. On a pu notamment mettre en évidence une anisotropie de la diffusion entre les directions périodique et quasi-périodique d'un réseau à symétrie décagonale. La deuxième partie discute les résultats d'une étude expérimentale sur les effets Hanle et Faraday non linéaires dans la transition 4 ® 5 du césium. Les particularités des atomes froids nous ont permis de proposer un modèle simple, basé sur l'équation du pompage optique pour la matrice densité dans l'état fondamental, qui explique de façon satisfaisante les observations expérimentales. Enfin, dans la troisième partie nous abordons le problème des instabilités d'un Piège Magnéto-Optique. Une étude expérimentale détaillée dans le cas d'un piège à trois bras indépendants et faisceaux retour rétro-réfléchis est complétée par un modèle dynamique qui prend en charge les variations spatiales de l'absorption des faisceaux lasers. Nous avons ainsi caractérisé un nouveau régime dynamique, différent du cas stochastique déjà connu, où les instabilités se présentent sous forme d'oscillations auto-entretenues de grande amplitude du nuage atomique.
APA, Harvard, Vancouver, ISO, and other styles
2

Reinhard, Vincent. "Méthodes d'introduction de QoS dans un réseau optique à capacité surmultipliée." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0062.

Full text
Abstract:
Dans cette thèse nous nous intéressons à des méthodes permettant d'améliorer les performances d'un réseau optique à très haut débit (CARRIOCAS, 40 Gbps), en donnant des garanties de QoS strictes aux utilisateurs d'une part, et en minimisant la bande passante utilisée par les multicasts d'autre part. Nous proposons tout d'abord un mécanisme permettant un contrôle centralisé de l'insertion des données des applications dans le réseau. Notre mécanisme utilise un tampon par application dans le réseau. Ces tampons permettent d'utiliser des modèles de gestion des files d'attente permettant de respecter un délai maximum pour l'envoi des données. Dans une autre partie de cette thèse, nous investiguons de nouvelles méthodes pour traiter les demandes de multicasts. En effet, dans le réseau, un nombre fini et fixé de nœuds (que nous appelons nœuds diffusants) sont capables de dupliquer les flux de données. Dans un arbre multicast, seul ces nœuds peuvent avoir plusieurs fils, ce qui introduit une contrainte forte sur la construction de ces arbres. Nous développons donc de nouvelles méthodes pour traiter les demandes de multicast en respectant cette contrainte, afin de minimiser la bande passante nécessaire à ces communications
In this thesis we investigate methods to increase the performance of a high-speed optical network (CARRIOCAS, 40 Gbps). By giving the users strict QoS guarantees on the one hand, and by minimizing the bandwidth used by multicasts on the other hand. We first propose a mechanism allowing a centralized control for the applications data insertion in the network. Our mechanism uses a buffer for each application using the network. Using buffers allows us to use queuing theory models in order to respect a maximum delay for sending data. In a second part of this thesis, we investigate new methods to satisfy multicast requests. Indeed, in the CARRIOCAS network, a fixed number of network nodes are able to duplicate data. This induces a new constraint on the construction of any mutlicast tree. We propose new methods to satisfy multicast demands while respecing this constraint, in order to minimize the bandwidth consumed
APA, Harvard, Vancouver, ISO, and other styles
3

Di, Stefano Andrea Verkerk Philippe Hennequin Daniel. "Refroidissement d'atomes par laser de la diffusion spatiale dans un réseau quasi-périodique aux instabilités du piège magnéto-optique /." [S.l.] : [s.n.], 2001. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2001-183-184.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Molnár, Miklós. "Optimisation des communications multicast sous contraintes." Rennes : IRISA, 2008. http://www.irisa.fr/centredoc/publis/HDR/irisafolder.2008-01-03.3233324958/optimisation-des-communications-multicast-sous-contraintes.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Rousseau, Stéphane Pierre. "Algorithmique du routage dans les réseaux optiques." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0014.

Full text
Abstract:
The services suggested by Internet are increasingly demanding in terms of resources, in particular the services concerning the multi-media one (videoconference, video with the request,. . . ). One of the principal objectives in the current networks is to offer a sufficient flow to meetthese needs. By considering the structure of Internet network of today, the networks most concerned with this need for high-flow are the networks of the type MAN and WAN. Our work was justified on the one hand by the increasing needs, in terms of resources, on Internet network, and on the other hand by the projections technological in the field of optics. Indeed, if networks today are mainly equipped by electronic omponents, it seems that optics can also meet the new and future needs. This work aims thus to study the viability of optics in the networks. We studied a network MAN and a WAN all-optics, synchronous with optical packages of fixed size. Our contribution relates to two aspects of these networks: - node and network architecture which makes it up: we propose a study of the architecture of the nodes of the network. This architecture is equipped with electronic components being able to be replaced by components all-optics. - the transfer of the data: several independent work is presented for the transfer of the data in the network. We propose there a study of quality of transfer for these data. For that, we introduce a mechanism of management of band-width
Les services proposés par Internet sont de plus en plus exigeants en termes de ressources, notamment les services concernant le multimédia (vidéo-conférence, vidéo à la demande,. . . ). Un des objectifs principaux dans les réseaux actuels est d'offrir un débit suffisant pour répondre à ces besoins. En considérant la structure du réseau Internet d'aujourd'hui, les réseaux les plus concernés par ce besoin de haut-débit sont les réseaux de type MAN et WAN. Notre travail a été motivé d'une part par les besoins croissants, en termes de ressources, sur le réseau Internet, et d'autre part par les avancées technologiques dans le domaine de l'optique. En effet, si les réseaux d'aujourd'hui sont principalement équipés par des composants électroniques, il semble que l'optique puisse aussi répondre aux besoins nouveaux et futurs. Ce travail a donc pour objectif d'étudier la viabilité de l'optique dans les réseaux. Nous avons étudié un réseau MAN et un WAN tout-optiques, synchrones avec paquets optiques de taille fixe. Notre contribution concerne deux aspects de ces réseaux :- l'architecture du réseau et des noeuds qui le composent : nous proposons une étude de l'architecture des noeuds du réseau. Cette architecture est équipée de composants électroniques pouvant être remplacés par des composants out-optiques. - le transfert des données : plusieurs travaux indépendants sont présentés pour le transfert des données dans le réseau. Nous y proposons une étude de qualité de transfert pour ces données. Pour cela, nous introduisons un mécanisme de gestion de bande passante
APA, Harvard, Vancouver, ISO, and other styles
6

Pellevrault, Sébastien. "Contribution à l’optimisation de transmissions optiques ultra haut débit à 40 Gb/s." Paris 11, 2008. http://www.theses.fr/2008PA112262.

Full text
Abstract:
Une méthode originale (appelé méthode OTE) d’extraction du Taux d'Erreur Binaire (TEB) pour les systèmes de télécommunications sur fibres optiques amplifiées à Ultra Haut débit (40 Gb/s) est développée. Ce travail s’inscrit dans le cadre du projet CARRIOCAS réalisant un réseau expérimental à 40 Gb/s. Un banc expérimental de caractérisation de liaisons optiques à 40 Gb/s a été développé à cet effet. La méthode OTE est basée sur une analyse statistique à partir des formes d’ondes échantillonnées d’un signal pseudoaléatoire (PRBS) obtenues avec un oscilloscope haute fréquence. La statistique utilisée prend en compte le bruit ASE des amplificateurs optiques EDFA (bruit Chi² non-centré) et le bruit du photorécepteur (bruit Gaussien). La gigue de phase aléatoire et les interférences entre symboles (ISI) sont aussi intégrées. Les performances de la méthode OTE ont été évaluées numériquement. La méthode OTE permet de mesurer plus rapidement les TEB très faibles (inférieurs à 10-12) que la mesure directe de comptage des erreurs. Cette méthode permet d’obtenir, rapidement, les figures dérivées du TEB telles que les contours du TEB ou encore la courbe de Bathtub. La validation expérimentale a été faite sur le banc de mesure du TEB jusqu’à 43. 2 Gb/s. Cette méthode a aussi été testée sur les modulateurs du projet CARRIOCAS, ainsi que sur des modules VCSEL à 2. 5 Gb/s utilisant des fibres multimodes, montrant ainsi la généralité de l’approche
An original equivalent Bit-Error-Rate (BER) extraction method (named ETO method) is developed for amplified, ultra high bit rate (40 Gb/s), high quality optical communication systems. This work was undertaken in the framework of the CARRIOCAS project which develops a 40 Gb/s experimental network. An experimental 40 Gb/s optical links caracterisation setup was developed for validation of the method. The ETO method is based on the statistical analysis of pseudorandom (PRBS) data waveforms sampled by a high frequency oscilloscope. The statistical analysis takes into account the ASE noise from the optical amplifier (Chi-square statistics) and the photoreceiver noise (Gaussian noise). Random Jitter and Inter-Symbol-Interference are also considered. Our method is faster for very low BER (less than than 10-12), than the direct measurement method of error counting. This method enables to derive the BER associated figures such as the BER contour or the bathtub curves up to 100 times faster than traditional methods. Good agreement in BER results with the direct BER counting method is verified experimentally up to 43. 2 Gb/s. The method has been successfully tested on CARRIOCAS modulators and on 2. 5 Gb/s VCSELs systems with multimodes fibers. These tests show the generality of the ETO method
APA, Harvard, Vancouver, ISO, and other styles
7

Fsaifes, Ihsan. "Encodage et décodage temporels tout-optique à réseaux de Bragg pour l'accès multiple /." Paris : École nationale supérieure des télécommunications, 2008. http://catalogue.bnf.fr/ark:/12148/cb41248739p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Fsaifes, Ihsan. "Encodage et Décodage Temporels "Tout-Optique" à Réseaux de Bragg pour l'Accès Multiple." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00005525.

Full text
Abstract:
Ce travail s'inscrit dans le cadre des réseaux optiques haut débit où la bande passante de la fibre est partagée entre plusieurs utilisateurs. Ce type de réseau conduit à s'intéresser aux techniques d'accès multiple déjà bien connues en communication radiofréquences pour le partage des ressources. L'accès multiple par répartition de code est considéré aujourd'hui dans ce contexte comme une solution attractive. Dans cette thèse, nous étudions l'encodage et le décodage temporels "tout-optique" pour l'accès multiple utilisant des réseaux de Bragg. En particulier, nous analysons en détail les performances d'un système OCDMA cohérent temporel à réseaux de Bragg superstructurés. Nous spécifions tout d'abord, les codeurs et décodeurs à réseaux de Bragg superstructurés que nous fabriquons ensuite par les méthodes de photo-inscription à "masque de phase" et à "interféromètre de Lloyd". Les réponses des codeurs et des décodeurs sont mesurées expérimentalement, comparées aux résultats de simulations et analysées. Nous caractérisons les réseaux de Bragg superstructurés par la méthode de réflectométrie à faible cohérence et interprétons la courbe de cinétique de croissance observée lors de leur photo-inscription. L'impact de la désadaptation entre les paramètres des codeurs et des décodeurs est évalué, montrant que les sources de bruits d'un système OCDMA ne sont pas seules en cause dans la dégradation de ses performances. Nous étudions ensuite, l'impact du temps de cohérence du laser sur la génération des codes, sur la construction de la fonction d'autocorrélation, et par conséquent, sur les performances du système OCDMA. Nous montrons que l'implémentation de codes à structure apériodique améliore considérablement la robustesse du système aux perturbations interférométriques et que le système se révèle également plus robuste face aux interférences entre symboles et aux bruits de battements. Nous analysons l'impact de la durée d'intégration du photo-détecteur sur les performances en taux d'erreurs binaires du système et montrons qu'il est possible de relâcher la contrainte
APA, Harvard, Vancouver, ISO, and other styles
9

Tohme, Philip Edward. "Optical switching and its application in Sonet-based transmission systems." Thesis, This resource online, 1991. http://scholar.lib.vt.edu/theses/available/etd-10242009-020314/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Lim, Wee Shoong. "An evaluation of management techniques for SONET/SDH Telecommunication networks." Thesis, Monterey California. Naval Postgraduate School, 2004. http://hdl.handle.net/10945/1389.

Full text
Abstract:
Approved for public release; distribution is unlimited
A study of SONET network management applications and the load they impart to the network is conducted to provide a better understanding of the capability of various management approaches. In this study, a SONET network is set up in the Advanced Networking Laboratory of the Naval Postgraduate School using four Cisco ONS 15454s. Next, two Element Management Systems, the Cisco Transport Controller and the Cisco Transport Manager, are deployed onto the SONET network. Subsequently, the network traffic of the Element Management Systems is captured and analyzed using a packet analyzer. Link utilization of the two tools is computed using the first-order statistics of the captured traffic distributions. In addition, the Hurst parameter is estimated using the variance-index plot technique (which uses higher-orders statistics of the modeled distributions) to determine the captured traffic's degree of self-similarity. Finally, the calculated utilization is extrapolated to obtain the link utilization for 2500 network elements (the maximum number supported by the Cisco Transport Manager). The result obtained is useful in determining the maximum number of network elements (Cisco ONS 15454s) that the Cisco Transport Manager can support from a network loading point of view.
Civilian, Ministry of Defense, Singapore
APA, Harvard, Vancouver, ISO, and other styles
11

Autry, Chris Brian. "Minimization of jitter in SDH/SONET networks via an all-digital desynchronizer." Diss., Georgia Institute of Technology, 1997. http://hdl.handle.net/1853/15412.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Tay, Yeong Kiang Winston. "A performance analysis of management information due to data traffic provisioning in a SONET/SDH communications network." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2005. http://library.nps.navy.mil/uhtbin/hyperion/05Jun%5FTay.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Park, Won Bae. "Routing algorithms for Clos networks in SONET/SDH digital cross-connect systems." Diss., Georgia Institute of Technology, 1996. http://hdl.handle.net/1853/13837.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Barrabe, Patrice. "Acquisition et transmission optique de données." Grenoble 1, 1990. http://www.theses.fr/1990GRE10121.

Full text
Abstract:
Cette etude porte sur l'acquisition multisources et la transmission a haut debit (10 moctets/sec) de donnees numeriques, dans les domaines industriels et scientifiques. Les applications plus particulierement visees, sont celles qui presentent simultanement des contraintes d'immunite electromagnetique, de dispersion geographique (quelques centaines de metres), et de fonctionnement temps reel. Nous proposons une solution basee sur le choix de technologies performantes mais standards (fibres optiques multimodes et logique ttl rapide), afin d'optimiser les couts de fabrication. Le principe est d'implanter au niveau de chaque source des unites entierement logiques, destinees a la preparation et a la transmission des donnees. Ces unites sont reliees entre elles et a une station centrale, par un bus optique synchrone relaye en chaque point de connexion (structure daisy chain. Grace a une bonne maitrise des technologies, le travail presente permettra d'aboutir a un reseau d'acquisition rapide et fiable, ne necessitant que peu de developpement logiciel
APA, Harvard, Vancouver, ISO, and other styles
15

Ng, Hwee Ping. "Performance analysis of management techniques for SONET/SDH telecommunications networks." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2005. http://library.nps.navy.mil/uhtbin/hyperion/05Mar%5FNg.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Cagnazzo, Marco. "CODAGE DES DONNÉES VISUELLES : EFFICACITÉ, ROBUSTESSE, TRANSMISSION." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00859677.

Full text
Abstract:
Après l'obtention de mon doctorat (2005), mes travaux ont porté initialement sur deux des axes de recherche de la thèse, notamment sur le codage vidéo scalable et sur le codage d'images par ondelettes adaptées à la forme (OAF). J'ai en particulier étudié la mise en place d'un codeur vidéo scalable basé sur la transformée en ondelettes par schémas lifting compensés en mouvement et allocation optimale des ressources de codage. En suite j'ai abordé le problème du critère optimal pour l'estimation de mouvement pour ce type de codeur : des meilleures performances débit-distorsion peuvent être atteintes au prix d'une augmentation de la complexité de l'estimation de mouvement. Par rapport au codage d'images par OAF, j'ai travaillé sur les conditions qui permettent à cette approche d'être compétitif avec les méthodes traditionnelles, et ensuite sur l'utilisation conjointe de la transformée en OAF avec la quantification vectorielle arborescente et avec la transformée de Karhunen-Loéve par classes pour la compression d'images multi-spectrales. J'ai aussi considéré la relation entre distorsion sur les coefficients et distorsion perceptuelle ou non-perceptuelle sur l'image résultante. Ensuite j'ai travaillé sur l'amélioration d'un codeur vidéo standard par une représentation efficace du mouvement : un premier travail, visant une très bonne précision, a abouti à une nouvelle méthode de codage sans pertes basée sur l'information mutuelle ; une deuxième approche utilise la quantification des vecteurs de mouvement, permettant de réduire le débit pour la même qualité. J'ai ensuite travaillé sur le codage vidéo distribué (CVD). Dans le contexte du CVD, la corrélation entre deux images consécutives (ou entre deux vues voisines dans le cas de vidéo multi-vues) est exploité uniquement au décodeur, tandis que les deux images sont codées séparément. Il est alors fondamental que le décodeur soit capable de construire une bonne estimation de l'image manquante : dans ce cas le codeur devra envoyer seulement quelques bits de parité d'un code à correction d'erreurs pour améliorer l'estimation jusqu'à avoir une qualité acceptable. Dans ce cadre, mes travaux ont visé surtout à améliorer l'estimation de l'image manquante, par une description précise du mouvement : un premier axe est basé sur la représentation dense des champs de vecteurs de mouvement ; un deuxième sur la modélisation des trajectoires des objets ; les méthodes basées sur les hash, de raffinement successif et de fusion du mouvement global avec le mouvement local ont également donné des bons résultats. Ces techniques d'estimation peuvent être utilisées dans le cadre du codage par descriptions multiples : les images paires et impaires d'une séquence vidéo sont codées dans deux flux séparés avec un codeur standard, et le décodeur peut reproduire le taux original d'images par seconde même s'il reçoit un seul flux : les techniques de CVD permettent de reconstruire l'image manquante. Le CVD permet également de gérer efficacement le compromis entre degré d'interactivité, occupation d'espace de stockage et besoins de bande passante lors du streaming interactif de vidéos multi-vues. Le CVD de la vidéo 3D comporte des problématiques liées au codage des cartes de profondeur à la détection et la gestion des occlusions, et à la fusion des estimations temporelles et inter-vues. Finalement je me suis aussi occupé de la relation entre qualité de l'estimation de l'image manquante et le débit de codage total associé. Même en dehors du cadre du CVD, la compression vidéo 3D, ou plus précisément, de la vidéo multi-vues (VMV) et de la vidéo multi-vues avec profondeur (MVP) est également un domaine majeur de mon activité de recherche. Je me suis intéressé aux méthodes d'estimation dense de disparité, au codage de cartes de profondeur et au codage par Don't Care Regions (DCR) c'est à dire, en considérant les erreurs sur l'image synthétisé avec la carte de profondeur plutôt que la carte de profondeur elle-même. Le dernier domaine de recherche concerne la distribution de la vidéo sur réseau. Dans le cas de réseau filaire, j'ai travaillé sur une approche network-aware pour la distribution coopérative de vidéo. Dans le cas de réseau sans fils, je me suis intéressé à un protocole cross-layer qui minimise le nombre de message échangé, tout en garantissant à tous les nœuds la réception de la vidéo. Ce protocole a ensuite été amélioré pour prendre en compte les compromis entre distorsion et congestion sur le réseau. Ce protocole peut être utilisé conjointement au codage réseau pour maximiser le throughput du réseau et pour améliorer la robustesse de la communication. Les techniques de codage réseau peuvent également être utilisées avec le codage à descriptions multiples pour ultérieurement améliorer la robustesse, et avec le codage de la vidéo multi-vues pour optimiser (en sens débit-distorsion) la planification d'envoi des paquets vidéo.
APA, Harvard, Vancouver, ISO, and other styles
17

Marcos, Sylvie. "Filtres adaptatifs couples pour transmission de données." Paris 11, 1987. http://www.theses.fr/1987PA112001.

Full text
Abstract:
Le présent mémoire s'intéresse à certaines particularités du filtrage adaptatif en traitement du signal. Plus précisément, on y présente des résultats concernant le couplage de deux systèmes adaptatifs en cascade. La technique habituelle : mise en oeuvre consiste à séparer les adaptations des deux systèmes ; le filtre F1 en amont de F2 s'en trouve complètement découplé car il est pilote par son propre signal de sortie. Le couplage provient de ce que l'on pilote les deux filtres par le même signal sortant du système aval. Or pour réaliser une telle structure, il est nécessaire que les deux filtres fonctionnent sur le lmême rythme, ce qui n'était pas le cas dans un système découplé. On se place alors dans le cas où ce rythme unique est récupéré à partir du signal reçu à l'entrée de la cascade des deux filtres. La récupération n'étant pas parfaite, le rythme n'est pas une fréquence pure, il est affecté de gigue. L'entrée des filtres adaptatifs n'est donc plus une suite synchrone. On débouche alors sur le problème général de la poursuite de non-stationnarités par des filtres adaptatifs. Pour aller plus loin dans ce travail, on s'est attaché à une application plus spécifique, dans laquelle peut apparaître la cascade de deux filtres adaptatifs ; il s'agit de la transmission de données dans les deux sens et sur un seul support avec recouvrement spectral. Dans ce cas les filtres F1 et F2 s'appellent respectivement annuleur d'écho (ou anec)et égaliseur. Ainsi dans cette thèse on établit aussi bien des résultats généraux que des résultats plus spécifiques à cette application.
APA, Harvard, Vancouver, ISO, and other styles
18

Stanton, Kevin Blythe. "Jitter and Wander Reduction for a SONET DS3 Desynchronizer Using Predictive Fuzzy Control." PDXScholar, 1996. https://pdxscholar.library.pdx.edu/open_access_etds/1164.

Full text
Abstract:
Excessive high-frequency jitter or low-frequency wander can create problems within synchronous transmission systems and must be kept within limits to ensure reliable network operation. The emerging Synchronous Optical NETwork (SONET) introduces additional challenges for jitter and wander attenuation equipment (called desynchronizers) when used to carry payloads from the existing Plesiochronous Digital Hierarchy (PDH), such as the DS3. The difficulty is primarily due to the large phase transients resulting from the pointer-based justification technique employed by SONET (called Pointer Justification Events or PJEs). While some previous desynchronization techniques consider the buffer level in their control actions, none has explicitly considered wander generation. Instead, compliance with jitter, wander, and buffer-size constraints have typically been met implicitly--through testing and tuning of the Phase Locked Loop (PLL) controller. We investigated a fuzzy/rule-based solution to this desynchronization/constraint-satisfaction problem. But rather than mapping the input state to an action, as is done in standard fuzzy logic, our controller maps a state and a candidate action to a desired result. In other words, this control paradigm employs prediction to evaluate which of a set of candidate actions would result in the "best" predicted performance. Before the controller could predict an action's affect on buffer and wander levels, appropriate models were required. The model of the buffer is simply the integral of the frequency difference between the input and output of the PLL, and a novel MTIE Constraint Envelope technique was developed to evaluate future wander performance. We show that a predictive knowledge-based controller is capable of achieving the following three objectives: (1) Reduce jitter implicitly by avoiding unnecessary frequency changes such that the jitter limits specified in relevant standards are met, (2) Explicitly satisfy both buffer-level and wander (MTIE) constraints by trading off performance in one to meet the hard limit of the other, (3) When both buffer-level and wander constraints are in danger of violation and cannot be satisfied simultaneously, maintain the preferred constraint by sacrificing the other. We also show that the computation required for this control algorithm is easily within the reach of modern microprocessors.
APA, Harvard, Vancouver, ISO, and other styles
19

Zhu, Min. "Research on key techniques in passive optical networks and optical grid applications." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00907280.

Full text
Abstract:
The bandwidth-intensive applications, such as interactive video and multimedia services, have further increased the demand of bandwidth. Thus wavelength division multiplexing passive optical network (WDM-PON) is viewed as a promising candidate to realize the next generation optical access networks due to its dedicated bandwidth for each subscriber and more flexible bandwidth management. The first half of this thesis will cover three technologies in a WDM-PON, including multicast overlay scheme, automatic protection switching scheme and tunable Fabry-Pérot laser diode (FP-LD) self-seeding scheme. In the second half of the thesis, WDM optical network is utilized as a virtual computing environment, which connects widely distributed computing resources to support large-scale scientific, engineering or commercial computing applications. It is so called "optical Grid" systems. Grid applications may range from the simple transfer of a large data set to the complex execution of a collection of interdependent tasks. However, for such a system involving many heterogeneous computing and network resources, faults seem to be inevitable. This thesis will also address the issue of maximizing grid application availability in real-time optical Grid systems through resource-fault-tolerant scheduling techniques.
APA, Harvard, Vancouver, ISO, and other styles
20

Coatélan, Stéphane. "Conception et évaluation d'un système de transmission sur canal acoustique sous-marin horizontal petits fonds." Brest, 1996. http://www.theses.fr/1996BRES2001.

Full text
Abstract:
Peu de modems pour la transmission horizontale (portee de plusieurs kilometres) de donnees sur canal acoustique sous-marin de type petits fonds (hauteur d'eau n'excedant pas quelques centaines de metres) existent. Or, il y a une demande dans le domaine scientifique pour l'acquisition et le controle en temps reel de donnees environnementales sous-marines d'une part, et la telecommande acoustique d'engins immerges d'autre part. Ce canal presente la particularite d'etre contraignant du point de vue des communications numeriques: la propagation des ondes acoustiques par trajets multiples le rend selectif en frequence et l'effet doppler le rend non stationnaire. Le modem de transmission presente dans cette these utilise un multiplex a division de frequences orthogonales (ofdm). Le signal emis sur chaque voie du multiplex est module a deux etats de frequence (fsk) et la reception est non coherente pour eviter les problemes de recuperation de porteuse. L'introduction d'un intervalle de garde temporel superieur a la dispersion temporelle du canal permet de s'affranchir de l'interference entre symboles. L'orthogonalite entre les signaux modules emis sur chaque voie est alors definie sur une duree inferieure a la duree d'un symbole et durant laquelle le canal est suppose stationnaire. Pour lutter contre les effets lies aux evanouissements introduits par le canal, il est necessaire d'associer a la technique de transmission retenue une fonction de codage correcteur d'erreurs. Enfin, une fonction d'entrelacement est ajoutee pour eclater les erreurs eventuellement groupees a l'entree du decodeur. Les performances du systeme de transmission avec et sans codage correcteur d'erreurs ont ete evaluees par simulations sur un canal de rayleigh en presence de trajets multiples et d'effet doppler. Le traitement de signaux reels obtenus lors de campagnes de mesures en mer ont, quant a eux permis de valider le systeme ofdm/fsk pour differentes configurations de transmission: distance emetteur-recepteur, hauteur d'eau, type de fond, debit numerique. En ce qui concerne la mise en uvre des equipements d'emission et de reception, elle est simplifiee par l'utilisation de la transformee de fourier discrete (tfd). Le demodulateur a base de tfd est optimal. Dans le but de reduire le rapport entre l'intervalle de garde temporel et la duree d'un symbole, nous avons modifie les formes d'ondes a l'emission. L'utilisation de formes d'ondes gaussiennes a permis d'obtenir des performances et une efficacite spectrale du systeme de transmission meilleures. Les spectres des signaux modules emis par voie du multiplex sont alors disjoints si bien que le systeme ofdm/fsk est moins sensible au doppler
APA, Harvard, Vancouver, ISO, and other styles
21

Poulliat, Charly. "Allocation et optimisation de ressources pour la transmission de données multimédia." Cergy-Pontoise, 2004. http://www.theses.fr/2004CERG0271.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Houas, Heykel. "Allocation de ressources pour la transmission de données multimedia scalables." Phd thesis, Université de Cergy Pontoise, 2009. http://tel.archives-ouvertes.fr/tel-00767889.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes d'allocation de ressources pour la transmission de données multimédia scalables sous contraintes de qualité de service (QoS) sur les réseaux hétérogènes. Les liaisons filaires et sans fil considérées (DS-CDMA, OFDMA) sont appliquées à des services de transmission d'images et de parole sur des canaux à évanouissements lents ou rapides, avec ou sans multitrajets. La QoS de ces réseaux est exprimée en terme de qualité perçue du point de vue de l'utilisateur (couche Application) et en terme de taux d'erreurs binaires (TEB) par classe du point de vue de la transmission (couche Physique). Les ressources étudiées sont : l'allocation des puissances, des ordres de modulation et des porteuses ainsi que les propriétés de protection inégale contre les erreurs (UEP). L'objectif de ce document est d'allouer ces ressources de façon à maximiser le débit source des données multimédia hiérarchisées (sous forme de classes d'importance) en s'appuyant sur une connaissance parfaite ou partielle des canaux de propagation, sous contrainte de performances cibles en réception. Les stratégies d'adaptation de lien que nous présentons se basent sur la possible troncature d'une partie de ces données à transmettre. Elles se fondent également sur le degré de sensibilité et la protection adéquate de chacune de ces classes contre les erreurs liées à la transmission sur le canal, conformément aux exigences de QoS exprimées sur ces dernières. Les schémas de transmission explorent plusieurs critères d'optimisation des ressources : la minimisation de la charge utile du système ainsi que l'optimisation de la robustesse de la transmission aux erreurs d'estimation du canal. Dans ces contextes, nous décrivons l'allocation optimale de sous-porteuses, de modulations, de rendements de code et d'énergie maximisant le débit source de l'utilisateur tout en véri ant les contraintes sur la charge du système et la QoS. Nous montrons que ces schémas d'allocation sont adaptables à de nombreux systèmes de communication et présentent des performances supérieures aux stratégies de l'état de l'art.
APA, Harvard, Vancouver, ISO, and other styles
23

Houas, Heykel. "Allocation de ressources pour la transmission de données multimédia scalables." Cergy-Pontoise, 2009. http://biblioweb.u-cergy.fr/theses/09CERG0430.pdf.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes d'allocation de ressources pour la transmission de données multimédia scalables sous contraintes de qualité de service (QoS) sur les réseaux hétérogènes. Les liaisons filaires et sans fil considérées (DS-CDMA, OFDMA) sont appliquées à des services de transmission d'images et de parole sur des canaux à évanouissements lents ou rapides, avec ou sans multitrajets. Les ressources de la couche Physique étudiées ici sont : les rendements de code correcteur d'erreur, utilisés pour protéger les données, les ordres de modulations et les porteuses les supportant, ainsi que la puissance leur étant allouée. L'objectif de ce document est d'allouer ces ressources de façon à maximiser le débit source des données multimédia hiérarchisées (en classes d'importance) sous contrainte de QoS cibles et de charge du système en réception en s'appuyant sur une connaissance parfaite ou partielle des canaux de propagation. La QoS de ces réseaux hétérogènes est exprimée en terme de qualité perçue du point de vue de l'utilisateur grâce aux taux d'erreurs binaires (TEB) par classe venant du codeur source scalable. Dans ce contexte, nous proposons plusieurs stratégies d'adaptation de lien ; l. Leur originalité est 1) de se baser sur la possible troncature des classes à transmettre et 2) d'utiliser le degré de sensibilité de ces classes aux erreurs de transmission sur le canal pour adapter leur protection contre les erreurs conformément aux exigences de QoS et en fonction de l'état du canal. Les schémas de transmission explorent plusieurs critères d'optimisation des ressources : la minimisation de la charge utile du système ainsi que l'optimisation de la robustesse de la transmission aux erreurs d'estimation du canal. Pour chacun, nous décrivons l'allocation optimale de porteuses, de modulations, de rendements de code et de puissances maximisant le débit source de l'utilisateur tout en vérifiant les contraintes du système en réception. Nous montrons ainsi que ces stratégies d'allocation sont adaptables à de nombreux schémas de communication, nous en présentons les performances et les comparons aux stratégies de l'État de l'Art
This thesis is dedicated to the resources allocation for the transmission of scalable multimedia data under Quality-of-Service (QoS) constraints on heterogeneous networks. We focus on wire and wireless links (DS-CDMA, OFDMA) with the transmission of images, speech over frequency and non frequency selective channels. Resources from the physical layer are addressed : channel code rates (to protect the data against the degradation of the signal-to-noise ratio SNR), modulation orders, carriers ordering (to convey the layers) and the allocated power. The aim of this report is to allocate these parameters in order to maximize the source rate of the multimedia data under targeted QoS and system payload with a perfect or partial channel knowledge. The QoS is expressed in term of perceived quality from the End To end User and in term of Bit Error Rate per Class from the scalable source encoder. In a such context, we propose some link adaptation schemes whose novelty is to enable the truncation of the data layers. Moreover, these strategies make use of the sensivity to transmission errors and the channel state information to dynamically adapt the protection of the layers (Unequal Error Protection UEP) in accordance with the QoS requirements. These procedures explore multiple resources optimization criteria : the minimization of the system payload and the maximization of the robustness to the channel estimation error. For each one, we perform the optimal allocation (bit loading) of the previous parameters that maximize the source rate while ensuring the constraints of the receiver. We show that these schemes fit to any communication system and we present the performances and compare them to the State Of The Art procedures
APA, Harvard, Vancouver, ISO, and other styles
24

El, Rhomri Zouhir. "Transmission radio de données géotechniques depuis le fond d'un forage." ENSMP, 1997. http://www.theses.fr/1997ENMP0938.

Full text
Abstract:
Pendant le creusement d'un tunnel dans des terrains de résistance médiocre, il serait très intéressant de surveiller le mouvement des terrains derrière les parois d'avancement des travaux. La mesure d'expansion interne des terrains pendant cette phase de creusement permettra d'une part, de valider les modèles théoriques relatifs au comportement des structures souterraines et d'autre part, de prévoir un éventuel effondrement du front d'abattage. La mesure des déplacements des terrains peut être assurée par des extensomètres placés dans différents forages dans le massif, mais ces systèmes nécessitent une liaison par câble entre le point de mesure à l'intérieur du massif et le point de lecture situé à quelques mètres du front de creusement. Cette liaison est un inconvénient majeur dans le cas où l'on veut surveiller un front qui avance, pusique le câble serait détruit par les engins effectuant le creusement. L'objectif de cette étude est de réaliser un système d'acquisition et de transmission radio des mesures extensiométriques depuis le fond d'un forage. Ce système sera exploité pendant la phase de creusement de tunnel par des machines d'abattage à attaque ponctuelle. Il permettra l'émission des mesures d'expansion depuis le fond du forage, jusqu'au point de lecture situé dans la partie creusée du tunnel. Cette technique permettra alors la surveillance de l'expansion interne des terrains au fur et à mesure que le front de creusement avance. Pour la réalisation de ce système, nous avons étudié différentes techniques de mesures in situ dans les travaux souterrains et nous avons présenté différents éléments disponibles actuellement, pouvant être intégrés à notre système de transmission. Ensuite, nous avons effectué une étude théorique
In geothechnics, it is very important to control continously the stability of underground works during and after excavating operations with high degree of precision. For example, during tunneling, it is necessary to know the exact structure of the rock mass to be excavated in the near few days. Such a knowledge would allow a better decision regarding a possible temporary roof support near the tunneling face and, if such a support is necessary, would allow better definition and sizing of the support. The estimation of the rock mass behaviour is carried out by different in-situ acquisition systems (extensometer, strain gauge, etc. . . ), which are placed in few meters deep boreholes. The use of classical extensometer, placed in twenty-meter borehole, could provide a valuable information, but the hardware cable connecting the measurement device and the reception point in the stope is generally destroyed in the drilling and boring processes. The objective of this project is thus to conceive and developp a radio (wireless) acquisition and transmission system, which will be devoid of any hardware cable connection and allow an emission from the borehole within the rock mass and a reception (and possible treatment) in the stope outside the rock mass. We carried out a theoretical study of all the steps of the wave propagation, from the borehole within the rocks mass. We carried out a theoretical study of all steps of the wave propagation, from the borehole within the rock mass, to the reception point, 100 meters away from the tunneling face. We have therefore proposed a method to carry out the radio transmission in these particular conditions. In-situ experiments allowed the validation of the proposed solution. The survey of the industrial state-of-art on the use of telemetry systems in underground works has shown that some modules could be integrated in our system. In addition, we developed a prototype which is composed of an emission board using a classical borehole extensometer and an acquisition station which provides the recording and displaying of the measurements. The in-situ tests have shown that the developped prototype has the transmission range fixed by the project objectives
APA, Harvard, Vancouver, ISO, and other styles
25

Bène, Jean-Baptiste. "Régulation des réseaux internationaux de transmission de données et cryptologie." Montpellier 1, 2004. http://www.theses.fr/2004MON10007.

Full text
Abstract:
Depuis l'invention de l'écriture, et sans doute avant les premiers alphabets, l'homme s'est ingénié à brouiller certains de ses messages, afin d'en assurer la confidentialité. La cryptologie et les logiciels de chiffrement sont les fondements des techniques de défense contre la cybercriminalité, et les fondements qui ont permis l'évolution des législations appliquées à la dématérialisation d'une partie des relations sociales. La reconnaissance de la signature électronique et de la preuve électronique sont la reconnaissance, au-delà du changement de mode organisationnel de la société, des immenses possibilités offertes par la cryptologie. La cryptologie se trouve être le moteur de la sécurisation et de la confiance dans les réseaux de transmission de données, ainsi que l'outil indispensable à la régulation juridique des réseaux. L'analyse de la législation sur la cryptologie met en exergue un conflit de libertés qui s'arbitre autour d'un conflit de sécurité. La cryptologie est un service de la sécurité juridique et des libertés publiques, mais pas nécessairement de l'ordre public ou de la sécurité de l'Etat. Les législations sur la cryptologie se situent à la limite des impératifs commerciaux et des libertés individuelles.
APA, Harvard, Vancouver, ISO, and other styles
26

Liethoudt, Thierry. "Contribution à l'étude de systèmes de transmission numérique à partage en fréquence." Nice, 1989. http://www.theses.fr/1989NICE4295.

Full text
Abstract:
Les systèmes de transmission de données à partage en fréquence offrent des avantages importants par rapport aux modems classiques utilisant une modulation QAM. En effet, la bande de fréquence utile de la ligne est divisée en sous-canaux indépendants dans lesquels les données binaires à transmettre sont réparties à des débits variables calculés en fonction des caractéristiques de la ligne. Dans cette thèse, nous présentons l'étude d'un modem à partage en fréquence utilisant de nouvelles techniques afin de résoudre les problèmes numériques posés par l'initialisation et le maintien d'une liaison à grande vitesse en présence des différents défauts du canal. Nous proposons tout d'abord un algorithme destiné à estimer et à éliminer le décalage en fréquence, puis une méthode d'allocation des ressources binaires déterminant la capacité de transmission de chaque sous-canal. Nous proposons aussi une méthode qui simplifie les opérations de recouvrement des blocs et assure le positionnement correct de ces blocs à la réception, ainsi qu'une technique qui permet l'adaptation de la valeur estimée du décalage en fréquence et l'estimation de l'erreur de phase introduite par l'horloge. Nous présentons ensuite, un algorithme de codage original base sur la modulation codée par treillis (TCM) qui permet d'utiliser un treillis unique pour coder simultanément plusieurs constellations de tailles différentes. Une étude de performances montre que ce dispositif offre un gain de codage important. Finalement, nous abordons l'évaluation de l'implantation sur un microprocesseur de traitement du signal des algorithmes proposes
APA, Harvard, Vancouver, ISO, and other styles
27

Chien, Cheng-Chung. "Optical modulation and detection techniques for high-spectral efficiency." Diss., [Riverside, Calif.] : University of California, Riverside, 2008. http://proquest.umi.com/pqdweb?index=0&did=1663077881&SrchMode=2&sid=1&Fmt=2&VInst=PROD&VType=PQD&RQT=309&VName=PQD&TS=1268238692&clientId=48051.

Full text
Abstract:
Thesis (Ph. D.)--University of California, Riverside, 2008.
Includes abstract. Available via ProQuest Digital Dissertations. Title from first page of PDF file (viewed March 10, 2010). Includes bibliographical references (p. 100-112). Also issued in print.
APA, Harvard, Vancouver, ISO, and other styles
28

Fortin, Guillaume. "Circuits en AsGa pour la transmission de données sur fibre optique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ33131.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Estrada, Garcia Hector Javier. "Commande de systèmes mécaniques avec retards dans la transmission de données." Nantes, 2008. http://www.theses.fr/2008NANT2063.

Full text
Abstract:
Dans cette thèse, on propose le développement d'une technique de synchronisation pour systèmes mécaniques avec des retards dans le canal de communications. On considère que les retards sont relativement grands mais bornés. On effectue la synthèse de nouveaux schémas de synchronisation avec retards dans la transmission de données, les solutions qui sont obtenues sont causales, sans l'utilisation de prédicteurs, en utilisant la structure des systèmes et en appliquant la théorie de stabilisation pour systèmes linéaires avec retards. On effectue l'étude du problème de synchronisation de deux dispositifs mécaniques distants (l’un à Nantes, France ; l'autre à Ensenada, Mexique), interconnectés par un réseau. Le système mécanique considéré est sous actionné et consiste en un pendule inverse lié à une barre transversale par une union prismatique. Les résultats de cette thèse sont une contribution aux travaux de synchronisation et de rejet de perturbations qui est nouvelle par rapport à la littérature
In this thesis, the development of a synchronization technique is investigated, for dynamic systems with delays in the communication channel. It is assumed that the delays may be large but bounded. The study of the problem of synchronization of two distant mechanical devices (one being in Nantes, France; the other in Ensenada, Mexico), interconnected through a network. The mechanical system is underactuated and consists in an inverted pendulum linked to a transversal beam through a prismatic joint. The contributions of this thesis generalize the available synchronization results in the current literature
APA, Harvard, Vancouver, ISO, and other styles
30

Et-Tolba, Mohamed. "Transmission de données pour le HSDPA et étude des algorithmes HARQ." Télécom Bretagne, 2007. http://www.theses.fr/2006TELB0024.

Full text
Abstract:
L’évolution majeur de l’UMTS, ces dernières années est le HSDPA (High Speed Downlink Packet Access) qui est basé sur la transmission en mode paquet. Il est conçu pour répondre au besoin en débit des utilisateurs dans la liaison descendante. Le HSDPA permet d’atteindre des débits qui peuvent dépasser 10 Mbits/s. Ceci est possible grâce à l’utilisation du principe de transmission multicodes en application conjointe avec de nouvelles technologies telles que la modulation et codage adaptatifs (MCA) ainsi que l’HARQ (Hybrid Automatic Repeat reQuest). Cette thèse porte sur la transmission de données pour le HSDPA en mode FDD, et l’étude des algorithmes HARQ. Pour augmenter le débit de transmission, la technique MCA adapte la modulation et le rendement de codage au fur et à mesure que les conditions du canal de propagation varient. L’utilisation des modulations d’ordre supérieur (16-QAM) dégrade les performances du récepteur Rake. En plus, avec ce dernier, le simulateur HSDPA demande un temps de calcul très long pour atteindre de bonnes performances. Ceci nous a motivé à introduire une méthode de simulation rapide qui fournit pratiquement les mêmes performances dans un temps de calcul plus réduit. Pour améliorer les performances du MCA avec le récepteur Rake, nous avons implémenté les techniques de retransmission HARQ. Selon l’implémentation et les performances, on distingue deux approches de retransmission : la première est basée sur l’algorithme de Chase où les retransmissions portent la même information que celle portée par la transmission originale, et la deuxième repose sur l’algorithme IR (Incremental Redundancy) dans lequel chaque retransmission transporte une redondance supplémentaire. L’analyse des performances a montré que l’HARQ apporte un gain considérable après seulement 2 transmissions. Cependant, avec les modulations d’ordre supérieur, cette technique peut atteindre ses limites lorsque le canal de transmission induit une interférence multitrajets sévère. Cette limitation nous a amené à introduire une méthode qui combine l’HARQ avec la suppression d’interférence multitrajets (MPIC). Pour améliorer cette technique nous avons proposé d’utiliser la technique de réarrangement de constellation qui apporte une diversité importante en changeant la constellation d’une transmission à l’autre. Nous avons constaté une nette amélioration des performances malgré la présence de trajets multiples
The major evolution of UMTS (Universal Mobile Telecommunications System) in recent years is the High Speed Downlink Packet Access (HSDPA) which provides data rates up to 10 Mbps. The implementation of HSDPA includes multicode transmission in joint application with Adaptive Modulation and Coding (AMC) as well as Hybrid Automatic Repeat reQuest (HARQ). This thesis deals with the implementation of the HSDPA simulator in FDD (FrequencyDivision Duplex) mode according to 3GPP technical specifications. It also aims to study the HARQ algorithms for HSDPA. The performance of AMC is significantly degraded when higher order modulation (16-QAM) is used in a multipath environnement. Moreover, the HSDPA simulator requires a very long time of computation to provide good performance in multipath channel. In order to solve this problem, we have introduced a simplified simulator which exploits the performance of HSDPA over gaussien channel as look-up tables to compute the block error rate in multipath channel. To make the AMC technique more powerful, we have implemented the HARQ technique. It combines ARQ methods with turbo coding. There are two fundamental approaches for HARQ : the first is Chase approach in which retransmissions are identical to the original transmission, the second approach is IR (Incremental Redundancy) in which the retransmissions carry additionnal redundancy. The performance analysis shows that a significant gain is offered by HARQ after only 2 transmissions. However this technique can exhibit an error floor when using higher order modulation in multipath environnement. As a solution to this limitation, we have employed HARQ technique combined with soft Multipath Interference Cancellation (MPIC). For enhancing this method, we have proposed to use the constellation rearrangement technique which provides additionnal diversity by changing the constellation from one transmission to other. With this techniques, very good performance is offered, and the error floor is mitigated or completely removed
APA, Harvard, Vancouver, ISO, and other styles
31

Lobo, Guerrero Pérez Alejandro. "Etude de techniques de tatouage audio pour la transmission de données." Grenoble INPG, 2004. http://www.theses.fr/2004INPG0141.

Full text
Abstract:
Cette thèse est consacrée à l'étude de techniques de tatouage audio dans le cadre du projet RNRT ARTUS, qui vise à améliorer la compréhension des malentendants lors d'une transmission par télédiffusion. Deux aspects principaux sont abordés: l'insertion et la synchronisation des données. Pour l'insertion, un système informé à taux d'erreur contrôlé est complété par des stratégies qui prennent en compte la densité spectrale de puissance et la perception du signal hôte. Le système ainsi proposé profite de la théorie de l'insertion informée pour établir des stratégies adaptées aux problématiques de distorsion introduite et de taux d'erreur binaire. Pour la synchronisation, deux systèmes sont proposés. Le premier est basé sur la théorie de la synchronisation informée. L'analyse du signal hôte est utilisée pour définir des Instants Caractéristiques. Ces instants sont utilisés comme éléments de synchronisation qui permettent le contrôle et le renforcement de la robustesse tout en respectant les contraintes de distorsion introduite. Le deuxième système de synchronisation est fondé sur des filtrages non linéaires. Ce type de filtrage sert à améliorer le temps d'acquisition dans un système de synchronisation par étalement de spectre. Les résultats obtenus sont utilisés pour proposer le système de tatouage complet qui profite de la théorie de l'insertion informée dans les étapes de d'insertion et de synchronisation
This thesis is devoted to the study of audio data hiding techniques in the context of French project RNRT ARTUS. This project aims to improve the comprehension of broadcasting television in the case of deaf public. In order to propose an audio data hiding system two principal aspects are approached: data insertion and synchronization. At the insertion stage, the informed theory is used to propose a system characterized by bit error rate control. Several approaches are proposed to complete the proposed system. They take into account the audio host signal power spectral density and perception in order to establish strategies adapted to distortion and bit error rate constraints. This approach make of this development a system profiting of informed embedding theory. For implementing synchronization, two systems are proposed. The first one is based on the informed embedding theory and determines an informed synchronization system. Host signal analysis is used to define Feature Time Points. These Feature Time Points are used as synchronization elements which allow robustness control and the reinforcement and also respects distortion constraints. The second synchronization system is founded on nonlinear filtering. This kind of filtering is used to improve acquisition time of a spreading spectrum synchronization system. The results obtained are used to propose a whole data hiding system which benefits from the informed embedding for implementing both insertion and synchronization stages
APA, Harvard, Vancouver, ISO, and other styles
32

Beaulier, François. "Transmission de données en temps réel en milieu perturbé, conception et réalisation d'un système anti-collision : réseau hertzien, bus de terrain, protocole, capteur." Paris 12, 1997. http://www.theses.fr/1997PA120023.

Full text
Abstract:
Les techniques les plus recentes en matiere de transmission de donnees sont appliquees aux systemes anti-collision pour grues a tour. En introduction nous presentons l'architecture de ces systemes dans l'etat de l'art, en precisant les contraintes auxquelles ils sont soumis. Dans une premiere partie, a partir d'une analyse des faiblesses des systemes actuels, nous developpons entierement un reseau hertzien assurant l'echange fiable d'informations de position entre les grues d'un chantier, et comprenant un protocole specifique adapte a l'aspect temps reel. En deuxieme partie sont abordes les problemes de communication sur la grue elle-meme, entre unite centrale, capteurs et actionneurs. Nous justifions le choix d'un bus de terrain pour assurer de maniere plus fiable et plus souple ces echanges. La mesure de vitesse de rotation, est un parametre essentiel pour le controle de certaines grues, ceci nous conduit a developper un capteur de vitesse a effet gyroscopique. Nous evaluons en conclusion les benefices apportes au systeme dans son ensemble avant de discuter des perspectives d'extension de notre architecture.
APA, Harvard, Vancouver, ISO, and other styles
33

Zhang, Chongsheng. "Managing and mining data streams with evolving tuples." Nice, 2011. http://www.theses.fr/2011NICE4049.

Full text
Abstract:
Depuis environ une décennie, le traitement des flux de données est nécessaire. Pendant ces dix années, les questions liées au traitement de flux de données ont été largement explorées. Récemment, au lieu de proposer des modèles généraux et des algorithmes, le traitement des flux de données s’oriente de plus en plus vers des tâches ou des domaines spécifiques. Dans cette thèse, nous présentons notre étude de la gestion et de la feuille de flux de données avec tuples évolutifs, c'est-à-dire avec des révisions du modèle. Par exemple, dans un système d’enchères en ligne où les offres sur les objets mis aux enchères sont en direct, il est possible que certains utilisateurs envoient plusieurs enchères pour un objet pendant un intervalle de temps spécifié. En conséquence, les données de l’utilisateur peuvent être mises à jour dans de telles applications. Les flux de données avec tuples évolutifs présentent de nouveaux défis. Dans ce travail, nous développons de nouveaux modèles pour la gestion et la fouille des flux de données avec des tuples évolutifs. Pour les données du modèle des flux avec tuples en évolutifs, nous proposons le modèle Anti-Bouncing Streaming (ABS) pour les flux d’usage. ABS traite les flux de données avec tuples évolutifs et il permet des méthodes de traitement des flux de données pour gérer les mises à jour ou les révisions. Pour trouver les motifs fréquents dans les flux de données avec les tuples évolutifs au cours sur les fenêtres coulissantes, nous procédons à l’analyse théorique et proposons des théorèmes qui peuvent éviter l’énumération et le scan de fenêtre pour vérifier les itemsets qui peuvent devenir fréquents. Nous concevons également des nouvelles structures de données qui peuvent gérer les flux de données avec les tuples évolutifs de manière efficace et faciliter l’extraction d’itemsets fréquents. Par ailleurs, nous élaborons un algorithme efficace de comptage pour vérifier la fréquence des itemsets candidats. Nous proposons également deux cadres applicatifs pour ce problème. Pour extraire des caractéristiques importantes du jeu flux de données (y compris celles avec des tuples en évolution), basée sur ABS, nous concevons un algorithme d’extraction de variables dans les flux qui est le premier dans la littérature. Cette méthode est basée sur la théorie de l’information pour en extraire les ensembles de variables informatifs. Pour accélérer encore l’extraction de l’ensemble de variables le plus informatif dans les données de grande dimension, nous proposons un cadre qui réduit l’espace de recherche pour un sous-ensemble assez petit tout en continuant à garantir la qualité des ensembles découverts. Nous avons validé nos méthodes sur des données du monde réel (France Télécom). Les expériences montrent que nos modèles et les méthodes sont efficaces. Nos techniques peuvent être utilisées dans de nombreuses applications telles que les Web Analytics en ligne dans les flux de données
In this work, we present our study of the management and mining issues on data streams with evolving tuples. For instance, in an online auction system where bids on auction items are steaming, some users can be updated or revised in data streams. This kind of data streams is named Bi-streaming data in the thesis. We develop novel and efficient methods for managing and mining bi6streaming data. To model Bi-streaming data, we propose the Anti-Bouncing Streaming model (ABS). ABS enables methods for processing of data streams to handle tuple updates or revisions. To find frequent itemsets from B-streaming data over pane-based sliding windows, we provide theorems that can avoid re-scanning the past panes for possible frequent itemsets. We also design novel data structures and an efficient counting algorithm to get the counts for the candidate itemsets. To extract important feature set from data streams, based on ABS we devise a streaming feature set selection algorithm which is the first of its kind in the literature. This method is base upon information theory to extract the most informative feature set. To accelerate the extraction of the most informative feature set from high-dimensional data, we propose a framework than can reduces the huge search space to a rather small subset while still guarantee the quality of the discovered feature set. We have validated our method in a real-world dataset from France Telecom. Our techniques can be used in many applications such as on-line Web Analytics
APA, Harvard, Vancouver, ISO, and other styles
34

Jouini, Khaled. "Optimisation de la localité spatiale des données temporelles et multiversions." Paris 9, 2008. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2008PA090016.

Full text
Abstract:
La gestion efficace des données temporelles et multiversions est cruciale pour nombre d'applications de base de données, des plus classiques aux plus récentes. La hiérarchie de mémoires est le goulot d'étranglement majeur pour les systèmes de gestion de base de données. Un des principaux moyens pour optimiser l'utilisation de la hiérarchie de mémoires et d'optimiser la localité spatiale des données, c'est-à-dire de placer de manière contiguë les données qui ont de grandes chances d'être lues au même moment. Le problème posé dans cette thèse est d'optimiser la localité spatiale des données temporelles et multiversions à tous les niveaux de la hiérarchie de mémoires, via les structures d'indexation et les stratégies de stockage. Cette thèse définit un modèle de coût, l'analyse en régime permanent, permettant d'estimer avec précision les performances des différentes structures d'indexation et de comprendre leur comportement. Ainsi, l'analyse fournit aux concepteurs de bases de données temporelles ou multiversions les outils leur permettant de choisir la structure d'indexation qui sied le mieux à leurs applications. Cette thèse étudie également l'impact de la redondance due au versionnement sur l'utilisation du cache de second niveau. La thèse propose à cet effet deux modèles de stockage qui, contrairement aux modèles de stockage standards, évitent la redondance due au versionnement et optimisent l'utilisation du cache de second niveau et de la bande passante de la mémoire vive
The efficient management of temporal and multiversion data is crucial for many traditional and emerging database applications. A major performance bottleneck for database systems is the memory hierarchy. One of the main means for optimizing the utilization of the memory hierarchy is to optimize data spatial locality, i. E. To put contiguously data that are likely to be read simultaneously. The problem studied in this thesis is to optimize temporal and multiversion data spatial locality at all levels of the memory hierarchy, using index structures and storage policies. In particular, this thesis proposes a cost model, the steady state analysis, allowing an accurate estimation of the performance of different index structures. The analysis provides database designers tools allowing them to determine the most suitable index structure, for given data and application characteristics. This thesis also studies the impact of version redundancy on L2 cache utilization. It proposes two storage models which, in contrast with the standard storage models, avoid version redundancy and optimize L2 cache and main memory bandwidth utilization
APA, Harvard, Vancouver, ISO, and other styles
35

Tornea, Olga. "Contributions à la cryptographie ADN : applications à la transmission sécurisée du texte et de l'image." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00942608.

Full text
Abstract:
La cryptographie ADN est un domaine nouveau et prometteur pour la sécurité de l'information. C'est une combinaison des solutions classiques de cryptographie avec les avantages du matériel génétique. En effet, il est possible de bénéficier des avantages des systèmes cryptographiques classiques et de les rendre plus efficaces sur certaines méthodes grâce à l'utilisation de l'ADN. Il y a différentes façons d'utiliser l'ADN pour sécuriser le contenu de l'information. Cette thèse propose deux solutions différentes pour utiliser l'ADN dans la cryptographie : sous sa forme biologique ou alors sous forme numérique. D 'une part, l'ADN biologique peut être utilisé pour le stockage et pour cacher des données à l'intérieur de celui-ci. L'information secrète est placée dans une molécule de l'ADN et caché parmi d'autres molécules d'ADN. D'autre part, les nombres aléatoires peuvent être générés à partir de séquences numériques d'ADN. Ils représentent une solution pour la génération et la transmission des clés OTP (One-Time-Pad) symétriques. La transmission d'une très longue clé de cryptage n'est pas nécessaire, car chaque séquence possède un numéro d'identification unique dans la base de données. Ce numéro, ou une combinaison de ces numéros, peut alors être transmis. Enfin, la sécurité et la compression sont très importantes lors de la transmission et du stockage des données informatiques. Cependant, la plupart des systèmes de cryptage peuvent augmenter la taille des données, ou encore augmenter la complexité calcul. Ces inconvénients peuvent être résolus en combinant la compression de données avec le cryptage dans un seul processus ou en effectuant le cryptage sélectif des données.
APA, Harvard, Vancouver, ISO, and other styles
36

Malinowski, Simon. "Codes joints source-canal pour transmission robuste sur canaux mobiles." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/malinowski.pdf.

Full text
Abstract:
L'étude menée dans cette thèse s'inscrit dans le contexte du codage conjoint source-canal. L'émergence de ce domaine depuis quelques années est dû aux limites, notamment au niveau applicatif, du théorème de séparation de Shannon. Ce théorème stipule que les opérations de codage de source et de codage de canal peuvent être réalisées séparément sans perte d'optimalité. Depuis quelques années, de nombreuses études visant à réaliser conjointement ces deux opérations ont vu le jour. Les codes de source, comme les codes à longueur variables ou les codes quasi-arithmétique ont beaucoup été étudié. Nous avons travaillé sur ces deux types de codes dans le contexte de codage conjoint source-canal dans ce document. Un modèle d'état pour le décodage souple des codes à longueur variable et des codes quasi-arithmétique est proposé. Ce modèle est paramétré par un entier T qui permet de doser un compromis entre performance et complexité du décodage. Les performances des codes sur ce modèle sont ensuite analysées en étudiant leurs propriétés de resynchronisation. Les méthodes d'étude de ces propriétés ont dû être adaptées aux codes QA et au canal à bruit additif blanc gaussien pour les besoins de cette analyse. Les performances des codes sur le modèle agrégé peuvent ainsi être prévues en fonction de la valeur du paramètre T et du code considéré. Un schéma de décodage robuste avec information adjacente est ensuite proposé. La redondance ajoutée se présente sous la forme de contraintes partielles appliquées pendant le décodage. Cette redondance peut être ajoutée de manière très flexible et ne nécessite pas d'être introduite à l'intérieur du train binaire. Enfin, deux schémas de codage de source distribué utilisant des codes quasi arithmétiques sont proposés. Le premier schéma réalise la compression en poinçonnant la sortie du code, tandis que le deuxième utilise un nouveau type de code : les codes quasi-arithmétiques avec recouvrement d'intervalle. Les résultats présentés par ces deux schémas sont compétitifs comparativement aux schémas classiques utilisant des codes de canal
Joint source-channel coding has been an area of recent research activity. This is due in particular to the limits of Shannon's separation theorem, which states that source and channel coding can be performed separately in order to reach optimality. Over the last decade, various works have considered performing these operations jointly. Source codes have hence been deeply studied. In this thesis, we have worked with these two kind of codes in the joint source-channel coding context. A state model for soft decoding of variable length and quasi-arithmetic codes is proposed. This state model is parameterized by an integer T that controls a trade-off between decoding performance and complexity. The performance of these source codes on the aggregated state model is then analyzed together with their resynchronisation properties. It is hence possible to foresee the performance of a given code with respect to the aggregation parameter T. A robust decoding scheme exploiting side information is then presented. The extra redundancy is under the form of partial length constraints at different time instants of the decoding process. Finally, two different distributed coding schemes based on quasi-arithmetic codes are proposed. The first one is based on puncturing the output of the quasi-arithmetic bit-stream, while the second uses a new kind of codes : overlapped quasi-arithmetic codes. The decoding performance of these schemes is very competitive compared to classical techniques using channel codes
APA, Harvard, Vancouver, ISO, and other styles
37

Bechadergue, Bastien. "Mesure de distance et transmission de données inter-véhicules par phares à LED." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV085/document.

Full text
Abstract:
En réponse aux problèmes croissants liés aux transports routiers - accidents, pollutions,congestions - les véhicules à faibles émissions, équipés de systèmes de transports intelligents (ITS)sont progressivement développés. Si la finalité de cette démarche est le véhicule entièrementautonome, on peut néanmoins s'attendre à voir d'abord sur nos routes des véhicules automatisés surdes phases de conduite spécifiques. C'est le cas du convoi automatisé, qui permet à plusieursvéhicules de rouler en convois de manière automatique et donc d'augmenter la capacité des voies decirculation tout en réduisant la consommation de carburant. La fiabilité de cet ITS repose surplusieurs briques technologiques, et en particulier sur la mesure de distance et la transmission dedonnées véhicule-véhicule (V2V).De nombreux systèmes permettent de réaliser ces deux fonctions vitales comme, par exemple, lesradars ou lidars pour la mesure de distance et la technologie IEEE 802.11p pour la communicationvéhiculaire. Si ces différents dispositifs présentent de très bonnes performances, ils sont néanmoinsparticulièrement sensibles aux interférences, qui ne cessent de se multiplier à mesure que le nombrede véhicules équipés augmente et que le trafic est dense. Pour pallier les dégradations deperformances induites par de telles situations, des technologies complémentaires pourraient donc êtreutiles. Le récent développement des diodes électroluminescentes (LED) blanches, en particulier pourl'éclairage automobile, a permis l'émergence des communications optiques visibles sans fil (VLC).Les phares à LED sont alors utilisés pour transmettre des données entre véhicules et avec lesinfrastructures. Malgré la puissance limitée de ces éclairages, plusieurs études ont montré qu'unetransmission de qualité est possible sur quelques dizaines de mètres, faisant de la VLC uncomplément particulièrement intéressant à l'IEEE 802.11p, en particulier pour les convoisautomatisés. Par analogie, on peut alors se demander si les phares ne pourraient pas être aussi utiliséspour mesurer la distance V2V.Le but de cette thèse est donc de proposer et évaluer un système dédié aux situations de convoisautomatisés qui, à partir des phares avant et arrière des véhicules, transmet des données et mesuresimultanément la distance V2V. Dans un premier temps, une étude détaillée de l'état de l'art de laVLC pour la communication V2V est effectuée afin de déterminer l'architecture de base de notresystème. La fonction de mesure de distance est ensuite ajoutée, après une revue des différentestechniques usuelles. Une fois l'architecture générale du système établie, elle est dans un premiertemps validée par des simulations avec le logiciel Simulink. En particulier, les différents paramètressont étudiés afin de déterminer leur impact sur la résolution de mesure de distance et les performancesen transmission de données, puis afin de les optimiser. Si ces simulations fournissent des indicateursimportants pour la compréhension du système, elles ne peuvent cependant remplacer les tests d'unprototype réel. L'implémentation de ce prototype est alors détaillée ainsi que les tests réalisés dansdifférentes configurations. Ces différents tests démontrent l'intérêt des solutions proposées pour lamesure de distance et la communication V2V en convois automatisés
In response to the growing issues induced by road traffic - accidents, pollution, congestion- low-carbon vehicles equipped with intelligent transportation systems (ITS) are being developed.Although the final goal is full autonomy, the vehicles of the near future will most probably be selfdrivingin certain phases only, as in platooning. Platooning allows several vehicles to moveautomatically in platoons and thus to increase road capacity while reducing fuel consumption. Thereliability of this ITS is based on several core technologies and in particular on vehicle-to-vehicle(V2V) distance measurement and data transmission.These two vital functions can be implemented with several kinds of systems as, for instance, radars orlidars for range-finding and IEEE 802.11p-based devices for vehicular communication. Althoughthese systems provide good performances, they are very sensitive to interferences, which may be agrowing issue as the number of vehicles equipped will increase, especially in dense traffic scenario.In order to mitigate the performance degradation occurring in such situations, complementarysolutions may be useful. The recent developments of white light-emitting diodes (LED), especiallyfor the automotive lighting, has allowed the emergence of visible light communication (VLC). WithVLC, the vehicle headlamps and taillights are used to transmit data to other vehicles orinfrastructures. Despite the limited optical power available, several studies have shown thatcommunication over tens of meters are possible with a low bit error rate (BER). VLC could thus bean interesting complement to IEEE 802.11p, especially in platooning applications. By analogy, onecould wonder if the automotive lighting can also be used for V2V range-finding.The goal of this thesis is thus to propose and evaluate a system dedicated to platooning configurationsthat can perform simultaneously the V2V distance measurement and data transmission functionsusing the headlamps and taillights of the vehicles. The first step of this study is thus a detailed stateof-the art on VLC for V2V communication that will lead to a first basic architecture of our system.Then, the range-finding function is added, after a careful review of the classical techniques. Once thegeneral architecture of the system is drawn, it is validated through simulations in the Simulinkenvironment. The different degrees of freedom in the system design are especially studied, in orderfirst to evaluate their impact on the measurement resolution and the communication performances,and then to be optimized. Although these simulations provide crucial keys to understand the system,they cannot replace real prototype testing. The implementation of the prototype is thus fullydescribed, along with the results of the different experiments carried out. It is finally demonstratedthat the proposed solution has a clear interest for V2V range-finding and communication inplatooning applications
APA, Harvard, Vancouver, ISO, and other styles
38

Troudi, Molka. "Optimisation du paramètre de lissage pour l'estimateur à noyau par des algorithmes itératifs : application à des données réelles." Télécom Bretagne, 2009. http://www.theses.fr/2009TELB0088.

Full text
Abstract:
L'estimation des densités de probabilité par la méthode du noyau requiert une estimation fiable du paramètre de lissage. Nous proposons dans ce mémoire une méthode plug-in plus rapide que la méthode plug-in usuelle. L'Ecart Quadratique Moyen Intégré dépend directement d'une entité fonction de la dérivée seconde de la densité de probabilité à estimer. Son estimation analytique permet de réduire la complexité de l'algorithme plug-in usuel. Les performances des deux algorithmes sont comparées par estimation de variables aléatoires simulées connues par la difficulté de leur estimation. Ces algorithmes sont appliqués à l'estimation du taux d'erreur en communication numérique avec pour objectif de réduire les temps de calculs nécessaires à une estimation fiable. Ils sont également appliqués en génétique des populations afin de mieux estimer la neutralité de populations berbères de Tunisie.
APA, Harvard, Vancouver, ISO, and other styles
39

Kaliky, Pierre-Yves. "Etude des modèles de bruit impulsif dans les transmissions de données : Application à un modem numérique utilisant une modulation de phase octavalente." Nancy 1, 1991. http://www.theses.fr/1991NAN10416.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Pellerin, Denis. "Etude et réalisation d'un système de transmission d'informations dans les bâtiments par couplage électromagnétique sur les réseaux de canalisations métalliques." Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0051.

Full text
Abstract:
Notre étude, proposée par le Centre de Recherche de ELF à Solaize (CRES), a porté sur la transmission d'informations utilisant comme support physique les canalisations métalliques présentes dans les bâtiments et l'application à la gestion de l'eau chaude sanitaire. Elle a conduit, pour répondre à notre cahier des charges, au choix d'une solution par couplage électromagnétique dont les performances dépendent étroitement de la structure des réseaux de canalisations. Afin d'étudier la faisabilité et les performances pour chaque site, nous avons proposé une modélisation. Et développé une simulation sur micro-ordinateur. Le système, appelé TUBENET, que nous avons conçu et réalisé permet l'échange de données numériques entre un poste central et des transmetteurs autonomes en énergie et disposés en différents points d'un bâtiment à travers les réseaux de canalisations. La prern1ere version a permis de réaliser des expérimentations dans l'habitat collectif et individuel et de valider notre simulation. L'autre, bâtie autour d'un microcontrôleur, est un prototype à vocation industrielle qui ouvre des perspectives pour la transmission de données plus élaborées (commande d'actionneurs). Le système TUBENET a fait l'objet d'une étude de compatibilité électromagnétique.
APA, Harvard, Vancouver, ISO, and other styles
41

M'Sir, Mohamed El Amine. "Conception d'architectures rapides pour codes convolutifs en télécommunications : application aux turbo-codes." Metz, 2003. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2003/Msir.Mohamed.El.Amine.SMZ0315.pdf.

Full text
Abstract:
En télécommunication, l'intégration des services et la diversité des données échangées (voix, vidéo, cellules ATM, etc. ) exigent des systèmes de plus en plus rapides pour traiter des volumes d'information en augmentation constante, tout en conservant des délais d'attente les moins contraignants possibles pour l'utilisateur, ces deux contraintes liées au traitement de l'information s'ajoute la nécessité de protéger les données émises dans des canaux soumis à des bruits perturbateurs. De la qualité du service (QoS) rendu en termes de communication, quelles que soient les conditions de transmission, se dégagent deux mots clés : fiabilité et rapidité. Le travail de cette thèses fait partie d'un projet global mené dans le laboratoire LICM concernant la conception architecturale d'une chaîne de transmission à haut débit et à faible coût. Coût. Ce travail se situe dans le cadre d 'un contrat CIFRE entre le laboratoire LICM et la société 2 MG Communication. L'objectif est de concevoir une architecture rapide pour un système de codage de faible coût et à haut débit permettant une protection optimale des données. Une étude approfondie sur les stratégies de codage canal dans le domaine des télécommunications a été effectuée. Il en ressort que les stratégies FEC (Forward Error Correction) offrent les meilleurs compromis débit/protection. L'emploi de codes convolutifs est l'une des approches F EC les plus répandues : la possibilité de les utiliser, soit comme entités indépendantes soit dans des structures concaténées avec d'autres codes, soit encore comme éléments constituants de turbo-codes( techniques de codage offrant actuellement les meilleurs niveaux de protection), les rend très attractifs. A partir de ce constat, quatre types d'architecture de codeurs convolutifs ainsi qu'une architecture de tubo-codeur ont été développés au niveau RTL et validés sur FPGA. Les résultats obtenus sont compris, pour le codeur convolutif haut débit, entre 1 et 7. 45 Gbits/s pour des degrés de parallélisme 8 et 32, respectivement. Dans le cas du turbo-code,I 'implantation d 'un turbo-codeur à deux niveaux avec un rendement 1/3 a permis d 'atteindre des débits compris entre 1 et 2 Gbits/s et entre 3 et 5 Gbits/s pour des degrés de parallélisme de 8 et 32, respectivement. L'étude a été complétée par le développement d'un décodeur de syndrome pour codes convolutifs,exploitant l'architecture parallèle du codeur haut débit, qui a permis d'atteindre des débits de 4. 78 Gbits/s pour un rendement de 1/2
APA, Harvard, Vancouver, ISO, and other styles
42

Jumaa, Hossam Aldin. "Automatisation de la médiation entre XML et des bases de données relationnelles." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0120/these.pdf.

Full text
Abstract:
XML has rapidly emerged as a de facto standard for data exchange among modern information systems. It offers simple and flexible means to exchange data among applications. In the meanwhile, relational databases are still the most used data storage technology in almost all information systems because of their unique features of scalability, reliability and performance. Thus, a crucial issue in the data management is to bring together the flexibility of the XML model for data exchange and the performance of the relational model for data storage and retrieval. However, the automation of bi-directional data exchange between the two remains a challenging task. In this dissertation, we present a novel mediation approach to automate data exchange between XML and relational data sources independently of the adopted data structures in the two data models. We first propose a generic mediation framework for the data exchange between any XML document and any existing relational database. The architecture of our proposed framework is based on the development of generic components, which will ease the setup of specific interfaces adapted to any XML source and any target relational database. The mediator components are independent of any application domain, and need to be customized only once for each couple of source and target data storage formats. Hence, our mediator provides automatic and coherent updates of any relational database from any data embedded in XML documents. It also allows to retrieve data from any relational database and to publish them into XML documents (or messages) structured according to a requested interchange format. The transformation from a Relational Model to XML represents a main key component of the proposed mediator. Thus, we proposed a methodology and devised two algorithms to efficiently and automatically transform the relational schema of a relational database management system into an XML schema. Our transformation methodology preserves the integrity constraints of the relational schema and avoids any data redundancy. It has been designed in order to preserve the hierarchical representation of the relational schema, which is particularly important for the generation of correct SQL updates and queries in the proposed mediation framework. Another key component is the automation of the SQL generation. Therefore, we devised a generic methodology and algorithms to automate the SQL queries generation that are required to update or retrieve data to/from the relational databases. Our proposed framework has been successfully applied and tested in the healthcare domain between an XML representation of SCP-ECG, an open format ISO standard communications protocol embedding bio-signals and related metadata, and an European relational reference model including these data. The mediation automation is especially relevant in this field where electrocardiograms (ECG) are the main investigation for the detection of cardiovascular diseases, and need to be quickly and transparently exchanged between health systems, in particular emergency, whereas the SCP-ECG protocol has numerous legacy implementations since most of the sections and of the data fields are not mandatory
XML offre des moyens simples et flexibles pour l'échange de données entre applications et s'est rapidement imposé comme standard de fait pour l'échange de données entre les systèmes d'information. Par ailleurs, les bases de données relationnelles constituent aujourd’hui encore la technologie la plus utilisée pour stocker les données, du fait notamment de leur capacité de mise à l’échelle, de leur fiabilité et de leur performance. Combiner la souplesse du modèle XML pour l'échange de données et la performance du modèle relationnel pour l’archivage et la recherche de données constitue de ce fait une problématique majeure. Cependant, l'automatisation des échanges de données entre les deux reste une tâche difficile. Dans cette thèse, nous présentons une nouvelle approche de médiation dans le but d’automatiser l'échange de données entre des documents XML et des bases de données relationnelles de manière indépendante des schémas de représentation des données sources et cibles. Nous proposons tout d’abord un modèle d’architecture de médiation générique des échanges. Pour faciliter la configuration d’interfaces spécifiques, notre architecture est basée sur le développement de composants génériques, adaptés à n'importe quelle source XML et n'importe quelle base de données relationnelle cible. Ces composants sont indépendants de tout domaine d'application, et ne seront personnalisés qu’une seule fois pour chaque couple de formats de données sources et de stockage cible. Ainsi notre médiateur permettra la mise à jour automatique et cohérente de toute base de données relationnelle à partir de données XML. Il permettra aussi de récupérer automatiquement et efficacement les données d'une base de données relationnelle et de les publier dans des documents XML (ou messages) structurés selon le format d'échange demandé. La transformation en XML Schema d'un modèle relationnel constitue l’un des éléments clé de notre médiateur. Nous proposons une méthodologie basée sur deux algorithmes successifs : l’un de stratification des relations en différents niveaux en fonction des dépendances fonctionnelles existant entre les relations et les clés des relations, le deuxième de transformation automatique du modèle relationnel en XML Schema à partir de la définition d’un ensemble de fragments types d’encodage XML des relations, des attributs, des clés et des contraintes référentielles. La méthodologie proposée préserve les contraintes d'intégrité référentielles du schéma relationnel et élimine toute redondance des données. Elle a été conçue pour conserver la représentation hiérarchique des relations, ce qui est particulièrement important pour la génération de requêtes SQL correctes et la mise à jour cohérente des données. Notre approche a été appliquée et testée avec succès dans le domaine médical pour automatiser l’échange de données entre une représentation XML du protocole de communication standard SCP-ECG, une norme ISO décrivant un format ouvert de représentation de bio-signaux et métadonnées associées, et un modèle relationnel européen de référence qui inclut notamment l’archivage de ces données. L'automatisation de la médiation est particulièrement pertinente dans ce domaine où les électrocardiogrammes (ECG) constituent le principal moyen d’investigation pour la détection des maladies cardio-vasculaires et doivent être échangés rapidement et de manière transparente entre les différents systèmes de santé, en particulier en cas d'urgence, sachant que le protocole SCP-ECG a de nombreuses implémentations puisque la plupart des sections et des champs de données sont optionnels
APA, Harvard, Vancouver, ISO, and other styles
43

Ramazani, Abbas. "Étude d'une architecture parallèle de processeur pour la transmission de données à haut débit." Metz, 2005. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2005/Ramazani.Abbas.SMZ0506.pdf.

Full text
Abstract:
Le travail de cette thèse s'intègre dans un projet général au sein du laboratoire LICM concernant la conception architecturale d'une chaîne de transmission à haut débit. L'objectif global est de concevoir un processeur spécialisé pour le traitement rapide des algorithmes des divers protocoles présents dans les couches basses des modèles références (OSI, Internet, ITU-T/ATM). L'évolution des technologies et l'élargissement des bandes passantes des réseaux de transmission ont transféré le goulot d'étranglement concernant les débits autorisés vers les équipements constituant les nœuds actifs des réseaux. La prise en charge de la diversité des protocoles employés, de l'hétérogénéité des données et des très forts débits requis, n'est possible que par une forte montée en puissance de la capacité de traitement de ces équipements. Si ce problème est déjà en bonne partie traité en ce qui concerne les routeurs et les commutateurs, beaucoup de chemin reste encore à faire concernant les équipements terminaux de circuits de données (ex : modem, carte réseau) dans le domaine du haut débit. La conception d'une architecture de processeur spécialisée dépend fortement des caractéristiques des applications auxquelles le processeur est dédié. L'architecture globale choisie pour le processeur est celle d'un ensemble d'unités de traitement généralistes (mini coeurs de processeur) ou spécialisées (modules auxiliaires) interconnectées. Le but est d'offrir une capacité de traitement parallèle élevée. Le développement d'une telle architecture nous impose de définir une démarche méthodologique appropriée. Cette démarche commence par une étude de protocoles de réseaux représentatifs. Il s'agit tout d'abord d'identifier parmi les principales tâches (opérations) des protocoles, les plus communes et les plus critiques d'entre elles. Les tâches critiques (du point de vue temporel) sont traitées par des modules spécialisés (dont l'étude fait l'objet d'autres travaux). Les tâches restantes sont prises en charge par les unités de traitement généralistes dont l'étude constitue l'essentiel de ce travail. Les performances potentielles de ces unités généralistes sont évaluées en fonction de différentes architectures cibles (CISC, RISC, superscalaire, VLIW). La technique mise en place, pour l'évaluation des performances temporelles des architectures, repose sur une modélisation des algorithmes par chaînes de Markov. Un banc de simulation a été réalisé implantant la technique. Afin de ne pas favoriser indûment une architecture, nous avons introduit un modèle de processeur virtuel pour coder les algorithmes sans introduire de contrainte lié à l'une des architectures. L'analyse des résultats obtenus avec le banc de simulation, nous a permis de déterminer les architectures les plus appropriés par type d'algorithme. La performance de l'architecture globale du processeur (fonctionnement parallèle de l'ensemble des unités de traitement) a été évaluée pour différentes conditions de trafic. Un modèle d'interconnexion simplifié (par rapport au modèle final) a été utilisé, reliant les unités de traitement sous forme d'un pseudo-pipeline (linéaire ou non). Enfin, deux types d'unités de traitement généralistes (mini coeurs de processeur) ont été modélisées en VHDL au niveau RTL et alidées sur FPGA
The work presented here is part of a general project within the LICM laboratory, concerning the architectural design of a high data rate transmission system. The main objective is to design a specialized processor for fast processing of the lower layer protocols in the reference models (OSI, Internet, ITU-T/ATM). The technology evolution and increasing of the bandwidth of the physical transmission media have transferred the bottleneck concerning the available data rates of the communication networks towards the network active node equipments. Managing the protocol diversity, the data heterogeneity, and high data rates requires a substantial improvement of the processing power in these equipments. Although this problem has been largely addressed concerning routers and switches, end-user equipments (e. G : modems and network interface cards) are still far from matching the requirement of high data rates. The design of a specialized processor architecture depends strongly on the characteristics of applications to which the processor is dedicated. The architecture selected for the processor is a set of interconnected general processing units (mini processor cores) or specialized modules (auxiliary modules). The goal is to offer a high level of parallel processing capacity. The development of such an architecture requires a suitable design methodology to be defined, which starts by a study of representative network protocols. First of all, the goal is to identify among the principal tasks (operations of the protocols) the most common and the most critical. The critical tasks (from the realtime point of view) are processed by specialized modules (whose study is not our goal). The remaining tasks are performed by the general processing units, whose study is the main subject of this work. Potential performance of these general units is evaluated for various target architectures (CISC, RISC, superscalair, VLIW). The time performance evaluation of architectures is based on the algorithm modelling using Markov chains which was used to implement the simulation tools. In order not to favour a particular architecture, we introduced a virtual processor model to encode the algorithms without introducing any constrains related to actual architectures. The analysis of the simulation results allowed us to find good architectures/algorithms adequacy. The performance of the overall processor architecture (parallel operation of the processing units) was evaluated under various traffic conditions. A simplified interconnection model (compared to the final model) was used which allowed to connect the processing units in a pseudo-pipeline (linear or not) chain. Lastly, two types of general processing units (mini processor cores) have been designed in VHDL at the RTL level and validated on FPGA
APA, Harvard, Vancouver, ISO, and other styles
44

Doukkali, Hayat. "Réseaux de données en acoustique sous-marine." Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0036.

Full text
Abstract:
Cette thèse porte sur les réseaux acoustiques de données dans le contexte des installations pétrolières sous-marines. L'enjeu est de pouvoir faire communiquer différents éléments de contrôle d'une plateforme pétrolière sans utiliser des liaisons filaires, l'installation de telles liaisons étant coûteuse en temps et en argent. L'onde acoustique est donc la seule alternative possible. Les caractéristiques du milieu sous-marin et de la propagation de l'onde acoustique dans l'eau limitent les performances des systèmes de communication acoustique sous-marine. Tout d'abord, la célérité de l'onde acoustique dans l'eau est très faible par rapport à celle des ondes radio dans l'air. La seconde restriction liée à ce milieu vient du fait que les ressources fréquentielles sont sévèrement limitées. L'objectif de ce travail est d'optimiser l'utilisation de ces ressources tout en augmentant le débit reçu et en réduisant le délai de transmission. Pour réaliser cet objectif, nous avons structuré notre travail en trois volets:le premier volet concerne la proposition des mécanismes MAC adaptés au milieu sous-marin; le deuxième volet concerne le développement de nouvelles techniques de transmission adaptées au contexte des communications acoustiques sous-marines; et enfin le troisième volet concerne l'optimisation conjointe de ces deux couches en proposant une approche Cross Layer. Notre protocole MAC est basé sur le mécanisme CSMA/CA. Le principe de notre système de transmission est basé sur les techniques CDMA avec une transmission sur plusieurs antennes. La troisième étape de ce travail est de fusionner ces deux parties indépendantes pour proposer un protocole Cross Layer
This thesis deals with acoustic data networks in the context of oil offshore platforms. The problem involves setting up a set of offshore platform control stations that are capable of communicating between them in a wireless way. Since cable installations is a costly process both in terms of time and money, the solution using acoustic wave is the only possible and efficient alternative. The underwater channel and the acoustic wave propagation properties limit acoustic communication system performance. The propagation speed of the acoustic wave under water is very low compared to the propagation speed of the electromagnetic wave. The second underwater channel particularity is that the frequency band resources are severely limited. The aim of this work is to optimize use of resources by increasing network throughput and reducing transmission delay. To achieve this purpose, we have divided this work into three points: The first point is concerned with the proposition of MAC mechanisms adapted to underwater context, the second point disucusses the proposition of transmission techniques adapted for underwater acoustic communications, and the third point deals with the optimization of the two layers and the proposition of a Cross Layer approach. Our proposition of a MAC protocol is based on CSMA/CA mechanism. The transmission system we have proposed is based on Code Division Multiple Access (CDMA) techniques with several antennas. The third step of this work is to combine these two parts in order to propose a Cross Layer approach which optimizes the two layers
APA, Harvard, Vancouver, ISO, and other styles
45

Ramos-Ramos, Víctor Manuel. "Transmission robuste et fiable du multimédia sur Internet." Nice, 2004. http://www.theses.fr/2004NICE4062.

Full text
Abstract:
In this thesis, we propose models to evaluate the performance of real-time multimedia applications. Besides, we propose a model for AIMD protocols. The first subject we study is a simple error correction (FEC) mechanism. We first model the network as an M/M/1/K queuing system. We assume a linear utility function relating the audio quality and the amount of redundancy. The redundancy of packet i is carried by packet i+f. Our analysis shows that, even for the case f->inf, this simple FEC scheme always leads to a quality deterioration. Next, we model the bottleneck router as an M/G/1/K queue. We consider two cases that may contribute to a quality improvement: (a) multiplexing the audio flow with an exogenous flow, and (b) considering non-linear utility functions. Under these assumptions, we show that this FEC scheme can lead to a quality improvement. The second subject investigated is about playout delay algorithms. We propose a set of moving average algorithms allowing to control the average loss rate in an audio session. We study and compare the performance of our algorithms by simulation with real packet traces. The third subject we study is about the performance of AIMD protocols. We propose, at the best of our knowledge, the first analytical model for this kind of protocols accounting for delay variability. The model is based on stochastic difference equations. It provides a closed-form expression for the throughput and for the window size in steady state. We show by analysis and simulation that an increase in delay variability improves the performance of AIMD protocols
Dans cette thèse, nous proposons des modèles pour évaluer les performances des applications multimédias temps-réel. De plus, nous proposons un modèle pour les protocoles de type AIMD. Le premier sujet étudié est un mécanisme de correction d'erreurs (FEC). Premièrement, nous utilisons une file d attente M/M/1/K pour modéliser le réseau. Nous considérons que la qualité de la voix varie linéairement par rapport au taux de redondance de la FEC. La redondance du i-ème paquet est portée dans le paquet i+f. Notre analyse montre que, même pour le cas f->inf, ce mécanisme n'améliore pas la qualité de l'audio. Deuxièmement, nous modélisons notre système par une file M/G/1/K. Nous considérons deux aspects qui peuvent contribuer à améliorer la qualité de l'audio: (a) multiplexer l'audio avec un flux exogène, et (b) des fonctions d'utilité non-linéaires. Sous ces contraintes, on montre qu il est possible d'améliorer la qualité de l'audio avec la méthode FEC étudiée. Le deuxième sujet traité concerne les mécanismes de contrôle du délai de diffusion. Nous proposons un ensemble d'algorithmes de moyenne mobile permettant de contrôler le taux de pertes dans une session audio. Les performances de nos algorithmes ont été évaluées et comparées grâce à des traces réelles. Le troisième sujet abordé concerne les protocoles de type AIMD. Nous proposons un modèle analytique, prenant en compte la variabilité du délai. Notre modèle utilise des équations de différences stochastiques. Il fournit une expression close pour le débit et pour la taille de la fenêtre. Nous montrons, par analyse et par simulation, qu'une augmentation de la variabilité du délai améliore les performances d'un protocole AIMD
APA, Harvard, Vancouver, ISO, and other styles
46

Royan, Jérôme. "Visualisation interactive de scènes urbaines vastes et complexes à travers un réseau." Rennes 1, 2005. http://www.theses.fr/2005REN1S013.

Full text
Abstract:
Ces travaux de thèse portent sur la visualisation de scènes urbaines tridimensionnellestrès vastes et très complexes à travers un réseau. L'objectif majeur est d'obtenir une eprésentation adaptée à la transmission et visualisation d'un ensemble de bâtiments constituant un modèle 3D urbain. Cette représentation multi-résolution des bâtimentsd'une ville, appelée PBTree, se base sur une représentation 2D1/2 modélisant les bâtimentsà l'aide de prismes (représentation 2D1/2 issue des méthodes fiables et robustes de modélisation non-assitée de villes). Cette représentation multi-résolution a été conçue pour optimiser la transmission (compression, progressivité) et la visualisation (niveaux de détails, adaptabilité au point de vue) de modèles urbains. La multi-résolution est très bien adaptée au survol des villes. Cependant, une solution est proposée dans le cas d'une navigation au niveau du sol, et est basée sur un calcul de visibilité permettant de sélectionner le niveau de résolution transmis et visualisé
APA, Harvard, Vancouver, ISO, and other styles
47

Randriananja, Daniel. "Contribution à l'étude des codes convolutionnels et de leurs décodages." Toulouse 3, 1991. http://www.theses.fr/1991TOU30252.

Full text
Abstract:
Dans le premier chapitre, l'auteur presente les proprietes generales des codes convolutionnels. Le second chapitre est consacre a la methode de decodage par syndrome de ces codes. L'auteur detaille dans le troisieme chapitre les etapes de recherche ayant conduit a la conception d'un decodeur original et de faible cout. L'auteur precise dans le quatrieme chapitre, a quel niveau de la realisation d'un decodeur de viterbi on peut baisser la complexite electronique. L'auteur presente dans le cinquieme chapitre un logiciel de simulation de transmission de donnees utilisant des codes convolutionnels
APA, Harvard, Vancouver, ISO, and other styles
48

Moon, Byung-Ryong. "Modélisation bidimensionelle de la ligne microruban avec le concept de ligne de bord et application aux discontinuités abruptes." Toulouse, INPT, 1991. http://www.theses.fr/1991INPT074H.

Full text
Abstract:
Nous introduisons le concept de la ligne de bord comme une alternative et une amelioration du modele usuel du guide d'onde equivalent. Ce concept est base sur le calcul de la capacite et de la self de bord en fonction de la frequence. Ces parametres dynamiques permettent la simulation correcte des effets de bord d'une ligne microruban. Ainsi nous pouvons modeliser les structures microruban sans introduire des dimensions et des permittivites effectives qui sont le lot des methodes classiques en guide d'onde equivalent. Nous appliquons cette methode a l'etude de discontinuites abruptes (la matrice de diffraction etant obtenue par une technique de raccordement modal)
APA, Harvard, Vancouver, ISO, and other styles
49

Roumy, Aline. "Egalisation et décodage conjoints : méthodes turbo." Cergy-Pontoise, 2000. http://biblioweb.u-cergy.fr/theses/00CERG0100.pdf.

Full text
Abstract:
Afin d'assurer des transmissions fiables et a debit eleve, les recepteurs utilisent le decodage de canal mais doivent egalement combattre les interferences entre symboles apportees par les canaux selectifs en frequence. Si pour des raisons de complexite, les recepteurs classiques operent l'egalisation et le decodage de maniere disjointe, cette approche n'est pas optimale. Aussi, nous nous sommes interesses a des techniques d'egalisation et de decodage conjoints mais sous-optimales pour maintenir une complexite reduite. Ainsi, nous avons etudie le turbo-egaliseur, qui applique le principe iteratif des turbo-codes a notre contexte. Afin de mettre en evidence la perte due a la sous-optimalite du turbo-egaliseur, nous avons calcule les performances asymptotiques de la solution optimale (au sens map) au probleme de l'egalisation et du decodage conjoints et avons montre qu'elles peuvent differer de la borne babg code. Puis, nous avons propose une analyse fonctionnelle du processus iteratif qui permet de predire les performances et en particulier le point de declenchement de l'effet turbo. Cette analyse a egalement montre que le modele blanc gaussien est insuffisant pour representer l'erreur a l'entree du decodeur. Nous avons ensuite etendu l'approche de la turbo-egalisation a la detection multi-utilisateurs, qui traite les interferences entre symboles mais aussi entre utilisateurs. Cette generalisation a conduit a une premiere structure, que nous avons ensuite amelioree sans augmenter la complexite. Pour ce faire, nous avons propose d'une part un nouvel ordre de demodulation des utilisateurs, qui tient compte des interferences et d'autre part une nouvelle structure serie appelee full.
APA, Harvard, Vancouver, ISO, and other styles
50

Ramadan, Wassim. "Amélioration de la transmission de contenus vidéo et de données dans les réseaux sans-fil." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00802909.

Full text
Abstract:
Cette thèse traite de l'amélioration du transfert de données, d'une part sur les réseaux sans-fils et d'autre part pour des données continues telles que la vidéo. Pour améliorer les transmissions sur les réseaux sans-fils nous nous sommes intéressés au contrôle de congestion des protocoles de transport mais nous avons également proposé une méthode pratique d'adaptation de la vidéo aux conditions du réseau.Cette thèse contient donc deux volets. La première porte sur la différenciation de pertes entre les pertes de congestion et les pertes sur le réseau sans fil. Il est connu que lors d'une perte, les protocoles de transport actuels réduisent le débit (par deux par exemple). Or, pour les pertes sans fil, cela n'a pas d'intérêt. Pour différencier ces pertes sur l'émetteur des données, nous proposons une méthode originale qui utilise à la fois ECN (Explicit Congestion Notification) et le changement sur le RTT du paquet qui suit la perte. La seconde propose une méthode originale d'adaptation vidéo au niveau de la couche application sur l'émetteur. Avec l'arrivée des vidéos à bitrate élevés (HD, 3D) et l'augmentation constante mais irrégulière des bandes passantes réseau, la qualité vidéo à l'utilisateur reste à la traîne : elle est non-optimale (bitrate beaucoup plus petit ou plus grand que le débit disponible) et non adaptable (aux conditions dynamiques du réseau). Nous proposons une méthode très simple à implémenter, puisqu'elle ne requiert qu'une modification côté émetteur au niveau de la couche application. Elle adapte en permanence le bitrate de la vidéo aux conditions du réseau, autrement dit elle fait un contrôle de congestion sur l'émetteur. La visioconférence est un cas d'application idéal. Cette méthode fonctionne au-dessus de tout protocole de transport avec contrôle de congestion (TCP, DCCP), ce qui lui confère aussi la propriété de TCP-friendliness.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography