To see the other types of publications on this topic, follow the link: Théorie du signal.

Dissertations / Theses on the topic 'Théorie du signal'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Théorie du signal.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Demarcq, Guillaume. "Le signal monogène couleur : théorie et applications." Phd thesis, Université de La Rochelle, 2010. http://tel.archives-ouvertes.fr/tel-00583117.

Full text
Abstract:
Dans cette thèse, une nouvelle représentation des images couleur basée sur une généralisation du signal analytique est introduite. En utilisant l'analogie entre les conditions de Cauchy-Riemann, qui définissent le caractère holomorphe d'une fonction, et l'équation de Dirac dans l'algèbre de Clifford R_{5,0}, un système d'équations dont la solution est le signal monogène couleur est obtenu. Ce signal est notamment basé sur des noyaux de Riesz ainsi que de Poisson 2D, et une représentation polaire, basée sur un produit géométrique, peut lui être associée. Les applications envisagées reposent majoritairement sur cette représentation polaire et sur les informations de couleur et de structures locales s'y rattachant. Des problématiques liées au flot optique couleur, à la segmentation couleur multi-échelle, au suivi d'objets couleur et à la détection de points d'intérêt sont abordées. En ce qui concerne le flot optique, nous nous intéressons à l'extraction du mouvement d'objets d'une certaine couleur en remplaçant la contrainte de conservation de l'intensité par une contrainte de conservation d'angles. Pour la segmentation, une méthode de détection de contours basée sur de la géométrie différentielle et plus particulièrement sur la première forme fondamentale d'une surface, est proposée afin de déterminer les contours d'objets d'une couleur choisie. Pour le suivi d'objets, nous définissons un nouveau critère de similarité utilisant le produit géométrique que nous insérons dans un filtrage particulaire. Enfin, nous resituons la définition du détecteur de Harris dans le cadre de la géométrie différentielle en faisant le lien entre ce dernier et une version "relaxée" du discriminant du polynôme caractéristique de la première forme fondamentale. Ensuite nous proposons une nouvelle version multi-échelle de ce détecteur en traitant le paramètre d'échelle comme une variable d'une variété de dimension 3.
APA, Harvard, Vancouver, ISO, and other styles
2

Mellinger, Philippe. "Estimation d'incertitudes d'identification modale avec et sans entrées connues : théorie, validation, application." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S102/document.

Full text
Abstract:
La détermination des caractéristiques vibratoires est une étape cruciale lors du processus de certification d'une structure ou lors de l'évaluation de sa détérioration. Quelle que soit la technique utilisée, l'identification des modes d'une structure nécessite d'effectuer des essais de vibration. Durant ces essais, on effectue des mesures qui permettent d'observer la réponse du système à une excitation connue, partiellement connue ou inconnue. Les méthodes d'identification modale sont des méthodes globales. Elles permettent de déterminer les modes de la structure à partir d'un post-traitement des données mesurées. Certaines techniques d'identification modale, telles que les méthodes basées sur la minimisation d'erreur de modélisation ARX ou les méthodes sous-espaces, se sont fortement répandues dans le monde industriel ces quinze dernières années. Cependant, malgré ce succès, ces méthodes ne fourniront jamais les paramètres modaux exacts de la structure étudiée. En effet, à cause de nombreuses sources d'erreurs (e.g. bruits sur les capteurs, bruits environnementaux), l'identification modale à partir de données réelles ne peut mener qu'à des estimations des paramètres modaux. Une estimation est par définition entachée d'une erreur statistique, la variance. Le but de cette thèse est l'étude approfondie de l'estimation de cette erreur statistique. Le manuscrit est découpé en trois partie. La première concerne la description détaillée de deux familles d'identification modale (minimisation d'erreur de modélisation ARX et méthodes sous-espace). La seconde partie décrit le principe de l'estimation des incertitudes et fournit les chaînes de propagation des variances. La troisième partie présente une validation poussée de ces méthodes dans le but d'une utilisation opérationnelle
Determinination of vibration characteristics is a crucial step for structure certification or health monitoring. Whatever the method, modes identification of a structure requires vibration tests. During these tests, measurements are made in order to observe responses of the system to known, partially known or unknown excitations. Modal identification methods are global methods. They allow the determination of modes from data post-treatment. Some modal identification methods, such as those based on ARX modelisation error minimisation or subspace methods, have been largely spread into the industry for about fifteen years. Despite this succes, these methods will never provide exact results. Indeed, due to numerous error sources (e.g. sensor noises, environmental noises), modal identifications based on measured data can only lead to modal parameters estimations. By definition, an estimation is subject to statistical errors, also called variances. The purpose of this thesis is to give an in-depth study of these statistical errors estimation. This document is divided in three parts. Firstly, a description of two kind of modal identification methods (ARX modelisation error minimisation and subspace methods) is given. Secondly, the uncertainty estimation principle is explained and propagation schemes of variances are given. Finally, the third part provides an in-depth validation of these methods in order to proceed to industrial utilisations
APA, Harvard, Vancouver, ISO, and other styles
3

Perret, Cécile. "Théorie du capital humain versus théorie du signal : application à la réforme du système éducatif chilien dans les années 80." Clermont-Ferrand 1, 1998. http://www.theses.fr/1998CLF10201.

Full text
Abstract:
En 1980, a eu lieu une réforme radicale du système éducatif au Chili. Cette réforme a modifié le mode de financement de l’éducation primaire et secondaire via la création d’un système de subventions par tête, entraîne la municipalisation des établissements scolaires primaires et secondaires, et favorise l’émergence d’établissements privés ou privés subventionnés. Le défi de la réforme peut se résumer par le triple impératif suivant : (I) décentralisation éducative, (II) autonomie des établissements scolaires et (III) professionnalisation du corps enseignant. Cette réforme a eu lieu au cours d’un processus de régionalisation développé entre 1975 et 1991 et qui répondait en fait à trois objectifs principaux : (I) un objectif géopolitique de contrôle et d’occupation harmonieuse du territoire, (II) un objectif politique visant à remplacer les organisations sociales et politiques traditionnelles par un schéma territorial corporatiste, et enfin (III) un objectif économique orienté vers la mise en place du principe de subvention et la privatisation de certaines fonctions traditionnelles de l’Etat. Suite à cette réforme, à l’heure actuelle, un nombre croissant d’analystes chiliens se demandent si la possibilité d’obtenir un emploi productif et le niveau des salaires ne sont pas en train de se déconnecter du niveau éducatif des individus mesuré en nombre d’années d’études, et si la qualité de l’institution (publique, privée subventionnée ou privée) de laquelle sont issus les individus n’est pas en train de devenir déterminante. Notre travail va aller dans le sens de cette recherche puisque nous allons tenter de voir si depuis 1980 il n’est pas apparu une rupture structurelle au niveau de rendement de l’éduction secondaire définie en tant que nombre d’années d’études certifiées. Les outils théoriques mobilisés pour cette étude sont les outils d’analyse traditionnels utilisés en économie du travail. La méthode retenue pour capter les conséquences de la réforme de 1980 sur le rendement du capital humain est l’utilisation d’équations mincériennes de gains sur les données d’un pseudo panel fourni par l’université du Chili. Nous établissons ainsi une grille de lecture différenciée selon que les agents économiques ont effectué leurs études secondaires avant ou après la réforme du système éducatif de 1980. Nous mettons ainsi en évidence le rôle de signal des établissements privés et privés subventionnés
During the 80’s, a radical reform of the Chilean educational system was implemented. It was aimed at: (I) the decentralization and autonomy of schools and (II) the professionalization of the teachers. In the first part of this thesis we analyze the consequences of this reform inside the educational system and we give evidence for: (I) a geographical and social stratification of result and (II) a deterioration of the quality of secondary education. In the second part, we show that since this institutional reform (in the context of dictatorship) the return to investment in education has decreased. We try to interpret this fact using the classical tools of labor market: human capital theory and signal theory. With pseudo panel datas extracted from “la encuesta occupational de la universidad de Chile », we show, with a mincerian function, that today no compensatory diferentials seem to explain the level of salaries
APA, Harvard, Vancouver, ISO, and other styles
4

Dewez, Claude. "Modélisation d'un filtre actif parallèle triphasé pour la dépollution harmonique et synthèse d'une commande basée sur le rejet de perturbations." Poitiers, 2007. http://www.theses.fr/2007POIT2327.

Full text
Abstract:
Le travail de recherche relaté dans ce mémoire réside dans une nouvelle modélisation d’un réseau triphasé associé à un filtre actif parallèle. Cette modélisation aboutit à une représentation d’état linéaire qui permet d’appliquer les outils de l’automatique linéaire. Dans cette approche, la dépollution harmonique des réseaux électriques consiste à contrôler directement le courant de source. Dans ce cadre, la description du système correspond à une représentation de celui-ci en boucle fermée où l’atténuation des composantes harmoniques du courant de source est traitée comme un problème de rejet de perturbations. Cette démarche diffère des approches usuellement adoptées qui sont basées sur le principe du suivi de consigne. La validité de l’approche proposée est vérifiée premièrement en simulation à partir de l’outil logiciel Matlab/Simulinkr, puis par la mise en oeuvre d’un banc expérimental constitué d’un filtre actif parallèle raccordé au réseau de distribution triphasé. L’ensemble du banc, comprenant un onduleur de tension à base d’IGBT avec l’ensemble des ses commandes, un filtre haute fréquence et une charge polluante du type PD3 à diodes, est instrumenté pour la mesure des courants et protégé contres les surcharges et les surtensions. La loi de commande est implémentée en temps réel grˆace au système xPC Target de prototypage et de supervision
This thesis deals with a new modelling of a three-phase network in association with a parallel active filter. This modelling results in a state representation which permits to apply the tools of linear control theory. Using this approach the harmonics compensation of electrical networks consists in the direct control of the source current. Thus the description of the system corresponds to its representation in closed loop where the reduction of source current harmonics is treated like a matter of disturbances rejection. This approach is different from common approaches which are usually based on reference tracking control. The proposed approach is validated firstly using simulation with the technical computing software Matlab/Simulinkr, then using a test bench fitted with a shunt active filter linked to the three-phase AC source. The bench, consisting of an IGBT voltage source inverter with associate control, a high-frequency filter and a polluting load which is a three-phase rectifier, is instrumented to measure currents and protected from overloading and overvoltage. The control law is implemented in real time thanks to xPC Target prototyping system
APA, Harvard, Vancouver, ISO, and other styles
5

Poignet, Philippe. "Détection de ruptures spectrales au moyen de l'analyse de systèmes singuliers." Nantes, 1995. http://www.theses.fr/1995NANT2006.

Full text
Abstract:
Dans le cadre de la détection de ruptures spectrales dans un signal stochastique, nous nous intéressons plus particulièrement aux méthodes qui considèrent une rupture sur les paramètres d'un modèle. Supposant le signal modélisé par un modèle de type autorégressif ou autorégressif à moyenne mobile, le suivi de l'évolution des paramètres du modèle se fait classiquement par l'étude de la sortie linéaire d'un filtre inverse ou par la comparaison de deux modèles issus d'une double identification. Dans notre approche, nous proposons une nouvelle modélisation des signaux pouvant présenter des changements sur les paramètres. L'introduction de paramètres de sauts dans le modèle du signal nous conduit directement à l'élaboration de modèles d'état singuliers. Nous avons donc été amené à développer des algorithmes originaux d'estimation d'état et d'identification paramétrique entièrement adaptés aux systèmes singuliers et basés sur une approche du type de celle du filtrage de Kalman étendu. La méthode d'identification a permis de mettre en place une nouvelle procédure séquentielle de détection et une fonction de décision a été élaborée : elle laisse à l'utilisateur le choix du seuil qui règle le compromis entre le taux de fausses alarmes et le retard à la détection. Cet algorithme de détection de ruptures spectrales est alors validé sur la base de comparaisons avec les méthodes classiques largement utilisées dans la littérature et à partir de signaux tests synthétiques. Enfin l'application de cette nouvelle méthode de détection et de deux méthodes classiques contribue à l'étude du délai de la réponse réflexe à longue latence dans le cas de l'étirement du biceps et offre une évaluation comparative dans ce cas réel
APA, Harvard, Vancouver, ISO, and other styles
6

Argouarch, Arnaud. "Modélisations des discontinuités planaires et tridimensionnelles. Applications à l'étude de l'intégrité de signal des cartes numériques à hautes performances." Rennes, INSA, 2005. http://www.theses.fr/2005ISAR0003.

Full text
Abstract:
La quête permanente en performance de l'ensemble des systèmes électroniques engendre de nouvelles problématiques qui sont et seront de plus en plus ardues à résoudre. Dans ce mémoire, nous avons traités des grands thèmes rencontrés par les industriels dans le domaine de la conception de systèmes performants. Outre la proposition de solution et l'étude des aspects portants sur les phénomènes conduits et rayonnés, le but était de proposer des méthodologies adaptées au domaine de l'intégrité de signal et ce dans un contexte industriel. Ce dernier est prépondérant dans l'ensemble des approches et développements réalisés au cours de ces travaux. Deux axes de développement ont été proposés dans ce mémoire. Un des axes traitait des plans d'alimentation et l'autre traitait des discontinuités planaires et filaires. L'approche est pragmatique dans les deux cas. Nous avons introduits et investigué le diagnostic champ proche pour l'étude des systèmes d'alimentation afin de qualifier leurs performances et ce dans des cas industriels complexes. En compléments aux analyses par simulations électriques, les mesures expérimentales champs proches ont permis de mettre en avant les caractéristiques intrinsèques ainsi que les futures travaux à développer pour répondre aux problématiques de plus en plus importantes des systèmes d'alimentation pour cartes numériques complexes. La problématique la plus développée dans ce rapport concerne l'étude des discontinuités ainsi que leurs modélisations pour une intégration dans les outils de CAO industrielles. Outre les études sur les discontinuités planaires pour paires différentielles, nous avons introduits les supports neuronaux pour une modélisation des structures complexes telles que les connecteurs industrielles. Nous sommes partis des approches Full-Wave définis en simulation EM et par la mesure dans un premier temp. Ce travail a permis par la suite d'introduire la modélisation neuronale ainsi que des modèles comportementaux. L'ensemble de ces travaux est directement intégré dans les outils de CAO (Cadence et ADS)
The never-ending quests for reliable digital electronic systems introduce more and more complex problems. In this report, we underline the most important industrial facts in the high efficiency system design. In complement to the proposed solution and studies about conducted and radiated phenomena, we focused the work on the methodology for the signal integrity compliances in industrial domain. This latter is taken into account for all studies in this report. The thesis structure links two different points. The first one concerns power distribution system and the second one, the planar and linear discontinuities. For the power distribution systems (PDS), investigation and introduction on near field characterization is done. The goal is to qualify the PDS efficiency for complex digital boards. Coupled to electrical simulation, the near field diagnostics are realized with experimental measurements to provide intrinsic characteristics and an opening way for future works. The next point concerns discontinuities aspects for linear / planar structures and their modelling for industrial EDA tools. Planar discontinuities for differential pair are investigated just before to introduce artificial neural network to model complex discontinuities like industrial connector. Full-wave analysis is done on a first step with EM simulations and measurements. A new approach combining neural network and behavioural modelling to provide efficiency and user-definable model is proposed. This work and models are directly integrated or linked into EDA tools like Cadence and ADS
APA, Harvard, Vancouver, ISO, and other styles
7

Daoudi, Khalid. "Généralisations des systèmes de fonctions itérées : applications au traitement du signal." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090078.

Full text
Abstract:
Nous montrons dans cette thèse comment la caractérisation des propriétés fractales d'un signal peut être utilisée à des fins de modélisation, segmentation et synthèse. Le principe consiste à décrire comment une représentation du signal varie d'une échelle à une autre. L'idée la plus naturelle dans notre cadre est de considérer des opérateurs qui agissent sur les coefficients d'ondelette à des résolutions successives. Dans certains cas particuliers, nous montrons que ce programme revient à représenter un signal donné comme l'attracteur d'un système de fonctions itérées (ifs). Cela nous conduit naturellement à généraliser cette notion pour obtenir deux classes plus vastes de fonctions, que nous avons appelées GIFS et FAA. Nous obtenons une caractérisation de l'ensemble des fonctions de Hölder associées à des fonctions continues et une méthode non paramétrique pour estimer la fonction de Hölder d'un signal. Nous établissons aussi un formalisme multi fractal pour les FAA. Une première application concerne l'analyse de la turbulence. Nous développons un modèle compact qui permet de retrouver les principales caractéristiques multi fractales des signaux de turbulence. Une deuxième application est la modélisation de signaux de parole qui nous permet d'effectuer des synthèses de bonne qualité et qui pourrait fournir une nouvelle approche pour la caractérisation du locuteur.
APA, Harvard, Vancouver, ISO, and other styles
8

Chlaily, Saloua. "Modèle d'interaction et performances du traitement du signal multimodal." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT026/document.

Full text
Abstract:
Bien que le traitement conjoint des mesures multimodales soit supposé conduire à de meilleures performances que celles obtenues en exploitant une seule modalité ou plusieurs modalités indépendamment, il existe des exemples en littérature qui prouvent que c'est pas toujours vrai. Dans cette thèse, nous analysons rigoureusement, en termes d'information mutuelle et d'erreur d'estimation, les différentes situations de l'analyse multimodale afin de déterminer les conditions conduisant à des performances optimales.Dans la première partie, nous considérons le cas simple de deux ou trois modalités, chacune étant associée à la mesure bruitée d'un signal, avec des liens entre modalités matérialisés par les corrélations entre les parties utiles du signal et par les corrélations les bruits. Nous montrons comment les performances obtenues sont améliorées avec l'exploitation des liens entre les modalités. Dans la seconde partie, nous étudions l'impact sur les performances d'erreurs sur les liens entre modalités. Nous montrons que ces fausses hypothèses dégradent les performances, qui peuvent alors devenir inférieure à celles atteintes avec une seule modalité.Dans le cas général, nous modélisons les multiples modalités comme un canal gaussien bruité. Nous étendons alors des résultats de la littérature en considérant l'impact d'erreurs sur les densités de probabilité du signal et du bruit sur l'information transmise par le canal. Nous analysons ensuite cette relation dans la cas d'un modèle simple de deux modalités. Nos résultats montrent en particulier le fait inattendu qu'une double inadéquation du bruit et du signal peuvent parfois se compenser et ainsi conduire à de très bonnes performances
The joint processing of multimodal measurements is supposed to lead to better performances than those obtained using a single modality or several modalities independently. However, in literature, there are examples that show that is not always true. In this thesis, we analyze, in terms of mutual information and estimation error, the different situations of multimodal analysis in order to determine the conditions to achieve the optimal performances.In the first part, we consider the simple case of two or three modalities, each associated with noisy measurement of a signal. These modalities are linked through the correlations between the useful parts of the signal and the correlations between the noises. We show that the performances are improved if the links between the modalities are exploited. In the second part, we study the impact on performance of wrong links between modalities. We show that these false assumptions decline the performance, which can become lower than the performance achieved using a single modality.In the general case, we model the multiple modalities as a noisy Gaussian channel. We then extend literature results by considering the impact of the errors on signal and noise probability densities on the information transmitted by the channel. We then analyze this relationship in the case of a simple model of two modalities. Our results show in particular the unexpected fact that a double mismatch of the noise and the signal can sometimes compensate for each other, and thus lead to very good performances
APA, Harvard, Vancouver, ISO, and other styles
9

Preux, Alain. "Antialiassage en synthèse d'images, état de l'art et proposition de méthodes temps réel pour les bords de polygones." Lille 1, 1996. http://www.theses.fr/1996LIL10033.

Full text
Abstract:
L'aliassage est un phénomène qui se manifeste en synthèse d'images sous diverses formes. La théorie du signal nous permet de comprendre et d'analyser les processus mis en jeu. Nous avons étudié les différents aspects de l'aliassage en synthèse d'images ainsi que les méthodes qui permettent de l'atténuer. Nous nous sommes particulièrement intéresses aux méthodes d'échantillonnage surfacique capables de résoudre les problèmes de crénelage sur les bords de polygones. Dans ce cadre, nous avons fait quelques propositions visant à améliorer certaines méthodes existantes. Par ailleurs, nous avons adapté notre technique à l'antialiassage d'éclairement pour les algorithmes de radiosité. Les machines spécialisées pour l'affichage rapide utilisent toutes, à ce jour, le pipeline de rendu gouraud/z-buffer. L'antialiassage est toujours effectue par sur-échantillonnage, ce qui ralentit les performances de ces machines. Nous avons développé, en vue de la réalisation matérielle d'une carte spécialisée, un algorithme d'antialiassage de bords de polygones combinant la qualité de l'échantillonnage surfacique et la simplicité du z-buffer. Notre méthode nécessite une augmentation de la mémoire par un facteur 2 ou 3 selon les versions et produit des résultats comparables a un sur-échantillonnage 16 passes.
APA, Harvard, Vancouver, ISO, and other styles
10

Carbou, Jean-Damien. "Conception d'une architecture pour la commande à distance d'un robot d'intervention." Montpellier 2, 2004. http://www.theses.fr/2004MON20234.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Kaiser, Patricia. "Théorie des graphes pour l'optimisation d'un équipement radio logicielle multi-standards." Phd thesis, Supélec, 2012. http://tel.archives-ouvertes.fr/tel-00828443.

Full text
Abstract:
Le concept de radio logicielle (SDR) est une solution pertinente pour concevoir des équipements multi-standards. Une façon de réaliser de tels équipements est d'identifier les fonctions et opérateurs communs entre les standards. Cette approche s'appelle la paramétrisation et est divisée en deux catégories : l'approche pragmatique qui est une version pratique pour créer et développer des opérateurs communs à partir d'opérateurs existants, et l'approche théorique dont l'objectif est de réaliser une exploration graphique d'un équipement multi-standards selon différents niveaux de granularité, accompagnée d'un problème d'optimisation. C'est cette dernière approche qui a constitué le sujet de base de cette thèse. Ainsi, une fonction de coût doit être optimisée afin de sélectionner les opérateurs communs entre les différentes normes, ce qui permet de proposer une configuration optimale à partir de laquelle sont déduits les opérateurs communs. Dans notre travail, nous avons dans un premier temps modélisé théoriquement la structure graphique d'un système multi-standards par un hypergraphe orienté. En outre, nous avons fourni une expression mathématique alternative de la fonction de coût suggérée, en utilisant des définitions propres à la théorie des graphes. Ensuite, nous avons montré que le problème d'optimisation associé était un problème NP sous une certaine contrainte, ce qui a entraîné une preuve d'exclusion de certaines configurations dont les coûts ne peuvent être minimaux. Ceci a constitué la deuxième contribution de cette thèse. Enfin, nous avons proposé un nouvel algorithme permettant de résoudre le problème d'optimisation donné, et dont l'intérêt est de donner une solution optimale du problème au lieu d'une solution approchée fournie par les méthodes heuristiques classiques. Un programme associé à cet algorithme a été développé en langage C, puis appliqué à plusieurs exemples de cas génériques afin d'en étudier les performances.
APA, Harvard, Vancouver, ISO, and other styles
12

Revaux, Charles. "Simplification des modèles de rais en sismique via la théorie de l'information et du traitement du signal : application en tectonique complexe." Pau, 2005. http://www.theses.fr/2005PAUU3026.

Full text
Abstract:
Nous avons développé une méthode originale de modélisation de la propagation des ondes adaptée à la résolution des problèmes de tectoniques complexes en se basant sur la théorie de l'information et sur le traitement du signal. Tout d'abord, elle consiste à lisser le modèle de vitesse en supprimant les détails que le signal source ne peut pas voir (filtre passe-bas). Notre choix s'est porté sur la décomposition des interfaces en éléments circulaires en fonction du pouvoir de résolution du signal source. Dans un deuxième temps, la prise en compte de la précision de la mesure en temps, liée au pas d'échantillonnage, permet de faire une erreur sur le calcul des temps de trajet. Elle conduit à la notion de " faisceau ", portion de l'onde pour laquelle l'erreur en temps de trajet est inférieure au demi pas de l'échantillonnage. Associés à la théorie des rais, ces deux concepts permettent de décomposer le problème de la propagation d'une onde en une série de problèmes élémentaires résolus analytiquement. Cela nous a conduit à développer une nouvelle technique de modélisation de la propagation des ondes, appelée Signal Based Ray Tracing (SBRT). Le problème élémentaire résolu correspond à l'échantillonnage de la caustique associée à une interface. Ce découpage en plusieurs problèmes élémentaires fait de SBRT une méthode peu coûteuse en temps de calcul et adaptée aux problèmes de propagation des ondes dans un contexte géologique complexe. SBRT surmonte certaines limitations rencontrées par les méthodes classiques de tracé de rais : elle n'est pas limitée par les caustiques ; aucun rayon n'est omis ; les arrivées multiples sont calculées. Une contribution importante est sa possibilité de prendre en compte les phénomènes d'interface tels que les réflexions totales et les head-waves. SBRT est également capable de traiter les forts contrastes d'impédances. Les résultats de SBRT sont comparés à ceux des méthodes des Eléments Spectraux (Komatitsch, 1997) et des Différences Finies (Virieux, 1986)
We developed an original method for modeling the wave propagation based on information theory and signal processing suited to the solving of complex tectonics problems. In a first step, it consists in smoothing the velocity model by removing the details the signal source cannot see (low-pass filter). We make the choice of decomposing the interfaces into circular elements according to the resolution of the source signal. In a second step, by considering the accuracy of time measurements, which is related to the time sampling interval, it is possible to make an error in the calculation of traveltimes. It leads to the concept of " beam ", the portion of the wave for which the error in traveltimes is lower than half the time sampling interval. Associated with ray theory, these two concepts make it possible to decompose the wave propagation problem into a series of elementary problems which can be solved analytically. It leads to the development of a new technique for modeling wave propagation , denoted Signal Based Ray Tracing (SBRT). The elementary problem solved corresponds to a sampling of the caustic associated to an interface. This decomposition into several elementary problems makes SBRT a method that is inexpensive in computing time and adapted to the solving of wave propagation problems in a complex geology context. SBRT overcomes some of the limitations encountered by standard ray tracing methods : it is not limited by caustics ; no ray is omitted ; multiple arrivals are calculated. A significant contribution is its ability to take into account interface phenomena such as total reflexions and head-waves. SBRT can also deal with strong impedance contrasts. The results of SBRT are compared with those of the Spectral Element Method (Komatitsch, 1997) and those of the Finite DifferenceMethod (Virieux, 1986)
APA, Harvard, Vancouver, ISO, and other styles
13

Auger, François. "Représentations temps-fréquence des signaux non-stationnaires : synthèse et contribution." Nantes, 1991. http://www.theses.fr/1991NANT2056.

Full text
Abstract:
Ce mémoire concerne l'analyse temps-fréquence des signaux non-stationnaires. Après avoir montré la nécessité de ce type d'analyse, on s'intéresse aux distributions énergétiques de la classe de Cohen. Cette étude permet alors notamment de comparer ses différents éléments du point de vue de leurs propriétés théoriques, de la géométrie de leurs termes d'interférence et de leurs qualités descriptives, et de préciser les différents problèmes liés à l'obtention de leurs versions discrètes. On aborde ensuite les méthodes de représentation temps-fréquence paramétriques. On étudie tout d'abord les propriétés théoriques de certaines de ces représentations les plus classiques, en utilisant les mêmes critères que les représentations de la classe de Cohen, puis on s'intéresse aux possibilités de paramétrisation de ces dernières, et notamment de la représentation de Wigner-Ville. Enfin, on s'intéresse à différentes méthodes heuristiques d'élaboration de représentations temps-fréquence facilement lisibles et interprétables, en partant soit du spectrogramme, soit de la représentation de Wigner-Ville.
APA, Harvard, Vancouver, ISO, and other styles
14

Mahot, Mélanie. "Estimation robuste de la matrice de covariance en traitement du signal." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00906143.

Full text
Abstract:
De nombreuses applications de traitement de signal nécessitent la connaissance de la matrice de covariance des données reçues. Lorsqu'elle n'est pas directement accessible, elle est estimée préalablement à l'aide de données d'apprentissage. Traditionnellement, le milieu est considéré comme gaussien. L'estimateur du maximum de vraisemblance est alors la sample covariance matrix (SCM). Cependant, dans de nombreuses applications, notamment avec l'arrivée des techniques haute résolution, cette hypothèse n'est plus valable. De plus, même en milieu gaussien, il s'avère que la SCM peut-être très influencée par des perturbations (données aberrantes, données manquantes, brouilleurs...) sur les données. Dans cette thèse nous nous proposons de considérer un modèle plus général, celui des distributions elliptiques. Elles permettent de représenter de nombreuses distributions et des campagnes de mesures ont montré leur bonne adéquation avec les données réelles, dans de nombreuses applications telles que le radar ou l'imagerie hyperspectrale. Dans ce contexte, nous proposons des estimateurs plus robustes et plus adaptés : les M-estimateurs et l'estimateur du point-fixe (FPE). Leurs performances et leur robustesse sont étudiées et comparées à celles de la SCM. Nous montrons ainsi que dans de nombreuses applications, ces estimateurs peuvent remplacer très simplement la SCM, avec de meilleures performances lorsque les données sont non-gaussiennes et des performances comparables à la SCM lorsque les données sont gaussiennes. Les résultats théoriques développés dans cette thèse sont ensuite illustrés à partir de simulations puis à partir de données réels dans le cadre de traitements spatio-temporels adaptatifs.
APA, Harvard, Vancouver, ISO, and other styles
15

Pereira, Mike. "Champs aléatoires généralisés définis sur des variétés riemanniennes : théorie et pratique." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM055.

Full text
Abstract:
La géostatistique est la branche des statistiques s’intéressant à la modélisation des phénomènes ancrés dans l’espace au travers de modèles probabilistes. En particulier, le phénomène en question est décrit par un champ aléatoire (généralement gaussien) et les données observées sont considérées comme résultant d’une réalisation particulière de ce champ aléatoire. Afin de faciliter la modélisation et les traitements géostatistiques qui en découlent, il est d’usage de supposer ce champ comme stationnaire et donc de supposer que la structuration spatiale des données se répète dans le domaine d’étude.Cependant, lorsqu’on travaille avec des jeux de données spatialisées complexes, cette hypothèse devient inadaptée. En effet, comment définir cette notion de stationnarité lorsque les données sont indexées sur des domaines non euclidiens(comme des sphères ou autres surfaces lisses)? Quid également du cas où les données présentent structuration spatiale qui change manifestement d’un endroit à l’autre du domaine d’étude? En outre, opter pour des modèles plus complexes,lorsque cela est possible, s’accompagne en général d’une augmentation drastique des coûts opérationnels (calcul et mémoire), fermant alors la porte à leur application à de grands jeux de données. Dans ce travail, nous proposons une solution à ces problèmes s’appuyant sur la définition de champs aléatoires généralisés sur des variétés riemanniennes. D’une part, travailler avec des champs aléatoires généralisés permet d’étendre naturellement des travaux récents s’attachant à tirer parti d’une caractérisation des champs aléatoires utilisés en géostatistique comme des solutions d’équations aux dérivées partielles stochastiques. D’autre part, travailler sur des variétés riemanniennes permet à la fois de définir des champs sur des domaines qui ne sont que localement euclidiens, et sur des domaines vus comme déformés localement (ouvrant donc la porte à la prise en compte du cas non stationnaire). Ces champs généralisés sont ensuite discrétisés en utilisant une approche par éléments finis, et nous en donnons une formule analytique pour une large classe de champs généralisés englobant les champs généralement utilisés dans les applications. Enfin, afin de résoudre le problème du passage à l’échelle pour les grands jeux de données, nous proposons des algorithmes inspirés du traitement du signal sur graphe permettant la simulation, la prédiction et l’inférence de ces champs par des approches "matrix-free"
Geostatistics is the branch of statistics attached to model spatial phenomena through probabilistic models. In particular, the spatial phenomenon is described by a (generally Gaussian) random field, and the observed data are considered as resulting from a particular realization of this random field. To facilitate the modeling and the subsequent geostatistical operations applied to the data, the random field is usually assumed to be stationary, thus meaning that the spatial structure of the data replicates across the domain of study. However, when dealing with complex spatial datasets, this assumption becomes ill-adapted. Indeed, how can the notion of stationarity be defined (and applied) when the data lie on non-Euclidean domains (such as spheres or other smooth surfaces)? Also, what about the case where the data clearly display a spatial structure that varies across the domain? Besides, using more complex models (when it is possible) generally comes at the price of a drastic increase in operational costs (computational and storage-wise), rendering them impossible to apply to large datasets. In this work, we propose a solution to both problems, which relies on the definition of generalized random fields on Riemannian manifolds. On one hand, working with generalized random fields allows to naturally extend ongoing work that is done to leverage a characterization of random fields used in Geostatistics as solutions of stochastic partial differential equations. On the other hand, working on Riemannian manifolds allows to define such fields on both (only) locally Euclidean domains and on locally deformed spaces (thus yielding a framework to account for non-stationary cases). The discretization of these generalized random fields is undertaken using a finite element approach, and we provide an explicit formula for a large class of fields comprising those generally used in applications. Finally, to solve the scalability problem,we propose algorithms inspired from graph signal processing to tackle the simulation, the estimation and the inference of these fields using matrix-free approaches
APA, Harvard, Vancouver, ISO, and other styles
16

Simon, Carine. "Séparation aveugle des sources en mélange convolutif." Marne-la-vallée, 1999. http://www.theses.fr/1999MARN0084.

Full text
Abstract:
Cette these, realisee dans le cadre d'un contrat avec edf/der, a pour but de mettre en evidence des methodologies permettant de separer des melanges convolutifs de sources de facon aveugle. Le premier chapitre recense un certain nombre de techniques existant dans le domaine, en expliquant les interets et limitations. Dans le second chapitre, nous etudions une technique couramment utilisee, la decorrelation, sur laquelle, toutefois, peu de resultats theoriques existaient jusqu'alors. Nous montrons que, lorsque le melange est a reponse impulsionnelle infinie, il existe une infinite de solutions non separantes. De plus, meme lorsque le melange est a reponse impulsionnelle finie, la methode est peu robuste et presente des solutions parasites numeriques. Le troisieme chapitre est consacre a l'etude des fonctions de contraste. Nous en generalisons le concept afin qu'elles soient applicables meme lorsque les sources ne sont pas des filtrees lineaires de sequences independantes et identiquement distribuees. Utilisant une approche par deflation, nous mettons en evidence une categorie de contrastes qui presentent l'avantage de n'avoir aucun maximum local non separant. Apres avoir generalise la prediction lineaire afin qu'elle soit applicable lorsque le nombre de sources est superieur ou egal au nombre de capteurs, nous rappelons au chapitre suivant les techniques liees a l'annulation de cumulants croises ainsi qu'a une approche frequentielle. Enfin, le dernier chapitre est consacre a la validations de ces diverses techniques tant sur des signaux reels que sur une large serie de simulations.
APA, Harvard, Vancouver, ISO, and other styles
17

Lima, Ferrer de Almeida André. "Tensor modeling and signal processing for wireless communication systems." Nice, 2007. http://www.theses.fr/2007NICE4056.

Full text
Abstract:
Dans plusieurs applications de traitement du signal pour les systèmes de communication sans fils, le signal reçu est de nature multidimensionnelle et possède une structure algébrique multilinéaire. Dans ce contexte, la décomposition tensorielle de type PARAFAC a fait l’objet de plusieurs travaux au cours des six dernières années. Il s’avère que des décompositions tensorielles plus générales sont nécessaires pour couvrir des classes plus larges de systèmes de communication faisant intervenir à la fois des modèles de transmission et de canal plus complexes et des méthodes de traitement plus efficaces. Cette thèse traite les problèmes de modélisation des systèmes multi-antennes, d’égalisation de canal, de séparation de signaux et d’estimation paramétrique de canal à l’aide d’approches tensorielles. Dans un premier temps, de nouvelles décompositions tensorielles (bloc-PARAFAC avec contraintes et CONFAC) ont été développées et étudiées en termes d’identifiabilité. Dans un deuxième temps, la décomposition bloc-PARAFAC avec contraintes a été appliquée tout d’abord pour mettre en évidence une modélisation tensorielle unifiée des systèmes suréchantillonnés, DS-CDMA et OFDM, avec application à l’égalisation multiutilisateur. Puis, cette décomposition a été utilisée pour modéliser des systèmes de transmission MIMO avec étalement spatio-temporel et détection aveugle. La décomposition CONFAC a ensuite été exploitée pour concevoir un nouveau schéma de transmission MIMO/CDMA combinant diversité et multiplexage spatial. Les propriétés d’unicité de cette décomposition ont permis de réaliser un traitement aveugle au niveau du récepteur pour la reconstruction du canal et des symboles transmis. Un troisième volet du travail concerne l’application de la décomposition PARAFAC pour la conception de nouveaux schémas de transmission spatio-temporel-fréquentiel pour des systèmes MIMO multiporteurs, et pour l’estimation paramétrique de canaux multitrajets
In several signal processing applications for wireless communications, the received signal is multidimensional in nature and may exhibit a multilinear algebraic structure. In this context, the PARAFAC tensor decomposition has been the subject of several works in the past six years. However, generalized tensor decompositions are necessary for covering a wider class of wireless communications systems with more complex transmission structures, more realistic channel models and more efficient receiver signal processing. This thesis investigates tensor modelling approaches for multiple-antenna systems, channel equalization, signal separation and parametric channel estimation? New tensor decompositions, namely, the block-constrained PARAFAC and CONFAC decompositions are developed and studied in terms of identifiability. Fist, the block-constrained PARAFAC decompositions applied for a unified tensor modelling of oversampled, DS-CDMA and OFDM systems applications to blind multiuser equalization. This decomposition is also used for modelling multiple-antenna (MIMO) transmission systems with block space-time spreading and blind detection, which generalizes previous tensor-based MIMO transmission models. The CONFAC decomposition is then exploited for designing new uniqueness properties of this decomposition? This thesis also studies new applications f third-order PARAFAC decomposition? A new space-time-frequency spreading system is proposed for multicarrier multiple-access systems, where this decomposition is used as a joint spreading and multiplexing tool at the transmitter using tridimensional spreading code with trilinear structure. Finally, we present a PARAC modelling approach for the parametric estimation of SIMO and MIMO multipath wireless channels with time-varying structure
APA, Harvard, Vancouver, ISO, and other styles
18

Nickovic, Dejan. "Vérification de propriétés temporisées : théorie et applications." Grenoble 1, 2008. http://www.theses.fr/2008GRE10185.

Full text
Abstract:
Le développement croissant de systèmes embarqués de consommation, où les composants numériques, analogiques et logiciels sont combinés sur une même puce, résulte en une augmentation de la complexité des processus de conception et de vérification. La validation de tels systèmes analogiques et à signaux-mixtes reste largement basée sur des techniques de simulation, qui sont souvent combinées avec des méthodes d'analyse de nature ad-hoc. Cette thèse est motivée par l'exportation de méthodes formelles basées sur des propriétés, vers leur application à la validation de systèmes analogiques et à signaux mixtes, considérés à leur niveaux d'abstraction continu et temporisé. Etant-donné que la vérification formelle de systèmes continus non-triviaux reste très difficile, nous nous tournons vers une méthode de validation plus légère appelée le monitoring basé sur des propriétés. Nous définissons signal temporallogic STL comme langage de spécification de haut niveau qui permet d'exprimer des propriétés temporelles de signaux continus et temporisés. STL est une extension de la logique de temps-réel metric interval temporallogic MITL, où les signaux continus sont transformés en signaux Booléens avec des prédicats numériques, et les relations temporelles entre ces signaux son exprimées avec les opérateurs temporels habituels dont les propositions atomiques correspondent à ces prédicats. Nous développons deux procédures demonitoring, une offline et une incrémantale, qui permettent de vérifier si les traces de simulations sont correctes par rapport aux propriétés STL. Les deux procédures sont implantées en outil de monitoring analogique AMI. Notre approche de monitoring basé sur des propriétés est appliquée, en utilisant AMT, à deux études de cas réalistes, où nous étudions des propriétés d'une mémoire de type FLASH et d'une interface de mémoire DDR2. Nous considérons aussi le problème de vérification formelle de systèmes temporisés, et développons une traduction modulaire des formules MITL avec les opérateurs futurs et passés, vers des automates temporisés. La construction que nous proposons est basée sur les testeurs temporels, une classe spécifique d'automates avec les entrées et les sorties qui réalisent la fonction séquentielle définie par la sémantique des opérateurs MITL. Nous montrons d'abord comment chaque formule MITL peut être exprimée avec six opérateurs basiques (trois opérateurs passés et trois futurs) et nous proposons une construction de testeurs temporels à partir de ces opérateurs. Les testeurs temporels pour des formules MITL arbitraires sont obtenus en composant ces testeurs élémentaires. Finalement, nous développons une procédure pour la synthèse automatique de contrôleurs à partir des spécifications de haut niveau exprimées avec le fragment borné de metric temporallogic (MTL). Nous proposons une traduction des propriétés spécifiées dans cette logique temporisée vers des automates temporisés déterministes, en supposant la variabilité bornée. Ensuite, nous pouvons appliquer à ces automates les algorithmes habituels de synthèse de sûreté pour construire un contrôleur qui satisfait la spécification par construction
The growth of consumer embedded devices, where digital, analog and software components are often combined together on a single chip, results in an increase of complexity of the design and verification processes. The validation of such analog and mixed-signal systems largely relies on simulation-based techniques combined with often ad-hoc analysis methods. This thesis is motivated by exportation of property-based formai techniques to the validation of analog and mixed-signal systems, at their continuous and timed levels of abstraction. Since the formai verification of non-trivial continuous systems remains very difficult, we resort to a lighter validation technique, that is, property-based monitoring. We define signal temporallogic STL as a high-Ievel specification language that allows expressing temporal properties of continuous and timed signais. STL is as an extension of the realtime metric interval temporallogic MITL, where continuous signais are transformed into Boolean ones using numerical predicates, and the temporal relations between them are expressed using standard real-time temporal operators whose atomic propositions correspond to those predicates. We develop two monitoring procedures, offline and incremental, for checking the correctness of simulation traces with respect to STL properties and implement them into a stand alone analog monitoring tool (AMT). The property¬ based monitoring framework is applied, using the AMT tool, to two real-world case studies, considering properties of a FLASH memory cell and a DDR2 memory interface. We also consider the problem of property-based formai verification of timed systems, and develop a modular translation from MITL formulae with past and future operators to timed automata. The construction that we propose is based on temporal testers, a special class of input/output timed automata that realize the sequential functions defined by the semantics of MITL operators. We first show how every MITL formula can be expressed using six basic temporal operators (three for past and three for future) and show how to build a temporal tester for each of these operators. Temporal testers for arbitrary MITL formulae are obtained by composing these elementary testers. Finally, we develop a procedure for automatic synthesis of controllers from high-Ievel specifications expressed in the bounded fragment of metric temporallogic (MTL). We propose a translation from properties specified in this real-time logic and under bounded variability assumption, into deterministic timed automata to which we apply safety synthesis algorithms to build a controller that satisfies the specification by construction
APA, Harvard, Vancouver, ISO, and other styles
19

Gaviot, Étienne. "Application des méthodes de la théorie du signal à la dissociation des énergies en régime variable." Lille 1, 1985. http://www.theses.fr/1985LIL10010.

Full text
Abstract:
Représentation des échanges énergétiques. Echanges d'entropie en régime variable. Déterminisme et réciprocité des systèmes thermiques. Dissociation des énergies en régimes plurifréquentiels et transitoires. Résultats expérimentaux.
APA, Harvard, Vancouver, ISO, and other styles
20

Amrani, Mohamed. "Etude de la solution approchée de problèmes quasilinéaires et analyse d'un problème en théorie du signal." Metz, 1995. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1995/Amrani.Mohamed.SMZ9535.pdf.

Full text
Abstract:
Dans la première partie de ce travail, nous nous sommes proposés de compléter les résultats de N. André et de M. Chipot sur l'étude de la solution approchée d'une classe de problèmes quasilinéaires elliptiques. On a montré l'unicité en dimension un dans les cas d'une approximation linéaire et quadratique par une méthode d'éléments finis. En dimension deux, on présente une nouvelle technique pour prouver l'unicité avec une hypothèse optimale sur les angles de la triangulation, et on a fourni une version approchée du théorème de Meyers. Par ailleurs, on a étudié le principe du maximum discret, la convergence, la régularité et l'unicité de ce problème approché en dimension quelconque. Dans la deuxième partie, on s'est intéressé à l'étude d'un problème industriel proposé par la société Landis & Gyr. Ce problème consiste à trouver une technique numérique pour mesurer l'énergie d'un signal électrique, avec une erreur minimale. La principale difficulté est que le signal électrique est rapidement oscillant ; si on pouvait l'échantillonner à une fréquence rapide, on aurait une bonne précision sur le calcul des grandeurs à mesurer en utilisant simplement une méthode des rectangles. Mais cette méthode a l'inconvénient d'imposer une fréquence de travail rapide pour une application de comptage triphasé et exige donc le choix d'une unité de calcul performante dans l'éventualité de calculs complémentaires. On a réussi à donner une méthode permettant un calcul exact, sans être oblige d'échantillonner le signal à une fréquence élevée
In the first part of this work, we complete the results obtained by N. André and M. Chipot about the approximate solution of some class of elliptic problems, by using the simplest finite element method. In particular, in two dimensional case, we present a new technique to prove uniqueness for the approximate solution when the mesh size approaches zero, under optimal assumptions about the angles of the triangulation. Moreover, we studied the discrete maximum principle, the convergence, the regularity and the uniqueness in higher dimension. In the second part, we are interested in an industrial problem suggested by Landis & Gyr energy management. This problem consist of finding a numerical technique to measure the energy of an electrical signal
APA, Harvard, Vancouver, ISO, and other styles
21

Ahriz, Iness. "Application des techniques d'apprentissage à la géolocalisation par radio fingerprint." Paris 6, 2010. http://www.theses.fr/2010PA066355.

Full text
Abstract:
L’objectif de la thèse est d’améliorer la précision de localisation des personnes (ou objets) dans les environnements où le signal GPS est faible, voire inexistant, par exemple à l’intérieur de bâtiments. L’originalité de ce travail est d’utiliser des signaux radio reçus de sources extérieures pour effectuer la localisation à l’intérieur des bâtiments. Durant ce travail, des mesures des puissances reçues ont été effectuées dans diverses conditions. Étant données les difficultés liées aux processus expérimentaux (incertitude et bruit liés aux mesures), ce dernier point a constitué une première partie de ce travail de thèse. Le traitement et l’interprétation des mesures des puissances de signaux radio dans un environnement de propagation instable ont été un véritable défi durant cette étude. En effet, toutes les porteuses du réseau GSM ont été considérées et aucune hypothèse n’a été posée, à priori, sur leurs pertinences. Une seconde partie de la thèse a été justement consacrée à l’estimation de ces pertinences. Le problème de la détermination de la pièce dans laquelle se trouve le mobile a été considéré comme un problème de classification automatique : des méthodes d’apprentissage statistique (supervisé et semi-supervisé) ont donc été mises en œuvre. Le choix des méthodes utilisées a été fait sur la base des études menées sur les mesures des puissances. Des performances très satisfaisantes ont été obtenues, dans les pièces de deux bâtiments différents. Ces résultats ont ainsi confirmé l’apport des méthodes d’apprentissage statistique au problème de localisation par fingerprints
APA, Harvard, Vancouver, ISO, and other styles
22

Houcke, Sébastien. "Séparation autodidacte d'un mélange de sources émettant à des débits inconnus et éventuellement différents." Université de Marne-la-Vallée, 2002. http://www.theses.fr/2002MARN0348.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Boivin, David. "Systèmes de communications cohérents : estimation du bruit de phase non-linéaire et étude de la modulation de phase duobinaire." Besançon, 2005. http://www.theses.fr/2005BESA2079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Joachim, Christian. "Contribution au traitement moléculaire du signal : comportements intramoléculaires." Toulouse, ENSAE, 1985. http://www.theses.fr/1985ESAE0002.

Full text
Abstract:
Définition du traitement moléculaire du signal comme l'utilisation d'une molécule isolée dans une action cohérente sur une information s'y propageant. Analyse et classement des comportements intramoléculaires à partir de critères purement quantiques, obtenus par décomposition du spectre discret de la molécule en propriétés globales (densité d'états) et locales (rapport entre les moments d'ordre 2 et 1 de la distribution des écarts entre plus proche voisins du spectre). Distinction et illustration, par des simulations numériques des comportements réguliers, stochastiques et chaotiques. Modélisation locale de l'évolution intramoléculaire par généralisation de la décomposition de Madelung, en remplacant le couple densité de probabilité/vecteur vitesse de l'interprétation hydrodynamique par le couple densité de probabilité/densité d'énergie.
APA, Harvard, Vancouver, ISO, and other styles
25

Rakotondrainibe, Lahatra. "Conception et réalisation d'un systme de communications sans fil très haut débit à 60 GHz pour les applications WPAN." Rennes, INSA, 2010. http://www.theses.fr/2010ISAR0026.

Full text
Abstract:
Les systèmes sans fil à 60 GHz qui sont actuellement en cours de normalisation dans la bande sans licence de 57-66 GHz visent un débit de données de plusieurs Gbit/s pour des applications de futurs réseaux locaux sans fil (WPAN). Jusqu’à présent, de nombreux travaux publiés ont considéré les aspects caractérisation du canal de propagation, applications potentielles, antennes, conception des circuits et des techniques de modulations à 60 GHz. Or, peu d’études portent sur la réalisation d’un système de communications sans fil à 60 GHz et la caractérisation de ses performances dans des environnements réalistes. Ce travail, réalisé dans le cadre du projet Techim@ges, du pôle « Image et Réseaux » et en liaison avec le CPER Palmyre, présente une réalisation expérimentale complète de communications Ethernet Gigabit sans fil à 60 GHz opérant à environ 1 Gbit/s (plus précisément à 875 Mbit/s). Compte tenu du fait que la liaison radio à 60 GHz est mono-pièce, une hybridation de la technologie avec la fibre optique est utilisée pour assurer les communications dans toutes les pièces d’un environnement résidentiel. Le système réalisé dispose d’une bande passante de 2 GHz. En utilisant des blocs millimétriques à 60 GHz existants, le travail a porté principalement sur la conception et la réalisation des modules en bande de base et en FI (codage de canal, modulation, synchronisation, etc. ). Une modulation mono-porteuse DBPSK est retenue à l’émission (Tx). La structure du récepteur proposé est basée sur une démodulation différentielle et sur une unité de traitement du signal composée d’un bloc de synchronisation conjointe trame et octet, d’un débrasseur et d’un décodeur correcteur d’erreurs RS(255,239). Une technique originale de la synchronisation octet/trame est conçue pour obtenir une forte probabilité de détection de préambule et une très faible probabilité de fausse alarme. Le système proposé offre un bon compromis entre performances et complexité. Des mesures de performances ont été réalisées dans différentes configurations et pour différents types d’environnements. Les résultats de mesures ont montré une bonne qualité de transmission et un taux d’erreur binaire (TEB) faible pour une distance entre Tx et Rx de 30 mètres, avec des antennes directives et dans des conditions de visibilité directe
60 GHz wireless systems that are currently under standardization within the unlicensed 57-66 GHz band are targeting multi-gigabit data rate for wireless personal area networks (WPANs) applications. Up to now, in the literature, several studies have considered the characterization of the propagation channel, potential applications, antennas, circuit design issues and several modulations at 60 GHz. However, few efforts have been dedicated to the realization of a 60 GHz wireless communications system and the characterization of its performance in realistic environments. This work, conducted under the Techim@ges research project supported by French “Media and Networks Cluster” and in association with Palmyre project, presents a full experimental implementation of a 60 GHz wireless Gigabit Ethernet communication system operating at near gigabit data rate (more precisely at 875 Mbps). As the 60 GHz radio link operates only in a single room configuration, a hybrid technology with the Radio-over-Fiber is used to ensure the communications in all the rooms of a residential environment. The realized system covers 2 GHz available bandwidth. By using the existing 60 GHz millimeter-wave blocks, this work is based on the design and realization of the baseband and intermediate frequency architectures (channel coding, modulation, synchronization, etc. ). A DBPSK single-carrier modulation is retained at the transmitter (Tx). The structure of the proposed receiver (Rx) is based on a simple differential demodulation to reduce the inter-symbol interference effect and a signal processing unit comprising byte/frame synchronization, a descrambler and an RS(255,239) decoder. An original byte/frame synchronization technique is designed to obtain a small value of the preamble false alarm and missing probabilities. The proposed system provides a good trade-off between performance and complexity. Performance measurements have been achieved in different environments and in different configurations. Measurement results show a good communication link quality and a low bit error rate (BER) for a 30 meters distance between Tx and Rx, using high gain antennas and for line-of-sight conditions
APA, Harvard, Vancouver, ISO, and other styles
26

N'Da, Patrick Amoikon. "Impact du bruit impulsif sur les transmissions SDSl." Rennes, INSA, 2005. http://www.theses.fr/2005ISAR0024.

Full text
Abstract:
Les bruits impulsifs présentent un effet très préjudiciable sur les transmissions SDSL. En particulier lorsque des applications du type temps réel sont transportées. Toutefois, la modification de la structure des systèmes SDSL permet au prix d'un léger délai de répondre à la problématique des bruits impulsifs sur le SDSL. Dans la première partie de cette thèse, les détails de la constitution des systèmes SDSL ont été donnés. Le chapitre deux met en évidence l'impact des bruits impulsifs sur les transmissions SDSL. Il présente en partie des résultats de validation du simulateur SDSL implémenté pour l'étude des systèmes SDSL. La synthèse des techniques étudiées pour la réduction des impacts des bruits impulsifs sur le SDSL est présentée au chapitre trois. Ce chapitre permet de montrer la difficulté de mise en œuvre d'un système de correction d'erreur respectant les différentes contraintes liées à la problématique des bruits impulsifs sur le SDSL. Des techniques proposées pour d'autres systèmes dans le cadre d'autres études sont aussi présentées afin de pouvoir en tirer parti dans le cadre du SDSL. Le quatrième chapitre détaille une procédure de retransmission permettant de répondre aux besoins de correction d'erreurs dues aux bruits impulsifs sur les systèmes SDSL multipaires. Cette procédure est entièrement décrite pour une réalisation dans les couches basses du SDSL. Elle s'appuie sur des informations de bas niveau recueillies sur la paire de cuivre torsadée. Cette solution bas niveau permet de répondre aux contraintes de délai. Dans le cinquième et dernier chapitre, on peut voir que la prise en compte de l'existence des paires voisines, pour la transmission sur chacune des paires dans le mode multipaire, apporte un gain en portée significatif. Cet apport est particulièrement notable pour les débits élevés. Le procédé dans ce cas est basé sur une annulation de paradiaphonie classique. Une approche similaire pourra être développée pour la télédiaphonie afin d'accroître les débits sur le SDSL multipaire pour les portées courtes.
Impulse noises represent an important impairment for SDSL transmissions specially for real-time applications. Nevertheless, the modification of SDSL system structure allows, at the cost of some more delay, to increase the robustness against impulse noises. In the first chapter of this thesis the principles and the global structure of SDSL is presented. The second chapter show the impact of impulse noises over SDSL transmission. The third chapter is devoted to some techniques involved in the correction of impulse noises effect. The fourth chapter presents in details an ARQ technique proposed to reduce the impulse noises effects over SDSL. The fifth and last chapter deals with performance increase with respect to the data rate in multipair. This performance improvement is achieve with the help of crosstalk cancellation. The data rate increase the relatively important for high data rate. Other algorithm much more faster can applied to this system in the same manner to achieve better performance and improve the work done
APA, Harvard, Vancouver, ISO, and other styles
27

Caron, Julien. "Restauration en échantillonnage irrégulier, théorie et applications aux signaux et images satellitaires." Amiens, 2012. http://www.theses.fr/2012AMIE0108.

Full text
Abstract:
Les performances des satellites progressent rapidement grâce au développement des technologies mais aussi grâce à la compréhension et l'intégration des phénomènes physiques complexes intervenant lors de l'acquisition. Cette thèse traite de plusieurs problèmes d'échantillonnage irrégulier dont les micro-vibrations des satellites dits push-broom dont les capacités en imagerie permettent la détermination de modèles d'élévation très précis. Nous traitons aussi de l'inversion d'interférogrammes en spectrogrammétrie où l'irrégularité de l'échantillonnage est liée à la précision d'usinage des composants réfléchissants. Les micro-vibrations dans le cas du tangage sont estimées à partir d'une carte de disparités altérée et non-dense par contraintes de parcimonie. Nous montrons expérimentalement que ce modèle et les algorithmes utilisés permettent de résoudre ce problème mal posé. L'ajout d'un apriori sur la régularité de l'élévation améliore encore cette estimation dans les cas les plus difficiles. Les images acquises en présence de micro-vibrations nécessitent de plus un rééchantillonnage et une déconvolution avec une problématique de coût numérique. L'algorithme que nous présentons ici répond à ces besoins grâce au cadre fonctionnel des splines que nous adaptons au problème de la déconvolution, avec des performances équivalentes à l'état de l'art et un coût numérique maîtrisé. Enfin nous abordons un problème inverse en interférométrie statique où la nature des signaux et de l'échantillonnage soulève de nombreuses questions, ce travail réalisé lors d'une R&T sur l'instrument SIFTI développé au CNES y apporte des réponses claires sous forme de résultats théoriques et numériques
Performances of remote-sensing satellites have been increasing fast thanks to developing technologies but also the better understanding and integration of complex physical phenomena occurring during the acquisition. This thesis report adresses several irregular sampling problems including the microvibrations of push-broom satellites whose imaging capabilities allow for the computation of very accurate numerical elevation models. We also adress the inversion of interferograms in spectrogrametry where the sampling irregularity is caused by imperfectly machined reflecting components. Microvibrations in the single pitch case are estimated from a perturbed, non-dense disparity map under sparsity constraints. Experiments show that this modeling and the developed algorithms can solve this ill-posed problem. Furthermore, an additional regularity hypothesis on the elevation improves this estimation for more difficult cases. Images suffering from micro-vibrations during acquisition necessitate a sampling correction together with deblurring and fast restoration. The algorithm we present here fulfills these requirements thanks an adaptation of the splines setting to the deblurring case, it is faster than state-of-the-art algorithms with equivalent performances. Finally, we adress the interferogram inversion problem in which the signals and sampling sets raise many questions, this work was achieved during a R&T study of the SIFTI instrument examined at CNES, it clarifies these questions in the form of theoretical and numerical results
APA, Harvard, Vancouver, ISO, and other styles
28

Rousseau, Hervé. "Detection - estimation conjointes a partir des plans temps-echelles et temps-frequence." Cergy-Pontoise, 1997. http://www.theses.fr/1997CERG0030.

Full text
Abstract:
Le travail resume dans ce memoire a permis de developper deux methodes de detection-estimations conjointes appliquant un algorithme de deconvolution bernoulli-gaussien (dbg) apres une etude des specificites des representations que sont l'analyse multiresolution et la transformee de fourier a court terme (tfct). La 1ere methode realise une dbg en milieu non-gaussien. L'utilisation de l'analyse multiresolution est justifiee par l'effet gaussianisant qu'induit un filtrage lineaire provenant des projections sur chacunes des echelles via l'algorithme a trous. Un algorithme de dbg est alors applique sur ces echelles. Ces differents resultats sont ensuite fusionnes grace a la redondance d'informations d'une echelle a l'autre. On obtient ainsi une nouvelle version de l'algorithme dbg comme alternative a la version originelle lorsque le bruit additif est non-gaussien tel que le bruit poissonnien par exemple. La 2eme methode effectue une estimation de frequences instantanees (fi). Celle-ci repose sur une conjecture qui confere a la tfct une structure convolutive entre un noyau (dependant de l'atome temps-frequence (tf) utilise lors du calcul de la tfct) et des attributs tf tels que les fi et les retards de groupe. Ces 2 derniers sont supposes etre des processus composites ponctuels-continus (chirps). Cette structure permet deux modeles convolutifs duaux sur chacune des marginales temporelles et frequentielle. Apres une etape initiale d'identification du noyau tf, on propose une procedure en 3 etapes. L'etape 1 utilise une fonction de goniometrie pour detecter les principaux angles tf du signal. Pour chacun de ces angles, on dispose alors d'un atome tf adapte au chirp lineaire associe et du modele convolutif a considerer. L'etape 2 consiste a effectuer la dbg sur chaque tfct. L'etape 3 permet d'obtenir les fi par fusion des differents resultats. Cette formulation bayesienne a permis d'obtenir une methode performante d'estimation de ces frequences en apportant un gain d'environ 10 db par rapport aux methodes classiques.
APA, Harvard, Vancouver, ISO, and other styles
29

Desbenoit, Brett. "Modélisation et simulation de scènes naturelles complexes." Lyon 1, 2006. http://www.theses.fr/2006LYO10214.

Full text
Abstract:
Dans cette thèse, nous abordons le problème de la modélisation de scènes naturelles réalistes. Nous nous sommes plus particulièrement intéressés à la modélisation des détails et à leur répartition. Ces deux aspects jouent un rôle fondamental sur le réalisme des scènes virtuelles. L'approche que nous proposons dans cette thèse repose sur la définition de trois éléments clés : un atlas de formes élémentaires, un algorithme de dispersion et un algorithme de propagation. L'atlas est composé des briques de bases utilisées pour la génération de la géométrie des détails. L'algorithme de propagation, quant à lui, décrit comment ces éléments vont se combiner pour former l'objet final. Enfin, l'algorithme de dispersion définit leur répartition dans la scène. L'approche que nous décrivons permet également de prendre en compte les caractéristiques de l'environnement lors des étapes de placement et de propagation. Nous avons appliqué cette approche à trois éléments que l'on rencontre couramment dans la nature : les lichens, les feuilles et les fissures
In this thesis, we address the modelling realistic natural sceneries. We focus on the modelling of details and their distribution in a complex scene. Details have a great impact over the overall realism of the final scene. Our approach consists in modeling details such as mushrooms, lichens, leaves or fractures and storing them in an atlas of shapes. Those details are distributed in the scene according to specific physically and biologically based dispersion and propagation algorithms, which are controlled by the parameters of the environment such as the wetness, the temperature or the amount of direct and indirect lighting. Our approach enables us to add a vast variety of details without the burden of editing them by hand
APA, Harvard, Vancouver, ISO, and other styles
30

Kanhouche, Rami. "Méthodes mathématiques en traitement du signal pour l'estimation spectrale." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00136093.

Full text
Abstract:
On étudie la théorie et l'application pour plusieurs méthodes dans le domaine de l'estimation de la puissance spectrale. Dans le cas 1D, les deux approches de Levinson et Burg sont exposées dans le même contexte théorique et numérique. Dans le cas 2D, et plus généralement le cas ND, de nouvelles méthodes sont proposées pour l'estimation de la puissance spectrale. Ces méthodes conduisent à des extensions répondant à un critère de positivité et d'une maximisation d'une entropie adaptée à la puissance spectrale : la matrice de corrélation ND doit être définie positive et doit vérifier un critère de maximum d'entropie. Aussi, les systèmes de corrélation ND Toeplitz sont exposés dans le contexte des coefficients de réflexion généralisés pour le cas bloc Toeplitz, et le cas Toeplitz bloc Toeplitz. Dans les deux cas, on propose des nouveaux algorithmes pour la solution du système linéaire autorégressif. La structure ND Toeplitz de la matrice de corrélation est étudiée sous deux conditions. La première est que le support d'extension positive est infini avec une propriété de « matching » approximative. La deuxième est l'extension positive avec une propriété de maximum d'entropie. Suivant la deuxième condition, on formalise une théorie de positivité fondamentale, qui établit la correspondance entre un groupe minimal des coefficients de réflexion généralisés et la matrice de corrélation ND avec le même degré de liberté.
APA, Harvard, Vancouver, ISO, and other styles
31

Dimeglio, Chloé. "Méthodes d'estimations statistiques et apprentissage pour l'imagerie agricole." Toulouse 3, 2013. http://www.theses.fr/2013TOU30110.

Full text
Abstract:
Nous disposons de séries temporelles d'indices associés à chaque pixel d'une image satellite. Notre objectif est de fournir au plus tôt une information fiable sur les estimations de surfaces en culture à partir de l'information attachée à chaque pixel et caractérisée par la courbe qui lui est associée. Il s'agira donc dans un premier temps de caractériser la variabilité spatiale associée à ces pixels et de déterminer une segmentation spatiale qui permette d'homogénéiser les données par classe. Dans un second temps l'extraction de l'information utile tiendra compte de la structure des courbes caractéristiques de la nature des pixels de l'image. L'étape finale consistera à déterminer la méthode adéquate d'estimation pour une prédiction des surfaces en cultures
We have to provide reliable information on the acreage estimate of crop areas. We have time series of indices contained in satellite images, and thus sets of curves. We propose to segment the space in order to reduce the variability of our initial classes of curves. Then, we reduce the data volume and we find a set of meaningful representative functions that characterizes the common behavior of each crop class. This method is close to the extraction of a "structural mean". We compare each unknown curve to a curve of the representative base and we allocate each curve to the class of the nearest representative curve. At the last step we learn the error of estimates on known data and correct the first estimate by calibration
APA, Harvard, Vancouver, ISO, and other styles
32

Rilling, Gabriel. "Décompositions Modales Empiriques : Contributions à la théorie, l'algorithmie et l'analyse de performances." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2007. http://tel.archives-ouvertes.fr/tel-00442634.

Full text
Abstract:
La Décomposition Modale Empirique (EMD pour « Empirical Mode Decomposition ») est un outil récent de traitement du signal dévolu à l'analyse de signaux non stationnaires et/ou non linéaires. L'EMD produit pour tout signal une décomposition multi-échelles pilotée par les données. Les composantes obtenues sont des formes d'onde oscillantes potentiellement non harmoniques dont les caractéristiques, forme, amplitude et fréquence peuvent varier au cours du temps. L'EMD étant une méthode encore jeune, elle n'est définie que par la sortie d'un algorithme inhabituel, comportant de multiples degrés de liberté et sans fondement théorique solide. Nous nous intéressons dans un premier temps à l'algorithme de l'EMD. Nous étudions d'une part les questions soulevées par les choix de ses degrés de liberté afin d'en établir une implantation. Nous proposons d'autre part des variantes modifiant légèrement ses propriétés et une extension permettant de traiter des signaux à deux composantes. Dans un deuxième temps, nous nous penchons sur les performances de l'EMD. L'algorithme étant initialement décrit dans un contexte de temps continu, mais systématiquement appliqué à des signaux échantillonnés, nous étudions la problématique des effets d'échantillonnage sur la décomposition. Ces effets sont modélisés dans le cas simple d'un signal sinusoïdal et une borne de leur influence est obtenue pour des signaux quelconques. Enfin nous étudions le mécanisme de la décomposition à travers deux situations complémentaires, la décomposition d'une somme de sinusoïdes et celle d'un bruit large bande. Le premier cas permet de mettre en évidence un modèle simple expliquant le comportement de l'EMD dans une très grande majorité des cas de sommes de sinusoïdes. Ce modèle reste valide pour des sinusoïdes faiblement modulées en amplitude et en fréquence ainsi que dans certains cas de sommes d'ondes non harmoniques périodiques. La décomposition de bruits large bande met quant à elle en évidence un comportement moyen de l'EMD proche de celui d'un banc de filtres auto-similaire, analogue à ceux correspondant aux transformées en ondelettes discrètes. Les propriétés du banc de filtres équivalent sont étudiées en détail en fonction des paramètres clés de l'algorithme de l'EMD. Le lien est également établi entre ce comportement en banc de filtres et le modèle développé dans le cas des sommes de sinusoïdes.
APA, Harvard, Vancouver, ISO, and other styles
33

Vallet, Pascal. "Random matrices and applications to statistical signal processing." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1055/document.

Full text
Abstract:
Dans cette thèse, nous considérons le problème de la localisation de source dans les grands réseaux de capteurs, quand le nombre d'antennes du réseau et le nombre d'échantillons du signal observé sont grands et du même ordre de grandeur. Nous considérons le cas où les signaux source émis sont déterministes, et nous développons un algorithme de localisation amélioré, basé sur la méthode MUSIC. Pour ce faire, nous montrons de nouveaux résultats concernant la localisation des valeurs propres des grandes matrices aléatoires gaussiennes complexes de type information plus bruit
In this thesis, we consider the problem of source localization in large sensor networks, when the number of antennas of the network and the number of samples of the observed signal are large and of the same order of magnitude. We also consider the case where the source signals are deterministic, and we develop an improved algorithm for source localization, based on the MUSIC method. For this, we fist show new results concerning the position of the eigen values of large information plus noise complex gaussian random matrices
APA, Harvard, Vancouver, ISO, and other styles
34

Giulieri, Laurent. "Séparation aveugle de sources basée sur l'utilisation des transformées spatiales quadratiques." Toulon, 2003. http://www.theses.fr/2003TOUL0016.

Full text
Abstract:
Le problème auquel on s'intéresse est l'étude de la séparation aveugle de sources dans le cadre des mélanges instantanés en utilisant des transformées spatiales quadratiques. Après une présentation de la problématique centrale et des principaux travaux s'y rapportant, les outils (diagonalisation et zéro-diagonalisation conjointe d'un ensemble de matrices, transformées bilinéaires et quadratiques avec comme cas particulier les représentationstemps-fréquence, extensions au cas vectoriel avec les transformées spatiales quadratiques) autour desquels s'articuleront les méthodes développées dans cette thèse, sont détaillés. Le travail original présenté dans ce manuscrit est l'étude des transformées spatiales quadratiques des mélanges de sources non bruités qui conduit à l'établissement de deux critères de sélection automatique des points temps-fréquence permettant la construction d'ensemble de matrices devant être diagonalisées et/ou zéro-diagonalisées conjointement. Le premier critère est destiné au cas des mélanges de signaux déterministes décorrélés préalablement blanchis, mélanges qui pourront être complexes. Le second critère, plus large, est destiné au cas des mélanges de signaux déterministes corrélés. L'étape de blanchiment est supprimée et les techniques de diagonalisation conjointe sous contrainte d'unitarité sont remplacées, au profit d'une technique sans contrainte, limitant les performances de séparation. On démontre qu'il est aussi pos-sible de résoudre le problème de manière analytique. Enfin l'effet du bruit sur les représentations temps-fréquence spatiales quadratiques est étudié afin d'élaborer de nouvelles stratégies de décision nécessaires à l'adaptation des critères de sélection automatique au cas bruité
We are concerned with the blind source separation for instantaneous mixing problem using quadratic spatial trans-forms. The central problematics and these main works being presented, the tools (joint diagonalization and zero-diagonalization of a set of matrices, quadratic and bilinear transforms with the particular case of the time-frequency representations, extension to the vectorial case with the quadratic spatial transforms) used to developed methods are detailed. The study of quadratic spatial transform of mixed sources, in the noiseless case, represents the original work of this document. It leads to the design of the two automatic selection criteria of time-frequency points allowing to the elaboration of the set of matrices having to be joint diagonalized and/or joint zero-diagonalized. The first criterion is intended for the uncorrelated deterministic sources mixing, previously whitened, where the mixing could be complex. The second criterion, more general, is intended for the correlated deterministic sources mixing. The whitening step is removed and the joint diagonalization techniques are replaced by a technic without constraint, limiting the separation performances. We show that it is possible to solve the problem by an analytical way. Finally, the noise effect on quadratic spatial time-frequency representation is studied in order to design new decision strategies for the adaptation of the automatic selection criteria to the noisy case
APA, Harvard, Vancouver, ISO, and other styles
35

Ramdani, Mohamed. "Notation : cours boursiers et efficience du marché financier." Paris 10, 1996. http://www.theses.fr/1996PA100160.

Full text
Abstract:
Les agences de notation existent depuis 1986 en france. Les raisons expliquant leur emergence, analysees dans la premiere partie, sont les suivantes : - la dereglementation, l'innovation financiere, le financement direct ont ete les facteurs determinants de leur developpement. - au niveau theorique, les raisons qui justifient leur activite sont l'asymetrie d'information caracterisee par le risque d'antiselection et d'alea de moralite. L'origine, le processus et la methode d'analyse des agences de notation ont ete ensuite etudies. La demande de notation concernant une emission sur le marche financier est une demande eclatee en trois poles : l'emetteur, l'agence de notation et les investisseurs. C'est pourquoi dans la deuxieme partie, nous avons formalise la relation emetteur-agence de notation. Ceci nous permet de mettre en evidence le comportement possible de l'agence de notation compte tenu de l'etat de la demande, de l'environnement et de son attitude face au risque. La pression de la demande est le facteur incitatif obligeant l'agence de notation a se comporter en parfait agent. De cette condition vont dependre sa credibilite et son independance. Dans la relation agence de notation-investisseur, la notation est une information universelle. Elle est un support de communication permettant a l'emetteur de signaler, certifier, garantir et d'assurer l'investisseur de la qualite des titres emis
In france, the rating agencies have existed since 1986. The reasons for their creation analyzed in the first part of our research work are the following : -deregulation, financial innovation and development market were the main factors having helped their development. - the theoretical reasons for their activity are the asymetric information characterized by selection adverse and moral hazard. The origin and process and analysis method of the rating agencies have then been studied. The demand for an issue rating on the capital market is a demand divided into three poles : issuer, rating agency and investor. This leads to the second part of our work : the representation of the relationship issuer-rating agency. The possible behaviour of the rating agency, taking into account the demand, the environment and its attitude to risk have thus been underlined. Its credibility and its reputation depend on the pressure on the demand which is the inciting factor forcing the rating agency to behave as a perfect agent. In the relationship rating agency-investor, the rating is universal information. It is a means of communication which enables the issuer of signal, certify, guarantee and secure the investor of the quality of the stock issues
APA, Harvard, Vancouver, ISO, and other styles
36

Cosandier-Rimélé, Delphine. "Modélisation spatio-temporelle d’activités épileptiques transitoires : apport dans l’interprétation des signaux EEG de surface et de profondeur." Rennes 1, 2007. http://www.theses.fr/2007REN1S035.

Full text
Abstract:
Ce travail porte sur l’interprétation des signaux électrophysiologiques acquis chez des patients souffrant d’épilepsie sévère, candidats à la chirurgie. La question est abordée au travers de la modélisation des signaux électroencéphalographiques (EEG) et stéréo-électroencéphalographiques (SEEG). Celle-ci repose sur une représentation physiologiquement réaliste des sources d’activité cérébrale, qui associe un modèle biophysique de sources dipolaires et un modèle biomathématique de populations neuronales. Les signaux simulés, obtenus par la résolution du problème direct dans le volume conducteur de la tête, sont comparés aux signaux SEEG et EEG réels. Les résultats montrent que l’approche permet d’étudier, d’une part, les relations entre la configuration spatio-temporelle des sources neuronales d’activité et les propriétés des signaux observés et, d’autre part, les relations entre les activités EEG de scalp et les champs de potentiels intracérébraux sous-jacents
This work deals with the interpretation of electrophysiological signals recorded in epileptic patients candidate to surgery. This issue is addressed through a realistic modelling of electroencephalographic (EEG) and stereo-electroencephalographic (SEEG) signals. This modelling approach is based on a physiologically relevant representation of the sources of brain activity, which associates a biophysical model of dipolar sources with a biomathematical model of neuronal populations. Simulated signals, obtained by solving the forward problem in the head conductor volume, are compared to real EEG and SEEG signals recorded in patients. Our results show that the approach allows for studying, on the one hand, the relationships between the spatio-temporal organisation of neuronal sources and the properties of the observed signal, and on the other hand, the relationship of the scalp EEG activities to the underlying intracerebral field potentials
APA, Harvard, Vancouver, ISO, and other styles
37

Ait, Amrane Omar. "Identification de systèmes à réponse impulsionnelle longue par filtrage adaptatif en fréquence : application à l'annulation d’échos acoustiques." Paris, ENST, 1992. http://www.theses.fr/1992ENST0026.

Full text
Abstract:
Dans de nombreux domaines d'applications, tels que l'annulation d’échos acoustiques ou l’égalisation de canaux à grands retards de propagation, il est nécessaire d'identifier de façon adaptative des systèmes à réponse impulsionnelle longue (de quelques centaines a quelques milliers de coefficients). Un tel nombre de coefficients interdit l’utilisation d'algorithmes du type moindres carrés (charge de calcul prohibitive) ou du type gradient stochastique (vitesse de convergence trop faible). L'utilisation d'algorithmes adaptatifs en fréquence permet, d'une part de réduire de façon significative la charge de calcul au moyen de l'algorithme rapide de transformée de Fourier (fft), et d’améliorer la vitesse de convergence d'autre part (orthogonalité de la transformée de Fourier). Dans cette thèse, nous étudions une famille d'algorithmes adaptatifs exploitant le schéma de convolution rapide par blocs en fréquence weighted-overlap-add (wola). Le problème de délai est alors résolu par segmentation en petits blocs de la réponse impulsionnelle du système. De plus, le suréchantillonnage induit par le schéma de convolution wola permet une mise a jour des coefficients du filtre adaptatif à une cadence supérieure à la taille des blocs. Ce degré de liberté supplémentaire améliore de façon significative les performances de l'algorithme tant du point de vue vitesse de convergence que capacité de poursuite. Finalement, l'algorithme déduit de cette démarche et dénommé generalized multi-delay frequency-domain adaptive filter gmdf permet de décrire tout un ensemble d'algorithmes adaptatifs au sein du même formalisme
APA, Harvard, Vancouver, ISO, and other styles
38

Goupil, Philippe. "Estimation de la température virtuelle de l'atmosphère : modélisation et analyse spectrale de signaux de télédétection radio acoustique (RASS)." Toulouse, INPT, 2002. http://www.theses.fr/2002INPT030H.

Full text
Abstract:
"Dans cette thèse, on étudie les signaux d'un système de télédétection associant un radar météorologique et un dispositif sonore (RASS : Radio Acoustic Sounding System). L'ensemble permet de mesurer la température virtuelle de l'atmosphère. L'objectif de ces travaux est d'améliorer la portée et la précision de l'instrument. Le premier chapitre décrit le fonctionnement d'un radar météorologique ST (Stratosphère-Troposphère). Couplé à un dispositif sonore, il forme le RASS. On présente son principe général, ses limitations et ses performances. Dans la deuxième partie, on montre l'influence de la géométrie du radar et des conditions météorologiques. On propose une disposition originale des sources sonores et on montre de façon théorique son intérêt. On propose une amélioration de la chaîne d'acquisition pour obtenir des signaux de meilleure qualité. Dans le troisième chapitre, on propose et on valide un modèle théorique des signaux. On étudie les performances ultimes que l'on peut espérer atteindre en terme de précision des estimations des paramètres de ce modèle. On présente les bornes de Rao-Cramèr (BRC) sur l'estimation de la température et des autres paramètres. On étudie ensuite l'estimateur par Maximum de Vraisemblance. Étant donnée la formulation du problème, on propose de mettre en place cet estimateur par l'algorithme du recuit simulé. Dans le quatrième chapitre, on traite de l'estimation du SNR, basée sur la méthode de Hildebrand-Sekhon. On montre qu'elle présente certaines limites pour les faibles SNR et on l'améliore. On présente une technique d'élimination des parasites, appelée "Prony-déflation", et on propose de débruiter les séries temporelles par filtrages par ondelettes. On étudie des méthodes d'analyse spectrale non-paramétriques et une méthode paramétrique. Des comparaisons sont effectuées avec les BRC. Le dernier chapitre propose une application sur des données réelles à long terme afin d'illustrer les méthodes proposées. "
APA, Harvard, Vancouver, ISO, and other styles
39

Stoll, Benoît. "Optimisation de Fonctions de Contraste en Séparation de Sources." Toulon, 2000. http://www.theses.fr/2000TOUL0001.

Full text
Abstract:
La Séparation de Sources consiste à retrouver un jeu de M signaux indépendants appelés sources à partir de l'observation de N de leurs mélanges. Il existe de nombreuses méthodes de séparation qui sont pour la plupart basées sur les statistiques d'ordre supérieures. Ces méthodes permettent d'exploiter l'hypothèse d'indépendance des sources. Dans ce cadre nous avons considéré le cas de la séparation de sources basée sur l'optimisation de fonctions de contraste dans un cas de mélange linéaire purement spatial. Nous proposons d'abord deux nouvelles familles de contrastes regroupant comme cas particulier des contrastes existants. Puis nous déterminons la solution optimale dans le cas deux sources pour ces deux familles de contrastes. Cela nous permet finalement de proposer deux algorithmes, qui constituent alors deux généralisations d'algorithmes classiques. Ensuite, nous étudions l'optimisation d'un contraste sous contrainte, afin de proposer des algo¬rithmes ne nécessitant pas. Comme dans le cas précédent de blanchiment préalable des données. Deux familles de méthodes directes d'optimisation sous contrainte sont considérées : les méthodes duales et les méthodes directes. Cela nous permet en outre de développer des algorithmes utilisant les notions de Lagrangien, de pénalisation et de projection sur la contrainte. Des simulations informatiques illustrent le comportement des algorithmes proposés
Blind Source Separation aim to recover a set of M independent signals called sources from the observation of N mixtures. Several Source Separation methods exist, most of them are based on Higher Order Statistics. Those methods exploit the source independence hypothesis. Among them we consider the case of the source separation based on contrast function optimization in a spatial linear mixture case. We first propose two contrast families including as a particular case some existing contrasts. Then we determine the optimal solution in a two sources case for this couple of contrast families, thus proposing two algorithms which constitute two classic algorithm generalizations. Then, we study constrained contrast optimization in order to propose algorithms which don't need, as before, data pre-whitening. Two direct constrained optimization method families are considered : the dual methods and the direct methods. Thus we can develop algorithms using Lagrangian concept, penalization concept and a concept of projecting onto the constraint. Com¬puter simulations illustrate the behaviour of the algorithms
APA, Harvard, Vancouver, ISO, and other styles
40

Vultaggio, Christian. "Les méthodes de la théorie du signal appliquées à l'analyse des transferts thermiques sur la surface d'une paroi opaque en régime variable." Lille 1, 1987. http://www.theses.fr/1987LIL10001.

Full text
Abstract:
Analyse des interactions énergétiques entre une paroi et son environnement. L'objectif est d'identifier les paramètres figurant dans les relations fonctionnelles liant flux thermique - variation de température de surface en régime variable. Identification de l'effusivité thermique
APA, Harvard, Vancouver, ISO, and other styles
41

Michoux, Nicolas. "Applications de la théorie des systèmes dynamiques non linéaires à la caractérisation de signaux biomédicaux et à leur modélisation." Rouen, 2000. http://www.theses.fr/2000ROUES009.

Full text
Abstract:
La théorie des systèmes dynamiques non linéaires traite du comportement de systèmes déterministes, dont la sensibilité aux conditions initiales rend impossible toute prédiction à long terme. Les outils de cette théorie, pouvant expliquer les propriétés d'adaptabilité de l'organisme, sont appliqués aux signaux cardiaques, du grêle et vasculaires. La reconstruction de l'espace des états et les applications de 1 e r retour autorisent la caractérisation géométrique de rythmes atypiques et la décomposition des fluctuations du rythme en variabilité multi-temporelles, permettant de distinguer des rythmes fœtaux faiblement variables chez des fœtus en sommeil et en état de souffrance. La quantification des variabilités de la pression dans l'intestin grêle conduit à une distinction entre témoins et sujets dyspeptiques. Les processus de développement de l'organisme engendrent souvent des structures fractales. L'indice d'autosimilarités d'un signal RR donnant une mesure de la variabilité cardiaque, augmente chez des sujets atteints d'une fibrillation. La modélisation par un système d'équations différentielles ordinaires des signaux physiologiques est à envisager dès que des couplages apparaissent entre les variables d'état du système. Il devient possible d'obtenir une modélisation phénoménologique de la variable mesurée. La modélisation de l'ECG mène à la conclusion que le système cardiaque tend à se comporter comme un système dynamique de dimension voisine de cinq. La modélisation de la pression et du diamètre artériel a montré que le système vasculaire était de faible dimension et que le diamètre était l'observable dynamique à retenir. Enfin, l'équivalence difféomorphique consiste à éprouver la connexion entre un objet plongé dans l'espace des phases original et son image plongée dans un espace des états reconstruits, en testant les propriétés mathématiques de transformation de l'un a l'autre. L'équivalence dynamique entre des systèmes chaotiques (Henon, Rossler, Lorenz) et les reconstructions induites par leurs variables est étudiée indépendamment de la dimension de reconstruction. Il en résulte un classement des variables par degré d'observabilité et une discussion sur l'équivalence des variables dans le problème de l'observabilité de la dynamique originale.
APA, Harvard, Vancouver, ISO, and other styles
42

Duthoit, Bruno. "Les méthodes de la théorie du signal appliquées à l'étude des interactions énergétiques entre une paroi opaque et son environnement." Lille 1, 1985. http://www.theses.fr/1985LIL10058.

Full text
Abstract:
On adapte aux processus de transfert de chaleur dans les parois les méthodes habituellement utilisées pour simuler ou analyser les évolutions des systèmes linéaires. On exprime, en utilisant le formalisme de la théorie du signal, le bilan d'entropie d'un système homogène monodimensionnel en régime variable.
APA, Harvard, Vancouver, ISO, and other styles
43

Defer, Didier. "Théorie du signal appliquée à la caractérisation thermique et au contrôle non destructif des ouvrages in situ sous sollicitations aléatoires." Lille 1, 1994. http://www.theses.fr/1994LIL10147.

Full text
Abstract:
La notion d'impedance thermique introduite dans l'étude des transferts thermiques conductifs est adaptee au traitement des sollicitations aléatoires. L'impedance permet de traiter des problemes de controle non destructif et de caracterisation thermophysique des systemes a acces une face. Les impedances generalisees abordent les approches par acces deux faces. Ce formalisme presente l'avantage d'etre exploitable en conditions in situ sous sollicitations aleatoires.
APA, Harvard, Vancouver, ISO, and other styles
44

Boutin, Jean-Philippe. "Systèmes de réputation et préférences des consommateurs : application de la théorie de la détection du signal au commerce en ligne." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28107.

Full text
Abstract:
Ce mémoire propose un modèle qui explique le processus de rétroaction des consommateurs lors de leurs achats en ligne. Plus spécifiquement, je modélise un marché où il existe deux types de vendeurs qui se différencient par leur distribution de la qualité des biens qu'ils vendent. Le vendeur dit de type « Élevé » vend des biens dont la qualité moyenne est supérieure à celle du vendeur de type « Bas ». De plus, on suppose que les consommateurs connaissent les types et leurs distributions de la qualité. Sachant ces informations, le consommateur va catégoriser le type du vendeur à partir de l'information perceptuelle disponible, soit la qualité des biens vendus. Pour ce faire, il va choisir un critère de décisions, une certaine valeur de la qualité, qui va lui permettre de catégoriser les types de vendeurs. Ensuite, selon la qualité du bien qu'il a acheté, il va attribuer une rétroaction au vendeur en conséquence. Ce processus de rétroaction s'inspire de la théorie de la détection du signal qui permet d'étudier la prise de décision dans un contexte où la provenance des informations est incertaine. Ce dernier aspect est unique au modèle proposé. Ce modèle a permis d'étudier les préférences des consommateurs envers les systèmes de réputation. Ces systèmes se distinguent par le nombre de modalités d'évaluation qu'ils possèdent. Différentes simulations montrent que leurs préférences varient selon les conditions du marché. En effet, les acheteurs préfèrent le système avec trois modalités relativement à celui avec deux modalités lorsque la distribution de la qualité des types de vendeurs est similaire et lorsque les erreurs d'identification occasionnent des conséquences importantes. Ce résultat s'explique par le fait que les acheteurs préfèrent utiliser une troisième modalité, moins coûteuse en termes d'utilité, lorsque le risque de se tromper sur le type de vendeur est élevé.
APA, Harvard, Vancouver, ISO, and other styles
45

Bourien, Jérôme. "Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection classificationd'activités paroxystiques intercritiques dans des observations EEG." Rennes 1, 2003. https://tel.archives-ouvertes.fr/tel-00007178.

Full text
Abstract:
Les signaux électroencéphalographiques (EEG) enregistrés chez des patients épileptiques reflètent, en dehors des périodes correspondant aux crises, de nombreux signaux transitoires appelés "événements paroxystiques intercritiques" (EPIC) dont l'analyse peut contribuer à l'étude des épilepsies partielles pharmacorésistantes. Une méthode de caractérisation de la distribution spatio-temporelle des EPIC à partir des enregistrements EEG de profondeur est présentée. Les EPIC sont détectés puis analysés afin d'extraire des ensembles de sites distribués dans les structures cérébrales, conjointement et significativement impliqués. Cette méthode est appliquée à des signaux de longue durée enregistrés chez 8 sujets comptant chacun plusieurs milliers d'EPIC. Les résultats montrent une reproductibilité élevée des distributions spatio-temporelles des EPIC. La méthode constitue un premier pas vers une mise en correspondance objective de l'organisation des EPIC avec celle des crises.
APA, Harvard, Vancouver, ISO, and other styles
46

Gillard, Nicolas. "Traitement du signal quantique : effets de bruit utile et intrication." Thesis, Angers, 2019. http://www.theses.fr/2019ANGE0036.

Full text
Abstract:
Nous examinons ici des problématiques standards du traitement du signal, comme la détection de signaux dans le bruit, l'estimation paramétrique à partir de signaux bruités, la transmission d'information sur un canal bruité, mais dans un cadre quantique. Nous suivons plus spécialement un fil conducteur spécifique, déjà bien développé en classique, et constitué par les effets de bruit utile ou phénomène de résonance stochastique – des situations de traitement du signal ou de l'information en présence de bruit, où la performance ne se dégrade pas de façon monotone lorsque le niveau du bruit augmente, mais au contraire où l'augmentation du bruit peut se révéler bénéfique au traitement. En présence de signaux et bruits quantiques, nous mettons ainsi en évidence la possibilité de tels effets de résonance stochastique, dans des tâches de détection, d'estimation ou de transmission de signal. Dans ces études de traitement du signal quantique, nous rencontrons également une propriété spécifiquement quantique constituée par l'intrication. Nous approfondissons aussi l'apport de l'intrication, avec des bénéfices purement quantiques inaccessibles en classique, obtenus pour les tâches de traitement du signal en présence de bruit que nous étudions. Nous considérons aussi des signaux à deux dimensions pouvant s'apparenter à du traitement numérique d'images en quantique. Les études de traitement du signal quantique développées ici sont principalement théoriques et numériques. En complément, nous présentons des mises en œuvre expérimentales que nous avons pu réaliser grâce à un processeur quantique rendu accessible en ligne par la compagnie IBM (processeur IBM Q 14 Melbourne à 14 qubits)
Here we examine standard signal processing issues, such as signal detection in noise, parametric estimation from noisy signals, transmission of information over a noisy channel, but in a quantum framework. We follow more specifically a specific thread, already well developed in classical, and constituted by the effects of useful noise or stochastic resonance phenomenon - situations of signal or information processing in the presence of noise, where the performance does not monotonically deteriorate when the noise level increases, but instead where the increase in noise can be beneficial to the processing. In the presence of quantum signals and noises, we thus highlight the possibility of such stochastic resonance effects, in tasks of detection, estimation or signal transmission. In these quantum signal processing studies, we also encounter a specifically quantum property consisting of entanglement. We also investigate the contribution of entanglement, with purely quantum benefits that are inaccessible in classical, obtained for signal processing tasks in the presence of noise that we are studying. We also consider two-dimensional signals that can be likened to digital processing of quantum images. The quantum signal processing studies developed here are mainly theoretical and numerical. In addition, we present experimental implementations that we have been able to achieve thanks to a quantum processor made accessible online by the IBM company (IBM Q 14 Melbourne processor of 14 qubits)
APA, Harvard, Vancouver, ISO, and other styles
47

Nouvellet, Adrien. "Avancées récentes en traitement statistique du signal appliquées à l'estimation et la détection d'ondes infrasonores." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0011/document.

Full text
Abstract:
Le coeur de cette thèse fait l'objet du traitement de signaux infrasonores et plus particulièrement de l'estimation et de la détection à l'aide d'un réseau de capteurs. Les thèmes abordés ici sont propices à l'expérimentation et nous avons essayé, autant que possible, d'illustrer les résultats théoriques obtenus à l'aide de données réelles. La première partie vise à décrire les implications et les difficultés liées à la détection de sources infrasonores. La littérature offrent déjà de nombreuses techniques de détection basées sur le test d'hypothèses qui sont alors exposées et complétées dans une optique de détection automatique. La seconde partie de cette thèse met en avant les erreurs de l'estimation de l'angle d'arrivée d'une onde lorsque les altitudes des capteurs d'une station sont ignorées (approximation courante). En réponse à ce problème, une estimation basée sur la géométrie complète de la station et comportant un a priori sur la vitesse de l'onde est dérivée et étudiée. L'estimation mentionnée ci-dessus permet de significativement améliorer les performances. Dans la troisième partie, nous introduisons la modélisation du signal infrasonore par un processus stationnaire de type autoregressif. Cette modélisation permet ensuite de développer une approche séquentielle pour la détection infrasonore basée sur le beamforming et la détection de hangement abrupte. La dernière partie de ce manuscrit a pour but de proposer un modèle "signal'' alternatif au modèle de retard pur. Il est présenté de nouveaux résultats mettant en avant un phénomène de perte de cohérence des signaux enregistrés par différents capteurs. Ces travaux aboutissent sur l'élaboration de méthodes de simulations de signaux synthétiques réalistes pour l'étude des performances des détecteurs infrasonores
The core of this thesis is the infrasound signal processing and particularly the estimation and detection using a sensor array. The themes presented here are well-suited to experimentation and we tried, as much as possible, to illustrate the theoretical results with real data. The first part describes the implications and difficulties of infrasonic detection. We review the state-of-the-art of detection techniques based on hypothesis testing and supplement them with the aim of automatic detection. The second part of this thesis highlights the error on the angle of arrival estimation due to considering the arrays as planar (common approximation). In response to this problem, a new estimator considering the full geometry of the array and including an a priori on the speed of the infrasonic wave is derived and studied. We show that the described estimator significantly improve performance. The third part introduces the modeling of infrasonic signal as autoregressive process. This modeling allows us to derived a sequential approach to detect infrasound based on the beamforming and the detection of abrupt changes. The last part of this manuscript aims to propose an alternative "signal'' model. We present new results highlighting a phenomenon of loss of coherence of the signals recorded by different sensors. This work leads to the generation of synthetic infrasonic signal in order to study the performance of the detection algorithms
APA, Harvard, Vancouver, ISO, and other styles
48

Berthelot, Florent. "Méthodologie de conception haut niveau pour architectures reconfigurables dynamiquement." Rennes, INSA, 2006. http://www.theses.fr/2006ISAR0020.

Full text
Abstract:
Nous présenterons dans cette thèse une méthodologie de conception pour les architectures reconfigurables dynamiquement. Cette méthodologie permet la spécification et la modélisation à un haut niveau de l’architecture reconfigurable dynamiquement jusqu’à la génération RTL du design pour implantation matérielle. Cette méthodologie est basée sur l’utilisation du logiciel SynDEx qui permet une spécification haut niveau de l’algorithme de l’application ainsi que l’architecture hétérogène composée de processeurs, DSP et FPGA. Une Adéquation Algorithme Architecture (AAA) est alors possible. Notre travail se focalise sur l’introduction des architectures matérielles reconfigurables dynamiquement et notamment les dernières générations de FPGA partiellement reconfigurables dans ce flot de conception haut niveau. Nous abordons dans ce travail la prise en compte de la reconfiguration dynamique, la génération automatique de l’architecture matérielle, la gestion des phases de reconfigurations dynamiques ainsi que l’optimisation de celle-ci pour l’architecture générée
This document presents a methodology flow targeting runtime reconfigurable components. This methodology is based on a high level specification of the dynamically reconfigurable architecture and handles RTL generation steps for implementation. This methodology uses SynDEx CAD software for algorithm specification at system level as well as heterogeneous architecture specification, composed of FPGAs and DSPs. A matching process (AAA) is proceed to find the best implementation of the application over the architecture. Our work is focused on the use of runtime reconfigurable components and specially lasts FPGA devices
APA, Harvard, Vancouver, ISO, and other styles
49

Debreux, Philippe. "Correction numérique des non-linéarités dans les émetteurs de radiodiffusion numérique terrestre." Nancy 1, 1997. http://www.theses.fr/1997NAN10307.

Full text
Abstract:
Le travail présenté dans ce mémoire résulte d'une collaboration entre le Centre d'études en Radiocommunication et Radiodiffusion de Télédiffusion De France (TOP C2R) et le Centre de Recherche en Automatique de Nancy (CRAN, CNRS URA 821). Il concerne l'étude de l'impact des non-linéarités des amplificateurs de puissance sur les signaux de radio numériques ainsi que la mise au point d'un système de correction numérique des distorsions engendrées sur ces signaux. Le mémoire se compose de six chapitres. Le chapitre introductif permet de situer l'étude dans le contexte technico-économique actuel de la radiodiffusion. Le second chapitre présente les caractéristiques des amplificateurs de puissance et l'effet de leurs non-linéarités sur les signaux amplifiés. Le troisième chapitre aborde ensuite la modélisation des non-linéarités, étape préalable à la simulation de l'ensemble de la chaîne de diffusion (chapitre 6). Deux approches, directe et analytique, y sont détaillées. Le chapitre suivant décrit le principe et les propriétés du multiplexage de porteuses orthogonales (OFOM) retenu par les Européens pour la radiodiffusion et la télédiffusion numériques et qui constitue le signal d'entrée de notre chaîne d'amplification. Le cinquième chapitre propose une synthèse des différentes méthodes de correction existantes avec une attention particulière pour les techniques de prédistorsion numérique de type Nagata et Cavers. Enfin, le sixième chapitre propose une simulation de l'ensemble de la chaîne de diffusion et présente les résultats de l'implantation sur un prototype des deux techniques de précorrection retenues au chapitre précédent.
APA, Harvard, Vancouver, ISO, and other styles
50

Asse, Abdallah. "Aide au diagnostic industriel par des méthodes basées sur la théorie des sous-ensembles flous." Valenciennes, 1985. https://ged.uphf.fr/nuxeo/site/esupversions/c72e776b-0420-445e-bc8f-063e67804dad.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography