To see the other types of publications on this topic, follow the link: Transformation en ondelettes continues.

Dissertations / Theses on the topic 'Transformation en ondelettes continues'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 43 dissertations / theses for your research on the topic 'Transformation en ondelettes continues.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Le, Thien-Phu. "Auscultation dynamique des structures à l'aide de l'analyse continue en ondelettes." Marne-la-vallée, ENPC, 2003. http://www.theses.fr/2003ENPC0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Tien-Phu. "Auscultation dynamique des structures à l'aide de l'analyse continue en ondelettes." Phd thesis, Ecole des Ponts ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00000640.

Full text
Abstract:
On étudie l'application de l'analyse continue en ondelettes à l'auscultation dynamique des structures à partir des réponses transitoires sous excitations imparfaitement connues (choc, ambiante...). L'outil numérique de la transformation continue en ondelettes est établi. Il est fondé sur l'ondelette mère (Morlet ou Cauchy) et sur un paramètre la caractérisant: le facteur Q de qualité du filtre. Il permet d'extraire les amplitudes et les fréquences instantanées contenues dans le signal. Un domaine du plan temps-fréquence où l'effet de bords est négligeable, et un encadrement de Q sont déterminés. Le traitement du signal réel modulé en amplitude et en fréquence par l'outil proposé facilite l'identification modale des structures (linéaires et non-linéaires) et permet une amélioration de la méthode impact-écho. Une procédure adaptée à chaque application est détaillée. Les résultats obtenus à partir des tests numériques et réels montrent l'efficacité de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
3

Elias, Rana. "Pour l'évaluation des modifications des caractéristiques d'un système dynamique." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1107/document.

Full text
Abstract:
L'évaluation des modifications des caractéristiques d'un système dynamique non-stationnaire est étudiée suivant les modifications des paramètres modaux. Pour cela, nous étudions en premier l'obtention de ces paramètres, à l'aide des méthodes d'identification à partir des réponses vibratoires mesurées. Trois méthodes d'identification sont étudiées: la méthode de Décomposition Orthogonale Propre (POD), la méthode de Décomposition en Valeurs Singulières (SVD) et la méthode de Décomposition Orthogonale Régularisée (SOD). Ensuite, trois étapes sont considérées pour suivre les changements de masse des systèmes non-stationnaires à partir des variations des paramètres modaux: la localisation de l'instant du changement (étape 1), la détection de la position du changement (étape 2) et la quantification de la valeur du changement (étape 3). Pour l'étape 1, la transformée en ondelettes (TO) qui est une analyse temps-fréquence est appliquée. Ensuite, trois méthodes de détection de la position du changement de la masse sont développées dans l'étape 2. Enfin, la variation relative des fréquences propres est utilisée pour la quantification de la variation relative de la masse dans l'étape 3. Toutes ces méthodes ont été testées numériquement. De plus une maquette simplifiée de bâtiment a été instrumentée sous excitations de choc. Ces essais ont permis de valider les méthodes développées dans cette thèse<br>Modification of modal parameters is considered the main tool for the evaluation of characteristic changes of a non stationary dynamic system. Therefore, our first interest is to obtain these modal parameters from vibration measures using identification methods. Three methods are discussed here: Proper Orthogonal Decomposition (POD), Singular Value Decomposition (SVD) and Smooth Orthogonal Decomposition (SOD). Then, in order to evaluate the mass changes in non stationary systems, three steps are proposed: instant localization of mass changes (step 1), determination of geometrical location of the mass changes (step 2) and quantification of mass changes (step 3). The Wavelet transform (WT), considered to be a time-frequency analysis, is indented in step 1. In step 2, three methods for the detection of the position of the mass changes are developed. Finally, the relative variation of the natural frequencies of the system is used to evaluate the relative variation of the mass in step 3. The efficiency of these methods is verified by numerical tests. Moreover a building experimental model, instrumented with accelerometers, is studied in the case of after-shock vibrations. These experimental tests permit to validate the methods proposed in this thesis
APA, Harvard, Vancouver, ISO, and other styles
4

Gaillot, Philippe. "Ondelettes continues en Sciences de la Terre - méthodes et applications -." Phd thesis, Université Paul Sabatier - Toulouse III, 2000. http://tel.archives-ouvertes.fr/tel-00007019.

Full text
Abstract:
Ce mémoire concerne le développement de méthodes de traitement, de mise en relation et d'interprétation de données des Sciences de la Terre. Partant du constat que, de par leur nature complexe (non-stationnarité, multi-échelles), les signaux géophysiques-géologiques gagneraient beaucoup à être étudiés à l'aide de méthodes non-stationnaires, nous proposons d'utiliser des méthodes d'analyse basées sur le formalisme mathématique de la transformation en ondelettes continues. Présentées et illustrées sur des exemples synthétiques et naturels, les propriétés d'analyse locale et multi-échelles des ondelettes ouvrent de nombreuses perspectives, inaccessibles avec les méthodes classiques du traitement du signal. En particulier, les techniques développées à une ou deux dimensions visent à éclater toute l'information dans une représentation « espace-échelle », propice à dévoiler la dynamique complexe, la nature multi-échelles et/ou les interactions au sein du système étudié. Ne nécessitant aucune hypothèse sur la nature des signaux, ces techniques sont polyvalentes et permettent de reconnaître les processus agissant sur divers systèmes. L'analyse en ondelette a été appliquée à l'étude de la paléointensité relative du champ magnétique terrestre. La ré-inspection des enregistrements magnétiques du site Ocean Drilling Program 983, caractérisés par des composantes significatives à des fréquences correspondant aux paramètre orbitaux de la Terre, a permis d'opter pour une origine lithologique (climatique) plutôt que pour l'expression de la géodynamo elle-même. On confirme ainsi la représentativité de l'enregistrement de la paléointensité et sa possibilité à être corrélé avec d'autres enregistrements mondiaux. Dans le cadre de la surveillance sismique, nous avons développé un algorithme de pointé automatique de phases sismiques. Utilisées comme des filtres passe-bande naturellement bien localisés en temps et en fréquence, nous avons montré que les ondelettes permettent de détecter, de distinguer et de pointer les séismes proches et lointains, en rejetant les pointés incertains et le bruit. Sur les bases de développements méthodologiques liés à l'étude bi-dimensionnelle des champs de galaxies et des champs de fractures, nous avons développé une nouvelle méthode qui, appliquée aux organisations minérales de sections de granite, a permis de détecter et de quantifier en termes de taille, de forme, d'orientation et de distribution spatiale, les différents niveaux d'organisation minérale. A partir de cette approche, on peut étudier le comportement complexe d'un magma –milieu biphasé solide liquide- qui cristallise tout en se déformant, et ainsi, mieux cerner l'histoire dynamique des massifs granitiques. Appliquée à la distribution spatiale de la séquence de répliques du séisme d'Arudy de 1980 (M=5.1, Pyrénées Orientales), la méthodologie précédente a permis d'identifier des plans potentiels de rupture. La combinaison de ces résultats avec les mécanismes au foyer disponibles et avec les marqueurs géologiques et géomorphologiques a conduit à proposer et valider un modèle tectonique local sous la forme d'une terminaison en queue de cheval d'orientation E-W. Les perspectives ouvertes par ce mémoire laissent présager d'un champ énorme de développement d'outils et de réflexions nouvelles. Même si les problèmes abordés dans cette thèse ont concerné exclusivement des données mono-dimensionnelles et des données binaires (noir et blanc) bi-dimensionnelles, la voie est ouverte pour étendre les méthodologies précédentes à des données bidimensionnelles non-binaires (couleur) et tri-dimensionnelles.
APA, Harvard, Vancouver, ISO, and other styles
5

Belley, Lee-Pierre. "Séparation de sources aveugle utilisant la transformée en ondelettes continues." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/93/1/BELLEY_Lee%2DPierre.pdf.

Full text
Abstract:
La séparation d'un mélange convolutif de deux sources à partir de deux capteurs est considérée dans ce travail. Plusieurs approches sont présentées dans la littérature qui font usage de méthodes statistiques et de transformées telle que la transformée de Fourrier à fenêtre glissante et la transformée en paquets d'ondelettes. Un nouvel algorithme basée sur l'analyse en composantes indépendantes et la transformée en ondelettes continues est présenté. Une méthode connue de séparation de sources dans le domaine de la fréquence a été modifiée en remplaçant l'algorithme d'élimination de la corrélation croisée par un algorithme de séparation dont les performances sont indépendantes de la matrice de mélange. Les coefficients de la transformée en ondelettes continues des mélanges sont employés comme signaux d'entrée dans l'algorithme développé plutôt que les signaux eux mêmes. Les échelles de la transformée sont réparties suivant les schèmes suivants : linéaires, logarithmiques et loi mu. Une distribution uniforme des échelles de fréquence a aussi été considérée. Les mélanges employés pour l'évaluation de l'algorithme sont synthétiques. Les résultats expérimentaux sont présentés et évalués.
APA, Harvard, Vancouver, ISO, and other styles
6

Belley, Lee-Pierre. "Séparation de sources aveugle utilisant la transformée en ondelettes continues /." Thèse, Montréal : École de technologie supérieure, 2008. http://proquest.umi.com/pqdweb?did=1500090001&sid=14&Fmt=2&clientId=46962&RQT=309&VName=PQD.

Full text
Abstract:
Thèse (M. Ing.) -- École de technologie supérieure, Montréal, 2007.<br>"Mémoire présenté à l'École de technologie supérieure comme exigence partielle à l'obtention de la maîtrise en génie électrique." CaQMUQET Bibliogr. : f. [115]-119. Également disponible en version électronique. CaQMUQET
APA, Harvard, Vancouver, ISO, and other styles
7

Tria, Mohamed. "Imagerie Radar à Synthèse d'Ouverture (RSO) Par Analyse En Ondelettes Continues Multidimensionnelles." Phd thesis, Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00011181.

Full text
Abstract:
Le travail de thèse a porté sur "l'imagerie radar à synthèse d'ouverture par analyse en ondelettes continues multidimensionnelles". Ce travail de thèse a consisté à mettre en oeuvre des méthodes d'analyse temps-fréquence dans le domaine de l'imagerie SAR (Synthetic aperture Radar). Le principe de l'imagerie SAR consiste à illuminer une zone du sol avec le faisceau d'ondes éléctromagnétiques de l'antenne radar. Cette zone se compose de plusieurs points réflecteurs appartenant à une ou plusieurs cibles. Alors que le porteur se déplace sur sa trajectoire de vol, l'antenne émet périodiquement des impulsions qui parviennent à l'ensemble des cibles présentes dans la zone illuminée. Une partie non-négligeable de chaque impulsion est alors réfléchie par les cibles puis interceptée par le radar. L'ensemble des données collectées par le radar va permettre d'établir l'image de terrain en haute résolution via un algorithme de reconstruction d'images. Les méthodes classiques d'imagerie font l'hypothèse d'isotropie (les points imagés se comportent de la même manière selon l'angle sous lequel ils sont vus) et de blancheur (les points imagés ont le même comportement dans la bande fréquentielle émise) des réflecteurs imagés. Malheureusement, les hypothèses précédentes ne sont plus valables avec l'émergence de nouvelles capacités d'imagerie (large bande fréquentielle, grandes excursions angulaires,. . . ). L'objectif du travail de thèse a consisté à développer une méthode d'analyse temps-fréquence basée sur l'utilisation d'ondelettes continues permettant de mettre en lumière les phénomènes d'anisotropie et de coloration des points imagés. Ce type d'analyse se fonde sur le concept d'hyperimage qui permet d'associer à chaque pixel de l'image SAR, son comportement angulaire et fréquentiel. L'algorithme d'implantation de la transformée en ondelettes continues que nous avons proposé est basé sur la transformée de Fourier. Par conséquent, l'algorithme est à moindre coût en terme de temps de calcul en utilisant l'algorithme rapide de transformée de Fourier (FFT). .<br>The thesis work was about the " Synthetic Aperture Radar (SAR) imaging by using the multidimensional continuous wavelet analysis ". This work consisted in establishing time-frequency methods in the SAR domain. The principle of the SAR imaging consists in irradiating a ground zone with electromagnetic waves emitted by the radar antenna. This zone contains several reflectors belonging to one or several targets. While the airborne is moving on its flight path, the antenna emits periodically impulses which reach the whole targets located on the irradiated zone. A non-negligible part of each impulse is reflected by the target and received by the radar. The whole collected data will be used to form a high resolution image of the illuminated zone thanks to an algorithm of image reconstruction. The classical imaging methods assume that the reflectors are isotropic (they behaves the same way regardless the aspect under wich they are viewed) and white (they have the same properties within the emitted bandwidth). Unfortunately, new capacities in SAR imaging (large bandwidth, large angular excursions of analysis) makes these assumptions obsolete. The purpose of the thesis work consisted in developing a time-frequency method based on the use of continuous wavelets allowing to highlight the anisotropic and coloration effects of the irradiated points. This kind of analysis is based on the concept of hyperimage which allows to associate to each pixel an energetic response which is a function of the aspect and the frequency. The algorithm allowing to implant the continuous wavelet transform is based on the Fourier transform. Hence, this algorithm is not expensive in terms of time calculation by using the Fast Fourier Transform (FFT). .
APA, Harvard, Vancouver, ISO, and other styles
8

Philippe, Pierrick. "Codage audionumerique et transformation en ondelettes." Paris 11, 1995. http://www.theses.fr/1995PA112372.

Full text
Abstract:
Dans le but de reduire le debit d'informations des signaux audionumeriques, les algorithmes de codage a reduction de debit se sont generalises. Dans cette these sont concus differents algorithmes permettant une compression des signaux audionumeriques aux debits situes entre 64 et 96 kbit/s et par voie sonore. Apres une revue synthetique des algorithmes et solutions existantes, ainsi qu'une revue bibliographique des differentes techniques pouvant servir a la reduction de debit, trois realisations d'algorithmes de codage sont montrees. Une premiere approche consiste a ameliorer un systeme de codage deja normalise: le codeur iso/mpeg 1 couche 2, pour lequel une refonte des systemes d'allocation des ressources binaires et de quantification est effectuee. Une seconde approche propose d'appliquer la theorie des ondelettes au codage audionumerique. Apres avoir developpe un critere de choix des transformations, la definition de deux bancs de filtres a differents delais de reconstruction et debouchant sur la realisation de deux algorithmes de codage est effectuee. Finalement, apres des tests d'ecoutes formels sont compares les differentes approches. Ces tests mettent en evidence l'interet des ondelettes en codage audionumerique ainsi que les potentialites d'amelioration qu'offrent les techniques de quantification telles que la quantification vectorielle statistique. En outre on montre que les transformations en ondelettes peuvent avoir des performances au moins aussi bonnes que les approches traditionnelles pour le codage audionumerique
APA, Harvard, Vancouver, ISO, and other styles
9

LABRIKI, FOUAD. "Codage d'images naturelles apres transformation en ondelettes." Rennes, INSA, 1992. http://www.theses.fr/1992ISAR0014.

Full text
Abstract:
Les travaux de ce memoire concernent le codage d'images fixes ou en mouvement s'appuyant sur une transformation en ondelettes. L'objectif vise est la transmission du signal de television numerique avec un debit global se situant entre 10 et 15 mbit/s. L'application aux images fixes de la transformee en ondelettes avec un decoupage en deux niveaux, permet l'elaboration de deux schemas de codage: le premier, consiste a appliquer une dct 1616 aux sous-images transformees en ondelettes et a effectuer une classification des blocs dct selon trois attributs caracteristiques. Cette classification permet de quantifier les coefficients des blocs dct de facon optimale par recours a des matrices d'allocation de bits adaptees. Le deuxieme schema, consiste en une suppression dans les images transformees en ondelettes des blocs de faible energie suivant un decoupage en quadtree, les coefficients des blocs non annules etant seuilles puis quantifies. En sequences d'images, nous avons distingue les cas de la decomposition 2d et 3d. Le cas de la decomposition 2d conduit a deux types d'algorithmes de codage suivant le mode d'application de l'algorithme d'estimation et de compensation du mouvement dans les bandes frequentielles. Le premier type intitule intra-bande spatiale voit l'algorithme operer independamment dans chaque bande. Le second type s'applique en inter-bandes spatiales en traitant le mouvement dans la sous-bande passe bas uniquement et en etendant les estimations resultantes dans les autres sous-bandes du meme niveau. La decomposition 3d conduit a deux sous-sequences s#b et s#h sur lesquelles une application directe des approches intra-bande et inter-bande spatiales est effectuee. Une approche inter-bandes spatio-temporelles est egalement testee; elle consiste a effectuer une detection et une estimation du mouvement dans les sous-images passe-bas de la sous-sequence s#b uniquement. Leurs resultats sont utilises pour le codage non seulement de s#b mais egalement de s#h et ce, de facon inter-bandes spatiales. Les resultats obtenus montrent la superiorite des approches inter-bandes qui conduisent a de bonnes qualites de reconstruction avec des debits dans le cadre de la transmission de sequences monochromes, inferieurs a 1 bit/point
APA, Harvard, Vancouver, ISO, and other styles
10

Vu, Phuong Lan. "Altimétrie spatiale, réflectométrie GNSS et surcotes marines." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30076.

Full text
Abstract:
L'objectif de ce travail a été de développer une méthodologie de télédétection novatrice, s'appuyant sur des plateformes existantes, de suivi des principaux facteurs influençant la dynamique côtière. Lors de mon étude j'ai développé des suivis basés sur un outil classique: l'altimétrie satellitaire. Mon approche s'est appuié sur les nouvelles missions spatiales dont j'ai évalué l'apport sur la zone côtière qui est la plus critique qui est la plus critique du point de vue socio-économique. J'ai plus spécifiquement regardé la façade atlantique entre La Rochelle et Bayonne. Je me suis ensuite intéressée à une technique originale basée sur la réflexion des ondes GNSS (GNSS-R). Ces outils nous permettent de surveiller précisément les diverses ondes de marée et de détecter des phénomènes plus singuliers comme la tempête Xynthia (2010) qui a affectée le Sud de l'Europe. Ces outils démontrent qu'il est possible aussi de suivre la dynamique côtière liée aux variations de houle et son impact sur l'érosion côtière, et même les effets de la forte dépression atmosphérique associée à Xynthia et qui a eu un impact visible sur le niveau local de l'océan atlantique. Ma thèse repose sur deux approches complémentaires basées sur deux échelles d'analyse, l'une globale associée à l'altimétrie satellitaire l'autre plus locale, dédiée à la détection des évènements extrêmes et basée sur le réflectométrie. La première étude s'appuie sur différentes missions altimétriques et nous a permis de suivre les variations du niveau de la mer de la côte atlantique française au Sud du golfe de Gascogne durant la période de 1995-2015. Les données SARAL, dont l'empreinte au sol au de l'ordre de 6 km, montrent qu'il est maintenant possible de s'approcher de la bande côtière jusqu'à ~10km avec une grande précision (~20cm). La seconde application repose sur le GNSS-R que nous avons utilisé pour suivre la partie protégée de la baie de Saint Jean de Luz. Là encore les résultats sont exceptionnels puisqu'ils nous ont permis de suivre l'impact de la tempête Xynthia. J'ai ainsi mis en évidence qu'il était possible avec un seul instrument de suivre les effets des marées, et les effets des surcotes marines qui, associées à l'impact de la pression atmosphérique, donnent une bonne corrélation (R=0.8 entre la composante RC3 et les surcôtes, et R=0.72 avec la pression atmosphérique) durant la tempête. Enfin nous avons aussi regardé ce qui se passe lors de la transition eaux continentales/océaniques pour les deltas du Fleuve Rouge et du Mékong (Vietnam). Et mêmes si les séries temporelles sont assez courtes, les résultats sont plus qu'encourageant puisqu'ils nous ont permis de de suivre les épisodes de crues associées à deux tempêtes tropicales (Mirinae et Nida) et de mesurer le retard entre les chutes de pluies et la propagation de l'onde crue qui montre dans le cas présent un délai de de 48h pour Nida. Grâce au déploiement dans de nombreux pays de réseaux GNSS permanents, cette technique peut être appliquée lorsqu'une station GNSS permanente est située près du rivage. L'approche GNSS-R peut être alors utilisée pour le suivi des variations du niveau de la mer mais aussi l'impact d'évènements extrêmes. Pour cela nous avons utilisé 3 mois d'enregistrements (janv-mars 2010) de la station GNSS de Socoa, pour déterminer les composantes, court terme, de la marée dans les signaux GNSS-R et pour identifier la tempête Xynthia<br>The objective of this PhD thesis was to develop an innovative remote sensing methodology, based on existing platforms, to monitor the main factors influencing coastal dynamics. We propose monitoring based on a classic tool i.e. satellite altimetry but with a focus on new space missions (SARAL, Sentinel-3). Whose contributions will be evaluated, particularly in the coastal zone, which is the most critical from a socio-economic point of view? I have focused my attention on the French Atlantic coast between La Rochelle and Bayonne. We will also rely on an original technique based on the reflection of GNSS positioning satellites (technical known as GNSS-R). These tools will allow us to precisely monitor the various tidal waves, but they have also allowed us to detect more unusual phenomena such as the extreme event of 2010: the storm Xynthia that affected the coasts of southern Europe. These tools demonstrate that it is also possible will also be able to see to monitor the coastal dynamics related to swell variations and its impact on coastal erosion, and even the effects of the strong atmospheric depression associated with Xynthia, which has had a measurable impact on the local sea level of the Atlantic Ocean. My thesis is focused on two complementary approaches based on two scales of study: the first one is global and used satellite altimetry, the second one is more local and focused on the extreme event detection and it is based on the GNSS reflectometry. The first study, which I carried out, relies on different satellite altimetry missions (ERS-2, Jason- 1/2/3, ENVISAT, SARAL) which allowed us to follow the sea level variations (SSH) from the French Atlantic coast to the south of the Bay of Biscay during the 1995-2015 period. SARAL data, including a footprint of around 6 km, show that it is now possible to approach the coastal fringe up to ~ 10 km with a great precision (RMSE ~ 20 cm). The second application is based on the GNSS-R methodology that we used to track SSH in the inner part of the bay of Saint Jean de Luz - Socoa during the storm Xynthia. Here again the results are exceptional since they allowed us to follow the impact of the storm Xynthia on the local level of the ocean. I thus highlighted that it was possible with only one instrument to follow the effects of the tides, and even the effects of the marine surges which associated to the impact of the atmospheric pressure on the sea level give a good correlation (R = 0.77 between the RC3 component and the surge, and R = 0.73 with the atmospheric pressure) during storm. Finally we also looked at what is happening in the transition between continental and oceanic waters for the deltas of the Red River and Mekong in Vietnam. And, even if the time series are rather short or truncated (Red River) the results are more than encouraging since they allowed us to follow the flooding events associated with two tropical storms (Mirinae and Nida) and to measure the delay between the rain falls and the propagation of the flood wave which shows in this case a delay of 48 h for Nida. With the deployment of permanent GNSS networks in many countries, this technique can be applied when a permanent GNSS station is located near the shore. The GNSS-R approach can be used to monitor sea level variations but also the effect of extreme events. For that we used 3 months of recordings (January-March 2010) from the Socoa GNSS station to determine the tidal components in the GNSS-R signals and to identify the Xynthia storm
APA, Harvard, Vancouver, ISO, and other styles
11

Holschneider, Matthias. "L'Analyse d'objets fractals et leur transformation en ondelettes." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376143607.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Kastantin, Radwan. "Codage de la parole base sur une transformation en ondelettes." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0042.

Full text
Abstract:
Le but de cette these est de mettre en evidence l'interet de la transformation en ondelettes pour la compression de la parole et d'elaborer un codeur de parole a debit moyen base sur cette transformation. Cette these est composee de trois parties. Dans la premiere partie, nous presentons les proprietes importantes de cette transformation vis-a-vis du codage de la parole, notamment ses aspects temps-frequence permettant de tenir compte des proprietes psychoacoustiques du systeme de perception humaine. Dans la deuxieme partie, nous cherchons a determiner la transformation en ondelettes, optimale pour la compression de la parole. Les experiences ont montre que la transformation en ondelettes discretes orthogonales a support fini constitue une solution ideale pour notre probleme. Nous proposons l'utilisation de l'algorithme des paquets d'ondelettes pour realiser notre codeur de parole. Dans la troisieme partie de cette these, l'etude de plusieurs schemas de codage est presentee. Nous nous focalisons, en particulier, sur la quantification des coefficients d'ondelettes car celle-ci constitue le veritable noyau du codeur. Nous montrons que la quantification vectorielle est particulierement efficace: une tres haute qualite de la parole codee peut etre obtenue avec un debit d'environ 12 kbits/p (bande passante telephonique), alors qu'il faut un debit de 16 kbits/s pour obtenir la meme qualite si l'on utilise la quantification scalaire. Enfin, nous montrons egalement que l'integration du masquage frequentiel permet d'ameliorer sensiblement notre codeur. L'avantage essentiel de cette technique reside dans le fait qu'elle n'utilise pas un modele de production de la parole, ce qui permet la compression de tous les signaux audio. Cette etude peut etre appliquee sur d'autres bandes passantes, plus larges que la bande telephonique, qui permettent d'obtenir de meilleurs resultats
APA, Harvard, Vancouver, ISO, and other styles
13

Fachrudin, Imam. "Traitement du signal ECG - approche par la transformation en ondelettes." Rouen, 1995. http://www.theses.fr/1995ROUES040.

Full text
Abstract:
Les travaux présentés dans ce mémoire ont pour objectif d'évaluer l'efficacité de la transformation en ondelettes (TO) dans les opérations de traitement du signal ECG : l'analyse, la détection, le filtrage et la compression. L'analyse temps-fréquence par la TO permet de mettre en évidence les structures fréquentielles des composantes ECG : ses ondes, ses bruits et certains événements pathologiques. Les algorithmes de détection de complexes ECG sont élaborés à partir des propriétés du module et de la phase de la transformation. La relation de la TO avec l'analyse multirésolution et la découverte de l'algorithme rapide de la TO sont les bases du développement de la méthode de filtrage et du nouveau concept de compression de données. Les performances de chacune des méthodes sont comparables à celles des méthodes existantes, sinon meilleures
APA, Harvard, Vancouver, ISO, and other styles
14

Bensemra-Zegadi, Nacera. "Analyse spectrale locale d'images texturées par transformation en ondelettes : application à la quantification de textures osseuses." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0042.

Full text
Abstract:
La texture est une notion naturellement multi-échelles et qui est liée à un observateur humain. Sous sa forme classique La transformation en ondelettes (TO) fait partie des représentations mufti-échelles. Elle permet une observation hiérarchique de la texture du global vers le local, qui présente une similitude avec le système visuel humain et qui permet de caractériser les interactions spatiales intra-échelle de la texture. Nous nous intéressons aussi à une deuxième interprétation de la TO continue en tant qu'outil d'analyse espace-fréquences spatiales. Les transformations espace-fréquences spatiales permettent d'associer un spectre fréquentiel local à chaque point de l'image. Ainsi le spectrogramme, la transformation de Gabor, la transformation de Wigner-Ville et la version quadratique de la TO peuvent-ils être définis pour les images, dans une classe de représentations énergétiques. Les relations entre ces différentes transformations peuvent s'exprimer à l'aide de la transformation de Wigner-Ville qui joue un rôle théorique central. Une technique de calcul basée sur la transformation de Mellin-Fourier est proposée. La représentation spectrale de la TO ainsi obtenue est bien adaptée à l'analyse de texture. Elle permet l'extraction de nombreux paramètres fréquentiels à partir des spectres locaux. Des paramètres, caractérisant l'anisotropie et l'orientation, sont en particulier proposés et illustrés sur des textures naturelles. La TO continue, est aussi bien adaptée à l'estimation d'un paramètre inter-échelles qui est La dimension fractale. Celle-ci permet ainsi de caractériser la rugosité de la texture. L'approche texturale constitue une méthode non invasive, particulièrement intéressante pour la quantification des altérations structurales dues au vieillissement de la vertèbre. Nous avons utilisé des méthodes d'analyse locale de la texture par la TO ainsi que d'autres globales sur des d'images radiologiques de la vertèbre (obtenues par tomographie haute résolution et par historadiographie sagittale). Ces images de coupes, par leur situation particulière vis à vis de 1 'axe principal du rachis lombaire, permettent d'approcher l'information 3D contenue dans la texture osseuse<br>Texture is naturally a multi-scale notion which is linked to a human observant. In its classical form, wavelet transform (WT) is a multi-scale representation. It permits a hierarchical texture observation, in a global and a local manner, similar at the human vision and which characterise spatial interactions into-scale. We focus also on a second interpretation of WT as a frequency analysis tool. Space-frequency transformations associate a local frequential spectrum to each point of the image. Thus, spectrogram, Gabor transform, Wigner-Ville transform and the quadratic form of WT can be defined for images in a class of energetic representations. Relationships between these transformations can be expressed by means of the Wigner-Ville transform, which plays a central theoretical role. A Mellin-Fourier transform based technique is proposed. The obtained spectral representation is well adapted to texture analysis. It allows extracting a large number of frequential parameters from local spectra. Moreover, parameters characterising orientation and anisotropy are proposed and illustrated with natural textures. WT is also well suited to estimate -the fractal dimension. This last parameter permits to characterise the roughness texture. The textural approach is a non invasive method which is particularly interesting to quantify structural variations due to vertebra aging. We have used local analysis methods and some global ones on radiological images of vertebra (obtained in high resolution tomography and in sagital micro-radiography), which contains different directional informations
APA, Harvard, Vancouver, ISO, and other styles
15

Deguillemont, Denis. "Contribution de l'application de la transformation en ondelettes pour détecter et reconnaître des défauts sur des objets de nature complexe en production industrielle." Lille 1, 1998. http://www.theses.fr/1998LIL10131.

Full text
Abstract:
Dans certains cas, les methodes classiquement utilisees par les systemes industriels se montrent insuffisantes et le controle par des operateurs humains s'avere donc encore necessaire. C'est, en effet, le cas des produits industriels en metal, plastique, verre ou la reconnaissance de defauts semble etre tres proche de l'analyse de texture et pour lesquels les methodes classiques les plus performantes sont, dans la plupart des cas, difficilement utilisables dans un contexte industriel. Pour apprehender ce probleme particulier, dans son ensemble, nous nous proposons donc d'effectuer d'abord une rapide presentation, au chapitre 1, de l'etat de l'art en vision industrielle afin d'etre conscient du savoir-faire dans ce domaine, avant d'aborder, dans le detail, les methodes d'analyse d'images et de textures les plus classiquement utilisees. Nous nous interesserons ensuite, au chapitre 2, aux methodes de transformations orthogonales dont l'interet reside dans la decorrelation des donnees et nous montrerons que l'une des transformations les plus interessantes est la transformation en ondelettes puisqu'elle permet de realiser une analyse multiresolution que l'on peut considerer comme proche de celle du systeme visuel humain. Nous presenterons enfin dans le chapitre 3, notre methode basee sur l'analyse multiresolution qui, a l'aide de la transformation en ondelettes pour decorreler les donnees de l'image originale permet de faire apparaitre, a un niveau de resolution que l'on determinera, les defauts recherches. Il ne restera alors qu'a appliquer une methode de reconnaissance de formes utilisant les donnees multiresolutions issues de cette analyse pour reconnaitre et classifier les defauts.
APA, Harvard, Vancouver, ISO, and other styles
16

Saracco, Ginette. "Propagation acoustique en régime harmonique et transitoire à travers un milieu inhomogène : méthodes asymptotiques et transformation en ondelettes." Aix-Marseille 2, 1989. https://tel.archives-ouvertes.fr/tel-00178676.

Full text
Abstract:
L'objet de cette thèse se rapporte au problème de la transmission d'ondes sphériques à travers une interface plane séparant deux milieux fluides. Sous certaines conditions, ce modèle physique simple présente un intérêt particulier dû à l'existence d'une onde de surface, appelée onde latérale. Nous avons traité d'abord le cas d'une source ponctuelle monochromatique à l'aide de méthodes asymptotiques, de façon à vérifier l'existence physique de cette contribution. Dans le cas du dioptre plan air-eau, nous avons pu séparer expérimentalement, en accord avec l'étude théorique et numérique, la contribution latérale de la contribution géométrique, et mettre en évidence les propriétés de celles-ci. La contribution latérale présentant un caractère dispersif, montre l'intérêt dans le cas du régime transitoire, d'utiliser une méthode de type temps-échelle. La transformée en ondelettes (t. O. ) permet alors de calculer de façon exacte les contributions associées au propagateur et d'en étudier leur comportement. L'originalité des résultats obtenus est la mise en évidence à certaines échelles, de phénomènes transitoires (échos). Une expérimentation combinée à une analyse en ondelettes a confirmé ces observations. Par analogie à une formule inverse de la t. O. , nous avons pu élaborer une formule de reconstruction de la dépendance temporelle du signal-source (problème inverse). Enfin, l'application de la t. O. à un problème de rétrodiffusion acoustique par des coques sphériques élastiques a montré qu'il est possible d'accéder à certaines caractéristiques physiques de la cible.
APA, Harvard, Vancouver, ISO, and other styles
17

Kestener, Pierre. "Analyse multifractale 2D et 3D à l'aide de la transformation en ondelettes : application en mammographie et en turbulence développée." Bordeaux 1, 2003. http://www.theses.fr/2003BOR12729.

Full text
Abstract:
Depuis une dizaine d'années, la transformée en ondelettes a été reconnue comme un outil privilégié d'analyse des objets fractals, en permettant de définir un formalisme multifractal généralisé des mesures aux fonctions. Dans une première partie, nous utilisons la méthode MMTO (Maxima du Module de la Transformée en Ondelettes) 2D, outil d'analyse multifractale en traitement d'images pour étudier des mammographies. On démontre les potentialités de la méthode pour le problème de la segmentation de texture rugueuse et la caractérisation géométrique d'amas de microcalcifications, signes précoces d'apparition du cancer du sein. Dans une deuxième partie méthodologique, nous généralisons la méthode MMTO pour l'analyse multifractale de données 3D scalaires et vectorielles, en détaillant la mise en oeuvre numérique et un introduisant la transformée en ondelettes tensorielle. On démontre en particulier que l'utilisation d'une technique de filtres récursifs permet un gain de 25 à 60 % en temps de calcul suivant l'ondelette analysatrice choisiepar rapport à un filtrage par FFT. La méthode MMTO 3D est appliquée sur des simulations numériques directes SND) des équations de Navier-Stokes en régime turbulent. On montre que les champs 3D de dissipation et d'enstrophie pour des nombres de Reynolds modérés sont bien modélisés par des processus multiplicatifs de cascades non-conservatifs comme en témoigne la mesure de l'exposant d'extinction kappa qui diffère significativement de zéro. On observe en outre que celui-ci diminue lorsqu'on augmente le nombre de Reynolds. Enfin, on présente les premiers résultats d'une analyse multifractale pleinement vectorielle des champs de vitesse et de vorticité des m^emes simulations numériques en montrant que la valeur du paramètre d'intermittence C_2, mesuré par la méthode MMTO 3D tensorielle, est significativement plus grand que celle obtenue en étudiant les incréments de vitesse longitudinaux 1D<br>Since the end 80's, wavelet transform has been recognized as a privileged tool to study fractal objects, providing a unified multifractal formalism for both functions and measures. In the first part, we use the 2D WTMM (Wavelet Transform Modulus Maxima) methodology to study mammography. We illustrate the usefulness of the methodology in the study of texture segmentation of rough surfaces and in the geometric characterization of clusters of microcalcifications, which are early signs of breast cancer. In a second methodologic part, we generalize the WTMM method to provide a multifractal description of both 3D scalar and vectorial data fields, introducing the tensorial wavelet transform. We show that a recursive filter technique allows to save between 25 % and 60 % of computing time, as compared with FFT based filtering techniques. Then we apply the 3D WTMM method to Direct Numerical Simulations (DNS)of the Navier-Stokes equations in turbulent regime with moderate Reynolds numbers. By mesuring a significantly non-zero cancellation exponent, we bring evidence that multifractal properties of both 3D dissipation and enstrophy fields are well accounted for non-conservative multiplicative cascading processes. Moreover, we observe that the cancellation exponent decreases as the Reynolds number increases. Finally, we present the first results of a fully vectorial multifractal analysis of both velocity and vorticity fields on the same numerical simulations showing that the value of the intermittence parameter C_2, as measured by the tensorial 3D WTMM method, is significantly larger than the one obtained by studying 1D longitudinal velocity increments
APA, Harvard, Vancouver, ISO, and other styles
18

kestener, pierre. "Analyse multifractale 2D et 3D à l'aide de la transformation en ondelettes : application en mammographie et en turbulence développée." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2003. http://tel.archives-ouvertes.fr/tel-00004013.

Full text
Abstract:
Depuis une dizaine d'années, la transformée en ondelettes a été reconnue comme un outil privilégié d'analyse des objets fractals, en permettant de définir un formalisme multifractal généralisé des mesures aux fonctions. Dans une première partie, nous utilisons la méthode MMTO (Maxima du Module de la Transformée en Ondelettes) 2D, outil d'analyse multifractale en traitement d'images pour étudier des mammographies. On démontre les potentialités de la méthode pour le problème de la segmentation de texture rugueuse et la caractérisation géométrique d'amas de microcalcifications, signes précoces d'apparition du cancer du sein. Dans une deuxième partie méthodologique, nous généralisons la méthode MMTO pour l'analyse multifractale de données 3D scalaires et vectorielles, en détaillant la mise en oeuvre numérique et un introduisant la transformée en ondelettes tensorielle. On démontre en particulier que l'utilisation d'une technique de filtres récursifs permet un gain de 25 a 60 \% en temps de calcul suivant l'ondelette analysatrice choisie par rapport à un filtrage par FFT. La méthode MMTO 3D est appliquée sur des simulations numériques directes (SND) des équations de Navier-Stokes en régime turbulent. On montre que les champs 3D de dissipation et d'enstrophie pour des nombres de Reynolds modérés sont bien modélisés par des processus multiplicatifs de cascades non-conservatifs comme en témoigne la mesure de l'exposant d'extinction $\kappa$ qui diffère significativement de zéro. On observe en outre que celui-ci diminue lorsqu'on augmente le nombre de Reynolds. Enfin, on présente les premiers résultats d'une analyse multifractale pleinement vectorielle des champs de vitesse et de vorticité des mêmes simulations numériques en montrant que la valeur du paramètre d'intermittence $C_2$, mesuré par la méthode MMTO 3D tensorielle, est significativement plus grande que celle obtenue en étudiant les incréments de vitesse longitudinaux 1D.
APA, Harvard, Vancouver, ISO, and other styles
19

Bacry, Emmanuel. "Utilisation de la transformation en ondelettes pour l'analyse de signaux fractals et pour la resolution d'equations aux derivees partielles." Paris 7, 1992. http://www.theses.fr/1992PA077300.

Full text
Abstract:
Ce memoire se compose de deux parties independantes. Dans la premiere partie, nous nous interessons a l'etude d'objets fractals a l'aide de la transformation en ondelettes continue. Nous nous appliquons notamment a etendre aux signaux le formalisme multifractal des mesures singulieres. Le nouveau formalisme obtenu permet d'etudier l'importance relative des differents types de singularites intervenant dans un signal singulier. De nombreuses applications numeriques portant aussi bien sur des signaux generes par ordinateur que sur des signaux experimentaux provenant d'experiences de turbulence pleinement developpee viennent illustrer nos propos. Dans la seconde partie de ce memoire, nous presentons un schema numerique adaptatif en espace et en temps pour la resolution des equations aux derivees partielles. Ce schema est base sur l'utilisation de bases orthogonales d'ondelettes. La structure de multiresolution engendree par de telles bases permet, de facon naturelle, d'adapter la finesse de la grille spatiale d'un schema numerique a la regularite locale de la solution et d'obtenir ainsi un schema adaptatif en espace. Il s'agit pour nous ici d'adapter non seulement la finesse de la grille spatiale mais aussi celle de la grille temporelle afin de concentrer l'effort numerique dans les regions de l'espace ou de fortes singularites apparaissent. Des tests numeriques concernant la stabilite, la complexite et la precision sont effectues sur l'equation de burgers
APA, Harvard, Vancouver, ISO, and other styles
20

Bouatou, Mohamed. "Estimation non linéaire par ondelettes : régression et survie." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004921.

Full text
Abstract:
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
APA, Harvard, Vancouver, ISO, and other styles
21

Rossi, Aurélien. "Analyse spatio-temporelle de la variabilité hydrologique du bassin versant du Mississippi : rôles des fluctuations climatiques et déduction de l'impact des modifications du milieu physique." Rouen, 2010. http://www.theses.fr/2010ROUES013.

Full text
Abstract:
Les grands bassins versants d'échelle continentale, comme le Mississippi, intègrent la réponse hydrologique aux changements climatiques et environnementaux (fluctuations du climat, précipitations, débits, flux sédimentaires) à de larges échelles spatiales et temporelles, mais également les modifications du milieu physique d'origine anthropique (changements d’occupation des sols, aménagements. . . ), ce qui rend parfois difficile l'identification des liens entre la variabilité hydrologique et la variabilité climatique. Les principaux objectifs de ce travail sont de déterminer et de quantifier les relations entre la variabilité hydrologique et les fluctuations du climat (précipitations régionalisées, indices climatiques) à l'échelle du bassin versant du Mississippi et de ses principaux sous-bassins ; via l'utilisation de méthodes d'analyses spectrales adaptées à l'étude des processus instationnaires (analyse en ondelettes continues, analyse de la cohérence par ondelettes). La variabilité hydrologique du Mississippi et de ses principaux affluents est structurée par plusieurs modes de variabilité, s'exprimant de l'échelle annuelle aux échelles inter-annuelle (2-4 ans, 3-6 ans, 5-8 ans), décennale (8-16 ans, 12-16 ans) et à plus long terme (22 ans, 22-26 ans). Ces modes de variabilité sont fortement similaires à ceux observés dans les précipitations (avec une cohérence moyenne de 77% à 89% selon les sous-bassins), et opèrent aux mêmes échelles de temps que la variabilité des principales fluctuations du climat affectant la région (ENSO, PDO, AMO, NAO, NAM et PNA), préalablement identifiés et synthétisés par une méthodologie similaire. La variabilité des débits du bassin versant du Mississippi se trouve influencée par un ensemble de téléconnections (cohérence de 63% à 66% en moyenne avec l'ensemble des indices climatiques), opérant toutefois à différentes échelles spatiales et temporelles, et qui évoluent au cours du temps (relations à divers degrés suivant les différentes échelles de temps, le mode de variabilité du climat mis en jeu et le sous-bassin versant considéré). De plus, la variabilité hydrologique du Mississippi et de ses principaux affluents s'inscrit plus largement dans le cadre d'une rupture majeure du système climatique et des systèmes hydrologiques à l'échelle globale observée vers 1970, qui se traduit notamment par une augmentation et une plus forte variabilité des débits, ainsi que des changements de la composition spectrale des paramètres hydrologiques et climatiques. En ce sens, la construction d'un indice "hydro-climatique unifié" à été proposée en reprenant l'ensemble des caractéristiques globales du système climatique et celles plus spécifiques à l'échelle régionale (échelle des sous bassins versants). Enfin, même si la majorité des paramètres hydrologiques se trouve apparemment très fortement liée par les paramètres climatiques, d'autres facteurs, comme les modifications du milieu physique (occupation des sols, aménagements. . . ), peuvent avoir une influence non-négligeable sur l’évolution de certains paramètres hydrologiques (hauts et bas débits), mais qui serait beaucoup plus localisée dans le temps et l'espace (i. E. , elle ne serait pas associée à l'existence d'oscillations dans l'hydrologie). A l'exception des flux hydrosédimentaires, marqués par de profonds changements qui ont pu être reliés aux aménagements du bassin versant et quantifiés par une méthodologie de modélisation spectrale (diminution des flux de sédiments en suspension exportés à l'exutoire d’environ 2,25. 108 t. An-1 sur la période 1950-1975), ces influences apparaissent spatialement localisées, et restent difficiles à caractériser. Outre leurs faibles contributions, ceci provient également du fait que ces modifications du milieu physique agissent simultanément avec d'autres facteurs pouvant modifier la réponse hydrologique, comme les changements observés dans le climat, qui reste le facteur principal des changements observés<br>Great River watersheds, as the Mississippi River in North America, integrate climate and environmental changes (climate fluctuations, precipitations, streamflow, sediment loads) at near-continent scale, as well as anthropogenic changes in physical environment (land uses, river management. . . ) in their hydrologic response, which makes sometimes difficult the identification of linkages between hydrological and climate variability. The main objectives of this work is to determine and quantify the relationships between hydrological variability and climate fluctuations (regionalized precipitations, climate indices) of the Mississippi River and its main tributaries, using spectral approaches adapted to (the study of non-stationary processes (continuous wavelet transform, wavelet coherence). Hydrological variability of the Mississippi River and its main tributaries is structured by several scales of variability, from annual to inter-annual (2-4y, 3-6y, 5-8y), decadal (8-16y, 12-16y) and multi-decadal scales (22y, 22-26y). These modes of streamflow variability are very similar to those observed in regionalized precipitations (mean coherency is estimated from 77% to 89% according to the sub-watershed), and operates at same time-scales variability of the main climate fluctuations affecting this region (ENSO, PDO, AMO, NAO, NAM et PNA), preliminary identified and synthesized using an similar methodology. Streamflow variability of the Mississippi River watershed appears influenced by several teleconnections (mean coherency of 63% to 66% with all climate indices), which operate at different spatial and temporal scales and change across time. Furthermore and not surprisingly, the hydrological variability of the Mississippi River and its main tributaries appears to be closely linked to a major shift in the climate system – as well as many other hydrosystems around the world – observed at global scale around 1970. This change would result in an increase in both streamflow mean and variance, as highlighted by changes in the spectral content of climate and hydrological parameters. In this way, a so-called "hydro-climatic" index was proposed in order to resume all those characteristics of the climate system that would imprint the typical scales of variability detected in the hydrological processes analyzed according to each sub-watershed. Finally, even if the majority of hydrological parameters appears strongly affected by climate parameters, others factors such as changes in physical environment (land use, river management. . . ) could also significantly influence hydrological parameters (e. G. Low and high streamflow). We could detect such human-induced changes in the variability of suspended sediment loads and show that it involved a decrease in suspended sediment loads up to 2,25. 108 metric t. Y-1 between 1950 and 1975 using a spectral modelling approach. However, the influence of these physical environmental changes in hydrology would be associated to trends or to very localized changes in space and time, rather than associated to the existence of oscillations in hydrological parameters as we could detect them. We then conclude that, despite the potential strong influence of environmental changes, climate fluctuations remain the main factor involved in the observed hydrological changes
APA, Harvard, Vancouver, ISO, and other styles
22

Petrykiewicz, Izabela. "Propriétés analytiques et diophantiennes de certaines séries de Fourier arithmétiques." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM031/document.

Full text
Abstract:
Nous considérons certaines séries de Fourier liées à la théorie des formes modulaires. Nous étudions leurs propriétés analytiques : la dérivabilité, le module de continuité et l'exposant de Hölder. Nous utilisons deux méthodes différentes. La première revient à trouver et itérer une équation fonctionnelle de la fonction étudiée (méthode d'Itatsu) et la deuxième provient de l'analyse en ondelettes (méthode de Jaffard). L'étape essentielle de chacune dépend de la modularité sous-jacente. Nous trouvons que les propriétés analytiques de ces séries aux points irrationnels sont liées aux propriétés diophantiennes de ces points. Ce travail a été motivé par l'étude de la fonction de Riemann<br>We consider certain Fourier series which arise from modular or automorphicforms. We study their analytic properties: differentiability, modulus of continuity and theH¨older regularity exponent. We use two different methods. One is based on finding anditerating a functional equation for the function studied (Itatsu’s method), the second onecomes from wavelet analysis (Jaffard’s method). The crucial steps in both of them arebased on the underlined modularity. We find that the analytic properties of these seriesat an irrational x are related to the fine diophantine properties of x, in a very precise way.The work was motivated by the study of the Riemann series
APA, Harvard, Vancouver, ISO, and other styles
23

Zamrane, Zineb. "Recherche d’indices de variabilité climatique dans des séries hydroclmatiques au Maroc : identification, positionnement temporel, tendances et liens avec les fluctuations climatiques : cas des grands bassins de la Moulouya, du Sebou et du Tensift." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT181/document.

Full text
Abstract:
Ce travail consiste à caractériser la variabilité temporelle et spatiale des séries chronologiques de paramètres hydroclimatiques (pluies, débits) au niveau de trois grand bassins au Maroc ; (bassins de la Moulouya, du Sebou et du Tensift) et à chercher les liens entre cette variabilité hydrologique et les fluctuations climatiques matérialisées par différents indices climatiques, NAO, SOI, WMOI. L’approche d’étude est basée le traitement statistique des séries temporelles, liée aux dimensions temps et espace.Les grands bassins versants d'échelle continentale comme le Tensift, le Sebou et la Moulouya en climat méditerranéen sous influence océanique, intègrent sur des grandes surfaces la réponse hydrologique aux changements climatiques et environnementaux (fluctuations du climat, précipitations, débits) à de larges échelles spatiales et temporelles, mais également les modifications du milieu physique d’origine anthropique (changements d’occupation des sols, aménagements…), ce qui rend parfois difficile l’identification des liens entre la variabilité hydrologique et la variabilité climatique. Les principaux objectifs de ce travail sont de déterminer et de quantifier les relations entre la variabilité hydroclimatique et les fluctuations du climat à l’échelle de chaque bassin étudié et de ses principaux sous-bassins, via l'utilisation de méthodes d’analyses spectrales adaptées à l’étude des processus non stationnaires (analyse en ondelettes continues, analyse de la cohérence par ondelettes). Plusieurs modes de variabilités sont identifiés à partir de l’analyse par station (pluies et débits), du cycle annuel au mode 16-22 ans, cette analyse sera complétée par une analyse par maille, dont les données sont issues d’un fichier (SIEREM) couvrant la période 1940-1999, où on identifie des fréquences de 1an au 8-16 ans, distinguées sur des périodes différentes au niveau de chaque bassin, permettant ainsi une décomposition de la variabilité spatiale des signaux mis en évidence. Trois principales discontinuités sont identifiées en 1970, 1980 et 2000. La contribution des indices climatiques est assez importante elle est entre 55% et 80%<br>This work is to characterize the temporal and spatial variability of hydroclimatic time series (rainfall, flow) at three large basins in Morocco; (basins of the Sebou and Moulouya Tensift) and look links between the hydrologic variability and climate fluctuation materialized by various climate indices, NAO, SOI, WMOI. The approach to study is based on statistical analysis of time series, related to time and space dimensions.The great watershed of continental scale as Tensift, Sebou and Moulouya in Mediterranean climate under oceanic influence, integrate over large areas the hydrological response to climate and environmental changes (climate fluctuations, precipitation, flows) not only to large spatial and temporal scales, but also to changes in the physical environment anthropogenic (land use changes, developments ...), which sometimes makes difficult to identify the links between hydrological variability and climate variability. The main objective of this work is to determine and quantify the relationships between hydrological variability and climate fluctuations (regionalised precipitation, climate change indexes) across each studied basin and its main sub-basins, via using spectral analysis methods adapted to the study of non-stationary processes (continuous wavelet analysis, coherence analysis wavelet). Many modes of variability are identified from the station analysis (rainfall and flow rates), the annual cycle to 16-22 years, this analysis will be complemented by a grid analysis, the data come from a (SIEREM) file covering the period from 1940 to 1999, which will allow a better understanding of the spatial variability of signals set highlighted. Which is identified frequencies the 1 year 8-16 years, distinguished different time periods at each basin, three main discontinuities identified in 1970, 1980 and 2000. The contribution of climatic indices is important enough it is between 55% and 80%
APA, Harvard, Vancouver, ISO, and other styles
24

Bouirden, Lahcen. "Transformations continues et discontinues dans les alliages de plomb microalliés au calcium et au calcium étain pour batteries d'accumulateurs : influence de la vitesse de refroidissement : rôle des impuretés argent, aluminium et bismuth." Nancy 1, 1990. http://www.theses.fr/1990NAN10205.

Full text
Abstract:
Les différents processus de vieillissement des alliages PBCA et PBCASN sont observés par des techniques complémentaires telles que la microcalorimétrie anisotherme, la microscopie optique et électronique, la mesure et l'évolution de la dureté en fonction du temps et de la température. Trois états sont étudiés : produit brut de coulée, produit réhomogénéisé et trempé à l'eau, produit réhomogénéisé et refroidi à l'air. Dans les alliages binaires PBCA, nous trouvons trois transformations discontinues successives dans le temps : une première transformation discontinue à front régulier qui est complète et dont la vitesse est constante. Une seconde transformation discontinue complète ou incomplète dont le front est irrégulier et provoque l'aspect puzzle. Ces deux transformations se font sans précipitation observable. Une troisième transformation discontinue, toujours incomplète, provoque la précipitation discontinue lamellaire de PB#3CA au voisinage des joints de grains. Le rôle des impuretés majeures du plomb secondaire est complexe : AG réduit la vitesse des réactions discontinues, BI l'accélère. AL ajoute comme anti-oxydant, affine la taille des grains et accélère ainsi le vieillissement. Les alliages (PB, CA, SN) sont caractérisés par le rapport atomique R=SN/CA. Pour les faibles valeurs de (R=0,7) les processus de vieillissement sont similaires à ceux des alliages PB, CA. Pour les fortes valeurs de R (R3) une précipitation continue généralisée de CASN#3 se manifeste après une période d'incubation. Pour les valeurs de R intermédiaires, les deux processus apparaissent séparément dans le temps. AG accroît la vitesse de germination et réduit le temps d'incubation, BI et AL aussi, mais moins nettement. Les lois cinétiques des différentes transformations sont établies et les énergies d'activation de la première et de la troisième transformation discontinue
APA, Harvard, Vancouver, ISO, and other styles
25

Montes, Jean-Luc. "Étude expérimentale des fluctuations de vitesse de basse fréquence dans une cuve agitée axialement." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT117H.

Full text
Abstract:
Une experimentation a ete conduite pour decrire l'organisation des structures de grandes echelles temporelles et spatiales du melange non prises en compte dans les modeles numeriques actuels. L'ecoulement genere par une turbine a 6 pales inclinees a 45 dans une cuve agitee munie de 4 chicanes est ici considere. Le milieu est newtonien et les fluides utilises sont l'eau et une solution de glycerine. Le regime est transitionnel ou turbulent. L'analyse est faite en combinant une approche qualitative basee sur la visualisation et une approche quantitative s'appuyant sur l'analyse de signaux issus de la velocimetrie laser a effet doppler. Une base de donnees etablie par l'enregistrement de deux composantes de la vitesse est constituee pour plusieurs nombre de reynolds. Les visualisations montrent que ces structures se developpent entre la turbine et la surface libre et modifient l'ecoulement. Nees d'une violente activite de l'ecoulement, elles ne rentrent pas dans la description du champ moyen. L'analyse spectrale revele un phenomene de basse frequence, 90 fois plus faible que la frequence de passage des pales et couple lineairement a la vitesse de rotation. Cette basse frequence, presente dans une region proche de la turbine, correspond a des oscillations de la boucle principale caracterisees par des variations de l'angle de refoulement de la turbine. L'action de la turbine sur l'ecoulement est etroitement liee au mecanisme de formation des structures. Une representation non stationnaire, a travers une transformee en ondelettes, montre un phenomene pseudo-periodique present sur plus de 16% du temps total dans l'eau et 25% dans la solution de glycerine, pour une meme vitesse de rotation. La frequence moyenne d'apparition du phenomene depend de la viscosite. Cela se repercute sur le nombre de reynolds critique d'apparition de la basse frequence. Il est de 500 pour une solution de glycerine a 85% et de quelques milliers dans l'eau. Nous avons ensuite realise une decomposition orthogonale d'un signal temporel apres avoir reconstruit la matrice des correlations par la methode du delai temporel. Le phenomene basse frequence se caracterise par deux modes propres particuliers et sa contribution energetique peut atteindre 16% de l'energie cinetique totale dans l'eau et pres de 40% dans la solution de glycerine.
APA, Harvard, Vancouver, ISO, and other styles
26

Elias, Rana, and Rana Elias. "Pour l'évaluation des modifications des caractéristiques d'un système dynamique." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00964327.

Full text
Abstract:
L'évaluation des modifications des caractéristiques d'un système dynamique non-stationnaire est étudiée suivant les modifications des paramètres modaux. Pour cela, nous étudions en premier l'obtention de ces paramètres, à l'aide des méthodes d'identification à partir des réponses vibratoires mesurées. Trois méthodes d'identification sont étudiées: la méthode de Décomposition Orthogonale Propre (POD), la méthode de Décomposition en Valeurs Singulières (SVD) et la méthode de Décomposition Orthogonale Régularisée (SOD). Ensuite, trois étapes sont considérées pour suivre les changements de masse des systèmes non-stationnaires à partir des variations des paramètres modaux: la localisation de l'instant du changement (étape 1), la détection de la position du changement (étape 2) et la quantification de la valeur du changement (étape 3). Pour l'étape 1, la transformée en ondelettes (TO) qui est une analyse temps-fréquence est appliquée. Ensuite, trois méthodes de détection de la position du changement de la masse sont développées dans l'étape 2. Enfin, la variation relative des fréquences propres est utilisée pour la quantification de la variation relative de la masse dans l'étape 3. Toutes ces méthodes ont été testées numériquement. De plus une maquette simplifiée de bâtiment a été instrumentée sous excitations de choc. Ces essais ont permis de valider les méthodes développées dans cette thèse
APA, Harvard, Vancouver, ISO, and other styles
27

Ibraheem, Mohammed Shaaban. "Logarithmic Discrete Wavelet Transform For High Quality Medical Image Compression." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066067/document.

Full text
Abstract:
De nos jours, la compression de l'image médicale est un processus essentiel dans les systèmes de cybersanté. Compresser des images médicales de haute qualité est une exigence vitale pour éviter de mal diagnostiquer les examens médicaux par les radiologues. WAAVES est un algorithme de compression d'images médicales prometteur basé sur la transformée en ondelettes discrètes (DWT) qui permet d'obtenir une performance de compression élevée par rapport à l'état de la technique. Les principaux objectifs de ce travail sont d'améliorer la qualité d'image lors de la compression à l'aide de WAAVES et de fournir une architecture DWT haute vitesse pour la compression d'image sur des systèmes embarqués. En ce qui concerne l'amélioration de la qualité, les systèmes de nombres logarithmiques (LNS) ont été explorés pour être utilisés comme une alternative à l'arithmétique linéaire dans les calculs de DWT. Une nouvelle bibliothèque LNS a été développée et validée pour réaliser le DWT logarithmique. En outre, une nouvelle méthode de quantification appelée (LNS-Q) basée sur l'arithmétique logarithmique a été proposée. Un nouveau schéma de compression (LNS-WAAVES) basé sur l'intégration de la méthode Hybrid-DWT et de la méthode LNS-Q avec WAAVES a été développé. Hybrid-DWT combine les avantages des domaines logarithmique et linéaire conduisant à l'amélioration de la qualité d'image et du taux de compression. Les résultats montrent que LNS-WAAVES est capable d'obtenir une amélioration de la qualité d'un pourcentage de 8% et de 34% par rapport aux WAAVES en fonction des paramètres de configuration de compression et des modalités d'image. Pour la compression sur les systèmes embarqués, le défi majeur consistait à concevoir une architecture 2D DWT qui permet d'obtenir un débit de 100 trames full HD. Une nouvelle architecture unifiée de calcul 2D DWT a été proposée. Cette nouvelle architecture effectue à la fois des transformations horizontale et verticale simultanément et élimine le problème des accès de pixel d'image en colonne à partir de la RAM DDR hors-puce. Tous ces facteurs ont conduit à une réduction de la largeur de bande DDR RAM requise de plus de 2X. Le concept proposé utilise des tampons de ligne à 4 ports conduisant à quatre opérations en parallèle pipeline: la DWT verticale, la transformée DWT horizontale et les opérations de lecture / écriture vers la mémoire externe. L'architecture proposée a seulement 1/8 de cycles par pixel (CPP) lui permettant de traiter plus de 100fps Full HD et est considérée comme une solution prometteuse pour le futur traitement vidéo 4K et 8K. Enfin, l'architecture développée est hautement évolutive, surperforme l'état de l'art des travaux connexes existants, et est actuellement déployé dans un prototype médical EEG vidéo<br>Nowadays, medical image compression is an essential process in eHealth systems. Compressing medical images in high quality is a vital demand to avoid misdiagnosing medical exams by radiologists. WAAVES is a promising medical images compression algorithm based on the discrete wavelet transform (DWT) that achieves a high compression performance compared to the state of the art. The main aims of this work are to enhance image quality when compressing using WAAVES and to provide a high-speed DWT architecture for image compression on embedded systems. Regarding the quality improvement, the logarithmic number systems (LNS) was explored to be used as an alternative to the linear arithmetic in DWT computations. A new LNS library was developed and validated to realize the logarithmic DWT. In addition, a new quantization method called (LNS-Q) based on logarithmic arithmetic was proposed. A novel compression scheme (LNS-WAAVES) based on integrating the Hybrid-DWT and the LNS-Q method with WAAVES was developed. Hybrid-DWT combines the advantages of both the logarithmic and the linear domains leading to enhancement of the image quality and the compression ratio. The results showed that LNS-WAAVES is able to achieve an improvement in the quality by a percentage of 8% and up to 34% compared to WAAVES depending on the compression configuration parameters and the image modalities. For compression on embedded systems, the major challenge was to design a 2D DWT architecture that achieves a throughput of 100 full HD frame/s. A novel unified 2D DWT computation architecture was proposed. This new architecture performs both horizontal and vertical transform simultaneously and eliminates the problem of column-wise image pixel accesses to/from the off-chip DDR RAM. All of these factors have led to a reduction of the required off-chip DDR RAM bandwidth by more than 2X. The proposed concept uses 4-port line buffers leading to pipelined parallel four operations: the vertical DWT, the horizontal DWT transform, and the read/write operations to the external memory. The proposed architecture has only 1/8 cycles per pixel (CPP) enabling it to process more than 100fps Full HD and it is considered a promising solution for future 4K and 8K video processing. Finally, the developed architecture is highly scalable, outperforms the state of the art existing related work, and currently is deployed in a video EEG medical prototype
APA, Harvard, Vancouver, ISO, and other styles
28

Sennaouie, Abdelmalek. "Analyse par la méthode des ondelettes du signal ultrasonore rétrodiffusé par des suspensions de particules susceptibles de s'agréger : application à l'agrégation de globules rouges." Paris 5, 1997. http://www.theses.fr/1997PA05S009.

Full text
Abstract:
Les techniques échographiques actuelles, utilisées en routine clinique, n'exploitent qu'une partie de l'information, à savoir l'enveloppe du signal radiofréquence. Celui-ci résulte, d'une part, du système d'émission réception ultrasonore et, d'autre part, de l'ensemble des phénomènes mis en jeu lors de l'interaction entre les tissus biologiques et l'onde ultrasonore, dépendant des caractéristiques physiques du milieu. Dans un premier temps, nous avons fait l'inventaire des phénomènes qui participent à la formation du signal ultrasonore rétrodiffusé, y compris le milieu de propagation, afin d'établir la nature du signal ainsi que les limitations imposées par le système. Ensuite, le caractère non-stationnaire du signal ultrasonore rétrodiffusé par les suspensions de globules rouge agrégés nous amène à définir ce qu'est un signal non-stationnaire et a choir une représentation temps-fréquence. On présente ensuite l'analyse multirésolution et les diverses transformées en ondelettes qui ont été développées dans ce travail par rapport à la transformée de Fourier. Enfin nous donnerons les algorithmes de transformées ondelettes rapides d'un vecteur d'échantillons. Les signaux échographiques sont obtenus à partir de suspensions de globules rouges à différents hématocrites artificiellement agrégés en présence de dextran 70 a des concentrations variables ainsi, la transformée en ondelettes du signal ultrasonore permet une meilleure exploitation du signal échographique. Cette description, permet de calculer le coefficient de rétrodiffusion ultrasonore à une échelle locale et de le modéliser pour caractériser les vitesses de croissance des agrégats. La variation de l'énergie instantanée du signal, donnée par la transformée en ondelettes, nous permet d'approcher aussi les cinétiques d'agrégation par les fréquences d'association-dissociation. Par ailleurs, un modèle stochastique du signal ultrasonore rétrodiffusé a été développé. Il permet d'estimer la concentration moyenne en diffuseurs à une échelle locale dans la suspension et de donner leur distribution spatiale dans le volume de mesure. Nous montrons enfin que les réseaux de neurones artificiels bases sur l'utilisation d'ondelettes permettent d'identifier les signaux échographiques et de donner une approche de la forme des agrégats.
APA, Harvard, Vancouver, ISO, and other styles
29

Winkler, Christophe. "Expérimentation d'algorithmes de calcul de radiosité à base d'ondelettes." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL071N.

Full text
Abstract:
La synthèse d'images, par modélisation physique des phénomènes lumineux, est un domaine de recherche très actif depuis un certain nombre d'années. De nombreuses solutions algorithmiques ont été proposées pour parvenir à résoudre l'équation de radiance. Néanmoins, peu de tests ont été effectués pour comparer l'efficacité des différentes approches. Le but de ce mémoire est de comparer certaines solutions parmi les plus efficaces, notamment les approches hiérarchiques à base d'ondelettes, qui permettent de résoudre le problème de l'illumination globale. Dans un premier temps, nous effectuons une étude théorique approfondie de l'équation de radiance, c'est-à-dire des phénomènes physiques aboutissant à cette équation, des solutions mathématiques utilisées pour la résoudre et de leurs conséquences algorithmiques. Puis nous décrivons l'architecture logicielle développée suite à cette analyse, ainsi que les solutions algorithmiques utilisées pour résoudre les différents problèmes rencontrés. Enfin, la comparaison empirique est basée sur un protocole d'expérimentation rigoureux permettant de quantifier les résultats obtenus. Les bases de tests proviennent d'applications réelles, comme l'ingénierie de l'éclairage, l'archéologie ou encore la visite virtuelle de bâtiments. Cela permet de juger de l'efficacité des méthodes de radiosité pour des problèmes réels. Pour finir, nous présentons une extension parallèle de l'algorithme de calcul de radiosité qui permet de tirer parti de la puissance des calculateurs multiprocesseurs.
APA, Harvard, Vancouver, ISO, and other styles
30

Nguyen, Tien Minh. "Dynamique non linéaire des systèmes mécaniques couplés: réduction de modèle et identification." Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002994.

Full text
Abstract:
Le travail présenté dans ce mémoire est une contribution au domaine de l'analyse et de l'identification du comportement dynamique des structures non linéaires. Le premier objectif est la mise au point et la comparaison de quatre techniques de calcul des Modes Normaux Non linéaires (MNNs) : l'approche de Shaw et Pierre, l'approche de Bellizzi et Bouc, l'équilibrage harmonique et la méthode de tir. La combinaison des trois dernières méthodes avec la méthode de continuation permet de détecter les points de bifurcation et de trouver les nouvelles branches de solutions. Le deuxième objectif est l'identification des paramètres caractérisant le comportement dynamique des systèmes linéaires et non linéaires à partir des réponses libres ou des réponses au bruit ambiant. Les outils présentés sur le traitement du signal réel modulé en amplitude et en fréquence par la transformation en ondelettes continue permettent d'atteindre cet objectif. Le dernier objectif est l'extension de la méthode de sous-structuration linéaire de Craig-Bampton au cas non linéaire. Lorsque l'hypothèse de couplage faible entre les sous-structures est faite, le modèle réduit de la structure globale est obtenu par assemblage de modèles réduits de sous-structures avec interfaces de couplage fixe. Ces modèles réduits sont calculés en utilisant l'approche des MNNs de Shaw et Pierre. La robustesse et l'efficacité des méthodes présentées sont étudiées au travers d'exemples numériques ainsi que de tests réels.
APA, Harvard, Vancouver, ISO, and other styles
31

Rossi, Aurélien. "Analyse spatio-temporelle de la variabilité hydrologique du bassin versant du Mississippi : rôle des fluctuations climatiques et déduction de l'impact des modifications du milieu physique." Phd thesis, Université de Rouen, 2010. http://tel.archives-ouvertes.fr/tel-00690189.

Full text
Abstract:
Les grands bassins versants d'échelle continentale, comme le Mississippi, intègrent la réponse hydrologique aux changements climatiques et environnementaux (fluctuations du climat, précipitations, débits, flux sédimentaires) à de larges échelles spatiales et temporelles, mais également les modifications du milieu physique d'origine anthropique (changements d'occupation des sols, aménagements...), ce qui rend parfois difficile l'identification des liens entre la variabilité hydrologique et la variabilité climatique. Les principaux objectifs de ce travail sont de déterminer et de quantifier les relations entre la variabilité hydrologique et les fluctuations du climat (précipitations régionalisées, indices climatiques) à l'échelle du bassin versant du Mississippi et de ses principaux sous-bassins ; via l'utilisation de méthodes d'analyses spectrales adaptées à l'étude des processus instationnaires (analyse en ondelettes continues, analyse de la cohérence par ondelettes). La variabilité hydrologique du Mississippi et de ses principaux affluents est structurée par plusieurs modes de variabilité, s'exprimant de l'échelle annuelle aux échelles inter-annuelle (2-4 ans, 3-6 ans, 5-8 ans), décennale (8-16 ans, 12-16 ans) et à plus long terme (22 ans, 22-26 ans). Ces modes de variabilité sont fortement similaires à ceux observés dans les précipitations (avec une cohérence moyenne de 77% à 89% selon les sous-bassins), et opèrent aux mêmes échelles de temps que la variabilité des principales fluctuations du climat affectant la région (ENSO, PDO, AMO, NAO, NAM et PNA), préalablement identifiés et synthétisés par une méthodologie similaire. La variabilité des débits du bassin versant du Mississippi se trouve influencée par un ensemble de téléconnections (cohérence de 63% à 66% en moyenne avec l'ensemble des indices climatiques), opérant toutefois à différentes échelles spatiales et temporelles, et qui évoluent au cours du temps (relations à divers degrés suivant les différentes échelles de temps, le mode de variabilité du climat mis en jeu et le sous-bassin versant considéré). De plus, la variabilité hydrologique du Mississippi et de ses principaux affluents s'inscrit plus largement dans le cadre d'une rupture majeure du système climatique et des systèmes hydrologiques à l'échelle globale observée vers 1970, qui se traduit notamment par une augmentation et une plus forte variabilité des débits, ainsi que des changements de la composition spectrale des paramètres hydrologiques et climatiques. En ce sens, la construction d'un indice " hydro climatique unifié " à été proposée en reprenant l'ensemble des caractéristiques globales du système climatique et celles plus spécifiques à l'échelle régionale (échelle des sous bassins versants). Enfin, même si la majorité des paramètres hydrologiques se trouve apparemment très fortement liée par les paramètres climatiques, d'autres facteurs, comme les modifications du milieu physique (occupation des sols, aménagements...), peuvent avoir une influence non négligeable sur l'évolution de certains paramètres hydrologiques (hauts et bas débits), mais qui serait beaucoup plus localisée dans le temps et dans l'espace (i.e., elle ne serait pas associée à l'existence d'oscillations dans l'hydrologie). A l'exception des flux hydrosédimentaires, marqués par de profonds changements qui ont pu être reliés aux aménagements du bassin versant et quantifiés par une méthodologie de modélisation spectrale (diminution des flux de sédiments en suspension exportés à l'exutoire d'environ 2,25.10^8 t.an-1 sur la période 1950-1975), ces influences apparaissent spatialement localisées, et restent difficiles à caractériser. Outre leurs faibles contributions, ceci provient également du fait que ces modifications du milieu physique agissent simultanément avec d'autres facteurs pouvant modifier la réponse hydrologique, comme les changements observés dans le climat, qui reste le facteur principal des changements observés.
APA, Harvard, Vancouver, ISO, and other styles
32

Savaton, Guillaume. "Méthodologie de conception de composants virtuels comportementaux pour une chaîne de traitement du signal embarquée." Phd thesis, Université de Bretagne Sud, 2002. http://tel.archives-ouvertes.fr/tel-00003048.

Full text
Abstract:
Les futures générations de satellites d'observation de la Terre doivent concilier des besoins croissants en résolution, précision et qualité des images avec un coût élevé de stockage des données à bord et une bande passante limitée des canaux de transmission. Ces contraintes imposent de recourir à de nouvelles techniques de compression des images parmi lesquelles le standard JPEG2000 est un candidat prometteur. Face à la complexité croissante des applications et des technologies, et aux fortes contraintes d'intégration - faible encombrement, faible consommation, tolérance aux radiations, traitement des informations en temps réel - les outils et méthodologies de conception et de vérification classiques apparaissent inadaptés à la réalisation des systèmes embarqués dans des délais raisonnables. Les nouvelles approches envisagées reposent sur une élévation du niveau d'abstraction de la spécification d'un système et sur la réutilisation de composants matériels pré-définis et pré-vérifiés (composants virtuels , ou blocs IP pour Intellectual Property). Dans cette thèse, nous nous intéressons à la conception de composants matériels réutilisables pour des applications intégrant des fonctions de traitement du signal et de l'image. Notre travail a ainsi consisté à définir une méthodologie de conception de composants virtuels hautement flexibles décrits au niveau comportemental et orientés vers les outils de synthèse de haut niveau. Nous avons expérimenté notre méthodologie sur l'implantation sous forme d'un composant virtuel comportemental d'un algorithme de transformation en ondelettes bidimensionnelle pour la compression d'images au format JPEG2000.
APA, Harvard, Vancouver, ISO, and other styles
33

Duquenoy, Mickaël. "Analyse Temps-Fréquence appliquée à l'imagerie SAR polarimétrique." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00480262.

Full text
Abstract:
L'imagerie SAR considère les cibles comme un ensemble de diffuseurs ponctuels, isotropes et non-dispersifs. Ce modèle devient obsolète pour les nouvelles applications radar qui utilisent une large bande et une forte excursion angulaire. Il s'agit donc d'étudier les non-stationnarités par l'outil usuel : l'analyse temps-fréquence. Les transformées temps-fréquence usuelles permettent de construire des hyperimages (images à 4 dimensions) décrivant l'énergie en fonction de la fréquence émise et de l'angle de visée. Cette source d'information est reliée à la section efficace radar (SER). Une autre source d'information en imagerie radar est la polarimétrie. Il s'agit d'utiliser conjointement ces deux sources d'information afin de caractériser les diffuseurs. Par application des ondelettes continues et des décompositions cohérentes sur la matrice de Sinclair, des hyperimages polarimétriques sont générées. Ces hyperimages permettent de décrire le comportement polarimétrique en fonction de l'angle de visée et de la fréquence émise. Dans certains cas, elles décrivent globalement le mécanisme de rétrodiffusion, par sa nature, son orientation relative dans le plan horizontal et son orientation absolue dans le plan vertical. De plus, elles mettent en évidence un nouveau phénomène : la non-stationnarité polarimétrique. Celle-ci serait causée par le fait que le radar ne voit pas la même géométrie au cours de l'acquisition. De ces hyperimages polarimétriques, l'information est synthétisée et une nouvelle classification phénoménologique est proposée.
APA, Harvard, Vancouver, ISO, and other styles
34

Spinnato, Juliette. "Modèles de covariance pour l'analyse et la classification de signaux électroencéphalogrammes." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4727/document.

Full text
Abstract:
Cette thèse s’inscrit dans le contexte de l’analyse et de la classification de signaux électroencéphalogrammes (EEG) par des méthodes d’analyse discriminante. Ces signaux multi-capteurs qui sont, par nature, très fortement corrélés spatialement et temporellement sont considérés dans le plan temps-fréquence. En particulier, nous nous intéressons à des signaux de type potentiels évoqués qui sont bien représentés dans l’espace des ondelettes. Par la suite, nous considérons donc les signaux représentés par des coefficients multi-échelles et qui ont une structure matricielle électrodes × coefficients. Les signaux EEG sont considérés comme un mélange entre l’activité d’intérêt que l’on souhaite extraire et l’activité spontanée (ou "bruit de fond"), qui est largement prépondérante. La problématique principale est ici de distinguer des signaux issus de différentes conditions expérimentales (classes). Dans le cas binaire, nous nous focalisons sur l’approche probabiliste de l’analyse discriminante et des modèles de mélange gaussien sont considérés, décrivant dans chaque classe les signaux en termes de composantes fixes (moyenne) et aléatoires. Cette dernière, caractérisée par sa matrice de covariance, permet de modéliser différentes sources de variabilité. Essentielle à la mise en oeuvre de l’analyse discriminante, l’estimation de cette matrice (et de son inverse) peut être dégradée dans le cas de grandes dimensions et/ou de faibles échantillons d’apprentissage, cadre applicatif de cette thèse. Nous nous intéressons aux alternatives qui se basent sur la définition de modèle(s) de covariance(s) particulier(s) et qui permettent de réduire le nombre de paramètres à estimer<br>The present thesis finds itself within the framework of analyzing and classifying electroencephalogram signals (EEG) using discriminant analysis. Those multi-sensor signals which are, by nature, highly correlated spatially and temporally are considered, in this work, in the timefrequency domain. In particular, we focus on low-frequency evoked-related potential-type signals (ERPs) that are well described in the wavelet domain. Thereafter, we will consider signals represented by multi-scale coefficients and that have a matrix structure electrodes × coefficients. Moreover, EEG signals are seen as a mixture between the signal of interest that we want to extract and spontaneous activity (also called "background noise") which is overriding. The main problematic is here to distinguish signals from different experimental conditions (class). In the binary case, we focus on the probabilistic approach of the discriminant analysis and Gaussian mixtures are used, describing in each class the signals in terms of fixed (mean) and random components. The latter, characterized by its covariance matrix, allow to model different variability sources. The estimation of this matrix (and of its inverse) is essential for the implementation of the discriminant analysis and can be deteriorated by high-dimensional data and/or by small learning samples, which is the application framework of this thesis. We are interested in alternatives that are based on specific covariance model(s) and that allow to decrease the number of parameters to estimate
APA, Harvard, Vancouver, ISO, and other styles
35

Oru, Frédéric. "Rôle des oscillations dans quelques problèmes d'analyse non-linéaire." Cachan, Ecole normale supérieure, 1998. http://www.theses.fr/1998DENS0018.

Full text
Abstract:
Dans ce travail, nous étudions le rôle joue par la présence d'oscillations dans trois questions d'analyse non-linéaire. Dans une première partie, nous présentons une version précisée des inégalités de Sobolev, équilibrée pour des données fortement oscillantes. Ces nouvelles inégalités font intervenir la norme d'un espace de Besov d'indice négatif, laquelle fournit une mesure du caractère oscillatoire des fonctions. La seconde partie concerne l'équation de Navier-stokes. Nous montrons d'une part que l'operateur bilinéaire associe a la formulation Mild, malgré toutes les cancellations qu'il contient, n'est pas continu dans l'espace des fonctions continues en temps a valeurs dans l#3(r#3), justifiant ainsi l'alternative proposée par Kato pour résoudre l'équation de Navier-stokes dans cet espace. D'autre part, nous démontrons une propriété de stabilité par passage à la limite faible pour les équations de Navier-stokes. Dans la dernière partie, nous généralisons un théorème de t. Cazenave et f. Weissler concernant l'existence de solutions auto similaires pour une équation de Schrödinger non-linéaire.
APA, Harvard, Vancouver, ISO, and other styles
36

Lu, Zhiping. "Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00422376.

Full text
Abstract:
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
APA, Harvard, Vancouver, ISO, and other styles
37

Goubet, Étienne. "Contrôle non destructif par analyse supervisée d'images 3D ultrasonores." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0011.

Full text
Abstract:
L'objet de cette thèse consiste en l'élaboration d'une chaine de traitements permettant d'extraire l'information utile de données 3d ultrasonores et de caractériser les défauts éventuellement présents dans la pièce inspectée. Cette caractérisation a été abordée pour des fissures contrôlées par un même émetteur/récepteur. Dans une première partie nous rappelons les principes du contrôle non destructif par ultrasons ainsi que les représentations classiques des données ultrasonores. La deuxième partie est consacrée à l'étude d'un modèle d'extraction de l'information d'échos présents sur les données au moyen d'une base d'ondelettes adaptée. L'utilisation d'une ondelette unique translatée dans le temps est rendue possible par un travail sur une représentation complexe des données réelles originales. Une première étape permet de détecter et de positionner les échos d'amplitude significative. Dans un deuxième temps, on effectue une régularisation spatialement cohérente des instants de détection à l'aide d'un modèle markovien. On élimine ainsi les échos dont les instants de détection ne font pas partie de surfaces d'instants régulières. Les parties suivantes traitent de la localisation et du dimensionnement des fissures. On utilise des caractéristiques extraites du faisceau ultrasonore afin de déterminer le trajet de l'onde ultrasonore du capteur à l'objet diffractant lorsque la réponse de l'écho est maximale. On met en correspondance l'instant de détection obtenu pour cet écho et le temps de parcours selon le trajet défini afin de positionner un point d'arête dans la pièce. On obtient ainsi un ensemble de points de discrétisation pour chaque arête. Dans le cadre de données 3d obtenues sur un matériau isotrope, on élimine les points d'arête extrêmes en utilisant un critère de comparaison sur les courbes échodynamiques associées aux points de détection sur les données réelles et sur des données simulées équivalentes. La localisation est abordée pour des fissures situées dans un matériau isotrope ou acier revêtu d'anisotrope.
APA, Harvard, Vancouver, ISO, and other styles
38

Gueu, Solagon. "Analyse expérimentale de la dynamique de l'interface d'un film annulaire vertical soumis ou non à un écoulement de gaz à contre courant." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL081N.

Full text
Abstract:
L’epaisseur instantanée d'un film annulaire soumis ou non à un écoulement de gaz est analysée grâce à des méthodes statistiques, à la théorie du chaos et à l'aide de la transformée en ondelettes. Ces méthodes appliquées aux mesures, réalisées à l'aide de sondes conductimétriques à fils parallèles en 5 positions de la section d'essai de 40,6 mm de diamètre et de 2,2 m de longueur, ont permis d'obtenir de nombreux résultats sur l'évolution longitudinale et la dynamique du film. Citons : * l'existence d'un nombre de Reynolds de liquide global critique, situé autour de 3000. Le comportement en moyenne et dynamique du film est bien distinct en deca et au delà de cette limite. Par exemple : - l'amplification des vagues et l'augmentation de l'épaisseur du film et de la célérité moyenne moins fortes dans la première zone. - l'épaisseur du substrat et la fréquence prépondérante qui sont quasi constantes quand le nombre de Reynolds global est supérieur à 3000. - la dimension de corrélation qui est quasi indépendante du débit de liquide quand l'écoulement est turbulent (Re_L > 3000) alors que dans la zone laminaire, son évolution est fonction de la distance. * la dépendance de la structure de l'interface du film en fonction de la distance. Par exemple, quand la distance augmente, l'amplitude et la célérité des vagues croissent alors que la fréquence prépondérante et la dimension fractale diminuent. * la célérité des vagues indépendante de la fréquence. * une relation linéaire entre la célérité moyenne et l'amplitude maximale des vagues. * l'influence de l'interaction liquide-gaz diminue quand le débit de liquide augmente. La célérité des vagues et la dimension fractale chutent à l'approche du point de flooding. * une possibilité de filtrage des signaux par la transformée en ondelettes.
APA, Harvard, Vancouver, ISO, and other styles
39

Rekik, Siwar. "Sécurisation de la communication parlée par une techhnique stéganographique." Thesis, Brest, 2012. http://www.theses.fr/2012BRES0061.

Full text
Abstract:
Une des préoccupations dans le domaine des communications sécurisées est le concept de sécurité de l'information. Aujourd’hui, la réalité a encore prouvé que la communication entre deux parties sur de longues distances a toujours été sujet au risque d'interception. Devant ces contraintes, de nombreux défis et opportunités s’ouvrent pour l'innovation. Afin de pouvoir fournir une communication sécurisée, cela a conduit les chercheurs à développer plusieurs schémas de stéganographie. La stéganographie est l’art de dissimuler un message de manière secrète dans un support anodin. L’objectif de base de la stéganographie est de permettre une communication secrète sans que personne ne puisse soupçonner son existence, le message secret est dissimulé dans un autre appelé medium de couverture qui peut être image, video, texte, audio,…. Cette propriété a motivé les chercheurs à travailler sur ce nouveau champ d’étude dans le but d’élaborer des systèmes de communication secrète résistante à tout type d’attaques. Cependant, de nombreuses techniques ont été développées pour dissimuler un message secret dans le but d’assurer une communication sécurisée. Les contributions majeures de cette thèse sont en premier lieu, de présenter une nouvelle méthode de stéganographie permettant la dissimulation d’un message secret dans un signal de parole. La dissimulation c’est le processus de cacher l’information secrète de façon à la rendre imperceptible pour une partie tierce, sans même pas soupçonner son existence. Cependant, certaines approches ont été étudiées pour aboutir à une méthode de stéganogaraphie robuste. En partant de ce contexte, on s’est intéressé à développer un système de stéganographie capable d’une part de dissimuler la quantité la plus élevée de paramètre tout en gardant la perceptibilité du signal de la parole. D’autre part nous avons opté pour la conception d’un algorithme de stéganographie assez complexe afin d’assurer l’impossibilité d’extraction de l’information secrète dans le cas ou son existence été détecter. En effet, on peut également garantir la robustesse de notre technique de stéganographie à l’aptitude de préservation du message secret face aux tentatives de détection des systèmes de stéganalyse. Notre technique de dissimulation tire son efficacité de l’utilisation de caractéristiques spécifiques aux signaux de parole et àl’imperfection du système auditif humain. Des évaluations comparatives sur des critères objectifs et subjectifs de qualité sont présentées pour plusieurs types de signaux de parole. Les résultats ont révélé l'efficacité du système développé puisque la technique de dissimulation proposée garantit l’imperceptibilité du message secret voire le soupçon de son existence. Dans la suite expérimentale et dans le même cadre de ce travail, la principale application visée par la thèse concerne la transmission de parole sécurisée par un algorithme de stéganographie. Dans ce but il s’est avéré primordial d’utiliser une des techniques de codage afin de tester la robustesse de notre algorithme stéganographique face au processus de codage et de décodage. Les résultats obtenus montrent la possibilité de reconstruction du signal original (contenant des informations secrètes) après codage. Enfin une évaluation de la robustesse de notre technique de stéganographie vis à vis des attaques est faite de façon à optimiser la technique afin d'augmenter le taux de sécurisation. Devant cette nécessité nous avons proposé une nouvelle technique de stéganalyse basée sur les réseaux de neurones AR-TDNN. La technique présentée ici ne permet pas d'extraire l'éventuel message caché, mais simplement de mettre en évidence sa présence<br>One of the concerns in the field of secure communication is the concept of information security. Today’s reality is still showing that communication between two parties over long distances has always been subject to interception. Providing secure communication has driven researchers to develop several cryptography schemes. Cryptography methods achieve security in order to make the information unintelligible to guarantee exclusive access for authenticated recipients. Cryptography consists of making the signal look garbled to unauthorized people. Thus, cryptography indicates the existence of a cryptographic communication in progress, which makes eavesdroppers suspect the existence of valuable data. They are thus incited to intercept the transmitted message and to attempt to decipher the secret information. This may be seen as weakness in cryptography schemes. In contrast to cryptography, steganography allows secret communication by camouflaging the secret signal in another signal (named the cover signal), to avoid suspicion. This quality motivated the researchers to work on this burning field to develop schemes ensuring better resistance to hostile attackers. The word steganography is derived from two Greek words: Stego (means cover) and graphy (means writing). The two combined words constitute steganography, which means covert writing, is the art of hiding written communications. Several steganography techniques were used to send message secretly during wars through the territories of enemies. The major contributions of this thesis are the following ones. We propose a new method to secure speech communication using the Discrete Wavelet Transforms (DWT) and the Fast Fourier Transform (FFT). Our method exploits first the high frequencies using a DWT, then exploits the low-pass spectral properties of the speech magnitude spectrum to hide another speech signal in the low-amplitude high-frequencies region of the cover speech signal. The proposed method allows hiding a large amount of secret information while rendering the steganalysis more complex. Comparative evaluation based on objective and subjective criteria is introduced for original speech signal, stego-signal and reconstructed secret speech signal after the hiding process. Experimental simulations on both female and male speakers revealed that our approach is capable of producing a stego speech that is indistinguishable from the cover speech. The receiver is still able to recover an intelligible copy of the secret speech message. We used an LPC10 coder to test the effect of the coding techniques on the stego-speech signals. Experimental results prove the efficiency of the used coding technique since intelligibility of the stego-speech is maintained after the encoding and decoding processes. We also advocate a new steganalysis technique to ensure the robustness of our steganography method. The proposed classifier is called Autoregressive time delay neural network (ARTDNN). The purpose of this steganalysis system is to identify the presence or not of embedded information, and does not actually attempt to extract or decode the hidden data. The low detecting rate prove the robustness of our hiding technique
APA, Harvard, Vancouver, ISO, and other styles
40

Rouault-Pic, Sandrine. "Reconstruction en tomographie locale : introduction d'information à priori basse résolution." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005016.

Full text
Abstract:
Un des objectifs actuel en tomographie est de réduire la dose injectée au patient. Les nouveaux systèmes d'imagerie, intégrant des détecteurs haute résolution de petites tailles ou des sources fortement collimatées permettent ainsi de réduire la dose. Ces dispositifs mettent en avant le problème de reconstruction d'image à partir d'informations locales. Un moyen d'aborder le problème de tomographie locale est d'introduire une information à priori, afin de lever la non-unicité de la solution. Nous proposons donc de compléter les projections locales haute résolution (provenant de systèmes décrits précédemment) par des projections complètes basse résolution, provenant par exemple d'un examen scanner standard. Nous supposons que la mise en correspondance des données a été effectuée, cette partie ne faisant pas l'objet de notre travail. Nous avons dans un premier temps, adapté des méthodes de reconstruction classiques (ART, Gradient conjugué régularisé et Rétroprojection filtrée) au problème local, en introduisant dans le processus de reconstruction l'information à priori. Puis, dans un second temps, nous abordons les méthodes de reconstruction par ondelettes et nous proposons également une adaptation à notre problème. Dans tous les cas, la double résolution apparait également dans l'image reconstruite, avec une résolution plus fine dans la région d'intérêt. Enfin, étant donné le coût élevé des méthodes mises en oeuvre, nous proposons une parallélisation des algorithmes implémentés.
APA, Harvard, Vancouver, ISO, and other styles
41

Xie, Xinwen. "Quality strategy and method for transmission : application to image." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2251/document.

Full text
Abstract:
Cette thèse porte sur l’étude des stratégies d’amélioration de la qualité d’image dans les systèmes de communication sans fil et sur la conception de nouvelles métriques d’évaluation de la qualité. Tout d'abord, une nouvelle métrique de qualité d'image à référence réduite, basée sur un modèle statistique dans le domaine des ondelettes complexes, a été proposée. Les informations d’amplitude et de phase relatives des coefficients issues de la transformée en ondelettes complexes sont modélisées à l'aide de fonctions de densité de probabilité. Les paramètres associés à ces fonctions constituent la référence réduite qui sera transmise au récepteur. Ensuite, une approche basée sur les réseaux de neurones à régression généralisée est exploitée pour construire la relation de cartographie entre les caractéristiques de la référence réduite et le score objectif.Deuxièmement, avec la nouvelle métrique, une nouvelle stratégie de décodage est proposée pour la transmission d’image sur un canal de transmission sans fil réaliste. Ainsi, la qualité d’expérience (QoE) est améliorée tout en garantissant une bonne qualité de service (QoS). Pour cela, une nouvelle base d’images a été construite et des tests d’évaluation subjective de la qualité de ces images ont été effectués pour collecter les préférences visuelles des personnes lorsqu’elles sélectionnent les images avec différentes configurations de décodage. Un classificateur basé sur les algorithmes SVM et des k plus proches voisins sont utilisés pour la sélection automatique de la meilleure configuration de décodage.Enfin, une amélioration de la métrique a été proposée permettant de mieux prendre en compte les spécificités de la distorsion et la préférence des utilisateurs. Pour cela, nous avons combiné les caractéristiques globales et locales de l’image conduisant ainsi à une amélioration de la stratégie de décodage.Les résultats expérimentaux valident l'efficacité des métriques de qualité d'image et des stratégies de transmission d’images proposées<br>This thesis focuses on the study of image quality strategies in wireless communication systems and the design of new quality evaluation metrics:Firstly, a new reduced-reference image quality metric, based on statistical model in complex wavelet domain, has been proposed. The magnitude and the relative phase information of the Dual-tree Complex Wavelet Transform coefficients are modelled by using probability density function and the parameters served as reduced-reference features which will be transmitted to the receiver. Then, a Generalized Regression Neural Network approach is exploited to construct the mapping relation between reduced-reference feature and the objective score.Secondly, with the new metric, a new decoding strategy is proposed for a realistic wireless transmission system, which can improve the quality of experience (QoE) while ensuring the quality of service (QoS). For this, a new database including large physiological vision tests has been constructed to collect the visual preference of people when they are selecting the images with different decoding configurations, and a classifier based on support vector machine or K-nearest neighboring is utilized to automatically select the decoding configuration.Finally, according to specific property of the distortion and people's preference, an improved metric has been proposed. It is the combination of global feature and local feature and has been demonstrated having a good performance in optimization of the decoding strategy.The experimental results validate the effectiveness of the proposed image quality metrics and the quality strategies
APA, Harvard, Vancouver, ISO, and other styles
42

Saracco, Ginette. "Propagation acoustique en régime harmonique & transitoire a travers un milieu inhomogène: Méthodes asymptotiques & Transformation en ondelettes." Phd thesis, 1989. http://tel.archives-ouvertes.fr/tel-00178676.

Full text
Abstract:
L'objet de cette thèse se rapporte principalement au problème de la transmission d'ondes spériques à travers une interface plane séparant deux milieux fluides, la source se trouvant dans le milieu de plus faible célérité. Sous certaines conditions, ce modèles physique simple présente un intérêt particulier dû à l'existence d'une onde de "surface", appelée onde latérale ou inhomogène.<br /> Dans un premier temps, nous avons traité le cas s'une source ponctuelle monochromatique à l'aide de méthodes asymptotiques, de façon à vérifier l'existence physique de cette contribution. Dans le cas du dioptre plan air-eau, nous avons pu séparer expérimentalement la contribution latérale de la contribution géométrique, et mettre en évidence le comportement et les propriétés de celles-ci. Le champ réfracté total fait alors apparaître des zones d'interférences en parfait accord avec l'étude théorique et numérique. La contribution latérale présentant un caractère "dispersif", montre l'intérêt dans le cas du régime transitoire, d'utiliser une méthode de type temps-échelle. <br /> La fonction de Green peut être décomposée de façon naturelle en trois contributions analogues à celles du régime harmonique. La transformée en ondelettes permet alors de calculer de façon exacte ces différentes contributions et d'en étudier leur comportement. L'orginalité des résultats obtenus est la mise en évidence à certaines échelles, de phénomènes transitoires très brefs (échos) qui permettent d'engager une discussion nouvelle de ce type de problème. Une expérimentation combinée à une analyse temps-échelle (ondelettes) a confirmé ces observations. <br /> Par analogie à la formule de reconstitution simple de la transformée en ondelettes inverse, nous avons pu élaborer, pour de grandes distances radiales, une formule de reconstruction de la dépendance temporelle du signal-source (problème inverse) à partir de la mesure de la pression transmise (jouant le rôle de "pseudo-coefficients d'ondelettes") sur les profondeurs. <br /> Enfin, l'application de cette transformation à un problème de rétrodiffusion acoustique par des coques sphériques élastiques (interface fluide/solide) a montré qu'il est possible d'accéder à certaines caractéristiques physiques de la cible.
APA, Harvard, Vancouver, ISO, and other styles
43

Bahja, Fadoua. "Détection du fondamental de la parole en temps réel : application aux voix pathologiques." Phd thesis, 2013. http://tel.archives-ouvertes.fr/tel-00927147.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre des travaux de recherche qui visent la détermination de la fréquence fondamentale du signal de parole. La première contribution est relative au développement d'algorithmes de détection du pitch en temps réel à partir d'une autocorrélation circulaire du signal d'excitation glottique. Parmi tous les algorithmes de détection du pitch, décrits dans la littérature, rares sont ceux qui peuvent résoudre correctement tous les problèmes li'es au suivi du contour du pitch. Pour cette raison, nous avons élargi notre champ d'investigation et avons proposé de nouveaux algorithmes fondés sur la transformation en ondelettes. Pour évaluer les performances des algorithmes proposés, nous avons utilisé deux bases de données : Bagshaw et Keele. Les résultats que nous avons obtenus montrent clairement que nos algorithmes surclassent les meilleurs algorithmes de référence décrits dans la littérature. La deuxième contribution de cette thèse concerne la réalisation d'un système de conversion de voix dans le but d'améliorer la voix pathologique. Nous parlons dans ce cas d'un système de correction de voix. Notre principal apport, concernant la conversion vocale, consiste en la prédiction des coefficients cepstraux de Fourier relatifs au signal d'excitation glottique. Grâce à ce nouveau type de prédiction, nous avons pu réaliser des systèmes de conversion de voix dont les résultats, qu'ils soient objectifs ou subjectifs, valident l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography