To see the other types of publications on this topic, follow the link: Traitement des données sismiques.

Dissertations / Theses on the topic 'Traitement des données sismiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Traitement des données sismiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Touati, Mustafa. "Contribution géostatistique au traitement des données sismiques." Paris, ENMP, 1996. http://www.theses.fr/1996ENMP0617.

Full text
Abstract:
Comment concilier un determinisme impose par des lois physiques avec un alea du a la complexite de la nature ?. Cette question, classique en sciences de la terre, est d'actualite chez les geophysiciens. La presente these tente d'y repondre en deux etapes. D'abord en linearisant les equations de propagation des ondes en milieux perturbes, ensuite en faisant appel a des techniques classiques de la geostatistique. Cette methodologie permet d'envisager: d'une part l'inversion de parametres statistiques du champ de vitesses a partir des temps d'arrivee, d'autre part la simulation des erreurs de migration lors de la localisation d'un reflecteur. Ces methodes sont validees sur des donnees synthetiques
APA, Harvard, Vancouver, ISO, and other styles
2

Mear, Yann. "Outils pour l'acquisition de données sismiques, réflexion haute résolution." Perpignan, 1991. http://www.theses.fr/1991PERP0136.

Full text
Abstract:
L'acquisition de donnees de sismique reflexion monotrace haute resolution est envisagee suivant le mode analogique et le mode numerique. A partir d'un bilan des materiels et des methodes mises en uvre, des outils et des processus sont proposes pour optimiser l'acquisition analogique. La premiere etape concerne la mise en forme des signaux. Le premier outil elabore permet d'adapter, de filtrer et d'amplifier les signaux sismiques. Dans une deuxieme etape une optimisation de l'enregistrement des donnees sur support magnetique est proposee. Le rejeu des donnees sur un terminal graphique dowty 3640 est rendu possible grace a l'elaboration d'une interface specifique. Plusieurs outils sont proposes aux geologues desirant mettre en uvre une chaine sismique numerique. Le programme numesis est plus specialement destine aux operateurs disposant de donnees sismiques analogiques enregistrees sur support magnetique. Ce programme, base sur une carte a numeriser 12 bits, permet d'obtenir des donnees numeriques et de leur appliquer des traitements de base (filtrage, addition de traces,. . . ). Le programme siren met en uvre une carte 16 bits incorporant un dsp. Plus specialement destine a une acquisition en temps reel des donnees sismiques, il propose aussi un module de rejeu analogique ou numerique. Le logiciel impresis permet d'obtenir des documents papier a partir d'un terminal graphique de terrain (dowty 3640) et d'une imprimante laser. Plusieurs modes d'impression sont disponibles (raster, galva, aire variable) ainsi qu'un traitement geometrique (dilatation ou compression horizontale, zoom,. . . )
APA, Harvard, Vancouver, ISO, and other styles
3

Soudani, Mohamed Tahar Amine. "Techniques de traitement des données sismiques OBC dans le domaine (т, p) 2D-3D." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00204530.

Full text
Abstract:
Le travail de recherche présenté dans ce mémoire est dédié au filtrage des multiples de la tranche d'eau sur les données sismiques OBC (Ocean Bottom Cable). Ces multiples générés par les réflexions successives entre la surface de l'eau et le fond marin détériorent considérablement la qualité des images sismiques. Nous proposons dans ce document une méthode robuste de filtrage de ces multiples par "sommation PZ" dans le domaine (т,p). Nous commençons par modéliser les enregistrements de l'hydrophone et du géophone en OBC dans le domaine des ondes planes harmoniques. Nous montrons que ces modèles s'expriment en fonction des arrivées primaires et des multiples de la colonne d'eau. Cette modélisation nous permet de proposer un algorithme de filtrage des multiples qui tient compte non seulement de la physique de propagation des ondes mais aussi des caractéristiques de l'acquisition: couplage et orientation des géophones, réponses impulsionnelles des capteurs, bruits. Après la validation sur des données synthétiques, la nouvelle approche est appliquée sur des données réelles 2D dans le cadre d'une séquence de traitement. Nous montrons que cette approche est robuste en présence de bruit et donne de meilleurs résultats en comparaison avec des séquences standards. Nous généralisons à la fin de ce document la séquence de traitement au cas des acquisitions OBC 3D grâce à la transformation (т,p)3D. Cette généralisation n'est pas immédiate et nécessite des étapes supplémentaires dans la séquence de traitement tel que l'interpolation des données en 3D. La comparaison de la séquence 3D aux séquences standards révèle que la nouvelle approche améliore significativement les résultats
The following PhD thesis deals with methods of water-Iayer multiple attenuation in OBC (Ocean Bottom Cable) data. These multiples are created by the reverberation of primary arrivaIs in the water column. The multiples have a strong negative impact on the final structural image obtained from OBC processing. Ln this document, we propose a new methodology for multiple attenuation by developing a new PZ summation algorithm in the (т,p) domain. We start by expressing the hydrophone and geophone measurements in the plane wave domain. We show that these measurements can be expressed in terms of primary and water-Iayer multiple arrivaIs. These expressions allow us to establish a new algorithm based on the physics of wave propagation in elastic media. The new algorithm also takes into account the properties of OBC acquisitions such as geophone coupling and orientation, impulse response of the sensors and noise characteristics. The new algorithm was first validated on synthetic data and then applied on a real 2D dataset as one step of a processing workflow. This processing sequence results in attenuation of water-Iayer multiples and noise, thus improving image quality in comparison with standard processing approaches. Finally, we extend the processing methodology to 3D datasets through the 3D(т,p) transform. This application is not straightforward and necessitates additional steps in the workflow because, in this context, 3D data interpolation becomes crucial. The final results of the 3D methodology show an important improvement of data quality in comparison with the standard processing sequences
APA, Harvard, Vancouver, ISO, and other styles
4

Verney, Philippe. "Interprétation géologique de données sismiques par une méthode supervisée basée sur la vision cognitive." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005861.

Full text
Abstract:
L'objectif de ce travail est de réaliser une nouvelle plateforme d'interprétation sismique 3D semi-automatique basée sur la connaissance géologique employée aujourd'hui par les experts du domaine. A l'heure actuelle, la majeure partie des solutions sont basées sur les traitements d'image et l'utilisation de quantités d'attributs sismiques. Elles fournissent un résultat interprétable par un expert qui réalise alors une correspondance informelle entre la nouvelle image obtenue et des objets géologiques. Nous désirons explorer une nouvelle méthodologie mettant en avant la formalisation de la connaissance utilisée dans l'interprétation sismique comme la vision cognitive le permet et le conseille. Ainsi, nous caractérisons le résultat des traitements d'images opérés sur le bloc sismique grâce à des concepts et à relations visuelles provenant d'une ontologie dédiée. Ces caractéristiques nous permettent alors de formaliser l'interprétation d'objets géologiques à partir de ces instances et ainsi de proposer de manière automatique des solutions d'interprétation d'un bloc sismique, que l'expert pourra choisir de valider. Dans ce travail, nous avons à coeur de nous concentrer sur l'identification de deux premiers objets géologiques à identifier dans une image sismique : les horizons et les failles. Une ontologie de ce domaine d'étude est proposée afin de servir de base pour la création de la plateforme.
APA, Harvard, Vancouver, ISO, and other styles
5

Paulus, Caroline. "Filtrage de données sismiques multicomposantes et estimation de la polarisation." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00204504.

Full text
Abstract:
Les capteurs multicomposantes (2C, 3C ou 4C) sont de plus en plus utilisés pour les acquisitions sismiques.
Ils peuvent enregistrer le déplacement dans plusieurs directions de l'espace ainsi que les variations de pression.
Le développement de traitements adaptés à ce type de données est nécessaire.

Le but de ce travail de thèse est de développer une méthode permettant d'une part le débruitage de données sismiques multicomposantes, la séparation des différents champs d'ondes ou encore l'estimation de la polarisation des ondes et de leur direction d'arrivée (DOA).
Cette méthode, appelée filtrage matriciel large-bande multicomposante, dérivée de la méthode monocomposante, prend en compte l'information de polarisation et traite les différentes composantes de façon globale et non indépendamment.

Le principe utilisé est celui de la décomposition en valeurs propres d'une matrice spectrale pour permettre une séparation efficace de l'espace des données de départ en deux espaces complémentaires (sous-espace signal et sous-espace bruit).
APA, Harvard, Vancouver, ISO, and other styles
6

Joseph, Caroline. "Application de l'analyse des mélanges gaussiens au calibrage géologique des données sismiques." Vandoeuvre-les-Nancy, INPL, 1994. http://docnum.univ-lorraine.fr/public/INPL_T_1994_JOSEPH_C.pdf.

Full text
Abstract:
Le but de cette thèse est d'utiliser les mélanges gaussiens dans le cadre du calibrage géologique des données sismiques permettant l'estimation de caractéristiques géologiques à partir des attributs sismiques au niveau du réservoir. Dans une première partie, nous présentons la méthode de décomposition en classes gaussiennes développée et le codage en fonctions indicatrices qu'elle peut induire. Les deux parties suivantes décrivent deux méthodes statistiques de calibrage (l'analyse canonique et la régression non paramétrique), et présentent l'utilisation des mélanges gaussiens dans le cadre de ces deux méthodes. Le dernier chapitre concerne l'application des méthodologies de calibrage obtenues aux données réelles d'un réservoir pétrolier: Ce réservoir est développé par une quarantaine de puits environ et couvert par une sismique 2D maille dense. Des attributs sismiques caractéristiques de la fenêtre temporelle centrée sur le réservoir ont été calibrés aux puits en termes d'épaisseurs cumulées des lithofaciès, permettant ainsi de prédire la distribution spatiale des faciès entre les puits, à partir de la sismique. Les résultats ainsi obtenus contribuent à une meilleure caractérisation du réservoir
APA, Harvard, Vancouver, ISO, and other styles
7

Granet, Michel. "Tomographie de la croûte et du manteau supérieur déduite des signaux sismologiques courtes périodes et algorithmes de traitement des données ReNaSS." Université Louis Pasteur (Strasbourg) (1971-2008), 1987. http://www.theses.fr/1987STR13018.

Full text
Abstract:
Algorithmes developpes pour l'exploitation en routine des donnees du reseau national de surveillance sismique. Bref apercu de la sismicite francaise. Application des reseaux cp a des etudes de tomographie. Une premiere application concerne le facteur de qualite. Il est calcule par une methode basee sur les spectres des ondes p de seismes locaux et inverse dans une geometrie de bloc. Application au jura souabe. Etude 3-d des vitesses dans le fosse rhenan superieur. Enfin etude des vitesses sous la france
APA, Harvard, Vancouver, ISO, and other styles
8

Dagany, Xavier. "Analyse de données multicomposantes issues de campagnes sismiques offshore : instrument, signal et traitements." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0026.

Full text
Abstract:
Ce manuscrit aborde l'étude de données collectées par les dispositifs Multicomposantes (OBS) utilisés en sismique marine, en particulier dans les domaines de la prospection pétrolière. Tout d'abord, nous donnons une description de ces instruments et leur principe de mesure. Nous y soulignons l'importance de leur couplage avec le fond marin, cause de bruit important sur ces données. Nous étudions ensuite la nature des arrivées collectées en modélisant les signaux reçus sur les composantes (3 géophones et 1 hydrophone) au passage des différentes ondes sismiques. Nous faisons ainsi ressortir les différents facteurs géologiques influent lors de la propagation et sur la forme des signaux perçus. La redondance d'information de ce type de données et la polarisation des arrivées permettent d'accroître les possibilités de traitement. Nous développons différentes méthodes de séparation d'onde (DVS et SMF) utilisant ces caractéristiques pour extraire les paramètres du sol et étendre leur champ d'application. Nous proposons, dans la dernière partie, d'appliquer des méthodes de déconvolution pour éliminer les oscillations parasites du signal, issues entre autres d'un mauvais couplage. Une méthode prédictive utilisant les équations de Yule-Walker-Durbin associées à des statistiques d'ordre supérieur est, dans ce cas, appropriée à cette tâche.
APA, Harvard, Vancouver, ISO, and other styles
9

Cotton, Julien. "Analyse et traitement de données sismiques 4D en continu et en temps réel pour la surveillance du sous-sol." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM023.

Full text
Abstract:
La sismique réflexion 3D est largement utilisée dans l'industrie pétrolière. Cette méthode d’auscultation du sous-sol fournit des informations sur les structures géologiques et peut être utilisée pour construire des modèles de réservoir. Cependant, les propriétés dérivées des données sismiques 3D (et 2D) ne sont que statiques: elles ne permettent pas d’évaluer ce qui change avec le temps. L'ajout d'une dimension temporelle aux données 3D est obtenue par la répétition des mesures à plusieurs dates séparées de plusieurs mois voire même de plusieurs années. Ainsi, la sismique4D (time-lapse) permet d’appréhender les modifications du sous-sol sur le long terme. Depuis les années 90, cette méthode est utilisée dans le monde entier en mer et à terre. Pour réaliser une surveillance beaucoup plus fréquente (quotidienne), voire continue (quelques heures) du sous-sol, CGG a développé, en collaboration avec Gaz de France (désormais ENGIE) et l’Institut Français du Pétrole (maintenant IFPEN), une solution basée sur des sources et des récepteurs enterrés: SeisMovie. SeisMovie a été initialement conçu pour suivre et cartographier en temps-réel le front de gaz lors des opérations de stockage en couche géologique. Il est aussi utilisé pour observer l’injection de vapeur nécessaire à la production d’huile lourde. Dans cette thèse, nous apportons des contributions à trois défis qui apparaissent lors du traitement des données sismiques issues de ce système. Le premier concerne l'atténuation des variations de proche surface causées par les ondes « fantômes » qui interfèrent avec les ondes primaires. Le second concerne la quantification des modifications du sous-sol en termes de variation de vitesse de propagation et d’impédance acoustique.Le troisième concerne le temps-réel : le traitement doit être au moins aussi rapide que le cycle d’acquisition (quelques heures). En effet l’analyse des données doit permettre aux ingénieurs réservoirs de prendre rapidement des décisions (arrêt de l’injection, diminution de la production). Dans un cadre plus général, il existe des similitudes conceptuelles entre la 3D et la 4D. En 4D, ce sont les acquisitions répétées qui sont comparées entre elles (ou avec une référence). En3D, pendant l’acquisition, les géophysiciens de terrain comparent les points de tir unitaires entre eux afin d’évaluer la qualité des données pour prendre des décisions (reprendre le point de tir, continuer). Dès lors, certains outils 4D temps réel développés pendant cette thèse peuvent être appliqués. Ainsi une toute nouvelle approche appelée TeraMig pour le contrôle qualité automatisé sur le terrain sera également présentée
3D seismic reflection is widely used in the oil industry. This standard subsoil auscultation method provides information on geological structures and can be used to build reservoir models. However, the properties derived from3D (and 2D) seismic data are only static: 3D does not allow to evaluate the changes with calendar time. The addition of a temporal dimension to 3D data is obtained by repeating the measurements at several dates separated by several months or even several years. Thus, 4D seismic (time-lapse) makes it possible to measure and to analyze the changes of the subsoil in the long term. Since the 90s, this method is used worldwide at sea and on land. To carry out a much more frequent monitoring (daily), even continuous (a few hours) of the subsoil, CGG developed, in collaboration with Gazde France (now ENGIE) and Institut Français du Pétrole (now IFPEN), a solution based on buried sources and receptors: SeisMovie. SeisMovie was originally designed to monitor and map the gas front in real time during geological disposal operations. It is also used to observe the steam injection required for heavy oil production. In this thesis, we bring contributions to three challenges arising in the processing of seismic data from this system. The first one concerns the attenuation of near-surface variations caused by "ghost" waves that interfere with primary waves. The second one concerns the quantification of subsurface changes in terms of propagation velocity variation and acoustic impedance.The third one concerns real-time: the data processing must be at least as fast as the acquisition cycle (a few hours). Infact, the analysis of the data must enable the reservoir engineers to make quick decisions (stop of the injection, decreaseof the production). In a more general context, there are conceptual similarities between 3D and 4D. In 4D, the repeated acquisitions are compared with each other (or with a reference). In 3D, during acquisition, field geophysicists compare unitary shot points with each other to assess the quality of the data for decision-making (reshooting, skipping orcontinuing). Therefore, some 4D real-time tools developed during this thesis can be applied. A new approach called TeraMig for automated quality control in the field will also be presented
APA, Harvard, Vancouver, ISO, and other styles
10

Tonellot, Thierry-Laurent. "Introduction d'informations a priori dans l'inversion linéarisée élastique de données sismiques de surface avant sommation." Paris 5, 2000. http://www.theses.fr/2000PA055002.

Full text
Abstract:
Les méthodes d'inversion développées dans le cadre de la sismique marine et terrestre mettent en évidence que certains paramètres élastiques sont mal déterminés à partir des seules données sismiques. L'introduction d'informations a priori dans le processus d'inversion vise à améliorer la détermination de ces paramètres. L'objectif de cette thèse est d'introduire des informations a priori dans l'inversion linéarisée de données sismiques de surface avant sommation. Nous présentons une méthode permettant de prendre en compte des informations a priori (issues de connaissances géologiques, diagraphiques et stratigraphiques de la zone réservoir), par le biais d'un modèle a priori et d'une matrice de covariance décrivant les incertitudes sur ce modèle. La première partie de la thèse est consacrée à l'étude de cette matrice de covariance et de la norme associée à son inverse. Nous avons généralisé les fonctions de covariance exponentielle, de façon à décrire, en chaque point du domaine d'étude, les incertitudes sur les paramètres élastiques du modèle a priori, et leurs corrélations. Apres avoir donné l'expression analytique de l'inverse de la matrice de covariance en 1D, 2D et 3D, nous discrétisons la norme associée par une méthode aux éléments finis. La seconde partie de la thèse est consacrée à des tests sur données synthétiques et réelles. Une étape préliminaire consiste à assurer la cohérence aux puits des données calculées et réelles ; pour cela nous avons développé une méthode de calibrage aux puits des données avant sommation, qui permet d'estimer le signal source. L'impact de différentes informations a priori a été mis en évidence sur des données synthétiques et réelles.
APA, Harvard, Vancouver, ISO, and other styles
11

Becerra, Elcinto Javier. "Contribution à la segmentation supervisée de données volumiques : modèle perceptuel et développement d'outils interactifs d'aide à l'interprétation d'images sismiques." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13328.

Full text
Abstract:
Ce mémoire porte sur l'étude et la conception de nouveaux outils d'aide à l'interprétation des images sismiques. L'objectif est de permettre au géologue d'extraire de manière interactive les réseaux de failles tridimensionnelles visibles dans les blocs sismiques. Dans la première partie du manuscrit, nous abordons l'étude des mécanismes perceptifs mis en jeu lors de l'inspection visuelle des données sismiques dans le but de détecter les failles. Cette analyse nous permet de proposer une nouvelle technique de segmentation supervisée, nommée pointé dynamique, qui est présentée dans la deuxième partie du manuscrit. Le mémoire se termine par la présentation de résultats de segmentation obtenus par pointé dynamique.
APA, Harvard, Vancouver, ISO, and other styles
12

Quentel, Elise. "Imagerie de la structure thermohaline dans le Golfe de Cadix: Traitement des données sismiques et d'océanographie physique de la Veine d'Eau Méditerranéenne." Phd thesis, Université de Bretagne occidentale - Brest, 2010. http://tel.archives-ouvertes.fr/tel-00495963.

Full text
Abstract:
La redécouverte en 2003 par Holbrook et al. que la colonne d'eau pouvait être imagée par la méthode de la sismique marine a débouché sur la mise en place du projet européen GO (Geophysical Oceanography). Ce projet a eu pour but d'améliorer notre compréhension de la structure à méso et sous-méso-échelle de l'océan en étudiant plus particulièrement le Golfe de Cadix où une structure thermohaline complexe est présente. Les travaux présentés dans ce travail de thèse s'inscrivent directement dans ce projet. En retraitant des données historiques de sismique marine et d'hydrologie, nous avons réhabilité le jeu de données conséquent qui existait sur cette zone. Nous avons ainsi démontré que ces données de sismique marine permettaient d'imager les structures océanographiques de la méso-échelle à la sous-mésoéchelle avec une résolution horizontale d'environ 10 m. Les données d'hydrologie dont la résolution verticale est inférieure au mètre nous permettent de calibrer les données de sismique marine en température et salinité. Afin de relier nos deux jeux de données, nous avons cherché à définir le signal sismique. Celui-ci est reconstruit en convoluant le coefficient de réflexion avec l'ondelette source du système d'acquisition sismique. Le principal facteur influençant le signal sismique est la température via le gradient de vitesse du son. Les données de sismique marine et d'hydrologie de la campagne GO acquises simultanément dans le Golfe de Cadix en Avril 2007 ont ensuite été analysées pour déterminer la nature physique et les caractéristiques géométriques des réflecteurs acoustiques dans la colonne d'eau. Les données sismiques montrent des réflecteurs intenses, proches de la surface, au-dessus des courants d'Eau Méditerranéenne (EM), au-dessus d'un Meddy, et dans une structure de sous-méso-échelle de l'EM qui sont liés à de forts contrastes thermohalins. L'analyse en ondelettes verticales appliquées aux données sismiques indique des réflecteurs de longueurs d'onde verticales (16-64 m) associées à une stratification thermohaline. En bordure du Meddy, des intrusions latérales d'eau moins salée sont révélées par des réflecteurs de 25-75 m d'épaisseur. Les données sismiques étudiées révèlent que les limites supérieures et inférieures des couches correspondent à l'existence de structures à fine-échelle. Les données basse fréquence de sismique marine permettent la détection systématique et la surveillance des tourbillons de mésoéchelle et de sous-méso-échelle qui ne sont identifiés qu'occasionnellement avec les sections d'hydrologie.
APA, Harvard, Vancouver, ISO, and other styles
13

Quentel, Élise. "Imagerie de la structure thermohaline dans le Golfe de Cadix : traitement des données sismiques et d’océanographie physique de la Veine d’Eau méditerranéenne." Brest, 2010. https://tel.archives-ouvertes.fr/tel-00495963.

Full text
Abstract:
La découverte par Holbrook et al. (2003) que la colonne d’eau peut être imagée par la méthode de la sismique marine a entraîné la mise en place du projet européen GO (Geophysical Oceanography). Ce projet a eu pour but d’améliorer notre compréhension des structures de l’océan en étudiant le Golfe de Cadix où la structure thermohaline est complexe. Nos travaux sont à replacer dans ce projet. En retraitant des données historiques de sismique marine et d’hydrologie, nous avons commencé à réhabiliter le jeu de données de la zone. Nous avons mis en évidence que les données sismiques permettent d’imager les structures océanographiques avec une résolution horizontale de 10 m. Les données d’hydrologie (résolution verticale < 1 m) nous permettent de calibrer les données sismiques en température et salinité. Afin de relier nos deux jeux de données, nous avons cherché à définir le signal sismique. Il est le coefficient de réflexion convolué avec l’ondelette source du système sismique. La température via le gradient de vitesse du son influence principalement celui-ci. Les données de sismique marine et d’hydrologie acquises simultanément dans le Golfe de Cadix (Campagne GO - Avril 2007) ont été analysées pour déterminer les caractéristiques des réflecteurs acoustiques de la colonne d’eau. Les données sismiques montrent des réflecteurs intenses liés à de forts contrastes thermohalins. L’analyse en ondelettes des données sismiques montre du layering thermohalin, des intrusions latérales et des structures à fine-échelle. Les données de sismique marine permettent la détection systématique et la surveillance des tourbillons qui ne sont identifiés que rarement avec les sections d’hydrologie
The discovery by Holbrook et al. (2003) that the water column could be imaged by die marine seismic reflexion has led to die foundation of the European GO (Geophysical Oceanography) project. This project aims to improve our comprehension of die oceanic structures, with particular application to the Gulf of Cadiz. It has a complex thermohaline structure. 0w work must be replaced in this project. In reprocessing the historical marine seismics and hydrology data, we began to rehabilitate the large database of this area. Thus, we evidenced that the seismic data can image die oceanographic structures with a horizontal resolution of 10m. The hydrologic data which have a vertical resolution around 1 m can calibrate the seismic data in temperature and salinity. To relate our two databases, we searched a precise definition of the seismic signal. It is the reflexion coefficient convoluted with the source wavelet of the acquisition system. The main factor influencing the seismic signal is temperature via the sound speed gradient. Marine seismic and hydrological data acquired simultanously in the Gulf of Cadiz (GO cruise - April 2007) have been analyzed to determine the characteristics of acoustic reflectors in the water column. Seismic data show strong reflectors near the surface, above Mediterranean Water (MW) undercurrents, above a meddy, and in a submesoscale MW structure. Wavelet analysis of seismic data are associated with thermo-haline layering, lateral intrusions and fine-scale structures. Marine seismic data allow systematic detection and monitoring of eddies that hydrological sections identify only occasionally
APA, Harvard, Vancouver, ISO, and other styles
14

Valensi, Raphaël. "Développements méthodologiques à partir de formes d'ondes multicomposantes en vue de l'imagerie sismique quantitative de la proche surface : modélisation physique à échelle réduite, traitements et inversion de la polarisation." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=a6e87417-7b5f-4d39-9299-b58de9eadd18.

Full text
Abstract:
Dans le cadre de l’Inversion de la Forme d’Onde sismique pour l’imagerie du proche sous-sol, l’acquisition de données multicomposantes ouvre de nouvelles perspectives. Ce travail de thèse propose d’explorer les potentiels de l’inversion des deux composantes du champ dans une configuration P-SV pour l’auscultation des milieux superficiels où les ondes de surface dominent. L’approche met en jeu des développements formels, des tests numériques et des développements expérimentaux en laboratoire. Dans un premier temps, une nouvelle forme de fonction objectif pour l’inversion de la polarisation est définie à partir d’une métrique intrinsèque dans l’espace des états de polarisation. Dans un second temps, en adaptant un code d’inversion fréquentiel (FWT2D-PSV), les bénéfices et limites associées sont investigués numériquement en ciblant les différentes sources d’erreurs possibles sur les paramètres de densité, l’atténuation et les effets couplage sources/récepteurs. L’application à un modèle présentant une interface de profondeur variable permet ensuite de mettre en oeuvre les nouveaux développements en contexte d’imagerie de la subsurface. Puis, en vue d’une validation expérimentale, la troisième phase de l’approche concerne l’extension d’un banc de mesures (MUSC) pour la modélisation physique à échelle réduite vers des dispositifs multicomposantes. Les performances d’un interféromètre-laser innovant intégré au banc de mesure sont déterminées quantitativement en incluant les observables de polarisation. Enfin, deux applications à des problématiques de proche surface sont présentées : la détection de cavités souterraines et l’imagerie d’un milieu à interface latéralement variable
Within the framework of Seismic FullWaveform Inversion (FWI) applied to near surface imaging, multicomponent data open new prospects. In this thesis, the potential of bi-component measurements in a 2D/P-SV configuration is investigated for shallow media where surface waves dominate signal. This approach combines formal developments, numerical tests and laboratory experiments. First, using an intrinsic metric in the polarization states space, a new kind of cost-functions for the polarization inversion is introduced. Then, with an adapted version of the FWI code FWT2D-PSV, several numerical experiments are conducted in order to investigate the limits of this approach with different sources of bias as erroneous a priori concerning the density or the attenuation parameters and source/receivers coupling effects. The new methodological developments are then evaluated in case of a near surface configuration with variable depth shallow interfaces. With a view of experimental validation, the third step concerns the upgrade of a reduced scale physical modelling bench (MUSC) in order to model multicomponent seismic acquisitions. Performances of the laser interferometer integrated in the measurement bench are quantitatively determined, especially for several polarization observables. Finally, two applications of this experimental facility to near-surface configuration are presented : shallow cavity detection and laterally varying interfaces
APA, Harvard, Vancouver, ISO, and other styles
15

Oussou-Koffi, Marie. "Contrôle de la qualité du traitement des données sismiques du bassin sédimentaire de la Côte d'Ivoire : apport de la géostatistique : tentative de retraitement." Paris 6, 2009. http://www.theses.fr/2009PA066604.

Full text
Abstract:
Ce mémoire présente les résultats du retraitement des données 2D sismiques avant sommation et des techniques correctives adaptées appliquées à celles-ci dans le but de résoudre la variabilité de l’imagerie dans l’horizon Albien dans le bassin sédimentaire de Côte d’Ivoire. Le but visé est de montrer ces éventuels proble��mes en dressant tout d’abord un diagnostic et par la suite élaborer des solutions géophysiques adaptées. Pour mieux appréhender la problématique, les données de puits appelés communément les logs ont servi à faire des sismogrammes synthétiques, lesquels ont permis de montrer que la discordance albienne/cénomanienne est nette et ont également témoignés de la présence d’autres réflecteurs dans le niveau Albien. C’est pourquoi des attributs sismiques ont été générés grâce aux données 3D sommées puis analysés par les outils géostatistiques afin de rechercher d’éventuels défauts et artéfacts dans ces données. Au vu des défauts, des traitements adaptés sont apportés par l’implémentation d’une séquence de traitement d’une ligne naviguée 2D.
APA, Harvard, Vancouver, ISO, and other styles
16

Leprettre, Benoit. "Reconnaissance de signaux sismiques d'avalanches par fusion de données estimées dans les domaines temps, temps-fréquence et polarisation." Université Joseph Fourier (Grenoble ; 1971-2015), 1996. http://www.theses.fr/1996GRE10182.

Full text
Abstract:
L'estimation de l'activite avalancheuse naturelle d'une portion de massif repose actuellement sur l'observation visuelle. Pour s'affranchir des contraintes de visibilite qui lui sont liees, une solution est de detecter les ondes sismiques produites par les avalanches au cours de leur chute. Cependant, 90 pour cent des signaux enregistres ne sont pas des avalanches et doivent etre elimines. Nous proposons une approche pluridisciplinaire de ce probleme de reconnaissance. Dans le domaine temps, le module du signal est utilise comme un premier critere de reconnaissance. Dans le domaine temps-frequence, la methode hybride arcap fournit une representation temps-frequence du signal avec une bonne reduction d'information. Dans le domaine de polarisation, nous proposons d'utiliser le filtre de capon pour ameliorer le rapport signal a bruit des signaux avant d'estimer un critere de linearite. Cela permet d'estimer la repartition dans le plan temps-frequence des mouvements lineaires contenus dans le signal. Le filtre de capon est etudie en detail et compare a un filtre de fourier. Les resultats de l'analyse sont reduits a environ 25 descripteurs qui, combines a l'aide d'une base de regles, permettent l'identification des signaux. Les regles sont inspirees principalement par des considerations sur les phenomenes physiques generateurs d'ondes sismiques et sur les lois de propagation. Un test sur un ensemble de signaux identifies permet d'evaluer le taux de reussite de notre systeme a environ 90 pour cent. Un prototype autonome est propose ; il sera installe sur site pour l'hiver 96/97. Une comparaison entre l'information fournie par notre systeme et d'autres donnees relatives a l'activite avalancheuse confirme l'interet de notre systeme pour des applications concretes
APA, Harvard, Vancouver, ISO, and other styles
17

LOPES, LAURENT. "Etude methodologique du traitement sismique : deconvolution directionnelle dans le domaine frequence - nombre d'onde ; traitement de donnees sismiques acquises avec un dispositif tracte pres du fond de la mer. application a des donnees reelles." Paris 6, 1997. http://www.theses.fr/1997PA066685.

Full text
Abstract:
Deconvolution directionnelle dans le domaine frequence - nombre d'onde de par leur dimension, les reseaux de sources sismiques marines sont directionnels. Cette directivite est a eliminer avant tout traitement base sur l'hypothese d'une source unique. Une methode allant dans ce sens, ainsi que le design de l'operateur correspondant, est explicitee. Cette methode est testee sur des donnees du delft air gun experiment (1983). Cette methode considere des sections en recepteur commun et utilise une approche exacte. Elle s'oppose en cela a la methode proposee par ziolkowski et spoelstra (1987), qui considere des sections en point milieu commun et qui n'est qu'une approximation. Considerer des sections en recepteur commun permet en outre de doubler l'intervalle des nombres d'onde consideres. Par suite, une amelioration de la resolution etait attendue. Elle n'a pas ete obtenue. Cette etude montre la necessite de transformer le champ d'onde emis par la source, lie a un milieu a trois dimensions, en un champ d'onde lie a un milieu a deux dimensions. Un algorithme oeuvrant dans ce sens est propose et relie a la deconvolution. Traitement de donnees acquises avec un dispositif tracte pres du fond de la mer. Un dispositif sismique comprenant une source situee en surface et une flute monotrace tractee pres du fond de la mer a ete developpe par l'ifremer. Cette geometrie permet de reduire la taille de la zone de fresnel, et donc d'ameliorer la resolution spatiale. Un algorithme de correction geometrique et un algorithme de migration profondeur dedies a ce dispositif ont ete developpes. Les variations de la geometrie d'acquisition se traduisent sur la section sismique par des variations des temps d'arrivee. Comme il est primordial de comparer des donnees acquises avec ce systeme a des donnees de sismique classique, un algorithme visant a simuler une section a zero-offset a ete developpe. Cet algorithme est robuste et converge en peu d'iterations. De par la dissymetrie du dispositif, des evenements situes sur une meme trace ne correspondent pas a des points de reflexion situes a la meme abscisse le long du profil. Cela peut conduire a des interpretations erronees. Deux methodes de migration profondeur, celle proposee par bowen (1984) et une de type kirchhoff ont ete testees. La superiorite de l'algorithme de type kirchhoff est montree. Les ameliorations et tests ulterieurs sont definis.
APA, Harvard, Vancouver, ISO, and other styles
18

Chmiel, Malgorzata. "Traitement de données géophysiques en réseaux denses en configuration sismique passive et active." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU009/document.

Full text
Abstract:
En géophysique, les réseaux denses améliorent la caractérisation spatiale et fréquentielle des différents types d’ondes dans le milieu. Bien entendu, l’acquisition en surface est sujette aux ondes de surface qui sont très fortes. Les ondes de surface ont un fort impact sur les données géophysiques acquises au niveau du sol. Elles peuvent être considérées comme du bruit et être sujettes à la suppression puisqu’elles cachent l’information de sous-surface. Cependant, elles peuvent être utiles pour l’imagerie de proche surface si elles sont convenablement récupérées.Dans tous les cas, leur caractérisation est cruciale en géophysique d’exploration active et passive. Dans la surveillance microsismique passive, le bruit de surface ambiant est composé d’ondes de surface. L’objectif principal de la surveillance passive est de minimiser l’impact des ondes de surface sur les données microsismiques. Le fort bruit de surface diminue la sensibilité etl’efficacité des méthodes de détection et de localisation. De plus, les méthodes actuelles de localisation et de détection nécessitent généralement la connaissance d’informations telles qu’un un modèle de vitesse ou un modèle d’événement. Dans la sismique active, de fortes ondes de surface sont générés par des sources actives. Les stratégies actuelles de traitement sont généralement basées sur une sélection manuelle des ondes de surface afin de choisir lesquelles garder. Il s’agit là d’une tâche complexe, coûteuse et sujette à interprétation. Cependant, cette tâche est nécessaire pour l’imagerie de proche-surface et de sous-surface. Les ondes de surface peuvent être particulièrement difficiles à récupérer dans des acquisitions clairsemées.Nous proposons d’appliquer les techniques d’interférométrie et de formation de voies (telles que le Matched Field Processing) dans le contexte des réseaux denses. Une densité de traces importante ouvre de nouvelles possibilités dans les traitements géophysiques, qu’ils soient actifs ou passifs. Nous montrons que le bruit ambiant peut être utilisé dans le traitement microsismique pour extraire des informations importantes sur les propriétés du milieu. De plus, nous développons une approche de débruitage qui permet de supprimer les sources de bruit à la surface et détecter les événements microsismiques. Nous proposons également une méthode automatique de détection et de localisation qui se base sur une quantité minimale d’information préalable qui permet de récupérer la distribution des hétérogénéités du réservoir, dans le voisinage du puits. En ce qui concerne la sismique active, nous proposons une approche interférométrique et automatique de caractérisation des ondes de surface. Nous récupérons les noyaux de sensibilité de phase des ondes de surface entre deux points quelconques de l’acquisition. Ces noyaux de sensibilité sont par conséquent utilisés pour obtenir les courbes de dispersion multimodales. Ces courbes de dispersion permettent la séparation des différents modes des ondes de surface, et fournissent l’information de proche surface suite à une simple inversion.Le réseau dense permet l’amélioration des méthodes présentées ci-dessus: elle permet des applications alternatives et innovantes dans le traitement du signal géophysique
In geophysics, spatially dense arrays enhance the spatial and frequential characterization of the various waves propagating in the medium. Of course, surface array is subject to strong surface waves. Surface waves highly impact the processing of geophysical data acquired at ground level. They can be considered as noise and subject to suppression as they mask sub-surface information.However, they can be useful for near-surface imaging if they are well retrieved. In any case, their characterization is crucial in active and passive exploration geophysics. In passive microseismic monitoring, ambient surface noise consists of surface waves. The main goal of passive monitoring is to minimize the impact of surface waves on the actual microseismic data. The strong ambient surface noise lowers the sensitivity and the efficiency ofdetection and location methods. Moreover, current location and detection methods usually require strong a priori information (e.g., a velocity model or a template).Active sources generate strong surface waves. In active seismic, current processing strategies often consist in manually picking surface wave arrivals in order to use or remove them. This is often a complex, time consuming, and an ambiguous task. However, it is needed for near- and sub-surface imaging. Surface waves can be particularly difficult to retrieve in sparse arrays. We propose to apply the techniques of interferometry and beamforming (Matched Field Processing in particular) in the context of dense arrays. High trace density opens new possibilities in geophysical processing in both passive and active surveys. We show that the ambient noise can be explored in the case of microseismic monitoring to extract important information about the medium properties. Moreover, we develop a denoising approach to remove the noise sources at the surface and detect the microseismic event. Furthermore, we propose an automatic detection and location method with a minimum a priori information to retrieve the distribution of heterogeneities in the reservoir, in the well vicinity.In active survey, we propose an interferometric, automatic approach to characterize the surface waves. We retrieve phase-sensitivity kernels of surface waves between any two points of the acquisition. These kernels are consequently used to obtain multi-mode dispersion curves. These dispersion curves make it possible to separate different modes of surface waves and provide near-surface information if inverted.The above presented methodologies benefit from spatially dense arrays.Dense arrays of sources or receivers enable alternative, innovative applications in geophysical processing
APA, Harvard, Vancouver, ISO, and other styles
19

JANNANE, MOHAMED. "Traitement et interpretation de donnees de sismiques du projet ecors (nord de la france, pyrenees et djibouti)." Paris 7, 1989. http://www.theses.fr/1989PA077070.

Full text
Abstract:
Differents travaux effectues ont permis de parcourir un eventail assez large des methodes sismiques: couvertures multiples et couvertures simples, reflexion et refraction, tirs le long de la ligne d'ecoute et tirs deportes, etc. Lors du retraitement des donnees de la region du pays de bray, nous nous sommes interesses aux problemes de leur qualite ainsi qu'aux problemes des corrections statiques. En ce qui concerne les donnees du rift d'asal, deuxieme exemple de la methode en couverture multiple, la complexite geologique du terrain, sa fracturation combinees aux problemes techniques ou au cout, ont interdit le traitement multitrace conventionnel. Un exemple d'exploitation en couverture simple est presente dans le troisieme chapitre. Ces donnees ont ete acquises dans un but de complementarite avec la couverture multiple traitee a la cgg, et avec l'espoir de fournir une interpretation qualitative a trois dimensions. Si la complementarite a ete atteinte avec plus ou moins de succes, l'analyse qualitative tridimensionnelle n'a pu avoir lieu. En effet, la geometrie du milieu et l'echantillonnage spatial ne l'ont pas permis. Cependant, il ressort de cette etude un point de desaccord entre les resultats des tirs lateraux et l'interpretation basee sur la section stockee
APA, Harvard, Vancouver, ISO, and other styles
20

Salom, Pierre. "Visualisation interactive de données volumiques texturées pour la détection supervisée de failles en imagerie sismique." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13362.

Full text
Abstract:
L'interprétation des images sismiques tridimensionnelles est une étape clé de l'exploration pétrolière. Les enjeux de cette activité sont de produire un modèle des différentes structures, telles que les failles, incluses au sein des données sismiques. Les objectifs multiples de cette thèse, menée en partenariat avec le groupe TOTAL, sont de concevoir, d'implémenter et de valider des techniques innovantes de visualisation et d'interaction aidant à la détection et à la modélisation des failles, supervisée par un interprétateur. Bien que spécifiquement développés à destination d'un contexte opéraionnel particulier, les outils proposés s'appliquent plus généralement à l'ensemble des données volumiques texturées ainsi qu'à la segmentation manuelle de structures tridimentionnelles. Ils s'inscrivent dans un cadre théorique et méthodologique nécessairement pluridisciplinaire qui concerne des domaines aussi divers que la spychologie expérimentale, l'imagerie cognitive, la réalité virtuelle ou encore l'interaction homme-machine.
APA, Harvard, Vancouver, ISO, and other styles
21

Ouassaa, Khaled. "Etude de la structure sismique de la croûte océanique dans la partie active du point chaud de Tahiti : traitements et interprétation des données sismiques des campagnes Midplate-2 et Teahitia-4." Brest, 1996. http://www.theses.fr/1996BRES2053.

Full text
Abstract:
L'Ocean Pacifique est caracterise par l'existence de nombreuses structures volcaniques qui sont le resultat de l'activite volcanique de divers points chauds. Quatre chaines volcaniques majeures, alignees suivant la direction du mouvement absolu actuel de la plaque pacifique, peuvent etre identifiees dans la region du pacifique central sud. On retrouve ainsi du nord-est au sud-ouest les alignements des marquises, tuamotu-gambier-pitcairn, societe et cook-australes. Ce travail concerne l'etude de la structure sismique de la croute oceanique dans la partie est de tahiti (actuel point chaud de la societe), comparee avec celle des marquises, d'hawaii et des canaries. La structure sismique determinee pour l'alignement de la societe, a partir des donnees de sismique reflexion multitraces (teahitia 4) et de sismique refraction (obh / midplate 2), est constituee de quatre couches ; la premiere (1), sedimentaire, de vitesse d'intervalle moyenne de 2. 15 km/s, la seconde, probablement sedimentaire ou basaltique, notee (2a) de vitesse de 4. 10 km/s, la troisieme couche (2b), basaltique, de vitesse de 6. 05 km/s et la derniere couche (3), de type gabbroique, de vitesse de 7. 19 km/s. La discontinuite du moho est mise en evidence en plusieurs endroits par le passage des vitesses des ondes p de 7. 19 km/s a 8. 10 km/s ; elle est situee a une profondeur de 10 km (epaisseur de la croute: 6 km) a partir de la surface de la mer, a une distance de 200 km a l'est de tahiti ; elle est estimee a 17. 8 km a l'aplomb de l'ile de tahiti et elle est entre 14. 5 km et 17. 2 km (epaisseur de la croute: 11. 0 et 14. 0 km) a l'ouest de tahiti. La comparaison de la variation d'epaisseur des couches 2a, 2b et de la couche 3 en fonction de la distance a l'alignement de la societe avec celle observee dans les autres alignements, montre des similitudes, mais avec des taux differents. Enfin, l'etude des pressions lithostatiques exercees au niveau de la discontinuite du moho, a permis de valider les modeles de vitesses proposes pour les differents alignements et d'estimer localement les densites du manteau superieur
APA, Harvard, Vancouver, ISO, and other styles
22

Labonne, Claire. "Analyse de la polarisation de données multi-composantes à partir d'une seule station ou d'une antenne : méthodes et applications à la caractérisation du champ d'ondes sismiques." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4135/document.

Full text
Abstract:
L’analyse du champ d’ondes est un prérequis essentiel à l’étude de la propagation des ondes sismiques qui permet à son tour d’améliorer notre compréhension des processus physiques liés à la nature de la source et notre connaissance des milieux de propagation. L’objectif de cette thèse est de développer des techniques de traitement du signal afin d’améliorer l’exploitation des informations apportées par les stations et les antennes 3 composantes dans le but de caractériser le champ d’ondes sismiques. Elle se concentre sur les analyses de polarisation, leur extension aux antennes 3 composantes et leur utilisation conjointe avec des traitements d’antenne classiques. La thèse revient sur les approches existantes qui tentent d’étendre le traitement d’antenne aux 3 composantes. Ces méthodes existantes se montrent complexes et leur utilisation reste limitée, la thèse suggère deux méthodes alternatives associant successivement traitement d’antenne et polarisation. Afin d’exploiter au mieux les analyses de polarisation, un système standardisé de paramètres décrivant la polarisation est développé et associé à une solution de visualisation permettant de regrouper l’ensemble des paramètres essentiels à l’interprétation sur une figure unique. Finalement, une étude de polarisation sur l’antenne 3 composantes du LSBB (Laboratoire Souterrain Bas Bruit) démontre la possibilité d’utiliser la cohérence spatiale de la polarisation comme aide pour l’interprétation des sismogrammes
The analysis of the seismic wavefield is an essential pre-requisite to the study of seismic wave propagation which in turns helps improving our understanding of the physical processes behind the sources and our knowledge of the propagation medium. The objective of this thesis is to further develop signal processing techniques to more fully exploit the information brought by the 3 component stations and arrays in order to characterize the seismic wavefield. The thesis work focuses on polarization analysis, its extension to 3-component arrays and its joint use with classical array processing. A review of the existing methods that attempt to extend array processing to the 3-components leads to the observation that these methods are complex and their use is limited. Therefore, two alternative methods that associate array processing and polarization sequentially are suggested. In order to best exploit the polarization analyses, a standardized parametrization system describing the polarization is developed and associated with a visualization solution regrouping all the parameters necessary for the interpretation on one figure. Finally, a polarization analysis performed on data from the LSBB 3-component array demonstrates the possibility to use spatial coherency to assist with the interpretation of seismograms
APA, Harvard, Vancouver, ISO, and other styles
23

Shipilova, Ekaterina. "Separation of signals originating from simultaneous seismic sources by greedy signal decomposition methods." Electronic Thesis or Diss., CentraleSupélec, 2018. http://www.theses.fr/2018CSUP0005.

Full text
Abstract:
L’acquisition de données sismiques avec des sources simultanées a récemment attiré beaucoup d’attention, tant dans l’industrie pétrolière et gazière que dans le monde académique, grâce à sa capacité à réduire le temps passé sur le terrain. Malgré le gain de temps évident, la méthode des sources simultanées a un inconvénient considérable: les sources interfèrent les unes avec les autres, créant des diaphonies dans les données, ce qui entraîne une augmentation significative de la complexité du traitement et des pertes potentielles de qualité. Un grand nombre des méthodes de séparation actuellement proposées nécessitent un prétraitement des données, par exemple, une suppression des ondes de surface. Dans cette thèse, nous proposons d'utiliser un modèle d'événement sismique piloté par les données dans une décomposition gloutonne pour obtenir une séparation adaptée aux données brutes sans aucun prétraitement. La méthode proposée consiste à identifier des caractéristiques cohérentes dans les données et à les classer en fonction de leur source d’origine. Nous utilisons deux applications imbriquées de Matching Pursuit Orthogonal, dont les dictionnaires sont constitués de modèles d'événements sismiques et d'ondelettes basés sur les données. Grâce à plusieurs étapes d'optimisation et en partant des conditions initiales appropriées, nous sommes en mesure de maximiser efficacement une fonction objectif non concave et d'obtenir une qualité de séparation satisfaisante, que nous démontrons sur des signaux des sources simultanées synthétiques et réels
Simultaneous-source seismic data acquisition has recently attracted great attention both in the oil and gas industry and in academia, thanks to its capacity to save data acquisition time. Despite the evident time-saving advantage, the simultaneous-source method has a considerable draw-back: the sources interfere with each other creating cross-talk in the data, which leads to significant increase of the processing complexity and potential loss in the subsurface image quality. Recent advances in processing and imaging allow acceptable handling of the cross-talk, however, specific processing methods adapted for blended data still need to be improved. Many of the currently proposed separation methods need some preprocessing of the data, e.g., surface waves suppression. In this thesis, we propose to use a data-driven seismic event model in a greedy decomposition to obtain a separation suitable for raw data without any preprocessing. The proposed method is based on identifying coherent features in the data and classifying them according to their source of origin. We use two nested applications of Orthogonal Matching Pursuit, whose dictionaries are constituted of data-driven models of seismic events and wavelets. Thanks to several optimization steps and starting with appropriate initial conditions, we are able to effectively maximize a non-concave objective function and achieve a satisfactory separation quality, which we demonstrate on synthetic and real simultaneous-source signals
APA, Harvard, Vancouver, ISO, and other styles
24

Lubrano, Lavadera Paul. "Traitement des données de sismique de puits acquises en 2007 sur le site de Soultz-sous-Forêts pour la caractérisation de la fracturation du réservoir géothermique." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-01038001.

Full text
Abstract:
Les données de VSP multi-source/multi-offset acquises en 2007 sur le site géothermique de Soultz-sous-Forêts sont traitées et analysées. Des géophones placés dans les puits GPK3 et GPK4 entre 3 et 5 km de profondeur ont enregistré les ondes sismiques émises par deux vibrateurs placés en 24 positions de tir réparties dans un rayon de 5 km autour des puits. Après corrélation des enregistrements avec la source associée à chaque vibrateur, les différentes composantes du champ d'onde sont séparées par filtrage en vitesse apparente. La comparaison des résultats obtenus par filtrage médian ou dans le domaine FK montre des signaux similaires. Un modèle de vitesse est établi pour pouvoir calculer les temps d'arrivée. Il comporte deux couches sédimentaires sur le socle granitique et des interfaces planes pentées. Le champ d'onde descendant de forte vitesse apparente est interprété comme des réflexions sur des structures subverticales autour des puits. Leur pendage, azimut et extension latérale sont déterminés en ajustant les temps de trajet observés et calculés par tracé de rayons 3D. Les structures à pendage vers l'ouest connues par les observations en forage et la microsismicité sont retrouvées. Une structure antithétique nouvelle est déterminée. Nos résultats permettent de compléter le modèle structural de la fracturation dans le réservoir géothermique.
APA, Harvard, Vancouver, ISO, and other styles
25

Castanié, Laurent. "Visualisation de données volumiques massives : application aux données sismiques." Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL083N/document.

Full text
Abstract:
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique
Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
APA, Harvard, Vancouver, ISO, and other styles
26

RICHARD, JOEL. "Application de methodes de traitements numeriques de signaux a la detection, compression et reconnaissance d'evenements d'origines sismiques dans une station autonome de type sismographe fond de mer." Rennes 1, 1988. http://www.theses.fr/1988REN10121.

Full text
Abstract:
Les conditions de fonctionnement des sismographes fond de mer imposent le conditionnement des signaux pour limiter les debits d'information lors de l'enregistrement ou de la transmission. Trois methodes deduites de la transformation de fourier, de la transformation de walsh et de la modelisation autoregression sont examines et testes
APA, Harvard, Vancouver, ISO, and other styles
27

Derfoul, Ratiba. "Intégration des données de sismique 4D dans les modèles de réservoir : recalage d'images fondé sur l'élasticité non linéraire." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00924825.

Full text
Abstract:
Dans une première partie, nous proposons une méthodologie innovante pour la comparaison d'images en ingénierie de réservoir. L'objectif est de pouvoir comparer des cubes sismiques obtenus par simulation avec ceux observés sur un champ pétrolier, dans le but de construire un modèle représentatif de la réalité. Nous développons une formulation fondée sur du filtrage, de la classification statistique et de la segmentation d'images. Ses performances sont mises en avant sur des cas réalistes. Dans une seconde partie, nous nous intéressons aux méthodes de recalage d'images utilisées en imagerie médicale pour mettre en correspondance des images. Nous introduisons deux nouveaux modèles de recalage fondés sur l'élasticité non linéaire, où les formes sont appréhendées comme des matériaux de type Saint Venant-Kirchhoff et Ciarlet-Geymonat. Nous justifions théoriquement l'existence de solutions ainsi que la résolution numérique. Le potentiel de ces méthodes est illustré sur des images médicales.
APA, Harvard, Vancouver, ISO, and other styles
28

Lebrun, Dominique. "Inversion linéarisée de données sismiques à deux composantes." Montpellier 2, 1997. http://www.theses.fr/1997MON20055.

Full text
Abstract:
L'objet de cette these est l'inversion linearisee, par l'approximation de born, de donnees sismiques multicomposantes pour des milieux elastiques 3d stratifies horizontalement. Une matrice jacobienne faisant passer des parametres du milieu aux donnees sismiques est creee. La technique d'inversion utilise la decomposition en valeurs singulieres de la matrice jacobienne. Une etude quantitative de la resolution des parametres du sous-sol est alors menee. Une premiere application est faite dans le cadre de l'evaluation d'une acquisition au fond de la mer (obc). Enfin, un cas reel est traite.
APA, Harvard, Vancouver, ISO, and other styles
29

Pianelo, Laurent. "Modélisation géologique contrainte par les données sismiques et dynamiques." Aix-Marseille 1, 2001. http://www.theses.fr/2001AIX11042.

Full text
Abstract:
Les procédures d'inversion sont utilisées en géosciences afin d'améliorer les modèles géologiques. En réservoir, l"'History Matching" permet de modifier les paramètres pétrophysiques des simulateurs d'écoulements afin que les résultats numériques calent avec les données observées. De la même façon, les paramètres sismiques sont modifiés pour retrouver numériquement les acquisitions sismiques. Malheureusement, il est bien connu que ces problèmes inverses sont mal contraints. L'idée de ce travail original est de modifier simultanément la perméabilité et l'impédance acoustique du réservoir, pour une amélioration du modèle géologique. Pour y parvenir, les paramètres sont liés en utilisant soit des mesures de carottes, soit les relations classiques de Wyllie (porosité - impédance) et de Carman - Kozeny (porosité - perméabilité). De fait, les données de production sont utilisées pour contraindre le calage de la sismique, et les observations sismiques vont améliorer l'inversion de la perméabilité. Ce travail a consisté à programmer des prototypes numériques d'un simulateur d'écoulements en 3D ainsi que d'un simulateur d'acquisition sismique 3D. Puis, à développer mathématiquement et à implémenter une boucle d'inversion couplée. Nous avons ainsi pu tester notre théorie sur des cas 3D réalistes. La comparaison entre l'inversion couplée et les inversions des données de production seules et des observations sismiques seules démontre l'efficacité de notre méthode. Nous réduisons drastiquement le nombre de solutions possibles. De plus, l'augmentation des informations amène une amélioration nette des modèles obtenus, particulièrement dans la localisation spatiale des contrastes en perméabilité. L'amélioration est significative, à la fois sur la distribution des deux paramètres, mais aussi quand à la vitesse de l'opération. Ce travail breveté est un pas important dans la voie de l'intégration de données et de compétences et conduit à une meilleure caractérisation des réservoirs.
APA, Harvard, Vancouver, ISO, and other styles
30

Sinoquet, Delphine. "Utilisation de modèles lisses pour l'inversion tomographique de données sismiques." Paris 13, 1995. http://www.theses.fr/1995PA132005.

Full text
Abstract:
La tomographie de réflexion permet en théorie la détermination de la distribution des vitesses de propagation dans le sous-sol et de la géométrie des réflecteurs a partir des temps de trajet des ondes sismiques. La solution de ce problème inverse est le modèle (distribution de vitesses et réflecteurs) qui minimise les écarts entre temps observes et temps calcules par un trace de rayons (problème direct). Deux représentations du champ de vitesse sont généralement utilisees: les modèles block (discontinus) et les modèles lisses. L'objet de cette thèse est l'étude de la tomographie avec des modèles lisses, ces modèles présentant des propriétés intéressantes aussi bien au niveau pratique qu'au niveau mathématique et numérique. Nous proposons une formulation originale du problème inverse qui permet l'intégration d'informations à priori adaptées aux modèles lisses. Cette formulation nous assure l'existence, l'unicité et la stabilité de la solution du problème inverse linéarité. Le problème inverse non linéaire est résolu par une méthode de gauss-newton alors que le problème linéarité est résolu par une méthode d'optimisation avec contraintes, basée sur la méthode du lagrangien augmente. Cette méthode nous a ainsi permis de résoudre des problèmes géophysiques difficiles faisant intervenir des milliers d'inconnues satisfaisant des milliers de contraintes. Nous montrons également que la formulation choisie réduit considérablement l'indétermination de la solution par rapport aux techniques classiques de régularisation et fournit une solution géologiquement plus acceptable. Cependant, malgré l'introduction d'informations a priori, de l'imprécision dans les données temps de trajet résulte une incertitude dans les données. Une analyse d'incertitude est donc nécessaire: nous proposons pour ce faire une méthode basée sur l'optimisation avec contraintes
APA, Harvard, Vancouver, ISO, and other styles
31

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Full text
Abstract:
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
APA, Harvard, Vancouver, ISO, and other styles
32

Marcadon, Frédéric. "Détection et modélisation de binaires sismiques avec Kepler." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS080/document.

Full text
Abstract:
Le satellite spatial Kepler a détecté des oscillations de type solaire parmi plusieurs centaines d'étoiles, permettant la détermination de leurs propriétés physiques à l'aide de l’astérosismologie. Les modèles d'évolution stellaire et les lois d'échelle employés pour déterminer les paramètres tels que la masse, le rayon et l'âge nécessitent toutefois une calibration adaptée. Dans ce contexte, l'utilisation des systèmes binaires présentant des oscillations de type solaires pour les deux étoiles semble particulièrement appropriée. Au cours de cette thèse, nous avons procédé à un travail de détection de ces binaires sismiques parmi les données de Kepler ainsi qu'au développement des outils nécessaires à leur analyse. Bien que la découverte d'une nouvelle binaire sismique semblait très peu probable, nous avons pu rapporter pour la toute première fois la détection d'oscillations de type solaire associées aux deux étoiles les plus brillantes d'un système triple, à savoir HD 188753. À partir de la modélisation, nous avons déterminé des âges semblables pour les deux étoiles détectées en astérosismologie, comme attendu en raison de leur origine commune. Par ailleurs, nous avons entrepris la première analyse orbitale de ce système hiérarchique dans le but d'obtenir une estimation directe des masses et de la parallaxe. Finalement, l'exemple de HD 188753 illustre notre capacité à détecter et à modéliser chacune des étoiles d'un système binaire ou multiple tout en réalisant l'analyse orbitale de celui-ci. Les différents outils développés au cours de cette thèse seront intensivement utilisés dans le cadre des futures missions TESS et PLATO
The Kepler space telescope detected solar-like oscillations in several hundreds of stars, providing a way to determine their physical properties using asteroseismology. However, the stellar evolutionary models and scaling relations employed to determine parameters such as the mass, the radius and the age require a proper calibration. In this context, the use of seismic binaries showing solar-like oscillations in both stars is especially suitable. During this thesis, we have worked towards the detection of such seismic binaries from the Kepler database and developed the necessary tools to study them. Although the discovery of a new seismic binary was very unlikely, we were able to report for the first time the detection of solar-like oscillations in the two brightest stars of a triple stellar system, namely HD 188753. Using stellar modelling, we found compatible ages for the two stars derived from asteroseismology, as expected from their common origin. In addition, we performed the first orbital analysis of this hierarchical system in order to derive a direct estimate of masses and parallax. Finally, the example of HD 188753 shows our capability to detect and model each of the stars of a binary or multiple system and to perform the orbital analysis of this one. The various tools developed during this thesis will be extensively used in the context of the future missions TESS and PLATO
APA, Harvard, Vancouver, ISO, and other styles
33

Wehr, Hannah. "Modélisation 3D des Pyrénées à partir des données géologiques, gravimétriques et sismiques." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30317/document.

Full text
Abstract:
Un modèle géologique tridimensionnel des Pyrénées et de leurs bassins d'avant-pays est construit avec le logiciel GeoModeller. Ce modèle tient compte de toutes les informations géologiques et géophysiques disponibles et couvre l'ensemble des Pyrénées, de l'Océan Atlantique à la Mer Méditerranée, et de la Chaîne Ibérique au Massif Central, jusqu'à 70 km de profondeur. Il est capable d'expliquer les principales caractéristiques des anomalies de Bouguer et des temps de trajet sismiques. Des inversions 3D sont réalisées pour affiner ce modèle. La modélisation et l'inversion géologiques et géophysiques révèlent des différences dans la structure crustal entre les Pyrénées occidentales et centrales et les Pyrénées orientales. Elles montrent en outre la présence de manteau exhumé et enfermé dans la croûte sous le Massif du Labourd et à Saint-Gaudens ainsi que la nécessité d'une anomalie de faible densité dans les Pyrénées orientales
A three-dimensional geological model of the Pyrenees and their foreland basins is constructed with the GeoModeller software. This model accounts for all the geological and geophysical information available and covers the whole Pyrenees, from the Atlantic Ocean to the Mediterranean Sea, and from the Iberian Range to the Massif Central, down to 70 km depth. It is able to explain main features of Bouguer gravity anomalies and of seismic travel times. 3D inversion is performed to refine this model. Joint geological and geophysical modeling and inversion reveal differences in the crustal structure between the western and central Pyrenees and the eastern Pyrenees. They show furthermore the presence of exhumed mantle material enclosed in the crust beneath the Labourd Massif and Saint-Gaudens, as well as the necessity of a low density anomalie in the eastern Pyrenees
APA, Harvard, Vancouver, ISO, and other styles
34

BOUMAHDI, MOUAD. "Déconvolution aveugle utilisant les statistiques d'ordre supérieur : application à des données sismiques." Grenoble INPG, 1995. http://www.theses.fr/1995INPG0068.

Full text
Abstract:
Le sujet que nous traitons est celui de l'identification et de la deconvolution aveugles en utilisant les statistiques d'ordre superieur a deux. Dans le premier chapitre nous presentons les outils mathematiques qui definissent les statistiques d'ordre superieur a deux. Dans le deuxieme chapitre, nous posons le probleme d'identification aveugle de systemes lineaires a phases non-minimales, et nous presentons differentes approches non-parametriques d'identification. Dans le chapitre trois nous adoptons une approche parametrique basee sur des modeles ar, ma ou arma et qui utilise la propriete du maximum du kurtosis pour identifier des filtres a phases non-minimales. Sur des simulations et sur des donnees sismiques et d'explosion sous-marine nous validons les algorithmes que nous proposons et nous les comparons a d'autres proposes dans la litterature. Dans le chapitre quatre, nous montrons l'interet des pretraitements que nous proposons avant d'appliquer les algorithmes d'identification a des donnees sismiques reelles. Sur les exemples de donnees reelles que nous traitons, l'utilisation des statistiques d'ordre superieur semble meilleure que l'ordre deux
APA, Harvard, Vancouver, ISO, and other styles
35

Dargent, Régis. "Filtrage adaptatif et diffusion anisotrope pour l'aide à interprétation des données sismiques." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13205.

Full text
Abstract:
Ce mémoire traite du rehaussement d'images sismiques tridimensionnelles, constituées d'un empilement de couches géologiques, elles-mêmes interrompues par des failles sismiques. L'objectif, en apparence contradictoire, est de lisser les couches géologiques, tout en préservant certaines discontinuités : les failles. Les méthodes de filtrage adaptatifs - couramment employées dans le domaine de l'imagerie sismique - ainsi que la diffusion anisotrope sont bien adaptées à cette problématique car elles permettent une prise en compte de l'orientation des couches, ainsi que de critères indiquant la possible présence de failles. Reprenant les points clefs des approches précédentes, nous proposons une équation d'évolution fondée sur la définition de trois zones de comportement différentié à l'intérieur du voisinage de chaque point. La définition de ces zones est réalisée pour chaque voxel à l'aide de l'orientation estimée des couches géologiques. Une évolution du filtre de diffusion sectorielle consiste à sélectionner, dans le voisinage défini précédemment, la sous-partie qui minimise un critère relatif à la présence de faille. Cette nouvelle approche permet non seulement de lisser l'image, mais également de renforcer la visibilité des failles. Les performances des méthodes proposées sont comparées à celles des approches classiques à l'aide d'un estimateur objectif de gain de qualité, employé sur des images de synthèse. Une comparaison visuelle de résultats obtenus sur des données réelles est également réalisée.
APA, Harvard, Vancouver, ISO, and other styles
36

Le, Bihan Nicolas. "Traitement algébrique des signaux vectoriels : application en séparation d'ondes sismiques." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0091.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Leroy, Philippe. "Traitement des données en pharmacocinétique." Paris 5, 1988. http://www.theses.fr/1988PA05P177.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Chauris, Hervé. "Exploitation de la cohérence locale des données sismiques pour l'imagerie du sous-sol." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00535531.

Full text
Abstract:
Mes travaux de recherche s'inscrivent dans l'imagerie sismique des premiers kilomètres du sous-sol, en particulier dans le domaine pétrolier. Il s'agit de reconstruire les propriétés de la sub-surface, par exemple la vitesse de propagation des ondes de compression, à partir d'enregistrements en surface de déplacements ou de variations de la pression liés au passage d'un train d'ondes acoustiques ou élastiques. Je me suis attaché, dans ce domaine, à regarder différemment les données sismiques. Les enregistrements sismiques dépendent de la position de source et d'un ensemble de récepteurs, ainsi que du temps d'enregistrement. Ils sont couramment analysés trace par trace, par exemple pour filtrer les données ou bien pour les migrer, c'est-à-dire retrouver en profondeur les perturbations du milieu, typiquement avec des migrations de type Kirchhoff. Dans le cas de la migration dite "reverse-time migration", les points de tir sont vus comme un ensemble : l'information de tous les récepteurs est rétro-propagée depuis la surface jusqu'en profondeur, également pour retrouver les propriétés du milieu. Je propose de considérer des groupes de traces adjacentes, autour d'une fenêtre en temps, et d'examiner différents algorithmes d'imagerie sous cet aspect. L'aspect cohérence locale est justifié dans le domaine pétrolier par les acquisitions actuelles qui sont de plus en plus denses, et aussi par la notion de zone de Fresnel. La cohérence latérale des signaux sismiques est traitée sous deux angles. Le premier donne une vision très épurée : les événements localement cohérents sont décrits en 2D par la position de la trace centrale, une position dans la trace, et une pente qui indique la cohérence. Je montre qu'à partir de ce type d'approche, il est possible de retrouver les grandes longueurs d'onde du modèle de vitesse par analyse de vitesse dans le domaine migré. J'ai pu aussi établir le lien entre cette méthode d'analyse de vitesse et la tomographie de pente. Le second angle d'attaque prend en compte la signature des données sismiques, et en particulier la bande passante limitée. Les applications sont alors beaucoup plus nombreuses : migration, analyse de vitesse, sensibilité de l'image migrée par rapport au modèle de vitesse, et d'autres tâches liées au pré-traitement comme le débruitage, la prédiction des multiples, ... Dans chacun des cas, j'analyse les avantages et limitations de l'utilisation de la cohérence locale. Il s'avère que le choix du code de décomposition en événements locaux (``curvelets'', ...) est étroitement lié à l'application qui en est faite : si l'objectif est de comprimer les données sismiques, alors les curvelets ne sont pas adaptées. S'il s'agit au contraire de savoir comment l'image migrée dépend du choix du modèle de vitesse pris pour la migration, alors les curvelets ont beaucoup d'avantages. Plus particulièrement, les curvelets offrent la flexibilité de la décomposition des données, très utile pour la suppression des bruits cohérents. De plus, elles diagonalisent presque l'opérateur de démigration/migration qui donne la sensibilité de l'image migrée par rapport au choix du modèle de vitesse. Enfin, elles permettent d'exploiter l'aspect multi-échelle des données, avec des applications sur la suppression de l'aliasing. Je montre aussi qu'il est possible de développer d'autres schémas de décomposition et de reconstruction, comme par exemple les ``circlets''. Dans les perspectives de recherche, je tiens à dépasser le cadre asymptotique hautes fréquences dans lequel les curvelets trouvent un cadre naturel. Je propose en particulier une nouvelle formulation du problème d'inversion des formes d'onde (DFWI, Differential Full WaveForm Inversion). Cette méthode se veut générale pour retrouver les propriétés du sous-sol et permettre une optimisation locale, tout en s'affranchissant de la détermination d'un modèle de départ très proche de la solution. Cette idée doit être approfondie. Elle exploite la cohérence locale des données sismiques et suppose que le signal est bien échantillonné en temps et en espace. Les applications sont très nombreuses et touchent le domaine pétrolier, la géotechnique, la sismologie globale et régionale.
APA, Harvard, Vancouver, ISO, and other styles
39

Neau, Audrey. "Caractérisation des réservoirs pétroliers par les données sismiques avec l'aide de la géomodélisation." Phd thesis, Université de Pau et des Pays de l'Adour, 2009. http://tel.archives-ouvertes.fr/tel-00403501.

Full text
Abstract:
La caractérisation sismique des réservoirs pétroliers nécessite l'intégration de plusieurs techniques telles que la lithosismique, la géomodélisation, la géostatistique, l'utilisation des algorithmes évolutionnaires et la pétrophysique. L'information sismique est d'abord utilisée pour la description de l'architecture externe des réservoirs car son utilisation pour la description des faciès ne se fait pas sans difficultés. L'objectif de cette thèse est d'apporter des outils nouveaux pour aider à l'utilisation de l'information sismique pour caractériser les réservoirs.
Un premier travail a consisté à évaluer l'impact des incertitudes structurales sur les inversions pétroélastiques et les conséquences en terme de classification de faciès. Ensuite, nous considérons la modélisation sismique comme aide à l'évaluation du modèle réservoir. Cette modélisation permettra de faire le lien entre les simulateurs réservoir ou les géomodeleurs et la réponse sismique du réservoir.
Nous développons ensuite deux approches alternatives aux méthodes traditionnelles en inversion pétroélastique et pétrophysique. La première utilise la méthode géostatistique des déformations graduelles pour créer des réalisations de propriétés réservoirs. Elle permet de créer des propriétés à l'échelle réservoir, conditionnées aux puits, tout en respectant une fonction coût basée sur la comparaison des données sismiques réelles et issues de ces réalisations.
La seconde méthode repose sur le principe de la classification supervisée et utilise des réseaux de neurones pour analyser la forme des traces sismiques. Une première étape consiste à générer un volume d'apprentissage contenant tous les modèles pétrophysiques envisageables pour un champ donné. Ces modèles sont analysés par les réseaux de neurones. Les neurones ainsi identifiés sont appliqués aux données réelles, pour identifier des relations pétrophysique/sismique identiques aux données d'apprentissage.
Toutes les méthodologies sont validées sur plusieurs réservoirs choisis pour leurs particularités géologiques (complexité structurale, lithologie du réservoir).
APA, Harvard, Vancouver, ISO, and other styles
40

Renard, François. "Inversion de données sismiques : prise en compte de la nature corrélée du bruit." Montpellier 2, 2003. http://www.theses.fr/2003MON20014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Lesueur, Chloé. "Relations entre les mesures de mouvements du sol et les observations macrosismiques en France : Etude basée sur les données accélérométriques du RAP et les données macrosismiques du BCSF." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/LESUEUR_Chloe_2011.pdf.

Full text
Abstract:
Une comparaison entre observations macrosismiques et accélérométriques est effectuée pour trois séismes de magnitude Mw~4. 5 du nord-est de la France et de l’ouest de l’Allemagne, entre 2003 et 2005. Les paramètres scalaires et spectraux (Peak Ground Acceleration /Velocity (PGA et PGV), Cumulate Absolute Velocity (CAV), Arias Intensity (AI), Pseudo Acceleration /Velocity (PSA et PSV)) sont déduits des signaux accélérométriques enregistrés par neuf stations du Réseau Accélérométrique permanent situés entre 29 et 180km des épicentres. Les données macrosismiques sont collectées au travers de témoignages spontanés via le questionnaire internet du Bureau Central Sismologique Français. Les réponses aux questions du formulaire sont par la suite encodées. En plus de l’intensité macrosismique individuelle, l’analyse de la corrélation interne entre les réponses encodées a mis en évidence quatre champs de questions, définis par un sens physique différent : 1) « Mouvements vibratoires des petits objets », 2) « Déplacement et chute d’objets », 3) « Sons entendus », 4) « Ressenti Personnel ». Les plus fortes corrélations entre paramètres macrosismiques et instrumentaux sont observées lorsque les paramètres macrosismiques sont moyennés sur des surfaces circulaires de 10km de rayon autour de chaque station accélérométrique. Les intensités macrosismiques prédites par les relations intensité-PGV publiées s’accordent bien avec les intensités observées, contrairement à celles prédites à partir du PGA. Les corrélations entre les paramètres instrumentaux et macrosismiques pour des intensités comprises entre II et V (EMS-98) montrent que le PGV est le paramètre qui présente les plus fortes corrélations avec tous les paramètres macrosismiques. Les corrélations avec les spectres de réponses (PSA) montrent une claire dépendance en fréquence dans l’intervalle [1-33Hz]. Les composantes horizontales et verticales sont corrélées avec les paramètres macrosismiques entre 1 et 10Hz, gamme correspondant au domaine de fréquences propres de la plupart des bâtiments et au contenu haute énergie du mouvement du sol. Entre 10 et 25Hz une chute de corrélations entre les données macrosismiques et instrumentales est observée jusqu’à 25Hz, fréquence à laquelle les coefficients de corrélation augmentent et approchent le niveau des corrélations obtenues avec le PGA
Comparison between accelerometric and macroseismic observations is made for three Mw~4. 5 earthquakes of eastern France between 2003 and 2005. Scalar and spectral instrumental parameters are processed from the accelerometric data recorded by nine accelerometric stations located between 29km and 180km from the epicentres. Macroseismic data are based on the French Internet reports. In addition to the individual macroseismic intensity, analysis of the internal correlation between the encoded answers highlights four predominant fields of questions, bearing different physical meanings: 1) “Vibratory Motions of small objects”, 2) “Displacement and Fall of Objects”, 3) “Acoustic Noise”, and 4) “Personal Feelings”. Best correlations between macroseismic and instrumental observations are obtained when the macroseismic parameters are averaged over 10km radius circles around each station. Macroseismic intensities predicted by published PGV-intensity relationships quite agree with the observed intensities, contrary to those based on PGA. The correlations between the macroseismic and instrumental data, for intensities between II and V (EMS-98), show that PGV is the instrumental parameter presenting the best correlation with all macroseismic parameters. The correlation with response spectra, exhibits clear frequency dependence over a limited frequency range [0. 5-33Hz]. Horizontal and vertical components are significantly correlated with macroseismic parameters between 1 and 10Hz, a range corresponding to both natural frequencies of most buildings and high energy content in the seismic ground motion. Between 10 and 25Hz, a clear lack of correlation between macroseismic and instrumental data is observed, while beyond 25Hz the correlation coefficient increases, approaching that of the PGA correlation level
APA, Harvard, Vancouver, ISO, and other styles
42

Hadj, Kacem Nabil. "Intégration des données sismiques pour une modélisation statique et dynamique plus réaliste des réservoirs." Paris, ENMP, 2009. http://www.theses.fr/2006ENMP1407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Sirgue, Laurentf1975. "Inversion de la forme d'onde dans le domaine fréquentiel de données sismiques grands offsets." Paris 11, 2003. http://www.theses.fr/2003PA112088.

Full text
Abstract:
L'approche standard en imagerie sismique repose sur une décomposition par échelle du modèle de vitesse: la détermination des bas nombres d'ondes est suivie par une reconstruction des hauts nombres d'ondes. Cependant, pour des modèles présentant une structure complexe, la détermination des hauts nombres d'ondes peut être améliorée de manière significative par l'apport des nombres d'ondes intermédiaires. Ces derniers peuvent être déterminés par l'inversion non-linéaire de la forme d'onde de données sismiques grands angles qui est, par ailleurs, limitée par la non-linéarité du problème inverse. La non-linéarité est gouvernée par la fréquence minimum dans les données et le modèle de vitesse initial. Pour les très basses fréquences, inférieures à 7 Hz, le problème est raisonnablement linéaire pour appliquer l'inversion de la forme d'onde à partir d'un modèle de départ déterminé par inversion tomographique des temps de trajets. Le domaine fréquentiel est alors très efficace pour inverser des basses vers les hautes fréquences. De plus, il est possible de discrétiser les fréquences avec un pas d'échantillonnage plus grand que celui dicté par le théorème d'échantillonnage. Une stratégie pour sélectionner les fréquences est développée qui réduit le nombre de fréquences nécessaire en imagerie lorsqu'une gamme d'offset est disponible: le nombre de fréquences diminue lorsque l'offset maximum augmente. Les donnés sismiques réelles ne contiennent malheureusement pas de très basses fréquences. Des techniques de pré-conditionnement doivent alors être appliquées afin d'améliorer l'efficacité de l'inversion à partir de fréquences réalistes. Le lissage du vecteur gradient ainsi que l'inversion des premières arrivées augmente les chances de convergence au minimum global. L'efficacité des méthodes de pré-conditionnement est tout de même limitée par le degré d'information contenu dans le modèle de départ
The standard imaging approach in exploration seismology relies on a decomposition of the velocity model by spatial scales: the determination of the low wavenumbers of the velocity field is followed by the reconstruction of the high wavenumbers. However, for models presenting a complex structure, the recovery of the high wavenumbers may be significantly improved by the determination of intermediate wavenumbers. These, can potentially be recovered by local, non-linear waveform inversion of wide-angle data. However, waveform inversion is limited by the non-linearity of the inverse problem, which is in turn governed by the minimum frequency in the data and the starting model. For very low frequencies, below 7 Hz, the problem is reasonably linear so that waveform inversion may be applied using a starting model obtained from traveltime tomography. The frequency domain is then particularly advantageous as the inversion from the low to the high frequencies is very efficient. Moreover, it is possible to discretise the frequencies with a much larger sampling interval than dictated by the sampling theorem and still obtain a good imaging result. A strategy for selecting frequencies is developed where the number of input frequencies can be reduced when a range of offsets is available: the larger the maximum offset is, the fewer frequencies are required. Real seismic data unfortunatly do not contain very low frequencies and waveform inversion at higher frequencies are likely to fail due to convergence into a local minimum. Preconditioning techniques must hence be applied on the gradient vector and the data residuals in order to enhance the efficacy of waveform inversion starting from realistic frequencies. The smoothing of the gradient vector and inversion of early arrivals significantly improve the chance of convergence into the global minimum. The efficacy of preconditioning methods are however limited by the accuracy of the starting model
APA, Harvard, Vancouver, ISO, and other styles
44

Roueff, Antoine. "Traitement des signaux sismiques multicapteurs et multicomposantes, utilisant les représentations temps-fréquence." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0048.

Full text
Abstract:
Le travail de thèse traite de l'élaboration de techniques de séparation d'ondes pour le traitement des signaux sismiques. Du fait de la nature non stationnaire des ondes sismiques, les représentations Temps-Fréquence (RTF), développées dans la communauté traitement du signal, sont des outils adaptés à la description des signaux géophysiques. L'objectif de ce travail de thèse est de généraliser ces outils développés pour des signaux 1D au cas des données multicapteurs et multitraces de la sismique. Le but final est la séparation des différentes ondes présentes dans les données.
APA, Harvard, Vancouver, ISO, and other styles
45

Gallon, Jonathan. "Étude et optimisation d'un algorithme de reconstruction d'horizons sismiques 3D et extension aux données nD." Pau, 2011. http://www.theses.fr/2011PAUU3009.

Full text
Abstract:
Dans le monde pétrolier, l'interprétation géophysique des données sismiques 3D est une étape indispensable pour la construction d'un modèle géologique du sous-sol. Ce modèle est constitué d'objets tels que les horizons (surfaces représentant l'interface entre deux couches géologiques) et les failles (surface modélisant les cassures dans les couches géologiques). Afin d'aider les géophysiciens, beaucoup d'outils automatiques ont été proposés afin de reconstruire ces objets, parmi lesquels le propagateur d'horizon 3D développé par Keskes et al. : cet algorithme est considéré comme le plus robuste en terme de qualité de surface reconstruite, mais avec l'augmentation permanente des volumes de données on observe une détérioration de ses temps d'exécution. L'objectif de la thèse concerne l'optimisation de cet algorithme de reconstruction d'horizons sismiques, appelé Propagateur 3D. La chute de performance calculatoire de ce propagateur est engendrée par la nécessité de faire des accès aléatoires dans le volume de données. Pour réduire l'effet de ces accès, très coûteux en temps d'exécution, nous proposons un système de cache briqué intelligent adapté aux caractéristiques de l'algorithme. La mise en place de cette gestion optimisée de la mémoire ouvre la voie vers une refonte du mode de propagation de l'algorithme pour minimiser l'empreinte mémoire : la propagation récursive. Dans la suite de la thèse, nous montrons comment étendre l'algorithme de propagation 3D aux données nD (acquisitions multi-offset, multi-azimut,. . . ) de plus en plus exploitée dans l'interprétation sismique. Deux types extensions sont proposés : la propagation libre et la contrainte. L'ajout de nouvelles dimensions entraîne une forte augmentation de la taille des données à traiter, et donc un fort ralentissement de l'algorithme. Pour chaque extension de la propagation, nous proposons une adaptation du système de cache 3D afin d'en améliorer les performances. Enfin, nous présentons et commentons sur plusieurs cas réels les résultats obtenus par la propagation nD
In the oil industrie, 3D seismic data interpretation is an essential step to build a 3D geological model of an exploration area. This model is constructed with horizons (surfaces representing the main rock interfaces) and faults (surface representing rocks' fractures). In order to facilitate interpretation, a lot of automatic tools have been developed to build these surfaces, among which the 3D horizon propagation algorithm developed by Keskes et al. : this algorithm is considered today as the most powerful in term of surface quality. However, with the continuous increasing size of seismic data, one can observe a slowdown in computation time. The purpose of this thesis concerns the optimization of this seismic horizon reconstruction algorithm. To reduce the effect of the random access required by the propagator, which is very time consuming, we propose an intelligent bricked cache system fully adapted to the algorithm. Then, we modify the original version of the algorithm with a new propagation method in order to minimize the memory usage : the recursive propagation. Then we extend the propagation algorithm to nD data (multi-offsets acquisitions, multiazimuth. . . ) increasingly used for seismic interpretation. Two extensions are then proposed : a "free" propagation and a "constrained" propagation. As the new dimensions increase the seismic data size, we adapt the optimum cache system for each propagation extension in order to improve the performance for both propagations. Finally, we present and comment results of nD propagation obtained on real data
APA, Harvard, Vancouver, ISO, and other styles
46

Pairazian, Karen. "Modélisation 3D des réservoirs pétroliers par l'intégration des données sismiques et géologiques : approches quantitatives multivariables." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL133N.

Full text
Abstract:
La caractérisation 3D quantitative de réservoir par une propriété géologique est un domaine en plein essor dont le but est de produire des modèles les plus fiables et précis possible de distribution spatiale de différents paramètres de réservoir comme la porosité ou les faciès lithologiques. Cette thèse propose, dans le cadre du projet GOCAD, une méthodologie basée sur les approches statistiques multivariables permettant d'incorporer les données sismiques dans l'estimation des propriétés géologiques à partir des données de puits. Dans un premier temps, nous présentons la méthode de reconnaissance des formes sismiques non-supervisée dont l'originalité est la possibilité d'étudier le voisinage local géométrique de chaque point sismique. Cet aspect discret et volumique de l'analyse permet d'exploiter d'avantage le potentiel des données sismiques. L’algorithme proposé fait appel à l'analyse en composantes principales afin d'éliminer l'information sismique non-cohérente, et à la méthode de centres dynamiques pour générer les classes sismiques à partir d'un ensemble de points sismiques dans l'espace des composantes principales. Dans un second temps, différentes méthodes de calibrage géologique des classes sismiques sont proposées. Mais d'abord nous introduisons une étape intermédiaire entre la classification des données sismiques et leur interprétation géologique qui permet d'orienter d'une manière non-linéaire les classes sismiques vers la propriété de réservoir. Cela consiste à quantifier la correspondance entre les classes sismiques et les faciès géologiques et à regrouper les classes sismiques en fonction de cette correspondance. Les méthodes d'interprétation, quant à elles, reposent sur les techniques statistiques de calage des classes sismiques aux diagraphies de puits et permettent aussi de prendre en compte l'information géométrique sur les couches stratigraphiques, lorsque cette information est disponible. La variable issue de ce traitement des données sismiques peut être ensuite utilisée comme une variable secondaire dans des méthodes d'estimation ou de simulation stochastique. Trois de ces méthodes (cokrigeage colocalisé, réseaux de neurones et D. S. I. ) sont présentées et appliquées dans la dernière partie de ce travail. Cette méthodologie est appliquée sur deux cas réels 3D, suivi par la modélisation 3D géométrique des réservoirs en utilisant des grilles irrégulières, déformées suivant la géométrie des horizons stratigraphiques.
APA, Harvard, Vancouver, ISO, and other styles
47

Kawamura, Taichi. "Nouveaux développements de la sismologie lunaire grâce à la re-analyse des données sismiques Apollo." Paris 7, 2012. http://www.theses.fr/2012PA077232.

Full text
Abstract:
La structure interne de la Lune nous renseigne sur la composition minéralogique et la température et donc sur son origine et son évolution thermique. La sismologie est une des techniques les plus efficaces et les séismes lunaires ont été observés par l'expérience de sismologie passive des missions Apollo. Durant 5 ans et demi, des observations en réseau ont été réalisées par 4 stations permettant de contraindre la structure de vitesse des ondes sismiques et l'épaisseur de la croûte. Cependant, le réseau sismique Apollo n'a pu dévoiler pleinement les caractéristiques sismiques de la Lune et plusieurs questions importantes ne sont pas encore résolues. Mais ces données, faute de nouvelle mission, restent uniques et sont la source principale d'information. Cette thèse est basée sur leur ré-analyse, avec des techniques modernes et l'objectif de répondre à quelques questions en suspens de la sismologie lunaire. Trois sujets différents ont été abordés. Tout d'abord, J'ai examiné les séismes profonds non localisées par le réseau sismique Apollo avec un instrument « oublié », le gravimètre de surface d'Apollo (LSG). La seconde partie de ma thèse s'eat focalisée sur les paramètres sismiques focaux des événements lunaires, à partir d'analyses spectrales. Enfin, la répartition spatiale des impacts a été examinée. J'ai étudié si l'asymétrie prédite par l'observation des cratères sur la Lune était également détectée sur les impacts identifiés. De mes investigations, je conclus les données sismiques Apollo sont donc encore une source importante d'information et nous permette de faire progresser la compréhension actuelle de la sismologie lunaire et de préparer les futures missions
The thesis discusses the new understandings of lunar seismology obtained from the re-analyses of Apollo seismic data. Three topics will be discussed. First is the seismic use of Apollo 17 Lunar Surface Gravimeter Data. I reanalyzed the gravimeter data in and showed that we can obtain seismic information from the data. Using this additional data, I succeeded in identifying new farside deep moonquake and evaluating the observation bias of the Apollo seismic network. Second are the spectral analyses of moonquakes. By using both long and short period seismometer I succeeded in expanding the usable frequency range of the seismic spectra and enabled more detailed investigation of source mechanisms of moonquakes. From the investigation, I found that stress drop of deep moonquakes is -0. 1 MPa considering the effect of scattered energy into the coda. This is comparable with the stress variation caused by the tidal stress acting on the Moon and my result supports the model of tidally oriented deep moonquakes. Finally, I examined the spatial distribution of impact events and bombardment history on the Moon. I used the seismically identified meteorite impacts, which cover much smaller scale impacts compared to previous studies, and examined the cratering asymmetry on the Moon. From the close investigation, I found that the cratering asymmetry exists on the Moon for small meter size craters. In ail cases, I showed that Apollo seismic data is still an important piece of information and at the same time, additional data and observations are desired for more detailed discussion of the nature of lunar seismic events
APA, Harvard, Vancouver, ISO, and other styles
48

Plessix, René-Edouard. "Détermination de la vitesse pour l'interprétation de données sismiques très haute résolution à l'échelle géotechnique." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090067.

Full text
Abstract:
Cette thèse a pour but la mise en œuvre d'une méthode déterminant la loi de vitesse à partir des données sismiques THR (très haute résolution). Cette méthode est basée sur la reformulation du critère des moindres carrés à l'aide de l'approche MBTT (migration based travel time) après avoir séparé les variables en deux : d'une part celles qui régissent la propagation, appelées propagateur, d'autre part celles qui gouvernent la réflexion, appelées réflectivité. A cause de la haute fréquence de la source sismique THR, le positionnement du système d'acquisition doit être connu avec une grande précision. Or l'immersion de ce système n'est pas mesurée. De ce fait, les inconnues sont le positionnement (immersion) du système d'acquisition, les variations lentes de la vitesse, tous deux interprétés comme un propagateur, et les variations rapides de la vitesse interprétées comme une réflectivité. Le changement d'inconnues dans le critère des moindres carrés à l'aide de l'opérateur de migration conduit à une fonction de cout uni modale, quelle que soit la qualité de l'approximation de réflectivité donnée par l'opérateur de migration. Cette fonction est minimisée par une approche de type Gauss-Seidel non linéaire et des algorithmes de descente. La résolution de l'équation des ondes avec l'approximation de Born et un lancer de rayons fournit une modélisation assez efficace pour pouvoir traiter quelques milliers de traces sismiques. Les résultats sur des données synthétiques montrent la faisabilité de cette reformulation et ceux sur des données réelles prouvent que cette approche MBTT est satisfaisante.
APA, Harvard, Vancouver, ISO, and other styles
49

Larue, Anthony. "Blancheur et non-gaussianité pour la déconvolution aveugle de données bruitées : application aux signaux sismiques." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00097161.

Full text
Abstract:
Nous nous intéressons à la déconvolution aveugle de signaux bruités et plus précisément de signaux d'imagerie sismique. Pour réaliser l'inversion, nous souhaitons effectuer une sélection des statistiques d'ordre supérieur adaptées à la distribution du signal à déconvoluer. Pour cela, nous nous appuyons sur l'hypothèse de blancheur ou de non-gaussianité. Nous proposons une approche avec le taux d'information mutuelle comme mesure de blancheur et une autre basée sur la non-gaussianité du signal de sortie mesurée par la néguentropie. Après le développement d'algorithmes dans le domaine temporel et fréquentiel, nous caractérisons l'influence sur les critères du bruit additif présent sur les données. Nous démontrons que l'hypothèse de non-gaussianité est plus robuste à la présence d'un bruit additif sur les données blanc et gaussien. Cette approche permet pour des données synthétiques et réelles un très bon compromis entre la qualité de la déconvolution et l'amplification du bruit
This thesis deals with the blind deconvolution of noisy data. We consider the case of seismic data. The inversion of the model need to select higher order statistics according to the distribution of the signals. To solve that, we use the assumptions of whiteness or of nongaussianity. We propose blind déconvolution algorithm in time domain and frequency domain. We measure whiteness by mutual information rate and nongaussianity with the negentropy. Afterwards, we study the sensitivity of the different algorithm with respect to a white Gaussian additive on the data. Theoretically and in practice on real and synthetic data, non-gaussianity appears as the method which provides the better trade off between déconvolution quality and noise amplification
APA, Harvard, Vancouver, ISO, and other styles
50

De, Assis Peralta Raphaël. "Caractériser les populations stellaires à l'aide d'indices sismiques." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066106/document.

Full text
Abstract:
A l'instar de la sismologie terrestre, l'astérosismologie est l'étude des tremblements d'étoiles. Ces vibrations internes sont observées via les variations de luminosité (ou de vitesse) qui se manifestent à leurs surfaces. A partir de ces séries temporelles, on calcule les spectres de puissance qui contiennent une véritable mine d'informations. En particulier, pour les pulsateurs de types solaires, nous pouvons observer le signal de la granulation ainsi que les modes propres d'oscillations stellaires qui sont tous deux une conséquence directe de la convection dans l'enveloppe de l'étoile. L'astérosismologie permet de sonder l'intérieur des étoiles comme une échographie. Par ailleurs, avec les grands relevés de photométrie spatiale CoRoT et Kepler, un nouveau champ d'application pour la sismologie est apparu. En effet, il est possible de caractériser au premier ordre les spectres d'oscillations des pulsateurs de types solaires à partir de quelques indices que nous appellerons indices sismiques. Ces derniers permettent via des relations simples d'estimer les paramètres fondamentaux de ces étoiles. Cela fait de l'astérosismologie un outil très puissant pour l'étude des populations stellaires.Dans la perspective du développement de la base de données Stellar Seismic Indices (SSI - Ouverture de la base SSI prévue pour l'été 2016. Lien vers la base: http://ssi.lesia.obspm.fr/), l'objet de ma thèse a été de développer une méthode automatique capable d'extraire simultanément les indices sismiques et les paramètres caractérisant la granulation des pulsateurs de types solaires. Cette méthode, appelée MLEUP, a été pour l'instant optimisée pour les géantes rouges car CoRoT et Kepler ont observé plusieurs dizaines de milliers de géantes rouges contre quelques centaines de pulsateurs de type solaire de séquence principale. Le MLEUP présente un avantage majeur par rapport à la plupart des méthodes existantes : il utilise le patron universel d'oscillations (UP) des géantes rouges comme modèle d'ajustement du spectre d'oscillations, ce qui permet d'analyser le spectre non lissé, donc non dégradé, et d'ajuster simultanément la composante de granulation et celle des oscillations par l'estimation du maximum de vraisemblance (MLE). Le MLEUP a dans un premier temps été testé par des simulations Monte Carlo afin de quantifier ses performances. Ces dernières se sont révélées très bonnes, avec de faibles biais et dispersions. Dans un second temps, nous avons appliqué le MLEUP à plus de 36.500 étoiles observées par CoRoT et Kepler, parmi lesquelles nous obtenons les indices sismiques et les paramètres de la granulation pour plus de 13.500 étoiles. Ces résultats ont d'ores et déjà été utilisés dans plusieurs travaux et leur utilisation devrait s'intensifier rapidement
Like terrestrial seismology, asteroseismology is the study of star quakes. These internal vibrations are detected by observing the luminosity (or velocity) variations at the stellar surfaces. From these time series, one computes power spectra which contain a wealth of information. In particular, for solar-like pulsators, we are able to observe the signal of granulation as well as the eigenmodes of stellar oscillations, both of which are a direct consequence of the convection in the star's envelope. Asteroseismology allows us to probe the interior of stars much like an ultrasound. Furthermore, with the large spatial photometric surveys CoRoT and Kepler, a new scope for seismology appeared. Indeed, it is possible to characterise to first order the oscillation spectra of solar-like pulsators with few indices or parameters, called seismic indices. Using simple relations, they allow us to estimate fundamental parameters of these stars. Asteroseismology is by consequence a very powerful tool for the study of stellar populations.In the perspective of the development of the Stellar Seismic Indices (SSI - The opening of the SSI database is planned for the summer of 2016, see http://ssi.lesia.obspm.fr/).) database, the purpose of my thesis was to develop an automatic method able to extract simultaneously the seismic indices and the parameters characterizing the granulation signature of solar-like pulsators. This method, called MLEUP, was optimized for red giants because for the few hundred main-sequence solar-like pulsators observed by CoRoT and Kepler, several tens of thousands of red giants have been observed by these same missions. MLEUP has a major advantage over most existing methods: it relies on the use red-giant stellar oscillation universal pattern (UP) to fit the oscillation spectra. This allows us to analyse the unsmoothed spectrum and fit simultaneously both granulation and oscillations with the maximum likelihood estimate (MLE).As a first step, MLEUP was tested on Monte Carlo simulations in order to quantify its performances. These simulations have revealed that MLEUP achieves very good performances, with low biases and dispersions. As a second step, we applied MLEUP to more than 36,500 stars observed by CoRoT and Kepler, thereby yielding seismic indices and granulation parameters for more than 13,500 stars. Those results have already been used in several works and are expected to be used in many more
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography