To see the other types of publications on this topic, follow the link: Géostatistique – Simulation, Méthodes de.

Dissertations / Theses on the topic 'Géostatistique – Simulation, Méthodes de'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Géostatistique – Simulation, Méthodes de.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Emery, Xavier. "Simulation conditionnelle de modèles isofactoriels." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001185.

Full text
Abstract:
Cette thèse vise à développer des algorithmes de simulation conditionnelle de fonctions aléatoires à lois bivariables isofactorielles, c'est-à-dire telles qu'il existe une base de fonctions (facteurs) sans corrélations spatiales croisées. Les lois isofactorielles réalisent un compromis entre deux exigences souvent difficiles à concilier: d'une part, elles forment une vaste classe de modèles et permettent de s'adapter à la description de nombreux phénomènes; d'autre part, l'inférence statistique du modèle repose sur un faible nombre de paramètres. La première partie de la thèse met en relief les limitations et les approximations commises par une technique réputée "passe-partout": l'algorithme séquentiel, qui consiste à simuler les sites de l'espace les uns après les autres dans un ordre aléatoire, en estimant en chaque site la distribution de probabilité conditionnelle de la valeur inconnue par un krigeage d'indicatrices ou par un krigeage disjonctif. La seconde partie propose des modèles nouveaux et des algorithmes adaptés à leur simulation et au conditionnement à des données expérimentales. Plusieurs outils structuraux sont introduits et étudiés pour mener l'inférence des lois bivariables, notamment le madogramme, les variogrammes d'ordre inférieur à deux et les variogrammes d'indicatrices. Les concepts et méthodes sont finalement appliqués à un ensemble de données minières (accumulations en or et argent dans un gisement chilien en veine) caractérisées par une très forte dissymétrie des histogrammes.
APA, Harvard, Vancouver, ISO, and other styles
2

Bailly, Jean-Stéphane. "Méthodes de spatialisation de réseaux arborescents et orientés par simulations conditionnelles : application aux réseaux de fossés des paysages viticoles." Montpellier 2, 2007. https://hal.archives-ouvertes.fr/tel-01430767.

Full text
Abstract:
Sur les bassins versants cultivés, les aménagements qui guident les écoulements de surface concentrés et forment ainsi le réseau hydrographique influent fortement sur le régime et la qualité des eaux. Pour progresser sur les méthodes et outils qui permettent de quantifier les impacts de ces aménagements à l'échelle du bassin versant, la spatialisation de ces réseaux structurés en arborescences, de leurs propriétés locales, de leur architecture, fortement hétérogènes dans le paysage, est primordiale. Le travail de thèse réalisé porte sur le développement de méthodes de spatialisation probabilistes de ces réseaux. On développe des méthodes géostatistiques qui permettent de simuler des variabilités le long d'arborescences. Une méthodologie de simulation de l'architecture d'un réseau par connexion de segments du réseau détectés par télédétection LiDAR est ensuite proposée. Ces développements méthodologiques produisent des simulations de réseaux dans le paysage conditionnées par un échantillonnage spatial du réseau et par la structure de l'espace qui supporte ces simulations. Ces méthodes de simulations conditionnelles de réseaux hydrographiques artificiels sont utiles pour remplacer les données manquantes, tester des protocoles d'échantillonnage et réaliser des études de sensibilité de modèles hydrologiques sur un critère de structure spatiale de réseaux
Artificial drainage networks impact strongly cultivated landscapes hydrology. The improvement of hydrological tools and methods that aim to assess the hydrological impacts of those artificial networks is dependent to our capabilities to map these networks, i. E. Its directed tree architectures and its local characteristics, highly variable in space. This thesis develops stochastic methods that aim to map drainage networks. We first developed a geostatistical framework to simulate variabilities along directed trees. A method that simulate network architecture by linking network segments detected with LiDAR is secondly proposed. These developments simulate hydrographic networks in cultivated landscapes that are both conditioned by spatial sampling on networks and by the structure of the space that supports these simulations. These hydrographic networks conditional simulation methods are useful to complete scarce data and to asses hydrological model sensitivity to networks spatial structures
APA, Harvard, Vancouver, ISO, and other styles
3

Nardo, Caseri Angélica. "Apport de la simulation conditionnelle géostatistique pour la prévision immédiate d'ensemble de pluies et l’alerte aux crues rapides." Electronic Thesis or Diss., Paris, AgroParisTech, 2017. http://www.theses.fr/2017AGPT0002.

Full text
Abstract:
Chaque année, les crues soudaines provoquées par des pluies intenses sur de petits bassins versant à réaction rapide sont la cause de pertes humaines et économiques considérables. Pour réduire ces impacts, il est nécessaire d’avoir recours à des systèmes de prévision combinant prévision météorologique et hydrologique à une échelle spatio-temporelle suffisamment fine. Etant données les nombreuses difficultés liées à cet exercice, ces systèmes doivent être capables de bien appréhender les principales sources d’incertitude susceptibles d’influencer leurs prévisions. Les incertitudes associées aux pluies observées ou prévues sont souvent considérées comme celles qui ont un impact le plus important sur les prévisions hydrologiques, surtout lorsqu'il s'agit de crues rapides et très localisées.Le but principal de cette thèse est d'étudier le potentiel d’une méthode de simulation conditionnelle géostatistique pour générer un ensemble de scénarios de pluies qui peuvent être utilisés par un système de prévision des crues soudaines. Pour ce faire, nous cherchons à générer un ensemble de champs de pluie fiable (au sens statistique), tout en exploitant au mieux les points forts des mesures souvent disponibles pour la prévision immédiate : les propriétés spatio-temporelles fournies par les données radar et les intensités pluviométriques mesurées par les pluviomètres au sol. Nous nous appuyons pour cela sur les données de pluie (radar et pluviomètres) de 17 événements intenses observés entre 2009 et 2013 dans le département du Var (sud-est de la France).La première étape de cette thèse est dédiée à la prise en compte des incertitudes sur les observations de pluie. Pour cela, le simulateur SAMPO-TBM développé à l’Irstea de Lyon est adapté pour fournir des simulations des champs de pluie alternatifs au champ de pluie radar observé, tout en respectant, à travers le conditionnement des simulations, les valeurs de pluie observées par les pluviomètres. L’évaluation de ces champs générés montre que la méthode mise en place est capable de générer des scénarios de pluie fiables et ainsi proposer une quantification des incertitudes sur les champs de pluie observés.Dans la deuxième étape de cette thèse, nous évaluons la capacité de notre méthode à être utilisée pour la prévision immédiate de pluies. Plusieurs méthodes sont testées pour la paramétrisation du simulateur et pour l’ajustement des sorties. Ces méthodes sont évaluées en considérant les principaux attributs souhaités pour une prévision d’ensemble : la précision, la fiabilité, la justesse, la discrimination et la performance globale des prévisions. La méthode la plus performante est celle estimant les paramètres du simulateur sur une fenêtre glissante de 4h, mais également en donnant un poids prépondérant à la dernière heure d’observation pour le paramètre lié à la moyenne des pluies non-nulles, associée à une correction des sorties basée sur la dernière erreur de prévision.Enfin, dans la dernière étape de cette thèse, les prévisions d’ensemble de pluie sont utilisées en entrée de la méthode AIGA d’avertissement aux crues rapides développée à Irstea Aix-en-Provence. Cette approche permet d’estimer la période de retour (en débit) de l’événement en cours sur des bassins non jaugés. L’événement du 3 au 7 novembre 2011 dans le département du Var est utilisé pour illustrer le potentiel de notre méthode. Des cartes probabilisées indiquant à différentes échéances et sur l’ensemble du réseau hydrographique du département le risque de dépassement d’une certaine période de retour sont générées. Celles-ci sont comparées à la localisation de dégâts relevés sur le terrain après l’événement démontrant un réel intérêt pour la gestion de crise en temps réel
Each year, flash floods, generated by small fast-responding catchments hit by intense rainfall, are responsible for huge human and economic losses. To mitigate these impacts, it is necessary to use forecasting systems combining meteorological and hydrological forecasts at small temporal and spatial scales. Because of the underlying difficulties, these systems have to be able to communicate the uncertainties of their forecasts. Uncertainties associated to observed or future rainfall are often seeing as those having the most important impact, in particularly in the case of flash floods localised on small areas.The main aim of this thesis is to study the potential of a geostatistical conditional simulation method to generate an ensemble of rainfall scenarios that can be used by a flash flood warning system. We seek to generate a reliable ensemble of rain fields by making the best use of the strengths of the measurements often available for nowcasting: the spatial and temporal properties of rainfall fields provided by the radar data and the rainfall intensities measured by rain gauges. In order to achieve our objectives, we use radar and rainfall data from 17 intense rainfall events observed in the Var region (south-east France) between 2009 and 2013.The first part of this thesis was devoted to taking into account the uncertainties on the observations of rainfall. For this purpose, the SAMPO-TBM generator developed at Irstea-Lyon is adapted to provide simulations of alternative rain fields to the observed radar rain field, while respecting the rainfall values observed by the rain gauges through a conditioned simulation. The evaluation of the generated fields shows that the method implemented is able to generate a reliable ensemble of rain fields and thus to propose a quantification of the uncertainties on the observed rain fields.In the second part of this thesis, the capacity of our method to be used for the nowcasting of rainfall is evaluated. Several methods are tested for the parameterization of the rainfall generator and for the adjustment of the outputs. These methods are evaluated by considering the main attributes of forecast quality, such as accuracy, reliability, precision, discrimination and overall forecast performance. The best method is the one estimating generator parameters over the last four hours, but also using only the last hour for the parameter related to the mean of the non-zero rainfall distribution, combined by the adjustment of the outputs based on the last forecast error.Finally, in the final part of this thesis, ensemble rainfall forecasts are used as inputs of the flash flood forecasting method AIGA developed at Irstea Aix-en-Provence. The AIGA method enables return period of the ongoing event to estimate at ungauged catchments. The 3th-7th November 2011 event in the Var region is used to illustrate the potential of our method. Nowcasting maps indicating, for different lead times and for the whole hydrological network of the region, the probability to exceed a given return period are produced. They are compared to the localization of observed damages collected from field surveys, illustrating a real interest for the real time crisis management
APA, Harvard, Vancouver, ISO, and other styles
4

Carrizo, Vergara Ricardo. "Développement de modèles géostatistiques à l’aide d’équations aux dérivées partielles stochastiques." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM062/document.

Full text
Abstract:
Ces travaux présentent des avancées théoriques pour l'application de l'approche EDPS (Équation aux Dérivées Partielles Stochastique) en Géostatistique. On considère dans cette approche récente que les données régionalisées proviennent de la réalisation d'un Champ Aléatoire satisfaisant une EDPS. Dans le cadre théorique des Champs Aléatoires Généralisés, l'influence d'une EDPS linéaire sur la structure de covariance de ses éventuelles solutions a été étudiée avec une grande généralité. Un critère d'existence et d'unicité des solutions stationnaires pour une classe assez large d'EDPSs linéaires a été obtenu, ainsi que des expressions pour les mesures spectrales associées. Ces résultats permettent de développer des modèles spatio-temporels présentant des propriétés non-triviales grâce à l'analyse d'équations d'évolution présentant un ordre de dérivation temporel fractionnaire. Des paramétrisations adaptées de ces modèles permettent de contrôler leur séparabilité et leur symétrie ainsi que leur régularité spatiale et temporelle séparément. Des résultats concernant des solutions stationnaires pour des EDPSs issues de la physique telles que l'équation de la Chaleur et l'équation d'Onde sont présentés. Puis, une méthode de simulation non-conditionnelle adaptée à ces modèles est étudiée. Cette méthode est basée sur le calcul d'une approximation de la Transformée de Fourier du champ, et elle peut être implémentée de façon efficace grâce à la Transformée de Fourier Rapide. La convergence de cette méthode a été montrée théoriquement dans un sens faible et dans un sens fort. Cette méthode est appliquée à la résolution numérique des EDPSs présentées dans ces travaux. Des illustrations de modèles présentant des propriétés non-triviales et reliés à des équations de la physique sont alors présentées
This dissertation presents theoretical advances in the application of the Stochastic Partial Differential Equation (SPDE) approach in Geostatistics. This recently developed approach consists in interpreting a regionalised data-set as a realisation of a Random Field satisfying a SPDE. Within the theoretical framework of Generalized Random Fields, the influence of a linear SPDE over the covariance structure of its potential solutions can be studied with a great generality. A criterion of existence and uniqueness of stationary solutions for a wide-class of linear SPDEs has been obtained, together with an expression for the related spectral measures. These results allow to develop spatio-temporal covariance models presenting non-trivial properties through the analysis of evolution equations presenting a fractional temporal derivative order. Suitable parametrizations of such models allow to control their separability, symmetry and separated space-time regularities. Results concerning stationary solutions for physically inspired SPDEs such as the Heat equation and the Wave equation are also presented. A method of non-conditional simulation adapted to these models is then studied. This method is based on the computation of an approximation of the Fourier Transform of the field, and it can be implemented efficiently thanks to the Fast Fourier Transform algorithm. The convergence of this method has been theoretically proven in suitable weak and strong senses. This method is applied to numerically solve the SPDEs studied in this work. Illustrations of models presenting non-trivial properties and related to physically driven equations are then given
APA, Harvard, Vancouver, ISO, and other styles
5

Felder, Jean. "Développement de méthodes de traitement d'images pour la détermination de paramètres variographiques locaux." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00681301.

Full text
Abstract:
La géostatistique fournit de nombreux outils pour caractériser et traiter des données réparties dans l'espace. La plupart de ces outils sont basés sur l'analyse et la modélisation d'une fonction appelée variogramme qui permet de construire différents opérateurs spatiaux : le krigeage et les simulations. Les modèles variographiques sont relativement intuitifs : certains paramètres variographiques peuvent être directement interprétés en termes de caractéristiques structurales. Ces approches sont cependant limitées car elles ne permettent pas de prendre correctement en compte la structuration locale des données. Plusieurs types de modèles géostatistiques non-stationnaires existent. Ils requièrent généralement un paramétrage compliqué, peu intuitif, et ils n'apportent pas de réponse satisfaisante quant à certains de types de non-stationnarité. C'est pour répondre au besoin d'une prise en compte efficace et opérationnelle de la non-stationnarité dans un jeu de données que, dans le cadre de cette thèse, nous prenons le parti de déterminer des paramètres variographiques locaux, appelés M-Paramètres par des méthodes de traitement d'images. Notre démarche se fonde principalement sur la détermination des paramètres morphologiques de dimensions et d'orientations de structures. Il résulte de la détermination de M-Paramètres une meilleure adéquation entre modèles variographiques et caractéristiques structurales des données. Les méthodes de détermination de M-Paramètres développées ont été appliquées sur des données bathymétriques, sur des jeux de données laissant apparaître des corps géologiques complexes ou encore sur des jeux de données environnementaux, liés au domaine de la pollution en zone urbaine par exemple. Ces exemples illustrent les améliorations de résultats de traitement géostatistique obtenus avec M-Paramètres. Enfin, partant du constat que certains phénomènes ne respectent pas une propagation euclidienne, nous avons étudié l'influence du choix de la distance sur les résultats de krigeage et de simulation. En utilisant des distances géodésiques, nous avons pu obtenir des résultats d'estimation impossible à reproduire avec des distances euclidiennes.
APA, Harvard, Vancouver, ISO, and other styles
6

Zaytsev, Victor. "Méthodes stochastiques pour la modélisation d'incertitudes sur les maillages non structurés." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM094/document.

Full text
Abstract:
La simulation des phénomènes physiques exige souvent l’utilisation d’une discrétisation du milieu sous forme de maillage. Un exemple de ce type de situation est la simulation d’écoulement de fluides et la simulation du stress géomécanique pour les gisements pétroliers. Dans ces cas, le milieu étudié n’est pas homogène et l'hypothèse sur l’homogénéité de ce milieu peut mener à des résultats incorrects. C’est pourquoi la simulation des hétérogénéités est très importante pour ce genre de problèmes.Cette thèse est consacrée à la simulation géostatistique des hétérogénéités sur les maillages non-structurés par les méthodes géostatistiques non-linéaires. Le but de cette thèse est la création d’algorithmes de simulation des hétérogénéités directement sur les maillages non-structurés, sans utiliser les maillages fins réguliers intermédiaires et de l’upscaling. On présente deux modèles théoriques pour les simulations des variables continues sur les maillages non-structurés qui sont les deux versions différentes du modèle Gaussien discret (DGM) - DGM 1 et DGM 2. Le modèle théorique utilisé dans cette thèse permet de convertir le problème de simulation sur un maillage non-structuré en un problème de simulation d’un vecteur Gaussien multivarié et l’application de fonctions de transformation adaptées pour chaque élément du vecteur. La simulation de faciès est aussi envisagée en utilisant une généralisation des modèles pluri-Gaussiens et Gaussien tronqués pour les maillages non-structurés.L’application des méthodes développées est illustrée sur un gisement pétrolier - le cas d’étude X (gisement du gaz offshore)
Simulations of physical phenomenon often require discretizing the medium with a mesh. An example of this type of simulation is the simulation of fluid flow through a porous medium and the evaluation of the geomechanical stress in the petroleum reservoir. The studied medium is often not homogeneous and applying a homogeneity hypothesis can lead to incorrect simulation results. That makes simulation of heterogeneities important for this kind of problems.This thesis is devoted to geostatistical simulations of heterogeneities on unstructured grids using methods of non-linear geostatistics. The objective of this work is the development of algorithms for simulating heterogeneities directly on unstructured grids without using intermediate fine scale regular grids and upscaling. We present two theoretical models for geostatistical simulations of continuous parameters on unstructured grids which are different generalizations of the Discrete Gaussian model (DGM) – DGM 1 and DGM 2. The proposed theoretical models enable converting the problem of geostatistical simulation on an unstructured grid into the well-studied problem of simulating multivariate Gaussian random vectors followed by application of block-dependent transformation functions. The problem of simulating facies is also addressed in this work, for which generalizations of pluri-Gaussian and truncated Gaussian simulation models for unstructured grids are proposed.An application of the proposed methods is demonstrated on a case study X, which is an offshore gas reservoir with a tartan-meshed grid
APA, Harvard, Vancouver, ISO, and other styles
7

Rafiee, Ali. "Contribution à l'étude de la stabilité des massifs rocheux fracturés : caractérisation de la fracturation in situ, géostatistique et mécanique des milieux discrets." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00293695.

Full text
Abstract:
La simulation numérique est un outil essentiel pour mieux comprendre la réalité des phénomènes qui se produisent au sein des milieux discrets, en particulier des milieux rocheux fracturés. Notre travail a pour objectif d'étudier le comportement mécanique et dynamique des milieux rocheux en réalisant des modèles discontinus dans lesquels les mesures de l'orientation et l'espacement interfractura, effectuées sur le terrain, sont intégrées au modèle de façon stochastique. Pour la génération des milieux fracturés numériques des algorithmes basés sur les méthodes statistiques et géostatistiques sont développés. Le comportement mécanique de modèles académiques et de structures réelles en maçonnerie est étudié grâce à la méthode Non Smooth Contact Dynamics (NSCD). Des structures en maçonneries telles que le monument historique de l'amphithéâtre de Nîmes et l'aqueduc d'Arles sont étudiées, à échelle réelle, en deux et trois dimensions pour leurs comportements dynamiques pendant une sollicitation sismique. Les modèles de milieux rocheux fracturés engendrés à partir d'études de cas sont analysés selon deux axes : l'étude de la stabilité de pentes rocheuses et la conception de travaux souterrains par la méthode NSCD en utilisant le code LMGC90. La stabilité de ces modèles est étudiée en deux et trois dimensions. Les analyses effectuées sur ces modèles ont permis de proposer des recommandations pour l'installation d'éventuels soutènements. Elles ont également permis la distinction des familles des fractures jouant un rôle prépondérant dans l'instabilité de ces massifs. La modélisation de certaines méthodes de protection en travaux au rocher telles que le boulonnage et les filets pare-pierres est ensuite abordée dans les perspectives envisagées comme développement de nos travaux.
APA, Harvard, Vancouver, ISO, and other styles
8

Rafiée, Ali. "Contribution à l’étude de la stabilité des massifs rocheux fracturés : caractérisation de la fracturation in situ, géostatistique et mécanique des milieux discrets." Montpellier 2, 2008. http://www.theses.fr/2008MON20037.

Full text
Abstract:
La simulation numérique est un outil essentiel pour mieux comprendre la réalité des phénomènes qui se produisent au sein des milieux discrets, en particulier des milieux rocheux fracturés. Notre travail a pour objectif d’étudier le comportement mécanique et dynamique des milieux rocheux en réalisant des modèles discontinus dans lesquels les mesures de l’orientation et l’espacement interfractura, effectuées sur le terrain, sont intégrées au modèle de façon stochastique. Pour la génération des milieux fracturés numériques des algorithmes basés sur les méthodes statistiques et géostatistiques sont développés. Le comportement mécanique de modèles académiques et de structures réelles en maçonnerie est étudié grâce à la méthode Non Smooth Contact Dynamics (NSCD). Des structures en maçonneries telles que le monument historique de l’amphithéâtre de Nîmes et l’aqueduc d’Arles sont étudiées, à échelle réelle, en deux et trois dimensions pour leurs comportements dynamiques pendant une sollicitation sismique. Les modèles de milieux rocheux fracturés engendrés à partir d’études de cas sont analysés selon deux axes : l’étude de la stabilité de pentes rocheuses et la conception de travaux souterrains par la méthode NSCD en utilisant le code LMGC90. La stabilité de ces modèles est étudiée en deux et trois dimensions. Les analyses effectuées sur ces modèles ont permis de proposer des recommandations pour l’installation d’éventuels soutènements. Elles ont également permis la distinction des familles des fractures jouant un rôle prépondérant dans l’instabilité de ces massifs. La modélisation de certaines méthodes de protection en travaux au rocher telles que le boulonnage et les filets pare-pierres est ensuite abordée dans les perspectives envisagées comme développement de nos travaux
The numerical simulation is an essential tool for a better understanding of phenomena that occur within discrete environments, in particular in the fractured rock mass. This study aims to investigate the mechanical and dynamic behaviour of rock masses using discrete models in which surveyed data for orientation and inter-fracture spacing are introduced into the model in a stochastic way. For the generation of a jointed rock mass model, algorithms based on statistical and geostatistical methods are developed. The mechanical behaviour of academic models and real masonry structures is studied using the Not Smooth Contact Dynamics (NSCD) method. The dynamic behaviour, during seismic loading, of masonry structures such as the historic monuments of Nîmes amphitheatre and Arles aqueduct are studied, in real scale, in two and three dimensions. The models of fractured rock masses generated from case studies are analyzed with two objectives: the study of the stability of rock slopes and the design of underground structures by the NSCD method, using the LMGC90 code. The stability of these models is investigated in two and three dimensions. The tests performed on these models are used to make recommendations for the installation of support systems, where necessary. They also allow the distinction of the fracture sets playing a critical role in the instability of these masses. The modelling of protection systems, such as rock bolting and cable nets, is then addressed as a possible development of our work
APA, Harvard, Vancouver, ISO, and other styles
9

Loubier, Jean-Christophe. "Perception et simulation des effets du changement climatique sur l'économie du ski et la biodiversité." Phd thesis, Université Joseph Fourier (Grenoble), 2004. http://tel.archives-ouvertes.fr/tel-00006990.

Full text
Abstract:
Dans les hautes vallées alpines, on observe des conflits d'intérêts entre l'économie du ski et les objectifs de préservation de la biodiversité dans le cadre du changement climatique global. Les enjeux sont importants et la concertation en matière d'aménagement devient très difficile Nous avons cherché à développer une méthodologie et un instrument d'aide à la concertation par heuristique visuelle. L'expérimentation de cet instrument est conduite sur le territoire de la Savoie et de la Haute Savoie. Cette thèse se développe en trois temps. Le premier temps définit le contexte général du changement climatique d'un point de vue global. Nous établissons ensuite un changement d'échelle pour nous rapprocher de l'échelon local. Il s'agit d'identifier les mécanismes d'émergence des conflits d'intérêts en fonction des enjeux simultanés économie du ski/préservation de la biodiversité. Le second temps développe une méthodologie pour aider la concertation autour de ce type de conflits par simulation interactive. C'est l'approche par heuristique visuelle. Nous montrons comment, une base de données doit être conçue, pour permettre la mise en œuvre de ce concept. Nous définissons également les types d'outils qui doivent être utilisés ainsi que leurs agencements pour la construction de l'environnement de simulation. Cette partie propose également une stratégie particulière d'amélioration de l'information continue quand il apparaît un besoin d'interpolation sur un faible jeu de données. Enfin, le dernier temps développe l'expérimentation sur notre terrain d'étude.
APA, Harvard, Vancouver, ISO, and other styles
10

Aug, Christophe. "Modélisation géologique 3D et caractérisation des incertitudes par la méthode du champ de potentiel." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Toma, Alexandru Călin. "Variabilité spatio-temporelle des champs précipitants et application aux méthodes d'estimation." ENSMP, 1996. http://www.theses.fr/1996ENMP0612.

Full text
Abstract:
Il est nécessaire d'estimer les précipitations selon différentes échelles d'espace et de temps pour différents besoins hydrologiques ou agricoles. Les pas de temps concernés varient d'une dizaine de minutes (hydrologie urbaine, petits bassins versants) à quelques jours ou même des semaines (agriculture). La résolution spatiale pertinente peut elle aussi varier de quelques hectares à plusieurs centaines de kilomètres carrés. Le but de notre travail a été d'étudier la quantification de la structure statistique des mesures en vue d'une estimation géostatistique. Le principal résultat original de la thèse est un modèle de covariance espace-temps pour les petits pas de temps. Ce modèle utilise un système mobile de coordonnées - le système Lagrangien. Le krigeage spatio-temporel utilisant ce modèle de covariance est nettement supérieur au krigeage spatial classique pour des pas de temps de l'ordre de 5 à 15 minutes. Nous discutons les possibilités d'application opérationnelle du modèle, ainsi que de futures directions de recherche. Outre ce modèle espace-temps, nous présentons quelques réflexions relatives au choix des hypothèses concernant la stationnarité en fonction du pas de temps du cumul et à la comparaison quantitative des méthodes d'estimation
Rainfall estimates at different space and time scales are needed as inputs for hydrological or agricultural models. The time steps at which the estimates are needed varies from ten minutes (in urban hydrology or small mountaineous basins) to days or even weeks (agricultural purposes). The space resolution at which the estimates are needed may vary from some hectares to hundreds of square kilometers. Our work focused on the quantification of the statistical space-time structure of rainfall for geostatistical estimation. The main original result exposed in this dissertation is a space-time covariance model for small time steps. This model uses a mobile coordinate system-the Lagrangian system. Space-time kriging performed using this model is shown to yield better results than classical space kriging for time steps of the order of 5 to 15 minutes. Operational application of the model and future research directions are discussed. We also present some reflexions on two other practical problems. The first one is the choice of stationarity hypotheses as function of the time step. The second one concerns the quantitative comparison of estimation methods
APA, Harvard, Vancouver, ISO, and other styles
12

Moulière, Dominique. "Intégration d'informations sismiques pour la simulation de réservoirs." ENSMP, 1998. http://www.theses.fr/1998ENMP0770.

Full text
Abstract:
Les modèles probabilistes de description des réservoirs sont maintenant couramment utilisés dans les domaines du pétrole, de l’hydrogéologie et pour les études de stockages souterrains. Compte tenu des informations aux puits, et de la connaissance géologique, ces modèles permettent d'obtenir des images possibles de réservoirs, en lithofaciès ou en propriétés pétrophysiques (porosite, perméabilité). Ces images de réservoirs peuvent être affinées par la prise en compte de données sismiques qui donnent une information sur la variabilité horizontale du milieu. Les données sismiques, utilisées ici, sont soit des données moyennes sur la verticale, résultat d'une interprétation (comme des proportions de lithofaciès), soit des données lissées (par exemple des amplitudes sismiques). Elles sont en relation de façon complexe et indirecte avec les paramètres pétrophysiques. Le but de ce travail est d'inclure ces deux types d'information sismique dans la modélisation probabiliste de réservoirs hétérogènes. Deux méthodes ont été envisagées : la première consiste à intégrer une information déduite de la sismique lors de la simulation des lithofaciès. Cette information est une carte 2d horizontale des proportions d'un ou plusieurs lithofaciès issue de l’interprétation d'une donnée sismique. La seconde méthode consiste a utiliser des amplitudes sismiques mesurées en 3d pour contraindre une simulation d’impédances acoustiques. Elle est basée sur le modèle convolutif qui lie les amplitudes sismiques aux impédances acoustiques. Ces deux méthodes ont été testées sur les données synthétiques du Mesa Verde et donnent des résultats intéressants. De plus, la première méthode est déjà utilisée industriellement sur plusieurs jeux de données réels et apporte satisfaction aux utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
13

Wackernagel, Hans. "Géostatistique et assimilation séquentielle de données." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00542362.

Full text
Abstract:
La géostatistique spatio-temporelle traditionnelle n'est pas en mesure de décrire adéquatement la dynamique, en général fortement non-linéaire, de processus spatio-temporels multivariables. Pour cela des modèles de transport physico-chimiques sont en général bien mieux adaptés. Cependant, étant donné que ces derniers ne maîtrisent pas totalement la complexité des processus qu'ils cherchent à décrire, soit parce qu'ils sont basés sur des hypothèses simplificatrices, soit parce que l'information servant à établir les conditions initiales et aux limites est imparfaite, il est opportun d'introduire des techniques statistiques servant à les guider pour assimiler un flot de mesures émanant de capteurs automatiques. Des projets récents au Centre de Géostatistique de l'Ecole des Mines de Paris ont permis d'explorer l'application de ces techniques dans le domaine de l'océanographie et en pollution de l'air. Il s'est très vite avéré que la géostatistique offrait des concepts et des approches qui pouvaient contribuer à enrichir les techniques d'Assimilation Séquentielle de Données. La thèse de Laurent Bertino et des publications ultérieures ont permis de développer cette thématique porteuse, dont la présente synthèse établit un compte-rendu.
APA, Harvard, Vancouver, ISO, and other styles
14

Benazzouz, Mohammed Said. "Étude comparative entre la géostatistique et les méthodes déterministes pour la cartographie des types de sols." Thèse, Université d'Ottawa / University of Ottawa, 2011. http://hdl.handle.net/10393/20053.

Full text
Abstract:
La cartographie des sols est d’une importance particulière pour bien comprendre leurs organisations, localisation, distribution spatiale, ainsi que leurs caractéristiques. Comprendre l’interrelation entre ces variables est une étape critique pour concevoir l’équilibre complexe des processus chimiques et physiques pour rendre, notamment, les écosystèmes agricoles plus productifs. Cette recherche explore le potentiel de la synergie entre les analyses au laboratoire, le GPS, les SIG et les méthodes d’interpolations déterministes (Spline et Inverse-Distance connue sous le nom IDW) et probabilistes (Krigeage ordinaire et Krigeage universel) pour cartographier les types de sols dans un environnement semi-aride. Pour atteindre nos objectifs, nous avons échantillonnés 254 points répartis de façon presque régulière en considérant toutes les classes de sols couvrant notre site d’étude.
APA, Harvard, Vancouver, ISO, and other styles
15

Geraets, David. "Modélisation géostatistique de champs de vitesse géophysique en exploration petrolière." Paris, ENMP, 2002. http://www.theses.fr/2002ENMP1103.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Ould, Isselmou Yahya. "Interpolation de niveaux d'exposition aux émissions radioélectriques in situ à l'aide de méthodes géostatistiques." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003423.

Full text
Abstract:
Les réglementations et normes radioélectriques précisent différentes valeurs limites d'exposition radioélectrique à ne pas dépasser. Les niveaux d'expositions constatés autour des antennes de radio et de télécommunications sont très en dessous des limites d'exposition recommandées par la commission de protection contre les rayonnements non-ionisants. Aujourd'hui, les personnes se trouvant à proximité des émetteurs radio ne cherchent plus simplement à vérifier la conformité aux normes. La demande porte sur l'évaluation du niveau d'exposition auquel ils sont soumis et la probabilité de dépassement d'un seuil donné. Le cadre probabiliste sur lequel sont fondées les méthodes géostatistiques offre la possibilité de répondre à cette question. Dans cette thèse nous présentons une application des méthodes géostatistiques linéaires ; en particulier le krigeage, pour l'estimation des niveaux d'exposition radioélectriques à partir d'un jeu de données simulées. Une application du krigeage avec dérive externe sur des mesures réelles est ensuite présentée. Dans ces applications, le modèle de variogramme de Cauchy montre une bonne adéquation avec la variabilité de la densité de la puissance. Un troisième exemple d'application a pour objectif d'évaluer la probabilité avec laquelle les niveaux d'exposition peuvent dépasser un seuil déterminé. Nous utilisons deux méthodes de la géostatistique non-linéaire basées sur un modèle "multigaussien" et comparons les résultats des calculs de probabilité de dépassement de seuil par ces deux méthodes sur un ensemble de mesures d'exposition prises dans le centre de la ville de Paris.
APA, Harvard, Vancouver, ISO, and other styles
17

Xu, Shan. "Caractérisation de l’environnement karstique de la grotte de Lascaux par couplage de méthodes géophysique, statistique et géostatistique." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0244/document.

Full text
Abstract:
La grotte de Lascaux (inscrite au patrimoine mondial de l’UNESCO et l’une des plus connues au monde) nécessite, dans le cadre de sa conservation et suite aux aléas subis depuis sa découverte, une attention particulière tant pour elle-même que pour son environnement. L’utilisation d’une méthode géophysique, la Tomographie de Résistivité électrique (TRE) qui est une méthode non intrusive par excellence, est donc proposée pour la reconnaissance du milieu karstique l’environnant.Un suivi temporel par TRE a été mise en oeuvre pour caractériser l’amont hydraulique de la grotte et surveiller la variation temporelle de la résistivité des terrains. A l’aide d’analyses statistiques, et en couplant les données microclimatiques aux résultats d’un suivi temporel de vingt-deux mois, nous avons montré la capacité de ce type de mesures à caractériser l’environnement épikarstique de la grotte, particulièrement les zones d’alimentation et celles permettant l’infiltration des eaux pluviales. Une modélisation du débit d’un écoulement situé à l’entrée de la grotte est proposée à partir des données de résistivité dans la zone d’alimentation identifiée au cours du suivi. Ce modèle a la capacité de prédire les arrêts et les reprises des écoulements dans la grotte, éventuellement des évènements journaliers.A partir des données de résistivité issues d’une prospection 3D du site, des modélisations géostatistiques par krigeage ordinaire et par indicatrice ont été effectuées permettant des représentations spatiales en fonction de la résistivité des terrains. Ces modèles se sont révélés extrêmement instructifs par l’imagerie de l’environnement karstique de la grotte de Lascauxqui en a résulté. Les limites des formations détritiques et des calcaires sont identifiées à l’est et l’ouest du site. A l’intérieur des calcaires, on retrouve, bien sûr, les anomalies conductrices déjà identifiées au cours du suivi temporel mais aussi leur extension spatiale. Ainsi, on a pu mettre en évidence la continuité spatiale de certaines anomalies.Le suivi temporel par TRE a permis la compréhension de la structure et du fonctionnement de l’alimentation de l’épikarst. Les modèles géostatistiques 3D ont montré leur efficacité pour la caractérisation de l’environnement de la grotte. Les résultats aideraient à proposer des conseils pour la protection du milieu environnant la grotte et ainsi pour la préservation de cette dernière
The Lascaux cave, one of the most important prehistoric caves in the world, located in Dordogne (24, France) needs particular attention both for itself and for the environment interms of conservation and vulnerability since its discovery. Geophysical methods in particular Electrical Resistivity Tomography (ERT) enable us, in a non-invasive way, to monitor the karsticenvironment.A Time-Lapse monitoring by ERT was carried out next to the cave. Together with analysis of the local effective rainfall (ground water recharge) and the flow in the cave, the monitoringhelped us to identify an area where upstream underground water is probably stored e.g. arecharge zone. There is a large electrical contrast between the surrounding limestone and theprobable recharge zone. Then, a multivariate analysis through the resistivity values allowed usto characterize the model blocks, showing a specific behavior over time, especially the blockswith the lowest electrical resistivity. A prediction model of the flow in relation with the recharge zone succeeded to predict the beginning and the end of flow, even the daily event withextremely high value of flow.In order to visualize the environment in 3D condition, a geostatistical modelling was then applied to the resistivity values. The geostatistical models can emphasize the limit betweenthe limestone promontory and the clayey/sandy formations to the east/west part of the site. In the limestone promontory, the models also showed the possible connection between theanomalous conductive areas that may have a special consequence in this karstic environment.The Time-Lapse monitoring by ERT allows us to understand the karstic structures andrecharge phenomena. The 3D geostatistical modeling showed efficiency for the characterization of the cave environment. Those results can help to provide advices for the cave preservation
APA, Harvard, Vancouver, ISO, and other styles
18

Royer, Jean-Jacques. "Analyse multivariable et filtrage des données régionalisées." Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10312.

Full text
Abstract:
Ce travail est consacré à l'analyse multivariable et au filtrage des données régionalisées. On définit un indice de proximité entre échantillons. Une technique de filtrage basée sur l'analyse structurale, la déconvolution géostatistique, a été utilisée pour estimer la fonction de transfert ou identifier le signal de sortie. Le principe de la méthode repose sur le calcul au préalable des fonctions de covariance des signaux d'entrée et de sortie. Par ailleurs une relation théorique reliant la matrice de covariance des erreurs à la granulométrie du milieu étudié est démontrée
APA, Harvard, Vancouver, ISO, and other styles
19

Schaub, François. "Estimation géostatistique de l'impédance acoustique après migration prestack en profondeur." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00002987.

Full text
Abstract:
Le but de cette thèse est d'exploiter au mieux les résultats du traitement des données sismiques en profondeur pour réaliser une simulation géostatistique de l'impédance acoustique. La base de la prospection géophysique est la sismique réflexion, une méthode qui fournit les coefficients de réflexion des interfaces géologiques. Ces coefficients fournissent des informations sur la structure du sous-sol et permettent d'estimer les propriétés pétro-acoustiques de chacune des couches géologiques. Nous utilisons une méthode d'imagerie (la migration) qui permet d'obtenir des données sismiques migrées en profondeur, dont les variations de réflectivité selon l'angle sont conservées. L'analyse de ces variations est alors effectuée sur les panneaux Iso-X le long de trajectoires définies par la variation de la réflectivité avec l'angle d'incidence. Ces trajectoires permettent d'obtenir une première interprétation structurale (le squelette) à laquelle sont associés des attributs tels l'intercept et le gradient. Un pointé sur ces deux squelettes complémentaires permet de délimiter des couches dans lesquelles la simulation sera effectuée. Après avoir interprété sur les sections sismiques et d'autres attributs des éventuelles anomalies en hydrocarbures, nous proposons de contraindre localement la simulation géostatistique pour reproduire ces anomalies. Pour cela, nous nous servons du lien qui existe entre l'impédance acoustique et l'intercept. Nous obtenons finalement une section en impédance acoustique en profondeur, valable sur la globalité de la section étudiée, et qui tient compte des anomalies d'hydrocarbures importantes pour l'éventuelle exploration et production du réservoir.
APA, Harvard, Vancouver, ISO, and other styles
20

Muñoz-Pardo, José Francisco. "Approche géostatique de la variabilité spatiale des milieux géophysiques : application à l'échantillonnage de phénomènes bidimensionnels par simulation d'une fonction aléatoire." Grenoble 1, 1987. http://www.theses.fr/1987GRE10021.

Full text
Abstract:
Analyse des strategies d'echantillonnage d'un milieu geophysique contenant compte de sa variabilite spatiale, etude de la qualite de l'information recueillie a partir d'un seul echantillonnage discret de la propriete sur une surface d'echantillonnage finie. En particulier effet de la taille d'un echantillon (dimension de la surface plus nombre et repartition des observations) sur l'estimation de trois parametres definissant une fonction aleatoire: la valeur moyenne (zonale ou ponctuelle), la variance et le variogramme
APA, Harvard, Vancouver, ISO, and other styles
21

Shtuka, Arben. "Simulation, traitement et visualisation des images numériques : apport du codage par indicatrice en géostatistique." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL139N.

Full text
Abstract:
La thèse se compose de trois parties. La première partie est consacrée à une nouvelle méthode d'interpolation des champs vectoriels utilisant les moindres carrés a l'aide des polynômes orthogonaux. Cette méthode a été appliquée à la modélisation des trajectoires de forage de deux gisements en Albanie. La seconde partie concerne les méthodes géostatistiques d'estimation à l'aide des indicatrices. Les méthodes conventionnelles d'interpolation (krigeage des indicatrices) sont difficilement utilisables et nécessitent une connaissance préalable des fonctions de covariances pour chaque valeur de coupure. Étant donné ces difficultés, deux stratégies ont été suivies. La première consiste à construire un modèle général des fonctions de covariances des indicatrices en s'appuyant sur les propriétés spectrales. La seconde stratégie consiste a utiliser une autre méthode d'interpolation des indicatrices à l'aide de DSI(discrete smooth interpolation). Cette méthode a beaucoup d'avantages par rapport aux méthodes classiques: rapidité, simplicité et surtout respect des contraintes nécessaires pour que les indicatrices interpolées soient une estimation de la répartition locale. La dernière partie est consacrée aux traitements et a l'analyse d'images numériques. L'utilisation de plus en plus fréquente d'images numériques en géosciences a conduit au développement d'un logiciel spécifique IMEGEO (images géologiques). Le logiciel a été conçu selon les principes suivants: portabilité, interactivité, modularité et configuration systeme minimal. Dans sa version initiale, IMGEO était un outil de visualisation des images en deux dimensions, actuellement il représente un logiciel plus complet contenant des modules d'analyse
APA, Harvard, Vancouver, ISO, and other styles
22

Mezghache, Hamid. "Cartographie automatique et interprétation géostatistique d'une campagne de prospection géochimique sur sol : application à la zone mercurielle nord-numidique (Algérie)." Vandoeuvre-les-Nancy, INPL, 1989. http://www.theses.fr/1989NAN10437.

Full text
Abstract:
L'optimisation d'une campagne de prospection géochimique nécessite la connaissance du contrôle géologique des minéralisations et l'utilisation des méthodes de traitement de données appropriées. Six méthodes de traitement mono- et multivariables ont été appliquées aux données de prospection géochimique sur sol de deux secteurs (Chergui-Bir et Ferfour) de la zone mercurielle nord-numidique. Dans le premier secteur, la minéralisation est typiquement mercurielle et dans le secteur de Ferfour il y a apparemment deux types de minéralisation : l'une polymétallique et l'autre mercuro-polymétallique. Le contrôle de la minéralisation par des failles de direction bien précise a été déterminé. Les méthodes de traitement des données utilisées sont: 1) l'analyse en composantes principales utilisée avec une nouvelle approche, 2) la classification monovariable selon la méthode Sinclair, mais à l'aide de nouveaux algorithmes permettant des solutions automatiques, 3) l'ACP sur les fonctions indicatrices, 4) la classification multivariable par la méthode du potentiel et qui a confirmé la présence des deux types de minéralisation, 5) la recherche des sources de dispersion par la méthode de la fonction cosinus et 6) le krigeage universel en utilisant uniquement les valeurs prises comme teneurs de fond géochimique selon la méthode de Lepeltier. Des cartes d'isoprobabilité (entre autres) ont été établies. Ces méthodes ont permis de mettre en évidence d'autres anomalies mercurielles en plus de celles déjà connues. Ceci témoigne de l'efficacité des méthodes utilisées
APA, Harvard, Vancouver, ISO, and other styles
23

Schuhler, Estelle. "Apport de la géostatistique aux modèles probabilistes de la finance." ENSMP, 1998. http://www.theses.fr/1998ENMP0855.

Full text
Abstract:
La géostatistique et l'analyse financière sont deux disciplines reposant sur la théorie des probabilités ; si la géostatistique se base sur des concepts statistiques et probabilistes classiques, elle a développé ses propres outils et sa spécificité est de s'adapter aux données. Le but de ce travail est d'identifier quelques problèmes de la finance pour lesquels les outils géostatistiques apportent des améliorations aux modèles existants, voire de nouvelles solutions. Trois domaines de recherche possible apparaissent ainsi : le pricing d'options, la construction de la courbe des taux d'intérêts et la quantification du risque de marché. Tout d'abord, par le biais de l'anamorphose, la géostatistique permet de sortir du cadre des modèles gaussiens ou lognormaux, en s'adaptant en outre à la structure spatiale des données. Divers tests ont été effectués sur des cours d'actions, visant à appréhender la validité du modèle de référence en matière de pricing d'options, le modéle de Black & Scholes; ce dernier s'avérant mal adapté aux données dont nous disposons, un nouveau modèle, basé sur l'anamorphose, est proposé, offrant la possibilité de mieux décrire l'évolution du cours des actions. Le prix des options sur actions est ensuite calculé à l'aide de simulations. De même, par sa contribution à la modélisation des corrélations spatiales entre différentes variables, la géostatistique permet d'intégrer dans les problèmes d'estimation les liens existant entre ces variables. Ainsi, une étude géostatistique multivariable sur des taux d'intéréts, des cours d'actions et des prix de futures a montré qu'il existait une corrélation temporelle entre ces variables, ignorée dans les méthodes de construction classique de la courbe des taux d'intéréts. Un outil géostatistique, le cokrigeage simple, est alors proposé pour lever cette lacune ; en raison de l'absence de données de marché sur la variable à estimer, les paramètres exigés par le cokrigeage sont au préalable extrapolés. Un bref aperçu des différents types de risque financiers existant montre que la géostatistique va également dans le sens d'une amélioration pour le calcul du risque de marché
APA, Harvard, Vancouver, ISO, and other styles
24

Mangapi, Augustin Assonga. "Krigeage et cokrigeage, méthodes d’interpolation spatiale pour les systèmes d’information géographique." Mémoire, Université de Sherbrooke, 1994. http://hdl.handle.net/11143/7880.

Full text
Abstract:
Résumé: Tel que le notent si bien Oliver et al. (1990), la plupart des méthodes d’interpolation classiques sont basées sur les modèles des méthodes numériques différents des modèles probabilistes de variation spatiale. Les distributions des variables des données spatiales se comportent plus comme des variables aléatoires et la théorie des variables régionalisées comporte un ensemble de méthodes stochastiques pour les analyser. Le krigeage et le cokrigeage, basés sur cette théorie, expriment les variations spatiales de variables en termes de variogrammes et ils minimisent les erreurs de prédiction qui sont elles-mêmes estimées. Appliquées aux données des variables pédologiques des champs de la Station de recherches de Lennoxville, les méthodes ou techniques d’interpolation de la géostatistique: les krigeages et cokrigeages ordinaires, universels et par bloc, ainsi dénommées, sont explorées et comparées en vue d’en identifier la méthode appropriée intégrable dans un système d’information géographique, pour obtenir l’optimum de la modélisation, la présentation et celui de l’analyse spatiale. Les valeurs krigées et cokrigées des techniques choisies sont obtenues à l’aide de l’algorithme Cokri (Marcotte, 1991, 1993) et sont comparées aux valeurs initiales dont elles en sont les estimations. Des tests de similarité appliqués à ces données et résultats attestent la similarité de leurs distributions respectives. En d’autres termes, les types de krigeage et de cokrigeage examinés bénéficient de la même homogénéité des données qui est vérifiée par des outils de comparaison visuels et des traitements géostatistiques. De plus l’utilisation de ces méthodes donne des erreurs minimes proches de la réalité. Ainsi, selon la nature spécifique des données spatiales, en l’occurence les données homogènes sans structure spatiale particulière cachée, un estimateur linéaire simple ou la moyenne arithmétique de ces données, suffit pour représenter les variables étudiées.||Abstract: As Oliver et al. (1990) pointed it out so well, most of iraditional methods of interpolation are based on numerical method models as distinct from stochastic models of spatial variation. Spatially distributed data behave more like random variables, however, and regionalized variable theory provides a set of stochastic methods for analyzing them. Kriging and cokriging, based on that theory, depend on expressing spatial variation of the property in terms of variograms, and they minimize the prediction erros which are themselves estimated. Used on pedological parameters data, oridinary, universai and block krigings and cokrigings, geostatistical interpolation methods or techniques, are expiored and compared in order to identify the appropriate method which can be integrated into a Geographic Information System to provide optimum modelting, presentation and spatial analysis. Kriged and cokriged values are obtained by Cokri algorithm (Marcotte, 1991, 1993), and are compared to estimated initial data. Similarity tests applied to these data and values show that their respective distributions are similar. In othe words, the examined kriging and cokriging types perfom equally well. They ail take advantage of the data homogeneity, verified by visual comparison and geostatiatical tools or techniques, for providing doser minimum error terms. Thus, according to the special nature of spatial data, namely the homogeneous ones without a hiden particular spatial structure, a simple linear estimator, such as the data arithmetical mean, is sufficient for representing die variables under consideration.
APA, Harvard, Vancouver, ISO, and other styles
25

Poncet, Philippe. "Méthodes particulaires pour la simulation des sillages tridimensionnels." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004699.

Full text
Abstract:
Ce travail est consacré au développement des méthodes particulaires pour la résolution des équations de Navier-Stokes incompressibles en dimension 3. L'évaluation des formules de Biot-Savart ayant un coût de calcul prohibitif en dimension trois, on utilise un couplage grille-particules. On applique alors cette technique à la simulation et au contrôle de sillages produits par un cylindre. La première partie est consacrée à la méthode numérique proprement dite. On commence par présenter le modèle lagrangien et la méthode utilisée pour calculer le champ de vitesse, qui est la clef de voûte du schéma. On décrit ensuite, au chapitre 2 comment sont calculées les couches limites. Enfin, on présente au chapitre 3 l'algorithme à pas fractionnaire utilisé, ainsi que les méthodes de transfert entre jeux de particules et grilles sous-jacentes, et le calcul de la diffusion. Le code est alors validé par des simulations d'anneaux tourbillonnaires qui se propulsent sur un obstacle cylindrique, pour des nombres de Reynolds modérés (entre 400 et 2000).La seconde partie utilise la méthode numérique décrite précédemment, en l'appliquant dans un premier temps à la simulation des sillages turbulents qui se développent derrière un cylindre circulaire (chapitre 4), puis au contrôle de ces écoulements au chapitre 4.Il est connu que les solutions bidimensionnelles sont instables pour des nombres de Reynolds suffisamment élevés. Les instabilités tridimensionnelles sont identifiée grâce à leur profil spectral. Elles ont un effet important sur les forces de traînée et sur la fréquence propre de l'écoulement.Le chapitre 5, relatif au contrôle, se propose de mettre en évidence plusieurs phénomènes. On considère un contrôle en boucle ouverte, réalisé par une rotation à pulsation et amplitude constante. On étudie des rotations basse et haute fréquences. Le coefficient de traînée est alors diminué de 43% par le contrôle à haute fréquence, pour un nombre de Reynolds de 550. De plus, on montre que l'écoulement turbulent revient à un état bidimensionnel si l'amplitude de rotation est suffisamment élevée.
APA, Harvard, Vancouver, ISO, and other styles
26

Xiao, Yi-Jun. "Contribution aux méthodes arithmétiques pour la simulation accélérée." Marne-la-vallée, ENPC, 1990. http://www.theses.fr/1990ENPC9031.

Full text
Abstract:
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles: estimations de la diaphonie de la suite de van der corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites
APA, Harvard, Vancouver, ISO, and other styles
27

Viseur, Sophie. "Simulation stochastique basée-objet de chenaux." Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL036N.

Full text
Abstract:
L'hétérogénéité dans la répartition des sédiments issus de systèmes de chenaux fait de cette architecture une hôte potentielle aux hydrocarbures. Lors de l'étude d'un réservoir, la connaissance des structures souterraines est disponible via les données issues de forages, de campagnes sismiques et de la connaissance géologique du domaine. Les processus de simulation stochastique représentent de nos jours un outil important pour la gestion d'un champ pétrolier à partir des simples données recueillies de la subsurface de la terre. Le but de ces méthodes est de générer plusieurs modèles équiprobables de l'architecture fluviatile afin d'étudier les risques encourus lors de l'exploitation d'un champ pétrolier. Et chaque modèle ainsi généré se doit e satisfaire les données de subsurface et refléter les informations issues de la connaissance géologique du champ étudié. Deux principales approches ont été proposées dans ce domaine : les approches dites " basées-pixel " et les approches dites " basées-objet ". Les méthodes basées pixels s'attachent à distribuer les valeurs d'une propriété (soit continue comme la perméabilité ou la porosité, ou discrète comme les indexes de faciès) dans le volume d'étude. Les méthodes objet (ou booléennes) consiste en la génération d'objets modélisant les corps fluviatiles présents dans le domaine étudié et de les distribuer dans le volume réservoir. Cependant, les difficultés généralement rencontrées dans ces dernières approches consistent à pouvoir générer de manière efficace des modèles réalistes prenant en comptes des données " dures " (les données de puits) ou " floues " (les données de proportion). Nos travaux ont donc été voués à la recherche d'une nouvelle méthode de simulation stochastique basée objet permettant de générer plusieurs modèles d'empilements de chenaux équiprobables, réalistes et rendant compte des données de subsurface.
APA, Harvard, Vancouver, ISO, and other styles
28

Stoltz, Gabriel. "Quelques méthodes mathématiques pour la simulation moléculaire et multiéchelle." Phd thesis, Ecole des Ponts ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00166728.

Full text
Abstract:
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet.
APA, Harvard, Vancouver, ISO, and other styles
29

Ould, Salihi Mohamed Lemine. "Couplage de méthodes numériques en simulation directe d'écoulements incompressibles." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004901.

Full text
Abstract:
Ce travail est consacré au développement des méthodes lagrangiennes comme alternatives ou compléments aux méthodes euleriennes conventionnelles pour la simulation d'écoulements incompressibles en présence d'obstacles. On s'intéresse en particulier à des techniques ou des solveurs eulériens et lagrangiens cohabitent dans le même domaine de calcul mais traitent différents termes des équations de Navier-Stokes, ainsi qu'à des techniques de décomposition de domaines ou différents solveurs sont utilisés dans chaques sous-domaines. Lorsque les méthodes euleriennes et lagrangiennes cohabitent dans le même domaine de calcul (méthode V.I.C.), les formules de passage particules-grilles permettent de représenter la vorticité avec la même précision sur une grille fixe et sur la grille lagrangienne. Les méthodes V.I.C. ainsi obtenues combinent stabilité et précision et fournissent une alternative avantageuse aux méthodes différences-finies pour des écoulements confinés. Lorsque le domaine de calcul est décomposé en sous-domaines distincts traités par méthodes lagrangiennes et par méthodes euleriennes, l'interpolation d'ordre élevé permet de réaliser des conditions d'interface consistantes entre les différents sous-domaines. On dispose alors de méthodes de calcul avec décomposition en sous-domaines, de type Euler/Lagrange ou Lagrange/Lagrange, et résolution en formulation (vitesse-tourbillon)/(vitesse-tourbillon) ou (vitesse-pression)/(vitesse-tourbillon). Les différentes méthodes développées ici sont testées sur plusieurs types d'écoulements (cavité entrainée, rebond de dipôles de vorticité, écoulements dans une conduite et sur une marche, écoulements autour d'obstacles) et comparées à des méthodes de différences-finies d'ordre élevé.
APA, Harvard, Vancouver, ISO, and other styles
30

Stoltz, Gabriel. "Quelques méthodes mathématiques pour la simulation moleculaire et multiéchelle." Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0708.

Full text
Abstract:
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet
This work presents some contributions to the theoretical and numerical study of models used in practice in the field of molecular simulation. In particular, stochastic techniques to compute more efficiently ensemble averages in the field of computational statistical physics are presented and analyzed. An important application is the computation of free energy differences using nonequilibrium or adaptive dynamics. Some stochastic or deterministic techniques to solve approximately the Schrödinger ground state problem for high dimensional systems are also studied. Finally, some reduced models for shock and detonation waves, relying on an average stochastic dynamics reproducing in a mean sense the high dimensional deterministic hamiltonian dynamics, are proposed
APA, Harvard, Vancouver, ISO, and other styles
31

Gillyboeuf, Jean-Philippe. "Diverses méthodes chimère pour la simulation numérique d'écoulements stationnaires." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT127H.

Full text
Abstract:
La technique chimere est une technique multidomaine qui permet de calculer des ecoulements sur des maillages qui se recouvrent sans aucune contrainte geometrique. La principale difficulte qu'elle pose est de transmettre l'information entre les domaines de calcul. Deux approches sont etudiees : l'une est fondee sur l'interpolation, l'autre sur la deformation des domaines. L'approche par interpolation est meilleure, mais son application n'est pas toujours commode. La solution consiste alors a combiner les deux approches de facon a ce qu'il y ait aussi peu de deformation que possible et autant que necessaire. A maillages equivalents, la qualite des resultats que la technique chimere permet d'obtenir est a peu pres equivalente a celle d'un resultat obtenu par un calcul multidomaine classique.
APA, Harvard, Vancouver, ISO, and other styles
32

Papadopoulos, Christos. "Méthodes de simulation stochastiques rapides et applications en fiabilité." Compiègne, 1999. http://www.theses.fr/1999COMP1213.

Full text
Abstract:
L'objectif de cette thèse est l'estimation des probabilités associées aux évènements rares rencontrés en fiabilité. Dans un premier temps, nous avons étudié les principales méthodes de réduction de la variance, et ensuite nous avons développé une heuristique de type "Failure Biasing" appelée la méthode "Inverse" qui s'est montrée très efficace en pratique et qui possède la propriété de l'Erreur Relative Bornée pour la quasi-totalité de systèmes markoviens hautement fiables. L'unique changement optimal, n'est pas toujours exploitable car il contient le paramètre que nous voulons estimer. Par contre, dans certains cas, nous pouvons effectivement le calculer. Ainsi, nous avons présenté la procédure pour le calcul récursif du changement optimal dans le cas de l'estimation de la probabilité d'un évènement rare. Nous avons également donné les classes de systèmes pour lesquelles cette procédure est appliquable. Des approches pratiques pour l'utilisation de la théorie des grandes déviations en simulation, ont également été présentées. Finalement, nous avons présenté deux méthodes pour la simulation des systèmes semi-markoviens : la méthode de la chaîne immergée et celle du risque compétitif. Cette étude a été étendue avec la présentation d'une méthode hybride pour l'estimation de la non-fiabilité d'un système consécutif-k-sur-n, basée sur la méthode analytique-statistique. L'efficacité de cette méthode a été illustrée sur de nombreux exemples.
APA, Harvard, Vancouver, ISO, and other styles
33

Minvielle-Larrousse, Pierre. "Méthodes de simulation stochastique pour le traitement de l’information." Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Full text
Abstract:
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle
When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
APA, Harvard, Vancouver, ISO, and other styles
34

Jouves, Johan. "Origine, caractérisation et distribution prédictive des structures karstiques : de la karstologie aux modèles numériques 3D." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0153/document.

Full text
Abstract:
Les réseaux karstiques s'organisent de manière hiérarchique et se comportent comme des drains pour l'écoulement des fluides souterrains. Cependant seule une partie limitée de ces réseaux karstiques est généralement humainement observable, et la connaissance globale d'un système reste limitée. Les simulations géostatistiques représentent un moyen d’étudier les différentes configurations des réseaux karstiques tridimensionnels (3D) probables et ainsi de déterminer les incertitudes sur le comportement du réservoir. Établir une telle démarche nécessite de comprendre les étapes de structuration d'un karst donné à partir de déterminations karstologiques permettant d'identifier la morphogenèse des formes exo- et endokarstique et de reconstituer l'évolution spéléogénétique d'un massif (spéléogenèse épigène ou hypogène, évolution du niveau de base, etc.). Cela a permis de définir une zonation de l'occurrence de l'organisation des structures karstiques (zone vadose, épiphréatique ou phréatique). En parallèle, l'analyse quantitative de géométries et de topologies de données 3D de cavités analogues a permis de comparer les différentes structures de réseaux karstiques et de fournir une base de données quantitative de caractéristiques morphologiques de cavités en fonction de processus spéléogénétiques. Deux approches géostatistiques ont été testées pour la simulation stochastique de réseaux karstiques. Elles reposent sur l'utilisation de méthodes classiques de géostatistiques basées-pixel : la simulation séquentielle d’indicatrice (SIS) et les simulations multipoints (MPS)
Karst networks are hierarchically organized and behave as drains for underground fluid flows. However, the humanly observed karst conduits represent only a limited part of the complete karst conduit system, and overall knowledge remains limited. Geostatistical stochastic simulations represent an interesting tool to study the different three-dimensional (3D) probable configurations of karst networks and then, to determine the uncertainties on the reservoir behaviors. This approach first requires understanding the successive stages of karst structuring of a reservoir and then to numerically reconstruct the 3D organization of karst structures. From karstological determinations, it is possible to identify the morphogenesis of the exo- and endokarst forms and to reconstitute the speleogenetic evolution of a massif (epigenic or hypogenic speleogenesis, evolution of the basic level, etc.). The speleogenetic reconstitutions then make it possible to identify the successive phases of the karst system structuration (epigenic or hypogenic speleogenesis, evolution of base level, etc.). In parallel, a quantitative analysis of the geometries and the topologies performed on 3D cave surveys permits to compare the different organizations of the karst network patterns, related to speleogenetic processes. This morphometric analysis provides a quantitative database of morphological characteristics according to their speleogenetic processes. Finally, two geostatistical approaches were tested to generate karst networks. They correspond to two classical pixel-based geostatistical methods: the sequential indicator simulation (SIS) and the multipoint simulations (MPS)
APA, Harvard, Vancouver, ISO, and other styles
35

Demangeot, Marine. "L'analyse spatiale des extrêmes à partir d'une unique réalisation : un point de vue géostatistique." Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLM032.

Full text
Abstract:
La théorie spatiale des valeurs extrêmes permet de modéliser et prédire la fréquence d'évènements extrêmes ayant une étendue spatiale comme, par exemple, des pluies ou des températures extrêmes, ou encore de fortes concentrations de pollution atmosphérique. Elle s'adapte bien aux données temporelles, lorsque le phénomène spatial étudié est observé plusieurs fois dans le temps. Cependant, nous n'avons parfois pas accès à de telles données: seulement un ou quelques enregistrements sont disponibles. C'est le cas, par exemple, des études sur l'estimation des ressources minières ou sur l'évaluation de la pollution des sols et plus généralement de toute recherche dont l'objet d'étude varie très peu au cours du temps ou pour lequel le coût d'échantillonnage est trop élevé. Ce cas de figure est très peu abordé par la communauté des extrêmes. Au contraire, c'est un cadre d'analyse auquel la Géostatistique s'intéresse particulièrement. Les travaux réalisés au cours de cette thèse ont pour objectif d'établir des connexions mathématiques entre ces deux disciplines afin de mieux appréhender les évènements extrêmes, lorsque le phénomène spatial sous-jacent n'est observé qu'une seule fois.Nous nous intéressons, dans un premier temps, au concept de portée intégrale. Intrinsèquement lié aux propriétés d'ergodicité et de mélange, ce paramètre issu de la théorie géostatistique caractérise les fluctuations statistiques, à large échelle, d'un champ aléatoire stationnaire. Lorsque ce dernier est un champ max-stable, nous montrons que sa fonction coefficient extrémal (ECF) est fortement liée à la portée intégrale du champ des excès, au dessus d'un certain seuil, correspondant. Cette approche permet de retrouver et de compléter des résultats précédemment établis dans un contexte de risque spatialisé. Elle met également en évidence une nouvelle expression de la fonction coefficient extrémal qui dépend du variogramme du champ des excès.À partir de cette formule, nous proposons un nouvel estimateur non-paramétrique de l'ECF. Ses propriétés asymptotiques sont établies lorsqu'il est évalué à partir d'une unique réalisation, partiellement observée, d'un champ stationnaire max-stable. En particulier, lorsque le nombre d'observations se densifie en même temps que le champ d'observation grandit, et sous certaines hypothèses concernant la portée intégrale susmentionnée, nous montrons qu'il est consistent et asymptotiquement normal. Il est donc pertinent d'utiliser les outils géostatistiques pour enrichir l'analyse des valeurs extrêmes.Finalement, nous développons un nouvel algorithme permettant de simuler, en continu, des processus aléatoires tempête pour lesquels la fonction de forme est déterministe. Il se distingue donc de la plupart des algorithmes existants qui s'utilisent exclusivement lorsque le domaine de simulation est composé d'un nombre fini de points. À cet égard, il permet d'étudier plus facilement la géométrie des réalisations de tels processus. Cela est particulièrement intéressant quand la caractéristique géométrique étudiée mêle différentes échelles d'observation
Spatial extreme value theory helps model and predict the frequency of extreme events in a spatial context like, for instance, extreme precipitations, extreme temperatures. It is well adapted to time series. However, in some cases, such types of data cannot be accessed: only one or just a few records are made available. This is the case, for instance in soil contamination evaluation. This situation is rarely addressed in the spatial extremes community, contrary to Geostatistics,which typically deals with such issues. The aim of this thesis is to make some connections between both disciplines,in order to better handle the study of spatial extreme events, and especially their spatial dependence structure, when having only one set of spatial observations. A link is first established through the concept of integral range. It is a geostatistical parameter that characterizes the statistical fluctuations of a stationary random field at large scale. When the latter is max-stable, we show that its extremal coefficient function (ECF), which is a measure of spatial dependence, is closely related to the integral range of the corresponding exceedance field above a threshold. From this, we move toproposing a new nonparametric estimator of the ECF. Its asymptotic properties are derived when it is computed from a single and partially observed realization of a stationary max-stable random field. Specifically, under some assumptions on the aforementioned integral range, we prove that it is consistent and asymptotically normal. Finally, we develop a novel algorithm to perform exact simulations in a continuous domain of storm processes with deterministic shape function. It distinguishes itself from most existing procedures, which apply to simulation domains made of a finite number of points. Most part of the algorithm are designed to be parallelizable
APA, Harvard, Vancouver, ISO, and other styles
36

Zerkoune, Abbas. "Modélisation de l'incertitude géologique par simulation stochastique de cubes de proportions de faciès - Application aux réservoirs pétroliers de type carbonaté ou silico-clastique." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00410136.

Full text
Abstract:
Après sa découverte, les choix relatifs au développement d'un gisement se prennent sur la base de représentations incertaines du champ. En effet, sa caractérisation utilise des modèles numériques spatiaux porteurs de l'incertitude liée à la complexité du milieu souterrain. D'ordinaire, les méthodes de simulations stochastiques, qui génèrent des modèles équiprobables du sous-sol, sont supposées les quantifier. Néanmoins, ces images alternatives du champ renvoient à des tirages au sein d'un modèle probabiliste unique. Elles oublient l'incertitude relative au choix du modèle probabiliste sous-jacent, et tendent à la sous-estimer. Ce travail de recherche vise à améliorer la quantification de cette incertitude. Elle retranscrit la part de doute relative à la compréhension des propriétés du milieu sur les modèles probabilistes, et propose de l'intégrer à ce niveau. Cette thèse précise d'abord la notion d'incertitude en modélisation pétrolière, en particulier sur les modèles géologiques 3D comprenant différents faciès. Leur construction demande au préalable de définir en tout point de l'espace leur probabilité d'existence : c'est le cube de proportions. Généralement, bien que ces probabilités soient peu connues, les méthodes actuelles d'évaluation de l'incertitude sédimentaire les gardent figées. De fait, elles oublient le caractère incertain du scénario géologique et son impact sur le cube de proportions. Deux méthodes stochastiques de simulation ont été développées afin de générer des modèles équiprobables en termes de cubes de proportions. Elles intègrent la variabilité liée aux proportions de faciès, et explorent dans son ensemble un tel domaine d'incertitude. La première reste relativement attachée à la géologie. Elle intègre directement l'incertitude liée aux paramètres qui composent le scénario géologique. Elle décrit sa mise en oeuvre sur les divers paramètres du scénario géologique, qu'ils prennent la forme de signaux aux puits, de cartes ou d'hypothèses plus globales à l'échelle du réservoir. Une démarche de type Monte-Carlo échantillonne les composantes du schéma sédimentaire. Chaque tirage permet de construire un cube de proportions par l'intermédiaire d'un géomodeleur qui intègre de façon plus ou moins explicite les paramètres du scénario géologique. La méthodologie est illustrée et appliquée à un processus inédit de modélisation des dépôts carbonatés en milieu marin. La seconde revêt un caractère plus géostatistique en se concentrant davantage sur le cube de proportions. Elle vise plutôt à réconcilier les différents modèles sédimentaires possibles. Dans le modèle maillé de réservoir, elle estime la loi de distribution des proportions de faciès cellule par cellule - supposées suivrent une loi de Dirichlet, à partir de quelques modèles, construits sur la base de scénarios géologiques distincts. Elle simule alors les proportions de façon séquentielle, maille après maille, en introduisant une corrélation spatiale (variogramme) qui peut être déterministe ou probabiliste. Divers cas pratiques, composés de réservoirs synthétiques ou de champs réels, illustrent et précisent les différentes étapes de la méthode proposée.
APA, Harvard, Vancouver, ISO, and other styles
37

Demogeot, Thierry. "Développement de l'environnement de simulation Gaspe." Vandoeuvre-les-Nancy, INPL, 1992. http://www.theses.fr/1992INPL064N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Bonithon, Gaël. "Méthodes numériques innovantes pour la simulation thermique de composants électroniques." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00547880.

Full text
Abstract:
Les composants électroniques présentent des facteurs d'échelle géométrique importants, et font intervenir des matériaux aux conductivités thermiques très différentes. L'expérience montre que dans ce cadre, la méthode des éléments de frontière est un choix judicieux pour la simulation thermique en régime permanent. En régime transitoire, la dimension temporelle ajoute un certain nombre de difficultés. Parmi celles-ci figurent classiquement l'augmentation des temps de calcul et les critères de stabilité, ou d'un manière plus générale les liens entre discrétisations spatiale et temporelle. Plus spécifiquement, un des enjeux actuels en électronique est de mesurer l'impact de phénomènes très localisés, comme des commutations ou des courts-circuits, sur la thermique globale d'un composant. Il s'agit alors de coupler différentes échelles espace-temps, en assurant en particulier des changements d'échelle sans perte d'information. Dans la première partie de ce travail, on propose d'utiliser la méthode des éléments de frontière transitoire pour répondre à cette problématique. On combine tout d'abord différentes formulations intégrales et des techniques d'optimisation pour réduire le coût de la méthode. On réutilise ensuite ce travail pour développer une approche multi-échelles, et généraliser la méthode des éléments de frontière aux matériaux non linéaires. Une seconde partie est consacrée au développement d'une méthode alternative, visant à réduire les temps de calcul de manière plus significative tout en conservant une base éléments de frontière. Il s'agit d'une méthode de décomposition propre généralisée, qui permet de construire une représentation à variables séparées de la solution de manière non incrémentale. On étudie la convergence de l'algorithme sur différents cas de test, en proposant des techniques pour traiter des conditions aux limites et initiales non homogènes, ainsi que des termes sources non linéaires.
APA, Harvard, Vancouver, ISO, and other styles
39

Apraez, Camilo. "Étude comparative de méthodes de simulation de la stabilité transitoire." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1000/1/APRAEZ_Camilo.pdf.

Full text
Abstract:
L’analyse de la stabilité transitoire (ST) est l'un des outils les plus puissants pour étudier et améliorer le comportement des réseaux électriques. Par ailleurs, de nouveaux domaines de recherche utilisent la ST afin de déterminer l’écoulement de puissance de façon optimale à la suite d'une perturbation. La ST est une spécialité de la stabilité de l’angle du rotor qui simule et analyse le comportement dynamique des machines synchrones avant, pendant et après une perturbation. La tendance la plus courante pour étudier la ST est une simulation dans le domaine du temps (SDT). À cette fin, nous formulons un ensemble d’équations différentielles algébriques (EDA) qui simulent le comportement des machines ainsi que le fonctionnement du réseau. Ces équations sont non linéaires et leur résolution nécessite l'application de méthodes numériques d'intégration. Ce projet met en oeuvre un programme de ST qui comprend le modèle détaillé et le modèle classique des machines synchrones. Pour la simulation avec le modèle classique, nous avons inclus dix méthodes différentes d'intégration implicites et explicites à pas d'intégration constants ou variables. Pour le modèle détaillé, nous avons réalisé deux algorithmes qui permettent de résoudre le système EDA avec des méthodes simultanées implicites et partitionnées explicites. De plus, nous avons testé le fonctionnement du programme dans les cas suivants: « WECC » trois machines, « New England » 10 machines, 17 machines et 50 machines. Pour chaque étude de cas, nous avons analysé les performances de chacune de ces méthodes en termes de précision et de rapidité d'exécution. Ce programme vise à servir d’outil de simulation dans les recherches qui demandent l'utilisation d’un programme de ST.
APA, Harvard, Vancouver, ISO, and other styles
40

Silva, lopes Laura. "Méthodes numériques pour la simulation d'évènements rares en dynamique moléculaire." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1045.

Full text
Abstract:
Dans les systèmes dynamiques aléatoires, tels ceux rencontrés en dynamique moléculaire, les événements rares apparaissent naturellement, comme étant liés à des fluctuations de probabilité faible. En dynamique moléculaire, le repliement des protéines, la dissociation protéine-ligand, et la fermeture ou l’ouverture des canaux ioniques dans les membranes, sont des exemples d’événements rares. La simulation d’événements rares est un domaine de recherche important en biophysique depuis presque trois décennies.En dynamique moléculaire, on est particulièrement intéressé par la simulation de la transition entre les états métastables, qui sont des régions de l’espace des phases dans lesquelles le système reste piégé sur des longues périodes de temps. Ces transitions sont rares, leurs simulations sont donc assez coûteuses et parfois même impossibles. Pour contourner ces difficultés, des méthodes d’échantillonnage ont été développées pour simuler efficacement ces événement rares. Parmi celles-ci les méthodes de splitting consistent à diviser l’événement rare en sous-événements successifs plus probables. Par exemple, la trajectoire réactive est divisée en morceaux qui progressent graduellement de l’état initial vers l’état final.Le Adaptive Multilevel Splitting (AMS) est une méthode de splitting où les positions des interfaces intermédiaires sont obtenues de façon naturelle au cours de l’algorithme. Les surfaces sont définies de telle sorte que les probabilités de transition entre elles soient constantes et ceci minimise la variance de l’estimateur de la probabilité de l’événement rare. AMS est une méthode avec peu de paramètres numériques à choisir par l’utilisateur, tout en garantissant une grande robustesse par rapport au choix de ces paramètres.Cette thèse porte sur l’application de la méthode adaptive multilevel splitting en dynamique moléculaire. Deux types de systèmes ont été étudiés. La première famille est constituée de modèles simples, qui nous ont permis d’améliorer la méthode. La seconde famille est faite de systèmes plus réalistes qui représentent des vrai défis, où AMS est utilisé pour avancer nos connaissances sur les mécanismes moléculaires. Cette thèse contient donc à la fois des contributions de nature méthodologique et numérique.Dans un premier temps, une étude conduite sur le changement conformationnel d’une biomolécule simple a permis de valider l’algorithme. Nous avons ensuite proposé une nouvelle technique utilisant une combinaison d’AMS avec une méthode d’échantillonnage préférentiel de l’ensemble des conditions initiales pour estimer plus efficacement le temps de transition. Celle-ci a été validée sur un problème simple et nos résultats ouvrent des perspectives prometteuses pour des applications à des systèmes plus complexes. Une nouvelle approche pour extraire les mécanismes réactionnels liés aux transitions est aussi proposée dans cette thèse. Elle consiste à appliquer des méthodes de clustering sur les trajectoires réactives générées par AMS. Pendant ce travail de thèse, l’implémentation de la méthode AMS pour NAMD a été améliorée. En particulier, ce manuscrit présente un tutoriel lié à cette implémentation. Nous avons aussi mené des études sur deux systèmes moléculaires complexes avec la méthode AMS. Le premier analyse l’influence du modèle d’eau (TIP3P et TIP4P/2005) sur le processus de dissociation ligand– β -cyclodextrine. Pour le second, la méthode AMS a été utilisée pour échantillonner des trajectoires de dissociation d’un ligand du domaine N-terminal de la protéine Hsp90
In stochastic dynamical systems, such as those encountered in molecular dynamics, rare events naturally appear as events due to some low probability stochastic fluctuations. Examples of rare events in our everyday life includes earthquakes and major floods. In chemistry, protein folding, ligandunbinding from a protein cavity and opening or closing of channels in cell membranes are examples of rare events. Simulation of rare events has been an important field of research in biophysics over the past thirty years.The events of interest in molecular dynamics generally involve transitions between metastable states, which are regions of the phase space where the system tends to stay trapped. These transitions are rare, making the use of a naive, direct Monte Carlo method computationally impracticable. To dealwith this difficulty, sampling methods have been developed to efficiently simulate rare events. Among them are splitting methods, that consists in dividing the rare event of interest into successive nested more likely events.Adaptive Multilevel Splitting (AMS) is a splitting method in which the positions of the intermediate interfaces, used to split reactive trajectories, are adapted on the fly. The surfaces are defined suchthat the probability of transition between them is constant, which minimizes the variance of the rare event probability estimator. AMS is a robust method that requires a small quantity of user defined parameters, and is therefore easy to use.This thesis focuses on the application of the adaptive multilevel splitting method to molecular dynamics. Two kinds of systems are studied. The first one contains simple models that allowed us to improve the way AMS is used. The second one contains more realistic and challenging systems, where AMS isused to get better understanding of the molecular mechanisms. Hence, the contributions of this thesis include both methodological and numerical results.We first validate the AMS method by applying it to the paradigmatic alanine dipeptide conformational change. We then propose a new technique combining AMS and importance sampling to efficiently sample the initial conditions ensemble when using AMS to obtain the transition time. This is validatedon a simple one dimensional problem, and our results show its potential for applications in complex multidimensional systems. A new way to identify reaction mechanisms is also proposed in this thesis.It consists in performing clustering techniques over the reactive trajectories ensemble generated by the AMS method.The implementation of the AMS method for NAMD has been improved during this thesis work. In particular, this manuscript includes a tutorial on how to use AMS on NAMD. The use of the AMS method allowed us to study two complex molecular systems. The first consists in the analysis of the influence of the water model (TIP3P and TIP4P/2005) on the β -cyclodextrin and ligand unbinding process. In the second, we apply the AMS method to sample unbinding trajectories of a ligand from the N-terminal domain of the Hsp90 protein
APA, Harvard, Vancouver, ISO, and other styles
41

Agouzoul, Asmaâ. "Nouvelles méthodes numériques pour la simulation de l’impression 3D métallique." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0004.

Full text
Abstract:
Le procédé SLM offre de nouvelles perspectives en termes de conception de pièces. Cependant, les phénomènes thermo-mécaniques liés au procédé sont responsables des contraintes résiduelles et de la distorsion de la pièce fabriquée. La simulation numérique est un outil intéressant pour mieux cerner les phénomènes physiques à l’œuvre et leur impact sur la qualité de la pièce. Dans cette thèse, nous proposons différentes approches qui permettent de réaliser les simulations à moindre coût, en utilisant des algorithmes de réduction de modèles. Les résultats sont comparés à ceux obtenus par la méthode des éléments finis. Une méthode inverse d’identification rapide de la contrainte inhérente à partir d'abaques numériques est proposée. L'approche Proper Generalised Décomposition (PGD) est utilisée pour la construction de cet abaque. Nous explorons aussi les avantages qu'offre une implémentation de la PGD sur GPU
Selective Laser Melting offers new perspectives in terms of part design and simplification of complex assemblies. However, severe thermo-mechanical conditions arise and are responsible for local plastic deformation, residual stresses and distortion of the manufactured component. Numerical simulation is an interesting tool for process understanding the physical phenomena and their impact on the quality of the part. In this thesis, we propose different approaches to perform simulations at a lower cost, by using model reduction algorithms. The results are compared with those obtained by the finite element method. A reverse analysis in order to identify the inherent strain responsible for the measured elastic springback makes possible to build offline numerical abacus. Therefore, we use a multi-parametric reduced order model using the so called Proper Generalised Decomposition (PGD) to construct this abacus. We also explore the benefits of an implementation of PGD on GPU
APA, Harvard, Vancouver, ISO, and other styles
42

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov." Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
APA, Harvard, Vancouver, ISO, and other styles
43

MAHMOUD, AHMAD. "Simulation numérique d'écoulements par des méthodes de transformation de domaines." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0102.

Full text
Abstract:
Ce travail fait le point sur les methodes de transformation de domaines utilisees pour la simulation numerique d'ecoulements bi- et tridimensionnels. Dans ce cadre, nous avons developpe des methodes de transformation permettant de calculer des ecoulements etablis dans des filieres a section constante, mais quelconque, et des ecoulements complexes, pour des modeles rheologiques de type newtonien, non-newtonien purement visqueux et viscoelastique. A la difference des analyses proposees dans la litterature, nous considerons une transformation inconnue entre le domaine physique et un domaine transforme (de calcul) plus simple, analyse a laquelle se rattachent les methodes de tubes de courant. Plusieurs problemes ont ete abordes et resolus : 1) la simulation d'ecoulements etablis de fluides obeissant a des lois de comportement newtonienne, non-newtonienne purement visqueuse et viscoelastique integrale pour des conduites de sections complexes, pour lesquelles une approche par decomposition de domaines a ete mise en oeuvre. 2) le calcul d'ecoulements axisymetriques a surface libre inconnue correspondant a l'extrusion en sortie de filiere annulaire, pour un liquide newtonien. 3) la simulation de problemes d'ecoulements axisymetriques comportant des zones de singularite : surfaces avec transition adherence-glissement ou libres. Dans le contexte d'une analyse de tubes de courant, une formulation originale par elements finis utilisant la methode de galerkin a ete proposee pour les cas 2d et 3d. Les resultats, obtenus avec des elements d'approximation d'hermite sont conformes a ceux de la litterature, pour le cas newtonien et en accord avec les donnees experimentales sur un polyethylene lineaire de basse densite represente par une loi de comportement integrale.
APA, Harvard, Vancouver, ISO, and other styles
44

Saleh, Susi. "Méthodes de simulation des erreurs transitoires à plusieurs niveaux d'abstraction." Grenoble INPG, 2005. https://tel.archives-ouvertes.fr/tel-00009587.

Full text
Abstract:
La miniaturisation croissante des composants électroniques accroît considérablement la sensibilité des circuits intégrés face aux fautes transitoires de type (SEU) ou (SET). De ce fait, l'analyse de la sensibilité face aux ces fautes transitoires des circuits combinatoires et séquentiels est une tâche essentielle aujourd'hui. Les méthodes analytiques de calcul probabiliste de génération des impulsions SET ou des SEU et de propagation et transformation en erreur, publiées dans la littérateur jusqu'à ce jour, ne sont pas complets car un certain nombre de paramètres ne sont pas pris en compte. Dans cette thèse, nous proposons une méthodologie de simulation de fautes transitoires multi-niveaux qui permettra une évaluation plus rapide et en même temps précise. Cette méthodologie est en fait une collection des méthodes de simulations, une pour chaque niveau d'abstraction (niveau physique, niveau transistor, et niveau portes logiques). Au niveau physique, nous utilisons la simulation physique au niveau composants ou portes logiques élémentaires qui consiste en la caractérisation de chaque type de transistor d'une technologie donnée face aux SET en prenant en compte plusieurs paramètre (l'énergie ou le LET de la particule, l'angle d'incidence et la localisation de l'impact sur le composant, et les dimensions des transistors heurté par la particule). Suite à cette caractérisation, une famille de courbes de courants sera obtenue pour chaque transistor et un domaine de valeurs de l'amplitude et la durée de l'impulsion de courant sera établi. La transformation des impulsions de courants obtenus au niveau physique en impulsions de tension est réalisée à travers des simulations électriques en prenant en compte l'impédance de sortie de chaque porte. Une famille de courbes de tension transitoire sera aussi établie pour chaque porte. Un modèle d'impulsion logique sera défini pour ces impulsions qui sera ensuite utilisé dans des simulations numériques, qui sont beaucoup plus rapides, et qui sont utilisées finalement afin de pouvoir analyser la sensibilité face aux fautes transitoires de type SET et SEU d'un circuit complexe. Les résultats de cette analyse seront utilisés afin de réaliser une cartographie de sensibilité d'un circuit complexe qui nous permet de déterminer les zones les plus sensibles d'un circuit étudié et éventuellement de décider d'un durcissement ponctuel des portes sensibles
The nowadays miniaturization of the electronic components increases considerably the sensitivity of the integrated circuits face to transient faults (SEU) or (SET). The analysis of the transient faults sensitivity for combinational logic and sequential circuits is an essential task today. The analytical methods based on probabilistic calculation of the generation of transient pulses SET or SEU, and of the propagation and the transformation of these transients faults into errors, published in the literature are not complete because a certain number of parameters are not taken into account. In this thesis, we propose a fast and accurate multi levels methodology to simulate transient faults. This methodology is a collection of simulation methods, a method for each level of abstraction (physical level, transistor level, and gate level). At the physical level, we use a physical simulation at the components level for any elementary logical gates which consists in the characterization of each type of transistor of a given technology face of SET by taking into account several parameter (the energy or the LET of the particle, the angle of incidence, the impact localization and the dimensions of the transistors where the particle strike occurs). After this characterization, a family of current curves is obtained for each transistor and a domain of the current amplitude values and the current pulses duration is established. The transformation of the current pulse obtained at the physical level into voltage pulses is done by electrical simulations by taking into account the output impedance of each gate. A family of transient voltage pulse curves is also established for each gate. Furthermore, a logical pulse model is defined for these pulses which will be then used in a numerical simulations, which are much faster, and which are finally used in the sensitivity analysis phase for complex circuit. The results of this analysis are used in order to realize a cartography of a complex circuit sensitivity which allow us to determine the most significant zones of a studied circuit and, if required, to decide a hardening solution of the sensitive gates
APA, Harvard, Vancouver, ISO, and other styles
45

Labeau, Pierre-Etienne. "Méthodes semi-analytiques et outils de simulation en dynamique probabiliste." Doctoral thesis, Universite Libre de Bruxelles, 1996. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212439.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Navarro, Barragan Alberto. "Etude d'un procédé de séparation chromatographique en continu : modélisation et mise en oeuvre d'un séparateur à trois sorties fonctionnant en simulation de lit mobile." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT040G.

Full text
Abstract:
L'evolution des systemes de chromatographie continue industrielle est presentee ainsi que leurs domaines d'application actuelles. Dans le cas d'un separateur chromatographique a deux sorties fonctionnant selon le principe de simulation de lit mobile, les modeles permettant de representer les echanges de matiere sont discutes. Un modele simplifie et exploite pour etudier l'influence des conditions de fonctionnement du separateur sur la separation d'un melange glycerol-sulfate de sodium. La modelisation est etendue a la separation de trois constituants dans un separateur chromatographique continu a trois sorties. La resolution des equations derivees de ce modele permet de representer le profil chromatographique installe dans le separateur et de calculer la concentration et la purete des extraits et raffinat. L'influence des principaux facteurs - debits de boucle, de desorbant, de melange, des extraits, de raffinat, le temps de sequence, la configuration du separateur, sont etudies grace au modele. Une installation pilote de separation chromatographique par simulation de lit mobile est mise au point. Les previsions du modele sont verifiees experimentalement dans le cas d'un melange de polyols : mannitol, sorbitol, xylitol. Les conditions operatoires sont optimisees et les orientations validees experimentalement.
APA, Harvard, Vancouver, ISO, and other styles
47

Lucas, Philippe. "Modélisation et simulation du régime transitoire d'unités de séparation d'un procédé chimique avec leur système de régulation : Application à la conduite d'un atelier industriel." Châtenay-Malabry, Ecole centrale de Paris, 1988. http://www.theses.fr/1988ECAP0083.

Full text
Abstract:
Le travail proposé porte sur la simulation de régimes transitoires d'un procédé industriel et son utilisation pour l'étude de la conduite de cet atelier. A partir de l'observation d'un atelier de distillation et de l'analyse de son comportement pendant les phases transitoires est proposée une méthodologie de modélisation réaliste mais complexe pour représenter le fonctionnement d'un procédé. L'examen de la littérature scientifique sur le calcul du régime transitoire des procédés montre que la résolution numérique s'appuie le plus souvent sur la méthode de Bear comme le montrent les quelques logiciels et applications industrielles proposés. Sur la base des modèles présentés dans la littérature les équations retenues pour représenter l'installation étudiée sont exposées. Elles concernent non seulement l'accumulation et le transport de matière et d'énergie mais aussi l'acquisition de l'information et sa conversion en actions sur le procédé. La mise en oeuvre de cette modélisation avec le logiciel SpeedUp exige que le système d'équations différentielles et algébriques soit bien conditionné. L'obtention de tels systèmes est illustrée par des exemples d'opérations tirées du procédé étudié. Cette expérience permet de formuler des règles générales de modélisation. Quelques modèles ainsi écrits sont présentés. La modélisation ainsi définie appliquée à un évaporateur puis à la colonne de distillation conduit à des réponses qualitativement et quantitativement conformes à la réalité. Le choix des variables de commande d'une colonne de distillation est plus particulièrement exposé. Son application à la colonne étudiée invite après une étude en transitoire à choisir un certain jeu de variables intensives. Cette étude donne quelques recommandations pour la bonne conduite des régimes transitoires de procédés fortement perturbés. Le mémoire se termine par un bilan de l'apport potentiel de la simulation dynamique dans le choix de la stratégie de conduite d'un procédé.
APA, Harvard, Vancouver, ISO, and other styles
48

Truong, Xuan Viet. "Optimization by Simulation of an Environmental Surveillance Network : application to the Fight against Rice Pests in the Mekong Delta (Vietnam)." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066278/document.

Full text
Abstract:
Un réseau de surveillance efficace est souvent un outil utile pour surveiller et évaluer les différents états d'un écosystème spécifique. Avec les informations fournies par le réseau, les prédictions peuvent être générés en utilisant des analyses spatio-temporelles approfondies, qui peuvent ensuite aider les décideurs et les parties prenantes. Écosystèmes dominés par les humains sont très dynamique et complexe, où la plupart des variables observées ont des interactions non-linéaires mutuelles. En outre, les impacts des activités humaines sur l'écosystème sont souvent rugueux, dans de nombreux cas, ils perturbent l'équilibre écologique. Par conséquent, la surveillance d'un écosystème devient un problème complexe et il n'est pas facile de proposer un réseau de surveillance optimal en utilisant les techniques traditionnelles. Les techniques d'optimisation traditionnelles ne parviennent pas souvent à tenir compte des évolutions de la réalité associée à ces écosystèmes.Un exemple d'une telle situation se trouve à la région du delta du Mékong du Vietnam, où les gestionnaires provinciaux de l'agriculture sont concernés par les invasions régulières des cicadelles brunes (Brown Plant Hoppers - BPH), un ravageur du riz particulièrement active, à cause des maladies qu'ils véhiculent et transmettent à la les rendements de riz
An efficient surveillance network is an invaluable tool to monitor and assess the different states of a given ecosystem. With the information collected by such a network, predictions can be generated using thorough spatio-temporal analyses, which can then support decision makers and stakeholders. Human dominated ecosystems are highly dynamic and complex , where most of the observed variables have mutual non-linear interactions. In addition, the human activities have a considerable impact on almost all ecosystems they inhabit, where they tend to disrupt the ecological balance in short period of times. The surveillance of such ecosystems by different technical solutions is complex and dynamic where designing an “optimal” surveillance network, i.e., a network that would reflect an almost realtime situation of an ecosystem. Often traditional optimization techniques fail to reflect the evolutions of the reality associated with these ecosystems.An example of such a situation, is the Mekong Delta region of Vietnam, where the provincial agricultural managers are concerned with the regular invasions of Brown Plant Hoppers (BPH), a particularly active rice pest, because of the diseases they carry and transmit to the rice yields. Their biggest concern is having a constantly accurate account of the current distribution of BPH waves, since it is the basis of establishing different prevention strategies. The time frame is short for applying these strategies: at least one week is needed between the moment where a prediction of the density of BPH can be estimated by the experts and warnings are sent to farmers and other end users and the moment where a strategy can be efficiently applied. To improve the efficiency of the system, the Vietnamese government has established a light-trap network [1] [2] that can capture multiple kinds of insects, especially BPH, and which data (the density of insects per trap) is collected and analyzed daily. Maintaining this network in a good state of operation has become an important national program of the Ministry of Agriculture and Rural Development of Vietnam since 2006. Although the current light-trap network is considered as a necessity for supporting the fight against various plant pests, it has three restrictions: (1) it misses detailed accounts on the life cycle of the BPH, (2) the network has remained stable since its initial design and has not, therefore, completely adapted to the huge changes that the ecosystem of the Mekong Delta has undergone in the recent years especially due to limitations in management, and (3) the network itself is very sparsely distributed
APA, Harvard, Vancouver, ISO, and other styles
49

Dubos, Samuel. "Simulation des grandes échelles d'écoulements turbulents supersoniques." Rouen, INSA, 2005. http://www.theses.fr/2005ISAM0007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Gabriel, Edith. "Détection de zones de changement abrupt dans des données spatiales et application à l'agriculture de précision." Montpellier 2, 2004. http://www.theses.fr/2004MON20107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography