To see the other types of publications on this topic, follow the link: Numerical Exploration.

Dissertations / Theses on the topic 'Numerical Exploration'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 37 dissertations / theses for your research on the topic 'Numerical Exploration.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sjöström, Stina. "Numerical exploration of radiative-dynamic interactions in cirrus." Thesis, Uppsala University, Department of Earth Sciences, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-8201.

Full text
Abstract:
<p>An important factor in forecast models today is cirrus clouds, but not much are known about their dynamics which makes them hard to parameterize. In this study a new theory was derived to enable a more correct way to describe the interplay between radiative heating and dynamical motions in these clouds. This hypothesis was tested by performing three dimensional simulations of cirrus clouds, using the University of Utah Large Eddy Simulator (UULES). Eleven clouds of varying initial radius and ice water mixing ratio were examined, with the aim of finding a pattern in their dynamical features. The model was set up without short wave radiation from the sun, and without any precipitation affecting the clouds, leaving only terrestrial heating and atmospheric cooling to create motions in the clouds. Two categories of initial dynamics could be seen:</p><p>• Isentropic adjustment: The isentropes within the cloud are adjusting to the environment due to rising of the cloud. Causes horizontal spreading through continuity.</p><p>• Density current: A dominating initial feature is spreading in small mixed layers at the cloud top and bottom. Caused by the density difference between the cloud and its environment.</p><p>An interesting phenomenon showing up in the simulations was mammatus clouds, which were visible in two of the cases. The only instability available to create these clouds was the radiative heating difference, which does not agree with present theories for how they form.</p><p>Two dimensionless numbers S and C were derived to describe the nature of the spreading motions and convection in the cloud. Both these numbers agreed with results.</p><br><p>Cirrusmoln har en viktig roll i dagens prognosmodeller, men är svåra att parametrisera på ett bra sätt eftersom man inte har tillräcklig kunskap om deras dynamik och utveckling. I denna studie togs en ny teori fram för att göra det möjligt att på ett mer korrekt sätt beskriva samspelet mellan strålningsuppvärmning och dynamiska rörelser i dessa moln. Hypotesen testades sedan genom att utföra tredimensionella simuleringar av cirrus moln med hjälp av University of Utah Large Eddy Simulator (UULES). Elva moln med varierande initiella radier och isvatteninnehåll undersöktes, med målet att finna ett mönster i dynamik och utveckling. UULES ställdes in så att miljön där molnen simulerades varken innehöll kortvågsstrålning från solen eller nederbörd. Således fanns det bara en resterande faktor för att skapa rörelser i molnen; skillnaden i den infraröda strålningsuppvärmningen mellan molntopp och molnbas. Två kategorier av initiella rörelser uppstod i molnen:</p><p>• Justering av isotroper: Molnen stiger i höjd vilket gör att isotroperna inuti dem justeras till omgivningen. Detta orsakar horisontell spridning genom kontinuitet.</p><p>• Densitets ström: Horisontell spridning av molnen koncentrerad till mixade skikt i de övre och undre delarna. Orsakas av skillnad i densitet mellan moln och omgivning.</p><p>Ett intressant fenomen som visade sig i två av simuleringarna var mammatusmoln. Den enda instabiliteten tillgänglig för att skapa dessa moln var skillnaden i strålningsuppvärmning mellan molntopp och -bas. Detta stämmer inte överrens med nuvarande teorier för hur dessa moln skapas.</p><p>Två dimensionslösa tal, S och C togs fram för att indikera vilken av de initiella rörelserna som dominerar i molnet, samt vilken typ av konvektion som dominerar. Båda dessa tal stämde väl överrens med resultat.</p>
APA, Harvard, Vancouver, ISO, and other styles
2

Kyriakopoulos, Nikos. "Unbounded orbits in almost circularouter billiards: A numerical exploration." Thesis, Uppsala universitet, Analys och tillämpad matematik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-197508.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Kildal, Johan. "Developing an interactive overview for non-visual exploration of tabular numerical information." Thesis, University of Glasgow, 2009. http://theses.gla.ac.uk/626/.

Full text
Abstract:
This thesis investigates the problem of obtaining overview information from complex tabular numerical data sets non-visually. Blind and visually impaired people need to access and analyse numerical data, both in education and in professional occupations. Obtaining an overview is a necessary first step in data analysis, for which current non-visual data accessibility methods offer little support. This thesis describes a new interactive parametric sonification technique called High-Density Sonification (HDS), which facilitates the process of extracting overview information from the data easily and efficiently by rendering multiple data points as single auditory events. Beyond obtaining an overview of the data, experimental studies showed that the capabilities of human auditory perception and cognition to extract meaning from HDS representations could be used to reliably estimate relative arithmetic mean values within large tabular data sets. Following a user-centred design methodology, HDS was implemented as the primary form of overview information display in a multimodal interface called TableVis. This interface supports the active process of interactive data exploration non-visually, making use of proprioception to maintain contextual information during exploration (non-visual focus+context), vibrotactile data annotations (EMA-Tactons) that can be used as external memory aids to prevent high mental workload levels, and speech synthesis to access detailed information on demand. A series of empirical studies was conducted to quantify the performance attained in the exploration of tabular data sets for overview information using TableVis. This was done by comparing HDS with the main current non-visual accessibility technique (speech synthesis), and by quantifying the effect of different sizes of data sets on user performance, which showed that HDS resulted in better performance than speech, and that this performance was not heavily dependent on the size of the data set. In addition, levels of subjective workload during exploration tasks using TableVis were investigated, resulting in the proposal of EMA-Tactons, vibrotactile annotations that the user can add to the data in order to prevent working memory saturation in the most demanding data exploration scenarios. An experimental evaluation found that EMA-Tactons significantly reduced mental workload in data exploration tasks. Thus, the work described in this thesis provides a basis for the interactive non-visual exploration of a broad range of sizes of numerical data tables by offering techniques to extract overview information quickly, performing perceptual estimations of data descriptors (relative arithmetic mean) and managing demands on mental workload through vibrotactile data annotations, while seamlessly linking with explorations at different levels of detail and preserving spatial data representation metaphors to support collaboration with sighted users.
APA, Harvard, Vancouver, ISO, and other styles
4

Zhang, Ying. "Numerical and experimental exploration of the contour method for residual stress evaluation." Thesis, Open University, 2004. http://oro.open.ac.uk/54620/.

Full text
Abstract:
This thesis comprehensively investigates the contour method - a newly-invented destructive technique for residual stress evaluation - in terms of its principle and application. The principle of the contour method is based on a variation of Bueckner's elastic superposition theory. A two-dimensional map of residual stress profile normal to a plane of interest can be determined in a simple, cheap and time-efficient manner. In practice,residual stress evaluation using the contour method involves the experimental measurement of the displacement formed by the stress release following a cut on the surface at issue, and then numerical calculation of the residual stress based on the experimentally measured displacement. The whole process of the contour-method measurement was simulated using a finite element method and the simulated result confirms the correctness of the novel technique. A number of different applications have been explored using the contour method to measure a cross-sectional residual stress distribution: a hole cold expansion EN8 steelplate, a hole cold expansion 7475-T7351 aluminium alloy plate, a MIG 2024-T351 aluminium alloy welded plate and a VPPA 2024-T351 aluminium alloy welded plate. Favourably good outcomes were obtained from each case. The most impressive comparison of the contour-method result was made on the VPPA 2024-T351 weld with neutron and synchrotron X-ray diffraction measurements, showing an extremely good match with deviation approximately 9 % on average. This work has proved that the contour method is a powerful novel technique to determine across-sectional residual stress profile with accuracy in many engineering components, and has great prospects to find application elsewhere.
APA, Harvard, Vancouver, ISO, and other styles
5

Ahmed, Mohammad Ozair. "An exploration of compact finite difference methods for the numerical solution of PDE." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq28470.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Pirttijärvi, M. (Markku). "Numerical modeling and inversion of geophysical electromagnetic measurements using a thin plate model." Doctoral thesis, University of Oulu, 2003. http://urn.fi/urn:isbn:951427119X.

Full text
Abstract:
Abstract The thesis deals with numerical methods designed for the modeling and inversion of geophysical electromagnetic (EM) measurements using a conductive thin plate model. The main objectives are to study the EM induction problem in general and to develop practical interpretation tools for mineral prospecting in particular. The starting point is a linearized inversion method based on the singular value decomposition and a new adaptive damping method. The inversion method is introduced to the interpretation of time-domain EM (TEM) measurements using a thin plate in free-space. The central part of the thesis is a new approximate modeling method, which is based on an integral equation approach and a special lattice model. At first the modeling method is applied to the interpretation of frequency-domain EM (FEM) data using a thin plate in conductive two-layered earth. After this time-domain responses are modeled applying a Fourier-sine transform of broadband FEM computations. The results demonstrate that the approximate computational method can model the geophysical frequency and time-domain EM responses of a thin conductor in conductive host medium with sufficient accuracy, and that the inversion method can provide reliable estimates for the model parameters. The fast forward computation enables interactive interpretation of FEM data and feasible forward modeling of TEM responses. The misfit function mapping and analysis of the singular value decomposition have provided additional information about the sensitivity, resolution, and the correlation behavior of the thin plate parameters.
APA, Harvard, Vancouver, ISO, and other styles
7

Chan, Ka-ho, and 陳嘉豪. "Numerical exploration of the probability of capture into the 3:1 mean motion resonance." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2013. http://hub.hku.hk/bib/B4979971X.

Full text
Abstract:
Mean-motion resonances (MMR) are frequently observed in extrasolar planetary systems. It is generally believed that the resonances result from the convergent migration of planets. The much larger number of systems near the 2:1 resonance compared to 3:1 resonance in both the radial velocity and the Kepler data is probably due to the difference in the capture behaviors of 2:1 and 3:1 resonances. To study the capture probability of the 3:1 resonance, numerical three-body integrations with forced migration have been used to examine the dependence of the capture probability on migration rate, planetary masses, and initial orbital eccentricities. First, the numerical results have been confirmed with analytic theory in the adiabatic limit (Borderies & Goldreich 1984) and numerical results of the Hamiltonian model beyond this limit (Mustill & Wyatt 2011) for both the interior and exterior resonances in the circular restricted three-body problem. Then, the numerical exploration of the restricted three-body problem (R3BP) has been extended to cases with non-zero planet eccentricity in the adiabatic limit. The capture probability decreases with increasing planet eccentricity at small test particle eccentricity but does not depend strongly on the planet eccentricity at large test particle eccentricity. Interestingly, the critical eccentricity of the planet, below which resonance capture is certain, is much larger than the critical eccentricity of test particle which was not expected. Finally, the numerical exploration has been extended to situations with different planetary mass ratio m1/m2. In the cases where both planets are initially on circular orbits, the critical migration rate for certain capture agrees with that of Quillen (2006) in the R3BP. However, it does not change monotonically with m1/m2 and peaks at m1/m2 = 1. For m1/m2 = 1, the resonance capture is certain when the eccentricities of the inner and outer planets are small and decreases as the eccentricities increase. In contrast, the capture probability is low when the eccentricities are small and the capture probability peaks at certain values of the eccentricities in the non-adiabatic limits. The capture probability as a function of planet eccentricities for mass ratios m1/m2 = 0.5 and 2 in the adiabatic limit has also been studied. The capture probability at m1/m2 = 2 shows similar behaviors with m1/m2 = 1 but the capture behaviors at m1/m2 = 0.5 are significantly different from the capture behaviors at m1/m2 = 1. This research has explored the probability of resonant capture in several new regimes, including the elliptical restricted three-body problem, comparable mass cases in the adiabatic limit and the equal mass case in the non-adiabatic limits. This work enhances our knowledge in the capture behaviors of 3:1 MMR in different limits and is useful in the future studies of the period ratio distribution in extrasolar planet systems.<br>published_or_final_version<br>Physics<br>Master<br>Master of Philosophy
APA, Harvard, Vancouver, ISO, and other styles
8

Koldan, Jelena. "Numerical solution of 3-D electromagnetic problems in exploration geophysics and its implementation on massively parallel computers." Doctoral thesis, Universitat Politècnica de Catalunya, 2013. http://hdl.handle.net/10803/130833.

Full text
Abstract:
The growing significance, technical development and employment of electromagnetic (EM) methods in exploration geophysics have led to the increasing need for reliable and fast techniques of interpretation of 3-D EM data sets acquired in complex geological environments. The first and most important step to creating an inversion method is the development of a solver for the forward problem. In order to create an efficient, reliable and practical 3-D EM inversion, it is necessary to have a 3-D EM modelling code that is highly accurate, robust and very fast. This thesis focuses precisely on this crucial and very demanding step to building a 3-D EM interpretation method. The thesis presents as its main contribution a highly accurate, robust, very fast and extremely scalable numerical method for 3-D EM modelling in geophysics that is based on finite elements (FE) and designed to run on massively parallel computing platforms. Thanks to the fact that the FE approach supports completely unstructured tetrahedral meshes as well as local mesh refinements, the presented solver is able to represent complex geometries of subsurface structures very precisely and thus improve the solution accuracy and avoid misleading artefacts in images. Consequently, it can be successfully used in geological environments of arbitrary geometrical complexities. The parallel implementation of the method, which is based on the domain decomposition and a hybrid MPI-OpenMP scheme, has proved to be highly scalable - the achieved speed-up is close to the linear for more than a thousand processors. Thanks to this, the code is able to deal with extremely large problems, which may have hundreds of millions of degrees of freedom, in a very efficient way. The importance of having this forward-problem solver lies in the fact that it is now possible to create a 3-D EM inversion that can deal with data obtained in extremely complex geological environments in a way that is realistic for practical use in industry. So far, such imaging tool has not been proposed due to a lack of efficient, parallel FE solutions as well as the limitations of efficient solvers based on finite differences. In addition, the thesis discusses physical, mathematical and numerical aspects and challenges of 3-D EM modelling, which have been studied during my research in order to properly design the presented software for EM field simulations on 3-D areas of the Earth. Through this work, a physical problem formulation based on the secondary Coulomb-gauged EM potentials has been validated, proving that it can be successfully used with the standard nodal FE method to give highly accurate numerical solutions. Also, this work has shown that Krylov subspace iterative methods are the best solution for solving linear systems that arise after FE discretisation of the problem under consideration. More precisely, it has been discovered empirically that the best iterative method for this kind of problems is biconjugate gradient stabilised with an elaborate preconditioner. Since most commonly used preconditioners proved to be either unable to improve the convergence of the implemented solvers to the desired extent, or impractical in the parallel context, I have proposed a preconditioning technique for Krylov methods that is based on algebraic multigrid. Tests for various problems with different conductivity structures and characteristics have shown that the new preconditioner greatly improves the convergence of different Krylov subspace methods, which significantly reduces the total execution time of the program and improves the solution quality. Furthermore, the preconditioner is very practical for parallel implementation. Finally, it has been concluded that there are not any restrictions in employing classical parallel programming models, MPI and OpenMP, for parallelisation of the presented FE solver. Moreover, they have proved to be enough to provide an excellent scalability for it.
APA, Harvard, Vancouver, ISO, and other styles
9

Letort, Gaelle. "Exploration par simulations numériques de l'auto-organisation du cytosquelette sous conditions géométriquement contrôlées." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAS048/document.

Full text
Abstract:
Le cytosquelette joue un rôle essentiel dans de nombreux processus cellulaires (division, adhésion, migration, morphogenèse..). Un de ses principaux constituants, les filaments d'actine, des polymères semi flexibles polarisés, forme des réseaux dont les architectures spécifiques permettent au cytosquelette de réaliser ses fonctions physiologiques. Un enjeu majeur en biologie cellulaire est de comprendre comment les cellules peuvent former une telle variété d'organisations à partir de la même entité de base, les monomères d'actine. Nous avons découvert récemment que limiter la nucléation des filaments d'actine à des géométries définies suffit à contrôler la formation de différentes organisations (Reymann et al, 2010). Néanmoins, les paramètres principaux permettant d'expliquer comment ces contraintes géométriques déterminent l'organisation collective des filaments n'ont pas été identifiés. Pour comprendre les lois physiques régissant ce phénomène, j'ai développé des simulations numériques du système expérimental en utilisant le logiciel Cytosim. J'ai pu ainsi montrer que la géométrie, les interactions stériques entre filaments, leurs propriétés mécaniques, et l'efficacité de la nucléation sont les paramètres clés contrôlant la formation de structures. Cette étude propose une base solide pour comprendre l'organisation cellulaire de l'actine en identifiant un système minimal de composants suffisant pour simuler l'émergence de différentes organisations d'actine (réseau branché, faisceaux de filaments parallèles ou antiparallèles). Avec cet outil, nous pouvons à présent prédire, étant donnée une géométrie de nucléation, quelles structures en émergeront.Nous avons alors combiné nos deux méthodes in-vitro et in-silico pour étudier comment le couplage entre l'architecture des réseaux et leur composition biochimique contrôle la réponse contractile. La connectivité entre les filaments en est un facteur crucial. En effet, un réseau peu connecté se déforme seulement localement, et n'instaure pas de comportement global. Une structure fortement connectée est très rigide, les moteurs moléculaires ne peuvent donc pas la déformer efficacement. La contraction d'une structure n'est donc possible que pour des valeurs de connectivité intermédiaires. L'amplitude de cette contraction est alors déterminée par l'organisation des filaments. Ainsi nous avons pu expliquer comment l'architecture mais aussi la connectivité des réseaux gouverne leur contractilité.Finalement, les microtubules sont aussi des acteurs essentiels aux processus cellulaires. Étant longs et rigides, ils servent de senseurs de la forme cellulaire et organisent les organites. Leur distribution spatiale, facteur majeur pour l'organisation cellulaire, est contrôlée dans un grand nombre de types cellulaires par la position du centrosome, un organite qui nuclée la plupart des microtubules. La capacité du centrosome à trouver le centre de la cellule dans de nombreuses conditions physiologiques est particulièrement étonante. Il peut aussi adopter une position décentrée lors de processus cellulaires spécifiques. Des mécanismes pouvant potentiellement expliquer le positionnement du centrosome ont été proposés (Manneville et al., 2006; Zhu et al, 2010), mais ce phénomène reste dans sa plus grande partie inexpliqué. J'ai utilisé les simulations pour explorer différents mécanismes pouvant le contrôler selon différentes conditions. Ces résultats permettent de disposer d'une base théorique pour présumer des mécanismes intervenant dans un système donné. Ils peuvent aussi permettre de valider ou réfuter des hypothèses sur les phénomènes mis en jeu et aider à l'élaboration de nouveaux systèmes expérimentaux.Les simulations que j'ai développées aident ici à étudier des comportements spécifiques, en apportant de nouveaux éclairages sur les comportements collectifs du cytosquelette. Elles pourraient être utilisées comme un outil prédictif ou adaptées pour l'étude d'autres systèmes expérimentaux<br>The cytoskeleton plays a crucial role in cellular processes, including cell division, adhesion, migration and morphogenesis. One of its main compenent, the actin filaments, a polarised semi-flexible polymer, contributes to these processes by forming specific collective architectures, whose structural organisations are essential to perform their functions. A major challenge in cell biology is to understand how the cell can form such a variety of organisations by using the same basic entity, the actin monomers. Recently we discovered that limiting actin nucleation to specific regions was sufficient to obtain actin networks with different organization (Reymann et al., 2010). However, our understanding of the general parameters involved in geometrically-driven actin assembly was limited. To understand mechanistically how spatially constraining actin nucleation determines the emergent actin organization, I performed detailed simulations of the actin filament system using Cytosim, a simulation tool dedicated to cytoskeleton system. I found that geometry, actin filaments local interactions, bundle rigidity, and nucleation efficiency are the key parameters controlling the emergent actin architecture. This study sets the foundation for our understanding of actin cellular organization by identifying a reduced set of components that were sufficient to realistically reproduce in silico the emergence of the different types of actin organization (branched actin network, parallel or anti parallel actin bundles). We can now predict for any given nucleation geometry which structures will form.Being able to control the formation of specific structures in-vitro and in-silico, we used the combination of both methods to study how the interplay between actin network architecture and its biochemical composition affects its contractile response. We highlighted the importance of the connectivity between filaments in the structures. Indeed, a loosely connected network cannot have a global behavior, but undergoes only local deformations. A highly connected network will be too rigid to be efficiently deformed by molecular motors. Only for an intermediate range of network connectivity the structures will contract, with an amplitude that depends notably on actin filaments organisation. This work explains how architecture and connectivity govern actin network contractility.Finally, the microtubules are also essential actors of cellular processes. Being long and rigid, they serve as sensors of the cellular shape and can organize the position of organelles in the cytoplasm. Their spatial distribution in the cell is thus a crucial cellular feature. this distribution is determined in a vast number of cell types by the position of the centrosome, an organelle that nucleates the majority of microtubules. Quite strinkingly, the centrosome is able to find the center of the cell in a lot of different physiological conditions, but can nonetheless adopt a decentered position in specific cellular processes. How this positioning is controled is not yet fully understood, but a few potential mechanims have been proposed (Manneville et al., 2006; Zhu et al., 2010). I used the simulations to explore different mechanisms taht can explain the position of the centrosome under different conditions. These results offer theorical considerations as a basis to assess which mechanism might prevail in a specific experimental system and may help to design new experimental setups.The simulations that I developed helped to study some specific behavior, by giving new insights into cytoskeleton collective organisations. These simulations can be further used as predictive tool or adapted to other experimental systems
APA, Harvard, Vancouver, ISO, and other styles
10

Lafitte-Godillon, Pauline. "Exploration numérique de comportements asymptotiques pour des équations de transport-diffusion." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00768679.

Full text
Abstract:
Mon travail de recherche a couvert ces dernières années un spectre assez large de modélisation, analyse numérique et simulation pour des problèmes physiques et biologiques, de la mécanique à l'échelle moléculaire ou particulaire, niveau dit " microscopique ", à la diffusion non-linéaire, niveau " macroscopique ", en passant par des équations cinétiques décrivant la distribution en vitesse de particules, niveau " mésoscopique ". Le point commun de ces travaux est l'étude de comportements asymptotiques et la recherche d'explications de phénomènes observables macroscopiques par des descriptions micro ou mésoscopiques à l'aide d'outils numériques. Les applications auxquelles on s'intéresse ici sont, pour la partie physique, liées à la thermodynamique couplée ou non avec du transfert radiatif ou une dynamique particulaire raréfiée et, pour la partie biologie-chimie, à des problèmes de propagation d'information par des mécanismes de transport ou de diffusion, ainsi qu'à la recherche de formation de motifs et à l'étude d'extinction de populations. Les équations aux dérivées partielles étudiées proviennent de modèles déterministes ou probabilistes et se classent dans les catégories de transport et de diffusion évolutifs. L'apparition, lors de l'adimensionnement des problèmes, de petits paramètres qui augmentent l'influence de certains des phénomènes caractéristiques dans la solution peut entraîner des difficultés importantes lors du traitement numérique, ce qui impose le recours à des solutions nouvelles permettant de recouvrer au minimum le comportement macroscopique prédit par les observations et par l'analyse mathématique.
APA, Harvard, Vancouver, ISO, and other styles
11

Sakai, Tadashi. "A Study of Variable Thrust, Variable Specific Impulse Trajectories for Solar System Exploration." Diss., Georgia Institute of Technology, 2004. http://hdl.handle.net/1853/4904.

Full text
Abstract:
A study has been performed to determine the advantages and disadvantages of variable thrust and variable specific impulse (Isp) trajectories for solar system exploration. There have been several numerical research efforts for variable thrust, variable Isp, power-limited trajectory optimization problems. All of these results conclude that variable thrust, variable Isp (variable specific impulse, or VSI) engines are superior to constant thrust, constant Isp (constant specific impulse, or CSI) engines. However, most of these research efforts assume a mission from Earth to Mars, and some of them further assume that these planets are circular and coplanar. Hence they still lack the generality. This research has been conducted to answer the following questions: - Is a VSI engine always better than a CSI engine or a high thrust engine for any mission to any planet with any time of flight considering lower propellant mass as the sole criterion? - If a planetary swing-by is used for a VSI trajectory, is the fuel savings of a VSI swing-by trajectory better than that of a CSI swing-by or high thrust swing-by trajectory? To support this research, an unique, new computer-based interplanetary trajectory calculation program has been created. This program utilizes a calculus of variations algorithm to perform overall optimization of thrust, Isp, and thrust vector direction along a trajectory that minimizes fuel consumption for interplanetary travel. It is assumed that the propulsion system is power-limited, and thus the compromise between thrust and Isp is a variable to be optimized along the flight path. This program is capable of optimizing not only variable thrust trajectories but also constant thrust trajectories in 3-D space using a planetary ephemeris database. It is also capable of conducting planetary swing-bys. Using this program, various Earth-originating trajectories have been investigated and the optimized results have been compared to traditional CSI and high thrust trajectory solutions. Results show that VSI rocket engines reduce fuel requirements for any mission compared to CSI rocket engines. Fuel can be saved by applying swing-by maneuvers for VSI engines, but the effects of swing-bys due to VSI engines are smaller than that of CSI or high thrust engines.
APA, Harvard, Vancouver, ISO, and other styles
12

Bouffard, Mathieu. "Double-diffusive thermochemical convection in the liquid layers of planetary interiors : a first numerical exploration with a particle- in-cell method." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN063/document.

Full text
Abstract:
De nombreux corps du système solaire possèdent des enveloppes liquides internes, comme par exemple les noyaux métalliques des planètes telluriques et les océans profonds des satellites de glace de Jupiter et Saturne, dans lesquelles se produisent des courants de convection. La modélisation de la dynamique de ces enveloppes est cruciale pour comprendre la génération des champs magnétiques planétaires (pour les noyaux) et pour mieux déterminer l’habitabilité potentielle des satellites joviens. La convection dans ces enveloppes est généralement produite par la combinaison d’au moins deux sources de flottabilité : une source thermique et une source solutale. Une telle situation est plus complexe qu’un régime de convection purement thermique ou purement solutale, d’une part en raison de l’existence d’un couplage thermochimique lorsqu’un processus de fusion ou de cristallisation se produit à l’une des frontières de l’enveloppe, et d’autre part à cause de la forte différence de diffusivité moléculaire entre les champs thermique et compositionnel qui permet potentiellement le développement d’instabilités double-diffusives. Classiquement, ces complexités ont été ignorées dans les simulations numériques de la dynamo terrestre ; les champs thermique et compositionnel ayant été combinés en une seule variable nommée « codensité ». Cette approche est sans doute simpliste mais permet d’esquiver une difficulté technique liée à la description du champ compositionnel dont la très faible diffusivité nécessite de recourir à des méthodes numériques adaptées. Cette thèse présente d’abord l’implémentation d’une méthode semi-Lagrangienne du type « particle-in-cell » dans un code de dynamo pré-existant, permettant ainsi de traiter de manière plus réaliste le champ de composition dans les enveloppes liquides internes des planètes. Les optimisations réalisées sont détaillées ainsi que les résultats de tests sur des cas de benchmark qui valident cet outil. Une comparaison avec des méthodes Eulériennes est également présentée. Une première exploration de la physique de la convection compositionnelle et thermochimique en rotation dans la limite d’un nombre de Prandtl compositionnel infini est ensuite conduite dans le contexte du noyau liquide terrestre. Il est montré que la dynamique convective est très différente de celle de la convection thermique pure. Notamment, les matériaux légers injectés à la frontière graine/noyau liquide sont capables d’atteindre la frontière noyau/manteau et de s’y accumuler pour former une couche chimiquement stratifiée, dont l’existence a été évoquée théoriquement mais qui n’a jamais pu être produite dans de précédentes simulations. Enfin, la dynamique double-diffusive des couches stratifiées est également discutée, et de premières simulations de « salt fingers » sont présentées<br>Numerous planetary bodies contain internal liquid layers in which convective currents are generated by the combination of buoyancy sources of thermal and compositional origin. The strong difference between the thermal and chemical molecular diffusivities and the possibility of thermo-chemical coupling at melting or freezing boundaries create a convective regime that is much more complex than pure thermal convection, partly due to the potential occurrence of double-diffusive instabilities. Traditionally, numerical simulations have modeled the dynamics of the liquid part of planetary cores in a more simplistic way by neglecting the diffusivity difference and combining both fields into one single variable, an approximation that is convenient but maybe not relevant. However, distinguishing both fields and dealing with a large or infinite diffusivity ratio makes it compulsory to use numerical methods that minimize numerical diffusion as much as possible. In this thesis, I adapted a semi-Lagrangian particle-in-cell method into a pre-existing dynamo code to describe the weakly diffusive compositional field. I optimized the code for massively parallel computing and validated it on two different benchmarks. I compared the particle-in-cell method to Eulerian schemes and showed that its advantages extend beyond its lower numerical dissipation. Using this new tool, I performed first numerical simulations of rotating pure compositional and thermochemical convection in the limit of null chemical diffusivity. I explored the physics of pure compositional convection and addressed questions related to the existence and the dynamics of a stratified layer below the Earth’s core mantle boundary. In particular, I showed that the stratification could potentially be of chemical origin and proposed some mechanisms to explain its formation. In the case of a thermally stratified layer, I performed a scaling analysis of fingering instabilities, wrote the first steps of a linear stability analysis and ran a few simulations of fingering instabilities in the rotating case. The potential effects of the magnetic field and the coupling of thermochemical boundary conditions in planetary cores are finally discussed in this thesis
APA, Harvard, Vancouver, ISO, and other styles
13

Sela, Ronit. "An exploration of functional and numerical flexibility in South African organisations: a qualitative study in two textile factories in Cape Town." Thesis, Rhodes University, 2002. http://hdl.handle.net/10962/d1006149.

Full text
Abstract:
During this research, an attempt was made to gain an understanding of management and their employees' perceptions regarding functional and numerical flexibility practices within South African organisations. To achieve this, twenty-six people, comprising of a variability of positions within the organisation, were interviewed in the region of the Western Cape. It was found that, although extensive research on the two forms of flexibility have been globally conducted, South African literature, particularly on the part of numerical flexibility, is limited. It is thus believed that this study will present a valuable basis to pursue in further research. Literature that was consulted was found to be supportive of the theoretical notion that South African organisations, in order to be globally competitive, have had to restructure and redefine themselves by ensuring that they make the most efficient and effective use of their human resources. The study found that whilst functional flexibility practices benefit employees in that they experienced increased job satisfaction and job mobility, it was the area of numerical flexibility which raised many dissatisfactions, including those of immense job insecurity and remuneration, both financial and otherwise. The study findings suggest a need for a more comprehensive and employee integrated approach by combining organisational with individual oriented initiatives, and ensuring the trade union's involvement in all facets of functional and numerical flexibility initiatives. The thesis ends with recommendations of various strategies for addressing the concerns of management, employees and the trade union in order to ensure full and proper utilisation of human resources so that the end product, namely job satisfaction, leads to organisational success.
APA, Harvard, Vancouver, ISO, and other styles
14

Guha, Swagata. "Ground penetrating radar response to thin layers examples from Waites Island, South Carolina /." [Tampa, Fla.] : University of South Florida, 2005. http://purl.fcla.edu/fcla/etd/SFE0000593.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Bouttier, Pierre-Antoine. "Assimilation variationnelle de données altimétriques dans le modèle océanique NEMO : exploration de l'effet des non-linéarités dans une configuration simplifiée à haute résolution." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM087.

Full text
Abstract:
Un enjeu majeur des modèles océaniques est de représenter fidèlement les circulations méso- et subméso-échelles afin de simuler leur importante contribution dans la circulation générale et dans le budget énergétique de l'océan. La poursuite de cet objectif se traduit par une augmentation de la résolution spatiale et temporelle à la fois des modèles et des réseaux d'observation de l'océan. Cependant, à ces petites échelles, la dynamique de l'écoulement revêt un caractère fortement turbulent ou non-linéaire. Dans ce contexte, les méthodes actuelles d'assimilation de données (AD), variationnelles en particulier, sont généralement moins performantes que dans un contexte (quasi-) linéaire.L'objectif de cette thèse est d'explorer sous divers aspects le comportement des méthodes variationnelles d'AD dans un modèle d'océan non-linéaire. Pour ce faire, nous avons réalisé une série d'expériences dites "jumelles" en assimilant des données altimétriques simulées suivant les caractéristiques des satellites altimétriques Jason-1 et SARAL/AltiKA . À l'aide de ces expériences, nous analysons sous différents angles les problématiques posées par les non-linéarités à l'AD. Enfin, nous ouvrons plusieurs pistes d'amélioration de l'efficacité du système d'AD dans ce contexte.Ce travail est basé sur le logiciel de modélisation océanique NEMO, incluant la configuration de bassin océanique turbulent idéalisé SEABASS, à différentes résolutions spatiales. Dans la continuité de la plateforme de recherche en AD avec NEMO, NEMO-ASSIM, nous avons utilisé et contribué au développement de cet ensemble d'outil, comprenant, entre autre, opérateur d'observation, modèles linéaire tangent et adjoint de NEMO, permettant de mener à bien notre étude. Le système d'AD variationnelle utilisé est le logiciel NEMOVAR.Les résultats présentés tentent de lier les échelles caractéristiques des structures d'erreurs d'analyse et l'activité aux petites échelles. Pour ce faire, nous avons utilisé une large gamme de diagnostics, e.g. erreur quadratique moyenne spatiale et temporelle, caractéristiques des fonctions coûts, caractérisation de l'hypothèse linéaire tangente, PSD des champs d'erreurs d'analyse.Nos expériences montrent que le 4DVAR incrémental contrôle efficacement la trajectoire analysée au 1/4° pour de longues fenêtres d'AD (2 mois). Lorsque la résolution augmente, la convergence de l'algorithme apparaît plus lente voire inexistante sous certaines conditions. Cependant, l'algorithme permet encore de réduire convenablement l'erreur d'analyse. Enfin, l'algorithme 3DFGAT se révèle beaucoup moins performant, quelle que soit la résolution.De plus, nous montrons également l'importance de l'adéquation entre la circulation simulée et l'échantillonnage altimétrique, en terme d'échelles spatiales représentées, pour obtenir de meilleures performances. Enfin, nous avons exploré la stratégie de minimisation dite "progressive", permettant d'accélérer la convergence du 4DVAR à haute résolution<br>A current stake for numerical ocean models is to adequately represent meso- and small-scale activity, in order to simulate its crucial role in the general ocean circulation and energy budget. It is therefore also a challenge for data assimilation (DA) methods to control these scales. However this small-scale activity is strongly linked to the nonlinear or turbulent character of the flow, whereas DA methods are generally much less efficient in such contexts than in (almost) linear ones. For variational DA methods as incremental 4DVAR, non-linearities imply convergence difficulty, the cost functions to be minimised presenting multiple local minima.The purpose of this thesis is to address this problem specifically, by exploring the behaviour of variational DA methods in a non-linear ocean model. To achieve this objective, a series of "twin" experiments assimilating simulated altimeter data, following the characteristics of altimetric satellite Jason-1 and SARAL/AltiKA, are analyzed. We also find different ways to improve efficiency of variational algorithms applied to turbulent circulations.This work is based on oceanic modelisation software called NEMO, including a idealized turbulent oceanic basin configuration, SEABASS, and DA components (e.g. Observation operator, Linear Tangent and Adjoint Models). Thanks to NEMO-ASSIM research platform, we have used and developed this set of tools. The used variational DA system itself is NEMOVAR.We present results characterizing scales and structures of the analysis error along the assimilation process, as well as tentative links with small scale activity. To study both the algorithm convergence and the analysis and forecast errors in a qualitative and quantitative way, a large spectrum of systematic diagnostics has been employed, e.g. spatial and temporal RMSE, cost function characteristics, projection of error fields on EOFs, validity of the tangent linear hypothesis, PSD of error fields.In our experiments, it appears that the incremental 4DVAR algorithm proved to be quite robust for long DA windows at eddy-permitting resolution.When the model horizontal resolution increases, the convergence of the minimisation algorithm is poorer but the 4DVAR method still controls efficiently analysis error.It has also been shown that the 4DVAR algorithm is clearly more performant than 3DFGAT for both considered resolutions.Moreover we investigate some strategies for DA in such nonlinear contexts, with the aim of reducing the analysis error. We performed so-called progressive incremental 4DVAR to improve the algorithm convergence for longer assimilation windows. Finally, we show that the adequation in represented flow scales between the model and the altimetric sampling is crucial to obtain the best error analysis reduction
APA, Harvard, Vancouver, ISO, and other styles
16

Thuillet, Florian. "Modélisation des processus d’impact et de surface des petits corps : interprétation des observations, implications sur leurs propriétés physiques, et support aux opérations des missions spatiales." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4074.

Full text
Abstract:
Cette thèse a pour but d’améliorer notre compréhension de la dynamique du régolithe en faible gravité grâce à des simulations numériques. Elle s’inscrit dans le cadre de deux missions de retour d’échantillon, Hayabusa2 (JAXA) et OSIRIS-REx (NASA). Les simulations ont été réalisées grâce au code numérique N-corps pkdgrav, adapté pour modéliser les interactions avec un milieu granulaire. Des simulations numériques sont comparées aux résultats d’expériences d’impact à faible vitesse et valident les simulations dans ce contexte. La forme de la force de Coulomb (force de friction s’opposant à la pénétration) semble évoluer de constante à proportionnelle à la profondeur de pénétration, lorsque la taille ou le rapport de taille impacteur/grain augmente. De plus, des simulations de plans inclinés ont été réalisées pour étudier les relations entre les paramètres de pkdgrav et l’approche continue utilisant la loi constitutive μ(I) reliant le paramètre de friction et le nombre inertiel. Pour une friction modérée, une telle relation peut être établie ; cependant, les divergences dans les profils de vitesse entre les deux méthodes sont trop grandes avec des matériaux à haute friction tels que du gravier. Sur la mission Hayabusa2, après une brève analyse de la géophysique de Ryugu sont présentés des travaux sur l’atterrisseur MASCOT (CNES-DLR) et sur le mécanisme de récolte. Les simulations concernant MASCOT ont été réalisées pour mieux comprendre la réponse de l’impact de l’atterrisseur sur la surface granulaire supposée, et pour aider l’équipe d’ingénieurs pour le choix du site d’atterrissage et l’interprétation des résultats. Parmi les résultats, la distance parcourue après impact augmente pour des lits moins profonds, des impacts plus rasants, des matériaux avec de plus hautes frictions et lorsque MASCOT atterrit sur son coin arrière. Il est aussi montré que les traces laissées par MASCOT après l’impact dépendent de son attitude et des propriétés de friction de la surface. En outre, des simulations additionnelles ont été réalisées avec un rocher et un mur vertical, pour modéliser le véritable contexte de l’atterrissage. Celles-ci montrent que des ratios de vitesse avant et après impact peuvent être aussi faibles que 0.3 à cause de micro-rebonds (rapide succession de contacts), et non pas nécessairement à cause d’une surface ou d’un rocher ductile. Une étude numérique de la récolte de Hayabusa2 est ensuite présentée, d’abord sans la modélisation de la structure du collecteur pour en extraire des résultats généraux sur le processus de cratérisation en faible gravité dans un milieu granulaire, et les comparer à la littérature. Par exemple, les lignes de courant dans le milieu sont bien représentées par le modèle analytique appelé Z-model, et la quantité d’ejecta semble dépendre directement de la vitesse d’impact. Avec le collecteur, l’objectif scientifique de collecter au moins 100 mg est rempli dans la majorité des simulations. Enfin, la mission OSIRIS-REx et sa cible (101955) Bennu sont présentées. Deux phénomènes observés sur l’astéroïde, l’éjection de particules et la formation de terrasses, sont traités en tant qu’applications des chapitres précédents. Certaines éjections de particules peuvent potentiellement être expliquées par la retombée de particules déjà éjectées, modélisée par une adaptation des simulations sur MASCOT. De plus, en utilisant des simulations de plans inclinés, une étude préliminaire cherche à comprendre la formation de terrasses sur Bennu. En conclusion, un grand éventail de simulations de dynamiques de milieux granulaires, dans diffrentes conditions, ont été réalisées et appliquées au cadre des missions Hayabusa2 et OSIRIS-REx. Cependant, les résultats et les outils numériques développés dans ce but sont suffisamment généraux pour pouvoir être appliqués à des futures missions vers des petits corps, telles que la mission MMX (JAXA) vers Phobos et les missions de déviation d’astéroïde Hera (ESA) et DART (NASA)<br>This thesis aims for a better understanding of the dynamics of regolith in a low-gravity environment through numerical simulations. It is incorporated within the framework and operations of two sample-return missions towards near-Earth asteroids, JAXA’s Hayabusa2 and NASA’s OSIRIS-REx. The simulations were performed with the numerical N-body code pkdgrav adapted to model the interactions with granular medium. Comparing the results of low-speed impact experiments in glass beads with numerical simulations, great agreements were found, demonstrating the validity of these simulations to this application. The form of the Coulomb force (friction force opposing the penetration) was also derived and seems to go from constant to proportional to penetration depth for an increasing size or impactor-grain size ratio. Moreover, inclined plane simulations were also conducted to investigate the relations between parameters of pkdgrav and the continuum approach using a constitutive law μ(I) relating the friction parameter and inertial number. For a moderate friction, such a relation can be established; however, the discrepancies between methods in the velocity profiles are too large for high-friction materials such as gravel. Concerning the Hayabusa2 mission, after a brief analysis of Ryugu’s geophysics are presented the studies on CNES-DLR MASCOT lander and on the sampling mechanism. MASCOT simulations were performed in order to better understand the impact response of the lander on assumed surface granular materials, and to support the engineering team in the landing site selection and the interpretation of landing outcome. Among the results is the increase in the distance traveled after impact for shallower beds, more-grazing impacts, higher-friction materials, and with MASCOT landing on its back corner. It is also shown that the post-impact traces left by MASCOT depend on the lander’s attitude and the surface friction properties. Furthermore, additional simulations were performed with a boulder and a side wall, to model the actual landing context. These lead to the realization that outgoing-to-incoming speed ratios as low as 0.3 could be due to microbounces (quick succession of contacts), and not necessarily to a soft surface/boulder. Then is presented a numerical study of Hayabusa2 sampling, firstly without the modeling of the structure of the sampler, to derive general results on impact cratering in low gravity on a granular material and compare them to the literature. For instance, it was found that streamlines in the bed are well represented by the analytical Z-model, and that the ejecta quantity seems to scale with the impact velocity. With the horn, the majority of simulations fulfill the scientific objective of collecting at least 100 mg. Finally are introduced the OSIRIS-REx mission and its target (101955) Bennu. Two phenomena observed on the asteroid, i.e., particle ejections and terraces, are treated as applications of previous chapters. Some particle ejections can potentially be explained by re-impacts of particles after a first ejection, modeled with an adaptation of MASCOT simulations. In addition, using inclined planes, a preliminary study aims at understanding the formation of terraces on Bennu. To conclude, a large range of simulations of granular material dynamics in different conditions were performed and applied to Hayabusa2 and OSIRIS-REx results and devices. However, the results and associated developed numerical tools are general enough to be applied to future missions devoted to small body exploration and interaction, such as the JAXA MMX mission to Phobos and ESA Hera/NASA DART asteroid deflection missions
APA, Harvard, Vancouver, ISO, and other styles
17

Wilkinson, Rebecca L. "Numerical explorations of cake baking using the nonlinear heat equation." View electronic thesis, 2008. http://dl.uncw.edu/etd/2008-1/wilkinsonr/rebeccawilkinson.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Ripperger, Johannes. "Numerical explorations on stress heterogeneity : dynamic earthquake rupture and near-fault ground motion /." Zürich : ETH, 2007. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=17048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Belfodil, Adnene. "Exceptional model mining for behavioral data analysis." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI086.

Full text
Abstract:
Avec la prolifération rapide des plateformes de données qui récoltent des données relatives à plusieurs domaines tels que les données de gouvernements, d’éducation, d’environnement ou les données de notations de produits, plus de données sont disponibles en ligne. Ceci représente une opportunité sans égal pour étudier le comportement des individus et les interactions entre eux. Sur le plan politique, le fait de pouvoir interroger des ensembles de données de votes peut fournir des informations intéressantes pour les journalistes et les analystes politiques. En particulier, ce type de données peut être exploité pour l’investigation des sujet exceptionnellement conflictuels ou consensuels. Considérons des données décrivant les sessions de votes dans le parlement Européen (PE). Un tel ensemble de données enregistre les votes de chaque député (MPE) dans l’hémicycle en plus des informations relatives aux parlementaires (e.g., genre, parti national, parti européen) et des sessions (e.g., sujet, date). Ces données offrent la possibilité d’étudier les accords et désaccords de sous-groupes cohérents, en particulier pour mettre en évidence des comportements inattendus. Par exemple, il est attendu que sur la majorité des sessions, les députés votent selon la ligne politique de leurs partis politiques respectifs. Cependant, lorsque les sujets sont plutôt d’intérêt d’un pays particulier dans l’Europe, des coalitions peuvent se former ou se dissoudre. À titre d’exemple, quand une procédure législative concernant la pêche est proposée devant les MPE dans l’hémicycle, les MPE des nations insulaires du Royaume-Uni peuvent voter en accord sans être influencés par la différence entre les lignes politiques de leurs alliances respectives, cela peut suggérer un accord exceptionnel comparé à la polarisation observée habituellement. Dans cette thèse, nous nous intéressons à ce type de motifs décrivant des (dés)accords exceptionnels, pas uniquement sur les données de votes mais également sur des données similaires appelées données comportementales. Nous élaborons deux méthodes complémentaires appelées Debunk et Deviant. La première permet la découverte de (dés)accords exceptionnels entre groupes tandis que la seconde permet de mettre en évidence les comportements exceptionnels qui peuvent au sein d’un même groupe. Idéalement, ces deux méthodes ont pour objective de donner un aperçu complet et concis des comportements exceptionnels dans les données comportementales. Dans l’esprit d’évaluer la capacité des deux méthodes à réaliser cet objectif, nous évaluons les performances quantitatives et qualitatives sur plusieurs jeux de données réelles. De plus, nous motivons l’utilisation des méthodes proposées dans le contexte du journalisme computationnel<br>With the rapid proliferation of data platforms collecting and curating data related to various domains such as governments data, education data, environment data or product ratings, more and more data are available online. This offers an unparalleled opportunity to study the behavior of individuals and the interactions between them. In the political sphere, being able to query datasets of voting records provides interesting insights for data journalists and political analysts. In particular, such data can be leveraged for the investigation of exceptionally consensual/controversial topics. Consider data describing the voting behavior in the European Parliament (EP). Such a dataset records the votes of each member (MEP) in voting sessions held in the parliament, as well as information on the parliamentarians (e.g., gender, national party, European party alliance) and the sessions (e.g., topic, date). This dataset offers opportunities to study the agreement or disagreement of coherent subgroups, especially to highlight unexpected behavior. It is to be expected that on the majority of voting sessions, MEPs will vote along the lines of their European party alliance. However, when matters are of interest to a specific nation within Europe, alignments may change and agreements can be formed or dissolved. For instance, when a legislative procedure on fishing rights is put before the MEPs, the island nation of the UK can be expected to agree on a specific course of action regardless of their party alliance, fostering an exceptional agreement where strong polarization exists otherwise. In this thesis, we aim to discover such exceptional (dis)agreement patterns not only in voting data but also in more generic data, called behavioral data, which involves individuals performing observable actions on entities. We devise two novel methods which offer complementary angles of exceptional (dis)agreement in behavioral data: within and between groups. These two approaches called Debunk and Deviant, ideally, enables the implementation of a sufficiently comprehensive tool to highlight, summarize and analyze exceptional comportments in behavioral data. We thoroughly investigate the qualitative and quantitative performances of the devised methods. Furthermore, we motivate their usage in the context of computational journalism
APA, Harvard, Vancouver, ISO, and other styles
20

GALUZZI, BRUNO GIOVANNI. "Modelling and Optimization Techniques for Acoustic Full Waveform Inversion in Seismic Exploration." Doctoral thesis, Università degli Studi di Milano, 2018. http://hdl.handle.net/10281/204387.

Full text
Abstract:
Full Waveform Inversion has become an important research field in the context of seismic exploration, due to the possibility to estimate a high-resolution model of the subsurface in terms of acoustic and elastic parameters. To this aim, issues such as an efficient implementation of wave equation solution for the forward problem, and optimization algorithms, both local and global, for this high non-linear inverse problem must be tackled. In this thesis, in the framework of 2D acoustic approximation, I implemented an efficient numerical solution of the wave equation based on a local order of approximation of the spatial derivatives to reduce the computational time and the approximation error. Moreover, for what concerns the inversion, I studied two different global optimization algorithms (Simulated Annealing and Genetic Algorithms) on analytic functions that represent different possible scenarios of the misfit function to estimate an initial model for local optimization algorithm in the basin of attraction of the global minimum. Due to the high number of unknowns in seismic exploration context, of the order of some thousands or more, different strategies based on the adjoint method must be used to compute the gradient of the misfit function. By this procedure, only three wave equation solutions are required to compute the gradient instead of a number of solutions proportional to the unknown parameters. The FWI approach developed in this thesis has been applied first on a synthetic inverse problem on the Marmousi model to validate the whole procedure, then on two real seismic datasets. The first is a land profile with two expanding spread experiments and is characterized by a low S/N ratio. In this case, the main variations of the estimated P-wave velocity model well correspond to the shallow events observed on the post-stack depth migrated section. The second is a marine profile extracted from a 3D volume where the local optimization, based on the adjoint method, allows to estimate a high-resolution velocity model whose reliability has been checked by the alignment of the CIGs computed by pre-stack depth migration.
APA, Harvard, Vancouver, ISO, and other styles
21

GALUZZI, BRUNO GIOVANNI. "MODELLING AND OPTIMIZATION TECHNIQUES FOR ACOUSTIC FULL WAVEFORM INVERSION IN SEISMIC EXPLORATION." Doctoral thesis, Università degli Studi di Milano, 2018. http://hdl.handle.net/2434/545844.

Full text
Abstract:
Full Waveform Inversion has become an important research field in the context of seismic exploration, due to the possibility to estimate a high-resolution model of the subsurface in terms of acoustic and elastic parameters. To this aim, issues such as an efficient implementation of wave equation solution for the forward problem, and optimization algorithms, both local and global, for this high non-linear inverse problem must be tackled. In this thesis, in the framework of 2D acoustic approximation, I implemented an efficient numerical solution of the wave equation based on a local order of approximation of the spatial derivatives to reduce the computational time and the approximation error. Moreover, for what concerns the inversion, I studied two different global optimization algorithms (Simulated Annealing and Genetic Algorithms) on analytic functions that represent different possible scenarios of the misfit function to estimate an initial model for local optimization algorithm in the basin of attraction of the global minimum. Due to the high number of unknowns in seismic exploration context, of the order of some thousands or more, different strategies based on the adjoint method must be used to compute the gradient of the misfit function. By this procedure, only three wave equation solutions are required to compute the gradient instead of a number of solutions proportional to the unknown parameters. The FWI approach developed in this thesis has been applied first on a synthetic inverse problem on the Marmousi model to validate the whole procedure, then on two real seismic datasets. The first is a land profile with two expanding spread experiments and is characterized by a low S/N ratio. In this case, the main variations of the estimated P-wave velocity model well correspond to the shallow events observed on the post-stack depth migrated section. The second is a marine profile extracted from a 3D volume where the local optimization, based on the adjoint method, allows to estimate a high-resolution velocity model whose reliability has been checked by the alignment of the CIGs computed by pre-stack depth migration.
APA, Harvard, Vancouver, ISO, and other styles
22

Kaytoue, Mehdi. "Traitement de données numériques par analyse formelle de concepts et structures de patrons." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10015.

Full text
Abstract:
Le sujet principal de cette thèse porte sur la fouille de données numériques et plus particulièrement de données d'expression de gènes. Ces données caractérisent le comportement de gènes dans diverses situations biologiques (temps, cellule, etc.). Un problème important consiste à établir des groupes de gènes partageant un même comportement biologique. Cela permet d'identifier les gènes actifs lors d'un processus biologique, comme par exemple les gènes actifs lors de la défense d'un organisme face à une attaque. Le cadre de la thèse s'inscrit donc dans celui de l'extraction de connaissances à partir de données biologiques. Nous nous proposons d'étudier comment la méthode de classification conceptuelle qu'est l'analyse formelle de concepts (AFC) peut répondre au problème d'extraction de familles de gènes. Pour cela, nous avons développé et expérimenté diverses méthodes originales en nous appuyant sur une extension peu explorée de l'AFC : les structures de patrons. Plus précisément, nous montrons comment construire un treillis de concepts synthétisant des familles de gènes à comportement similaire. L'originalité de ce travail est (i) de construire un treillis de concepts sans discrétisation préalable des données de manière efficace, (ii) d'introduire une relation de similarité entres les gènes et (iii) de proposer des ensembles minimaux de conditions nécessaires et suffisantes expliquant les regroupements formés. Les résultats de ces travaux nous amènent également à montrer comment les structures de patrons peuvent améliorer la prise de décision quant à la dangerosité de pratiques agricoles dans le vaste domaine de la fusion d'information<br>The main topic of this thesis addresses the important problem of mining numerical data, and especially gene expression data. These data characterize the behaviour of thousand of genes in various biological situations (time, cell, etc.).A difficult task consists in clustering genes to obtain classes of genes with similar behaviour, supposed to be involved together within a biological process.Accordingly, we are interested in designing and comparing methods in the field of knowledge discovery from biological data. We propose to study how the conceptual classification method called Formal Concept Analysis (FCA) can handle the problem of extracting interesting classes of genes. For this purpose, we have designed and experimented several original methods based on an extension of FCA called pattern structures. Furthermore, we show that these methods can enhance decision making in agronomy and crop sanity in the vast formal domain of information fusion
APA, Harvard, Vancouver, ISO, and other styles
23

Häfliger, Peter. "Exploration of the suitability of O-O techniques for the design and implementation of a numeric math library using Eiffel." Zürich : ETH, Eidgenössische Technische Hochschule Zürich, Professur für Software Engineering /Chair of Software Engineering, 2003. http://e-collection.ethbib.ethz.ch/show?type=dipl&nr=199.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Mathonat, Romain. "Rule discovery in labeled sequential data : Application to game analytics." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI080.

Full text
Abstract:
Exploiter des jeux de données labelisés est très utile, non seulement pour entrainer des modèles et mettre en place des procédures d'analyses prédictives, mais aussi pour améliorer la compréhension d'un domaine. La découverte de sous-groupes a été l'objet de recherches depuis deux décennies. Elle consiste en la découverte de règles couvrants des ensembles d'objets ayant des propriétés intéressantes, qui caractérisent une classe cible donnée. Bien que de nombreux algorithmes de découverte de sous-groupes aient été proposés à la fois dans le cas des données transactionnelles et numériques, la découverte de règles dans des données séquentielles labelisées a été bien moins étudiée. Dans ce contexte, les stratégies d'exploration exhaustives ne sont pas applicables à des cas d'application rééls, nous devons donc nous concentrer sur des approches heuristiques. Dans cette thèse, nous proposons d'appliquer des modèles de bandit manchot ainsi que la recherche arborescente de Monte Carlo à l'exploration de l'espace de recherche des règles possibles, en utilisant un compromis exploration-exploitation, sur différents types de données tels que les sequences d'ensembles d'éléments, ou les séries temporelles. Pour un budget temps donné, ces approches trouvent un ensemble des top-k règles decouvertes, vis-à-vis de la mesure de qualité choisie. De plus, elles ne nécessitent qu'une configuration légère, et sont indépendantes de la mesure de qualité utilisée. A notre connaissance, il s'agit de la première application de la recherche arborescente de Monte Carlo au cas de la fouille de données séquentielles labelisées. Nous avons conduit des études appronfondies sur différents jeux de données pour illustrer leurs plus-values, et discuté leur résultats quantitatifs et qualitatifs. Afin de valider le bon fonctionnement d'un de nos algorithmes, nous proposons un cas d'utilisation d'analyse de jeux vidéos, plus précisémment de matchs de Rocket League. La decouverte de règles intéressantes dans les séquences d'actions effectuées par les joueurs et leur exploitation dans un modèle de classification supervisée montre l'efficacité et la pertinence de notre approche dans le contexte difficile et réaliste des données séquentielles de hautes dimensions. Elle permet la découverte automatique de techniques de jeu, et peut être utilisée afin de créer de nouveaux modes de jeu, d'améliorer le système de classement, d'assister les commentateurs de "e-sport", ou de mieux analyser l'équipe adverse en amont, par exemple<br>It is extremely useful to exploit labeled datasets not only to learn models and perform predictive analytics but also to improve our understanding of a domain and its available targeted classes. The subgroup discovery task has been considered for more than two decades. It concerns the discovery of rules covering sets of objects having interesting properties, e.g., they characterize a given target class. Though many subgroup discovery algorithms have been proposed for both transactional and numerical data, discovering rules within labeled sequential data has been much less studied. In that context, exhaustive exploration strategies can not be used for real-life applications and we have to look for heuristic approaches. In this thesis, we propose to apply bandit models and Monte Carlo Tree Search to explore the search space of possible rules using an exploration-exploitation trade-off, on different data types such as sequences of itemset or time series. For a given budget, they find a collection of top-k best rules in the search space w.r.t chosen quality measure. They require a light configuration and are independent from the quality measure used for pattern scoring. To the best of our knowledge, this is the first time that the Monte Carlo Tree Search framework has been exploited in a sequential data mining setting. We have conducted thorough and comprehensive evaluations of our algorithms on several datasets to illustrate their added-value, and we discuss their qualitative and quantitative results. To assess the added-value of one or our algorithms, we propose a use case of game analytics, more precisely Rocket League match analysis. Discovering interesting rules in sequences of actions performed by players and using them in a supervised classification model shows the efficiency and the relevance of our approach in the difficult and realistic context of high dimensional data. It supports the automatic discovery of skills and it can be used to create new game modes, to improve the ranking system, to help e-sport commentators, or to better analyse opponent teams, for example
APA, Harvard, Vancouver, ISO, and other styles
25

Kaytoue, Mehdi. "Traitement de données numériques par analyse formelle de concepts et structures de patrons." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00599168.

Full text
Abstract:
Le sujet principal de cette thèse porte sur la fouille de données numériques et plus particulièrement de données d'expression de gènes. Ces données caractérisent le comportement de gènes dans diverses situations biologiques (temps, cellule, etc.). Un problème important consiste à établir des groupes de gènes partageant un même comportement biologique. Cela permet d'identifier les gènes actifs lors d'un processus biologique, comme par exemple les gènes actifs lors de la défense d'un organisme face à une attaque. Le cadre de la thèse s'inscrit donc dans celui de l'extraction de connaissances à partir de données biologiques. Nous nous proposons d'étudier comment la méthode de classification conceptuelle qu'est l'analyse formelle de concepts (AFC) peut répondre au problème d'extraction de familles de gènes. Pour cela, nous avons développé et expérimenté diverses méthodes originales en nous appuyant sur une extension peu explorée de l'AFC : les structures de patrons. Plus précisément, nous montrons comment construire un treillis de concepts synthétisant des familles de gènes à comportement similaire. L'originalité de ce travail est (i) de construire un treillis de concepts sans discrétisation préalable des données de manière efficace, (ii) d'introduire une relation de similarité entres les gènes et (iii) de proposer des ensembles minimaux de conditions nécessaires et suffisantes expliquant les regroupements formés. Les résultats de ces travaux nous amènent également à montrer comment les structures de patrons peuvent améliorer la prise de d écision quant à la dangerosité de pratiques agricoles dans le vaste domaine de la fusion d'information.
APA, Harvard, Vancouver, ISO, and other styles
26

Makhalova, Tatiana. "Contributions à la fouille d'ensembles de motifs : des données complexes à des ensembles de motifs signifiants et réutilisables." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0124.

Full text
Abstract:
Nous étudions différents aspects de l’exploration ou fouille de motifs dans des jeux de données tabulaires binaires et numériques. L’objectif de l’exploration de motifs est de découvrir un petit ensemble de motifs non redondants qui peuvent recouvrir presque entièrement un ensemble de données et être interprétés comme des unités de connaissances significatives et utiles. Nous nous concentrons sur les questions clés telles que la définition formelle de l’intérêt des motifs, la minimisation de l’explosion combinatoire des motifs, la définition de mesures pour évaluer les performances des méthodes d’exploration de motifs, et le rapprochement entre l’intérêt et la qualité des ensembles de motifs. Nous proposons une structure dite “de niveaux de fermetures” et l’algorithme GDPM qui la calcule. Cette structure nous permet d’estimer à la fois la complexité des données et celle des motifs. En pratique, cette structure peut être utilisée pour représenter la topologie des données par rapport à une mesure d’intérêt. Du point de vue conceptuel, cette structure autorise un analyste à comprendre la configuration intrinsèque des données avant de sélectionner une mesure d’intérêt plutôt que de comprendre les données au moyen d’une mesure d’intérêt choisie arbitrairement. Nous discutons également de la différence entre l’intérêt et la qualité des ensembles de motifs. Nous proposons d’adopter les bonnes pratiques de l’apprentissage supervisé et de les adapter à la fouille de motifs. Ainsi, nous avons développé un algorithme d’exploration d’ensembles de motifs appelé KeepItSimple, qui met en relation l’intérêt et la qualité des ensembles de motifs et qui permet de retrouver de façon efficace un ensemble de motifs intéressants sans craindre d’explosion combinatoire. De plus, nous proposons un algorithme glouton d’énumération de motifs susceptibles d’intérêt qui remplace les méthodes classiques d’énumération de motifs fermés fréquents lorsque les motifs sont trop nombreux. Enfin une dernière contribution porte sur le développement d’un algorithme qui s’appuie sur le principe MDL appelé Mint qui a pour objectif d’extraire des ensembles de motifs dans les données numériques. Il repose sur des bases théoriques solides tout en ayant l’objectif pratique de retourner un ensemble concis de motifs numériques qui sont non redondants et informatifs. Les expérimentations montrent que Mint surpasse généralement ses concurrents en efficacité et qualité des motifs retournés<br>In this thesis, we study different aspects of pattern mining in binary and numerical tabular datasets. The objective of pattern mining is to discover a small set of non-redundant patterns that may cover entirely a given dataset and be interpreted as useful and significant knowledge units. We focus on some key issues such as (i) formal definition of pattern interestingness, (ii) the minimization of pattern explosion, (iii) measure for evaluating the performance of pattern mining, and (iv) the discrepancy between interestingness and quality of the discovered pattern sets. Moreover, we go beyond the typical perspectives of pattern mining and investigate the intrinsic structure underlying a tabular dataset. The main contributions of this research work are theoretical, conceptual, and practical. Regarding the theoretical novelty, we propose a so-called closure structure and the GDPM algorithm for its computing. The closure structure allows us to estimate both the data and pattern complexity. Furthermore, practically the closure structure may be used to represent the data topology w.r.t. an interestingness measure. Conceptually, the closure structure allows an analyst to understand the intrinsic data configuration before selecting any interestingness measure rather than to understand the data by means of an arbitrarily selected interestingness measure. In this research work, we also discuss the difference between interestingness and quality of pattern sets. We propose to adopt the best practices of supervised learning in pattern mining. Based on that, we developed an algorithm for itemset mining, called KeepItSimple, which relates interestingness and the quality of pattern sets. In practice, KeepItSimple allows us to efficiently mine a set of interesting and good-quality patterns without any pattern explosion. In addition, we propose an algorithm for a greedy enumeration of likely-occurring itemsets that can be used when frequent closed itemset miners return too many itemsets. The last practical contribution consists in developing an MDL-based algorithm called Mint for mining pattern sets in numerical data. The Mint algorithm relies on a strong theoretical foundation and at the same time has a practical objective in returning a small set of numerical, non-redundant, and informative patterns. The experiments show that Mint has very good behavior in practice and usually outperforms its competitors
APA, Harvard, Vancouver, ISO, and other styles
27

Goy, Laurent. "Mesure et modélisation des températures dans les massifs rocheux : application au projet de tunnel profond Maurienne-Ambin." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00642650.

Full text
Abstract:
Pour les projets de tunnels profonds; la prévision des températures naturelles au rocher est essentielle pour le choix des méthodes de perforation, de ventilation et de refroidissement. Une méthode numérique de prévision des températures a été développée à cet effet, à partir d'un logiciel 2D d'éléments finis. Les températures sont calculées dans un plan vertical du massif, à partir de l'équation fondamentale de la chaleur en conduction pure. La modélisation nécessite la connaissance de cinq paramètres de base que sont: le profil topographique, les températures de surface, la structure géologique, la conductivité anisotrope des roches et le flux géothermique profond. Une méthode de correction du profil topographique permet de prendre en compte la troisième dimension. Différents tests sont effectués sur un profil de montagne idéalisé, pour évaluer le poids des différents paramètres dans la modélisation. Le modèle est appliqué ensuite au massif comprenant le tunnel Maurienne-Ambin, dans le cadre du projet de ligne à grande vitesse entre Lyon et Turin. Une sonde de mesure des températures a été mise au point et utilisée dans les sondages de reconnaissance pour ce projet de tunnel profond (55km sous un recouvrement maximal de 2500m). Les forages nous permettent de déterminer la structure géologique, les valeurs de conductivité des roches et le flux géothermique de la région en appliquant la "méthode des intervalles". La température maximale calculée le long du tunnel est de 48,5°C. La confrontation entre les mesures de température dans les forages et la modélisation permet de valider les résultats, sauf dans les premières centaines de mètres du massif, où les circulations d'eau, qui ne sont pas prises en compte par notre modèle, modifient la distribution des températures.
APA, Harvard, Vancouver, ISO, and other styles
28

Goy, Laurent. "Mesure et modélisation des températures dans les massifs rocheux : application au projet de tunnel profond Maurienne-Ambin." Phd thesis, Grenoble 1, 1996. http://www.theses.fr/1996GRE10261.

Full text
Abstract:
Dans le cadre de projets de tunnels profonds, il est essentiel de prevoir les conditions de travail des hommes et des machines qui vont realiser les ouvrages. Parmi tous les problemes geotechniques qui doivent etre resolus, la prevision des temperatures naturelles au rocher est une necessite avant le choix des methodes de perforation, de ventilation et de refroidissement. Une methode numerique de prevision des temperatures a ete developpee a cet effet, a partir d'un logiciel 2d d'elements finis. Les temperatures sont calculees dans un plan vertical du massif, a partir de l'equation fondamentale de la chaleur en conduction pure. La modelisation necessite la connaissance de 5 parametres de base que sont: le profil topographique, les temperatures de surface, la structure geologique, la conductivite des roches et le flux geothermique profond. Il tient compte de la direction et de l'anisotropie de conductivite des differentes couches constituant le massif. Une methode de correction du profil topographique permet de prendre en compte la troisieme dimension. Differents tests sont effectues sur un profil de montagne idealise, pour evaluer le poids des differents parametres dans la modelisation. Le modele est applique ensuite au massif comprenant le tunnel maurienne-ambin, dans le cadre du projet de ligne a grande vitesse entre lyon et turin. Une sonde de mesure des temperatures a ete mise au point et utilisee dans les sondages de reconnaissance pour ce projet de tunnel profond (55 km sous un recouvrement maximal de 2500m). Les forages nous permettent de determiner la structure geologique, les valeurs de conductivite des roches et le flux geothermique de la region en appliquant la methode des intervalles. La temperature maximale calculee le long du tunnel est de 48,5c. La confrontation entre les mesures de temperature dans les forages et la modelisation permet de valider les resultats, sauf dans les premieres centaines de metres du massif, ou les circulations d'eau, qui ne sont pas prises en compte par notre modele, modifient la distribution des temperatures
APA, Harvard, Vancouver, ISO, and other styles
29

"Stochastic numerical optimization with applications to seismic exploration." Tulane University, 1988.

Find full text
Abstract:
Deterministic Numerical Optimization methods that are used in Science and Engineering have several short-comings that limit their applicability. If the phenomena that cause a deterministic Numerical Optimization method to fail are known, then it may be possible to modify that method to overcome the specific effects that cause it to fail Our method of Stochastic Numerical Optimization attempts to overcome the limitations of deterministic Numerical Optimization methods, even when the specific cause of the limitation is unknown, by deliberately introducing noise into each step of the deterministic method. We use the Newton-Raphson (N-R) method of root finding as a paradigm for the class of Numerical Optimization methods; we present the details of the development of the Stochastic Newton-Raphson (SN-R) method. We show that the SN-R method converges to a 'best' solution of G(x) = 0, G: $\IR\sp{\rm m}$ $\to$ $\IR\sp{\rm n}$ for a larger class of functions than that for which the N-R method converges The precursor to our SN-R method is the method of Stochastic Approximations developed by Robbins and Munro in 1951. Many similarities and differences between SN-R and Stochastic Approximations are pointed out in the course of the work Finally, we demonstrate the practical application of the SN-R method to a problem in seismic exploration. We use SN-R to determine the thickness and the characteristic seismic velocity of subsurface strata from reflection seismic data<br>acase@tulane.edu
APA, Harvard, Vancouver, ISO, and other styles
30

Chang, Yu-Cheng, and 張祐誠. "The Groundwater Vein Exploration and Numerical Simulation of Discharge Method on Colluviam deposit." Thesis, 2001. http://ndltd.ncl.edu.tw/handle/75955169518146451114.

Full text
Abstract:
碩士<br>國立中興大學<br>土木工程學系<br>90<br>In September 21 ,1999 , chi-chi earthquake happened in Taiwan . It made Chiufengershan sliding . The colluviam deposit generated a new groundwater system because of the generous falled soil and rocks jamed the confluence of Chiutsaihuhsi and Satsikenghsi. In this research , VLF(very-low-frequence)method and ground magnetism method were used to prospect ground condition for colluvium deposit . The results of prospect tells that the groundwater veins are relation to origional riverbed . Second , PMWIN ( Processing Modflow for Windows ) were used to develop a regional groundwater conceptual model to study the groundwater seepage condition . After the model are verified by field slug-test , then it is applied to test run for design of discharge system including pumping wells and horizontal drainaged pipes . The effectiveness of reducing groundwater-level can be refer to engineering plan .
APA, Harvard, Vancouver, ISO, and other styles
31

Eisner, Adam. "A numerical exploration of the statistical behavior of the discretized nonlinear Schroedinger equation." 2004. https://scholarworks.umass.edu/dissertations/AAI3152688.

Full text
Abstract:
In this dissertation, we consider the equilibrium as well as near-equilibrium statistical behavior of the discretized nonlinear Schrödinger equation (NLS). We create a modified version of the Metropolis algorithm for generating empirical distributions that approximate the mixed ensemble Gibbs distribution for the NLS. The mixed ensemble is canonical in energy and microcanonical in particle number invariant. After generating and analyzing many such empirical distributions spanning a full range of equilibrium behaviors, we study their near-equilibrium responses to perturbations via linear response theory. This leads us to the discovery of a regime in which near-equilibrium ensembles resist relaxation toward equilibrium when evolved under the NLS dynamics. Within this regime, perturbed mean observables relax in two stages; they undergo a rapid disruption followed by an extremely slow equilibration. In some cases of the latter stage, there is no observable rate of decay towards equilibrium. We propose that quasiperiodicity of individual solutions may be the dynamical mechanism that underlies this two stage behavior. We exhibit a direct correspondence between the two stage regime and the regime within which quasiperiodicity prevails.
APA, Harvard, Vancouver, ISO, and other styles
32

Gyde, Nina J. "The violin's sound : a mathematical exploration employing principles of continuum mechanics and numerical methods." Thesis, 2003. http://hdl.handle.net/1957/30219.

Full text
Abstract:
This thesis explores the vibrational behavior of the main components of sound production in the violin using a continuum mechanics approach. The author provides a mathematical description of the regions in the vibrating continuum, and begins to develop a system of equations governing their behavior, focusing on the air in the resonant chamber. Later chapters, contain discussion of issues involved in solving the system of equations, and examples involving both formal and numerical methods. The existence of a unique formal solution would allow mathematicians to make predictive models for sound waves of instruments based on physical characteristics such as size, shape, density and elasticity.<br>Graduation date: 2004
APA, Harvard, Vancouver, ISO, and other styles
33

Dai, Junwen. "Efficient Computation of Electromagnetic Waves in Hydrocarbon Exploration Using the Improved Numerical Mode Matching (NMM) Method." Diss., 2016. http://hdl.handle.net/10161/12111.

Full text
Abstract:
<p>In this study, we developed and improved the numerical mode matching (NMM) method which has previously been shown to be a fast and robust semi-analytical solver to investigate the propagation of electromagnetic (EM) waves in an isotropic layered medium. The applicable models, such as cylindrical waveguide, optical fiber, and borehole with earth geological formation, are generally modeled as an axisymmetric structure which is an orthogonal-plano-cylindrically layered (OPCL) medium consisting of materials stratified planarly and layered concentrically in the orthogonal directions.</p><p>In this report, several important improvements have been made to extend applications of this efficient solver to the anisotropic OCPL medium. The formulas for anisotropic media with three different diagonal elements in the cylindrical coordinate system are deduced to expand its application to more general materials. The perfectly matched layer (PML) is incorporated along the radial direction as an absorbing boundary condition (ABC) to make the NMM method more accurate and efficient for wave diffusion problems in unbounded media and applicable to scattering problems with lossless media. We manipulate the weak form of Maxwell's equations and impose the correct boundary conditions at the cylindrical axis to solve the singularity problem which is ignored by all previous researchers. The spectral element method (SEM) is introduced to more efficiently compute the eigenmodes of higher accuracy with less unknowns, achieving a faster mode matching procedure between different horizontal layers. We also prove the relationship of the field between opposite mode indices for different types of excitations, which can reduce the computational time by half. The formulas for computing EM fields excited by an electric or magnetic dipole located at any position with an arbitrary orientation are deduced. And the excitation are generalized to line and surface current sources which can extend the application of NMM to the simulations of controlled source electromagnetic techniques. Numerical simulations have demonstrated the efficiency and accuracy of this method.</p><p>Finally, the improved numerical mode matching (NMM) method is introduced to efficiently compute the electromagnetic response of the induction tool from orthogonal transverse hydraulic fractures in open or cased boreholes in hydrocarbon exploration. The hydraulic fracture is modeled as a slim circular disk which is symmetric with respect to the borehole axis and filled with electrically conductive or magnetic proppant. The NMM solver is first validated by comparing the normalized secondary field with experimental measurements and a commercial software. Then we analyze quantitatively the induction response sensitivity of the fracture with different parameters, such as length, conductivity and permeability of the filled proppant, to evaluate the effectiveness of the induction logging tool for fracture detection and mapping. Casings with different thicknesses, conductivities and permeabilities are modeled together with the fractures in boreholes to investigate their effects for fracture detection. It reveals that the normalized secondary field will not be weakened at low frequencies, ensuring the induction tool is still applicable for fracture detection, though the attenuation of electromagnetic field through the casing is significant. A hybrid approach combining the NMM method and BCGS-FFT solver based integral equation has been proposed to efficiently simulate the open or cased borehole with tilted fractures which is a non-axisymmetric model.</p><br>Dissertation
APA, Harvard, Vancouver, ISO, and other styles
34

Wang, Tse Ming, and 王則明. "Exploration of Basic Numerical Processing and Calculation in Children with Attention Deficit Hyperactivity Disorder: An Event-Related Potential Study." Thesis, 2018. http://ndltd.ncl.edu.tw/handle/j36adp.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Bauer, Johanna Frederike. "On the significance and predictability of geological parameters in the exploration for geothermal energy." Thesis, 2017. http://hdl.handle.net/11858/00-1735-0000-002E-E3D2-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Meier, Silke. "Fault zones in potential geothermal reservoir rocks in the Upper Rhine Graben: Characteristics, permeability implications, and numerical stress field models." Doctoral thesis, 2016. http://hdl.handle.net/11858/00-1735-0000-0028-87D5-5.

Full text
Abstract:
Störungszonen in den karbonatischen Wechselfolgen des Muschelkalks (Mittlere Trias) sind potenzielle Ziele für hydrothermale Projekte im Oberrheingraben (ORG). Es wurden verschiedene Methoden miteinander kombiniert, um die Permeabilitäts-Strukturen solcher Störungszonen, deren Spannungszustände und lokale Spannungsfelder abzuschätzen. Diese Arbeit kann damit zur Exploration von störungsgebundenen Muschelkalk-Reservoiren im ORG beitragen. Sie vergleicht diese mit einem bereits erfolgreich getesteten (störungsgebundenen) hydrothermalen Reservoir, den Sandsteinen des Buntsandsteins. Um für den Muschelkalk die Charakteristika von Störungszonen zu definieren und die zugehörige Permeabilitätsstruktur abzuschätzen, wurden verschiedene Störungszonentypen (z.B. Abschiebungen, invertierte Störungszonen, Schrägabschiebung) mit unterschiedlichen Maßstäben (Versatz: mittel-skalig 1-10 m, groß-skalig >10 m) detailliert untersucht. Eine Aufschlussanalogstudie zu einer groß-skaligen Störungszone (Schrägabschiebung) in dickbankigen Sandsteinen (Buntsandstein, Untere Trias) wurde zum Vergleich herangezogen. Der besondere Schwerpunkt lag jeweils auf der Charakterisierung von Bruchzone und Störungskern sowie des assoziierten Bruchsystems (Bruchdichte, Öffnungsweitenverteilung, Vernetzungsgrad, vertikale Ausdehnung). Die Daten zeigen, dass Bruchsysteme in eher homogenen Einheiten einen positiven Effekt auf die Reservoir-Permeabilität haben. Sie bieten, vor allem in der Nähe des Störungskerns, potenzielle Fließwege auch über mehrere Schichten und zeigen eine starke Vernetzung zwischen vergleichsweise kurzen Brüchen. Im Gegensatz dazu scheinen störungsgebundene Bruchsysteme in Einheiten mit einer starken mechanischen Schichtung einen geringeren Einfluss auf die Reservoirpermeabilität zu haben. Störungskerne zeigen stellenweise eine signifikante Komplexität, da sie vor allem abdichtende aber stellenweise auch durchlässige Strukturen aufweisen. Groß-skalige Störungszonen (im Reservoir-Maßstab) lassen sich für beide potenzielle Reservoirhorizonte am besten als kombinierte Barriere-Leiter-Systeme beschreiben. Diese Barriere-Leiter-Systeme zeichnen sich durch ein potenziell hydraulisch durchlässiges Bruchsystem in der Bruchzone (und im Buntsandstein zusätzlich in der Übergangszone) sowie einen schwach durchlässigen bis abdichtenden Störungskern aus. Um die Kenntnisse zum lokalen Spannungsfeld in Störungszonen im geschichteten Muschelkalk (Reservoirtiefe: 2.900 m) zu verbessern, wurden mit der Finite-Elemente-Software COMSOL Multiphysics® numerische 3D-Modelle erstellt. Es wurden deutliche Unterschiede des lokalen Spannungsfelds in Abhängigkeit von (1) der Orientierung, (2) dem Einfluss der maximalen Horizontalspannung SH im Spannungsregime, (3) Störungszonen-Maßstab und (4) den Kontrasten der mechanischen Eigenschaften festgestellt. In Spannungsregimen mit starker horizontaler Kompression wurde für Spannungsmagnituden und Versatz eine deutliche Abhängigkeit von der Orientierung der Störungszone festgestellt. Vor allem groß-skalige Störungszonen mit einem 30°-Winkel zu SH scheinen einen SH-induzierten Horizontalversatz innerhalb weicher Störungszoneneinheiten zu begünstigen; in dieser wurden die höchsten Versatzbeträge festgestellt. Die typische Abnahme von Spannungsmagnituden in weicheren Störungszoneneinheiten verringert sich in Richtung von Störungszonen, die senkrecht zu SH streichen. Der Einfluss der mechanischen Schichtung steigt mit zunehmender horizontaler Kompression, was zu einem vertikal heterogenen Spannungsfeld führt. Um Annahmen zu einer möglichen hydraulischen Aktivität einer Störungszone zu treffen, werden für die untersuchten Störungszonen analytische Abschätzungen zu Bewegungs- und Dehnungstendenzen unter Reservoir-Bedingungen präsentiert. Die Ergebnisse zeigen unterschiedliche Spannungszustände der analysierten Störungszonen, die auf das rezente Übergangsregime sowie unterschiedliche Orientierungen der maximalen Horizontalspannungen SH zurückzuführen sind. In dieser Arbeit präsentierte Ergebnisse von Aufschlussanalogstudien helfen dabei, fundierte Annahmen zur Permeabilitätsstruktur von Störungszonen zu treffen und damit vielversprechende Bohrziele im ORG zu definieren. In diesem Zusammenhang konnten sedimentäre Wechselfolgen identifiziert werden, die als potenzielle geothermische Reservoire ausgeschlossen werden können. Die Ergebnisse der numerischen 3D-Modellierungen können dazu beitragen, möglicherweise nötige Stimulationsmaßnahmen im Muschelkalk Reservoir optimal auszulegen. Darüber hinaus bieten die Ergebnisse die Möglichkeit, Einblick in potenzielle Probleme während der Bohrungsherstellung in Muschelkalk-Reservoiren zu bekommen, wie zum Beispiel die Wahrscheinlichkeit eines vertikal heterogenen Spannungsfeldes.
APA, Harvard, Vancouver, ISO, and other styles
37

Moa, Belaid. "Interval methods for global optimization." Thesis, 2007. http://hdl.handle.net/1828/198.

Full text
Abstract:
We propose interval arithmetic and interval constraint algorithms for global optimization. Both of these compute lower and upper bounds of a function over a box, and return a lower and an upper bound for the global minimum. In interval arithmetic methods, the bounds are computed using interval arithmetic evaluations. Interval constraint methods instead use domain reduction operators and consistency algorithms. The usual interval arithmetic algorithms for global optimization suffer from at least one of the following drawbacks: - Mixing the fathoming problem, in which we ask for the global minimum only, with the localization problem, in which we ask for the set of points at which the global minimum occurs. - Not handling the inner and outer approximations for epsilon-minimizer, which is the set of points at which the objective function is within epsilon of the global minimum. - Nothing is said about the quality for their results in actual computation. The properties of the algorithms are stated only in the limit for infinite running time, infinite memory, and infinite precision of the floating-point number system. To handle these drawbacks, we propose interval arithmetic algorithms for fathoming problems and for localization problems. For these algorithms we state properties that can be verified in actual executions of the algorithms. Moreover, the algorithms proposed return the best results that can be computed with given expressions for the objective function and the conditions, and a given hardware. Interval constraint methods combine interval arithmetic and constraint processing techniques, namely consistency algorithms, to obtain tighter bounds for the objective function over a box. The basic building block of interval constraint methods is the generic propagation algorithm. This explains our efforts to improve the generic propagation algorithm as much as possible. All our algorithms, namely dual, clustered, deterministic, and selective propagation algorithms, are developed as an attempt to improve the efficiency of the generic propagation algorithm. The relational box-consistency algorithm is another key algorithm in interval constraints. This algorithm keeps squashing the left and right bounds of the intervals of the variables until no further narrowing is possible. A drawback of this way of squashing is that as we proceed further, the process of squashing becomes slow. Another drawback is that, for some cases, the actual narrowing occurs late. To address these problems, we propose the following algorithms: - Dynamic Box-Consistency algorithm: instead of pruning the left and then the right bound of each domain, we alternate the pruning between all the domains. - Adaptive Box-Consistency algorithm: the idea behind this algorithm is to get rid of the boxes as soon as possible: start with small boxes and extend them or shrink them depending on the pruning outcome. This adaptive behavior makes this algorithm very suitable for quick squashing. Since the efficiency of interval constraint optimization methods depends heavily on the sharpness of the upper bound for the global minimum, we must make some effort to find the appropriate point or box to use for computing the upper bound, and not to randomly pick one as is commonly done. So, we introduce interval constraints with exploration. These methods use non-interval methods as an exploratory step in solving a global optimization problem. The results of the exploration are then used to guide interval constraint algorithms, and thus improve their efficiency.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography