To see the other types of publications on this topic, follow the link: Meshes convergence.

Dissertations / Theses on the topic 'Meshes convergence'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Meshes convergence.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Guzainuer, Maimaitiyiming. "Boundary Summation Equation Preconditioning for Ordinary Differential Equations with Constant Coefficients on Locally Refined Meshes." Thesis, Linköpings universitet, Matematiska institutionen, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-102573.

Full text
Abstract:
This thesis deals with the numerical solution of ordinary differential equations (ODEs) using finite difference (FD) methods. In particular, boundary summation equation (BSE) preconditioning for FD approximations for ODEs with constant coefficients on locally refined meshes is studied. Firstly, the BSE for FD approximations of ODEs with constant coefficients is derived on a locally refined mesh. Secondly, the obtained linear system of equations are solved by the iterative method GMRES. Then, the arithmetic complexity and convergence rate of the iterative solution of the BSE formulation are discussed. Finally, numerical experiments are performed to compare the new approach with the FD approach. The results show that the BSE formulation has low arithmetic complexity and the convergence rate of the iterative solvers is fast and independent of the number of grid points.
APA, Harvard, Vancouver, ISO, and other styles
2

Bingöl, Özgür Neslitürk Ali İhsan. "Uniformly Convergent Approximation On Special Meshes /." [S.l. : s.n.], 2007. http://library.iyte.edu.tr/tezler/master/matematik/T000649.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

GALDEANO, FLORENCE. "Convergence etroite de mesures definies sur un espace produit." Perpignan, 1997. http://www.theses.fr/1997PERP0303.

Full text
Abstract:
Cette these etudie la convergence etroite des mesures positives reelles definies sur le produit d'un espace mesurable abstrait et d'un espace polonais. Elle comporte quatre chapitres numerotes de 1 a 4 et un chapitre 0 de rappels. Au chapitre 1, nous etendons aux mesures definies sur un produit des resultats classiques sur la convergence etroite des probabilites ; nous etablissons notamment un portmanteau theorem, puis des criteres de convergence etroite comme convergence simple sur certaines familles d'ensembles aleatoires. Dans le chapitre 2, nous caracterisons la convergence etroite en termes de convergence continue, nous introduisons pour cela une notion de convergence d'ensembles. Ce resultat nous permet d'etablir un lien entre la convergence etroite et la convergence compacte (i. E. La convergence uniforme sur une famille compacte d'ensembles). Le chapitre 3 est consacre a des inegalites epigraphiques fonctionnelles. Des inegalites de type fatou sont donnees pour la convergence etroite, en utilisant l'epi-convergence des integrandes. Nous en developpons les consequences dans le cas particulier ou les mesures sont des mesures de young associees a des fonctions mesurables. Au chapitre 4 nous etudions la convergence etroite des mesures images. Cette etude nous permet d'etendre des theoremes de convergence au cas d'integrandes non continues.
APA, Harvard, Vancouver, ISO, and other styles
4

Mirjana, Brdar. "Dvoparametarski singularno perturbovani konturni problemi na mrežama različitog tipa." Phd thesis, Univerzitet u Novom Sadu, Prirodno-matematički fakultet u Novom Sadu, 2016. https://www.cris.uns.ac.rs/record.jsf?recordId=100302&source=NDLTD&language=en.

Full text
Abstract:
U tezi se istražuje uniformna konvergencija Galerkinovog postupka konačnih elemenata na mrežama različitog tipa za dvoparametarske singularno&nbsp;perturbovane probleme.Uvedene su slojno-adaptivne mreže za probleme konvekcije-reakcije-difuzije: &nbsp;Bahvalovljeva, Duran-&Scaron;i&scaron;kinova i Duranova za jednodimenzionalni i&nbsp;Duran-&Scaron;i&scaron;kinova i Duranova mreža za dvodimenzionalni problem. Za pomenute&nbsp;probleme na svim ovim mrežama analizirane su gre&scaron;ke interpolacije,&nbsp;diskretizacije i gre&scaron;ka u energetskoj normi i dokazana je uniformna konvergencija&nbsp;Galerkinovog postupka konačnih elemenata. Sva teorijska tvrđenja su&nbsp;potvrđena numeričkim eksperimentima.&nbsp;<br>The thesis explores the uniform convergence for Galerkin nite elementmethod on various meshes for two parameter singularly perturbed problems.Layer-adapted meshes are introduced for convection-reaction-diusionproblems: Bakhvalov, Duran-Shishkin and Duran meshes for a one dimensionaland Duran-Shishkin and Duran meshes for a two dimensional problem.We analyze the errors of interpolation, discretization and error in the energynorm and prove the parameter uniform convergence for Galerkin nite elementmethod on mentioned meshes. Numerical experiments support theoreticalndings.&nbsp;
APA, Harvard, Vancouver, ISO, and other styles
5

Seck, Cheikh Tidiane. "Estimation non-paramétrique et convergence faible des mesures de pauvreté." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00825389.

Full text
Abstract:
Cette thèse introduit tout d'abord une formule générale qui englobe toutes les mesures de pauvreté uni-dimensionnelles basées sur le revenu. Nous proposons ensuite deux types d'estimateurs non-paramétriques (à noyau et de type "plug-in") pour cet indice général de pauvreté, tout en étudiant leurs propriétés asymptotiques. Notre méthodologie, basée essentiellement sur la théorie moderne du processus empirique indexé des fonctions, offre un cadre global et rigoureux qui permet d'étudier, avec la même approche, le comportement asymptotique de tous les indices de pauvreté encore disponibles jusqu'ici dans la littérature. Nous obtenons la consistance forte uniforme d'une très large classe de mesures de pauvreté incluant presque tous les modèles d'indices proposés par les économistes, décomposables comme non-décomposables. Ce résultat est utilisé pour construire des intervalles de confiance simultanés, de niveau asymptotiquement optimal (100%). Un théorème central limite uniforme fonctionnel est également établi pour cette large classe d'indicateurs de pauvreté. Comme conséquence, des procédures d'inférence robustes, basées sur le noyau de covariance et utilisant un test de Wald, sont développées afin de comparer de façon non-ambiguë la pauvreté entre deux populations différentes.
APA, Harvard, Vancouver, ISO, and other styles
6

Massé, Bruno. "Concentration des mesures et problèmes statistiques associés." Lille 1, 1985. http://www.theses.fr/1985LIL10069.

Full text
Abstract:
La fonction de concentration de Paul Lévy, relative aux intervalles de R, peut être étendue aux mesures sur un espace métrique à partir des boules fermées et aux mesures sur R(N) à partir des boules fermées ou des convexes fermés. On dégage les propriétés générales de ces extensions. Le problème de leur estimation, pour des probabilités sur R(2), est résolu à l'aide des fonctions de concentration des mesures empiriques d'un échantillon de cette loi. Puis des théorèmes permettant d'estimer au moins une boule fermée et un convexe fermé "réalisant" chacune de ces deux fonctions de concentration sont démontrés. Enfin on définit et on estime à l'aide de la fonction de concentration sur les convexes fermés, l'Epsilon-support d'une probabilité sur R(2).
APA, Harvard, Vancouver, ISO, and other styles
7

Chetouani, Hassan. "Approximation de diffusion et convergence des mesures de Gibbs. Application en fiabilité." Compiègne, 2001. http://www.theses.fr/2001COMP1365.

Full text
Abstract:
Dans le premier chapitre de ce mémoire, nous avons rappelé quelques méthodes et résultats de base qui nous ont servis dans cette étude. Dans le deuxième chapitre, nous avons étudié les propriétés asymptotiques d'un système réparable complexe, en utilisant l'approximation de diffusion. Par suite nous avons obtenu un processus limite qui est le processus de diffusion d'Ornstein-Uhlenbeck, et en utilisant ses propriétés nous avons pu calculer la disponibilité limite des systèmes de type k sur-n. Dans le troisième chapitre, nous avons étudié la convergence faible d'une famille de probabilité de Gibbs, en caractérisant sa limite. Enfin, nous avons donné une application pour caractériser la loi stationnaire limite du système considéré dans le chapitre 2. Dans le quatrième chapitre nous avons étudié la stabilité du système réparable considéré dans le chapitre 2, et nous avons étudié l'optimisation de la maintenance de ce dernier. L'approximation de diffusion est une méthode très pratique, du fait que le processus de diffusion est caractérisé par sa moyenne infinitésimale et sa variance infinitésimale, qui sont représentés par des expressions très simples. Par exemple dans la pratique, lors de l'approximation de diffusion des processus de Markov de sauts, on passe d'une représentation matricielle des générateurs (semi-groupes), qui peut poser des sérieux problèmes numériques si la taille de ces matrices est très grande, vers une représentation fonctionnelle du générateur (semi-groupe) du processus de diffusion, simple et facile à manipuler. Ce qui nous permet de calculer la disponibilité et la fiabilité limites de certains systèmes Markoviens.
APA, Harvard, Vancouver, ISO, and other styles
8

Piccinini, Laurent. "Uniforme intégrabilité et mesures de Young. Convergence de sous-tribus : étude et applications." Montpellier 2, 1996. http://www.theses.fr/1996MON20001.

Full text
Abstract:
Les travaux sont regroupes en deux parties independantes. La premiere est consacree a l'etude de l'uniforme integrabilite. Nous utilisons les mesures de young au travers de resultats de compacite pour caracteriser l'uniforme integrabilite dans le cas de la dimension finie. Le cas de la dimension infinie est egalement aborde. Cette etude debouche sur le traitement de la compacite d'une classe plus generale de mesures: mesures d'ordre h. La seconde partie traite de la convergence de suites de sous-tribus (bn) dans le but de caracteriser la convergence l#p des esperances conditionnelles (grace a la theorie des martingales, cette convergence a lieu lorsque la suite des sous-tribus est monotone). Des notions de limites inferieures et superieures de sous-tribus sont degagees. On s'interesse egalement aux comportements de la suite de sous-espaces l#p(bn) associee, notamment via la mosco-convergence, la slice-convergence. Apres l'etude de diverses topologies sur l'espace des sous-tribus et de la compacite, on s'interesse aux applications dans le cas d'une suite d'esperance conditionnelle de multi-fonctions (fatou multivoque, )
APA, Harvard, Vancouver, ISO, and other styles
9

Bernoussi, Benaissa. "Compacité et ordre convergence dans les espace des fonctions mesurables et de mesures." Perpignan, 1990. http://www.theses.fr/1990PERP0087.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Zotti, Rabih. "Y a-t-il convergence du développement en Europe ? : Concepts, mesures et politiques de développement." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL12015/document.

Full text
Abstract:
Le « développement harmonieux », tel que l’Union européenne le définit, passe par le renforcement de sa cohésion économique, sociale et territoriale, et plus particulièrement, par la réduction des écarts en termes de développement entre ses divers pays et régions. Diverses études menées sur la « cohésion européenne » mettent en évidence une convergence économique « indiscutable » au niveau des pays européens (au moins au niveau de l’UE-15) et une convergence régionale plus problématique. En même temps, l’attribution des fonds issus des politiques de cohésion ainsi que l’évaluation des niveaux de convergence, réalisées par la Commission européenne, se basent uniquement sur des indicateurs de convergence économique. Mais si cette convergence économique semble être automatique depuis trois décennies, la convergence des dimensions sociales et environnementales peut être plus contrastée voire présenter des tendances différentes. Nous partons, dans cette thèse, d’un développement harmonieux élargi, reposant sur des concepts de développement qui cherchent à se détacher de la croissance économique et sur leurs instruments de mesure pour ré-analyser la convergence européenne de l’UE-27 au cours de ces deux dernières décennies<br>Since its foundation, one of the main objectives of the European Union has been the « harmonization » of the development levels of its member states and their regions. The European « harmonious development » is based on improving economic, social and territorial cohesion. Measured by the level of economic convergence, this cohesion seems to be well established at the national level (at least for the EU-15 countries) but remains mixed at the regional levels. Furthermore, the European Commission’s cohesion policies are based on economic convergence not only as an indicator for poor regions’ eligibility for funds; but also as an evaluation tool for its European policy. Nevertheless, « harmonious development » cannot be reduced to the single economic convergence. Social and environmental convergence would show different trends of « harmonious development ». In this thesis, we consider the converging development of the EU-27 member states and regions according to other concepts of development. European convergence is then re-analyzed for the last two decades through indicators going beyond the economic growth paradigm
APA, Harvard, Vancouver, ISO, and other styles
11

Ferrieux, Dominique. "Estimation de densités de mesures moyennes de processus ponctuels associés." Montpellier 2, 1996. http://www.theses.fr/1996MON20245.

Full text
Abstract:
L'objet principal de ce travail est l'estimation par la methode du noyau de la densite de la mesure moyenne d'une mesure aleatoire discrete, ou d'un processus ponctuel, sous hypothese d'association. Le premier chapitre donne les proprietes generales des suites de mesures aleatoires associees et des exemples. Le second chapitre donne les principales proprietes asymptotiques de l'estimateur telles que les convergences en probabilite et presque sure, la loi limite, et le choix optimal de la fenetre. Dans le troisieme chapitre ces resultats sont exploites pour l'estimation de la derivee de deux mesures moyennes. Le quatrieme chapitre etudie un point de vue nouveau sur la statistique des processus ponctuels quand une seule observation est disponible. Le dernier chapitre presente quelques simulations
APA, Harvard, Vancouver, ISO, and other styles
12

Ganidis-Cochard, Hélène. "Convergence de semi-groupes de diffusion : amplitude et problème de Skorokhod." Nancy 1, 1999. http://www.theses.fr/1999NAN10279.

Full text
Abstract:
La thèse est constituée de trois parties indépendantes. Dans la première partie, nous déterminons la vitesse de convergence de certains semi-groupes associés à des processus de diffusion vers leur probabilité invariante. La deuxième partie est consacrée à la loi de l'amplitude pour des chaînes de Markov ultrasphériques ainsi que pour les processus de Bessel. Après avoir établi que les chaînes ultrasphériques, convenablement renormalisées, convergent en loi vers les processus de Bessel, nous explicitons la transformée de Laplace ainsi que le premier moment de l'inverse de l'amplitude ( i. E. Premier instant où l'amplitude dépasse un niveau donne) pour ces deux classes de processus. Les calculs sont développés dans le cas particulier des processus de Bessel de dimension 1 et 3. Enfin, dans la troisième partie, nous considérons deux classes de martingales : 1 - La classe des martingales càdlàg, uniformément intégrables, (Mt)t≥0, dont la loi du couple (M0, M∞) est fixée. 2 - La classe des martingales càdlàg, uniformément intégrables, (Mt)t≥0, dont les lois de M0 et de M∞ sont données. Pour chacun des ces deux problèmes de types Skorokhod, nous construisons des solutions browniennes explicites qui jouent un rôle essentiel dans les inégalités maximales<br>This thesis is divided in three independant parts. In first part is estimated the convergence rate of sorne semi-groups associated to diffusion processes to their invariant probability. Second part deals with the law of the range process for ultraspherical Markov chains and Bessel processes. Convergence of ultraspherical Markov chains to Bessel processes is first established. Then are evaluated Laplace transform and firts moment for the range inverse (firt passage time for the range process to a given level). Calculations are developped in the case of Bessel processes of dimension one and three. In third part are considered two classes of martingale: 1 - The class of right continuous left limited, uniformly integrable martingales, (Mt)t≥0, such that the law of (M0, M∞) is given. 2 - The class of right continuous left limited, uniformly intégrable martingales, (Mt)t≥0 such that the laws of M0 and M∞ are given. For each of these two kind of Skorokhod's problem, we construct an explicit brownian solution. These solutions are of great importance in maximal inequalies
APA, Harvard, Vancouver, ISO, and other styles
13

Kiennert, Christophe. "Elaboration d'un modèle d'identité numérique adapté à la convergence." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0035.

Full text
Abstract:
L’évolution des réseaux informatiques, et notamment d’Internet, s’ancre dans l’émergence de paradigmes prépondérants tels que la mobilité et les réseaux sociaux. Cette évolution amène à considérer une réorganisation de la gestion des données circulant au cœur des réseaux. L’accès à des services offrant de la vidéo ou de la voix à la demande depuis des appareils aussi bien fixes que mobiles, tels que les Smartphones, ou encore la perméabilité des informations fournies à des réseaux sociaux conduisent à s’interroger sur la notion d’identité numérique et, de manière sous-jacente, à reconsidérer les concepts de sécurité et de confiance. La contribution réalisée dans ce travail de thèse consiste, dans une première partie, à analyser les différents modèles d’identité numérique existants ainsi que les architectures de fédération d’identité, mais également les protocoles déployés pour l’authentification et les problèmes de confiance engendrés par l’absence d’élément sécurisé tel qu’une carte à puce. Dans une deuxième partie, nous proposons, en réponse aux éléments dégagés dans la partie précédente, un modèle d’identité fortement attaché au protocole d’authentification TLS embarqué dans un composant sécurisé, permettant ainsi de fournir les avantages sécuritaires exigibles au cœur des réseaux actuels tout en s’insérant naturellement dans les différents terminaux, qu’ils soient fixes ou mobiles. Enfin, dans une dernière partie, nous expliciterons plusieurs applications concrètes, testées et validées, de ce modèle d’identité, afin d’en souligner la pertinence dans des cadres d’utilisation pratique extrêmement variés<br>IT networks evolution, chiefly Internet, roots within the emergence of preeminent paradigms such as mobility and social networks. This development naturally triggers the impulse to reorganize the control of data spreading throughout the whole network. Taking into account access to services such as video or voice on demand coming from terminals which can be fixed or mobile such as smartphones, or also permeability of sensitive information provided to social networks, these factors compel a necessary interrogation about digital identity as a concept. It also intrinsically raises a full-fledged reconsideration of security and trust concepts. The contribution of this thesis project is in line, in a first part, with the analysis of the existing manifold digital identity frameworks as well as the study of current authentication protocols and trust issues raised by the lack of trusted environment such as smartcards. In a second part, as an answer to the concerns suggested in the first part, we will advocate an identity framework strongly bounded to the TLS authentication protocol which needs to be embedded in a secure component, thus providing the mandatory security assets for today’s networks while naturally fitting with a varied scope of terminals, be it fixed or mobile. In a last part, we will finally exhibit a few practical applications of this identity framework, which have been thoroughly tested and validated, this, in order to emphasize its relevance throughout multifarious use cases
APA, Harvard, Vancouver, ISO, and other styles
14

Clad, François. "Disruption-free routing convergence : computing minimal link-state update sequences." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD012/document.

Full text
Abstract:
Avec le développement des applications temps-réel sur Internet, telles que la télévision, la voix sur IP et les jeux en ligne, les fournisseurs d'accès à Internet doivent faire face à des contraintes de plus en plus fortes quant aux performances de leurs services. Cependant, après chaque changement topologique, les protocoles de routage à état des liens, utilisés dans les réseaux de cœur de ces opérateurs, entrent dans une période de convergence durant laquelle des boucles de routage peuvent apparaître. Ce phénomène dégrade les performances du réseau (latence, congestions, pertes de paquets) et peut durer plusieurs secondes. Dans le cadre de cette thèse, nous proposons de nouvelles solutions permettant de prévenir ces perturbations dans le cas de reconfigurations sur un lien ou un routeur. Notre approche a pour particularité de ne reposer que sur les mécanismes de base des protocoles de routage à état des liens, et d’être ainsi déployable de manière incrémentale dans n’importe quel réseau. Intuitivement, il s’agit de contrôler implicitement l’ordre de mise à jour des routeurs, à travers une modification progressive du poids d’un sous-ensemble de liens. Par exemple, l’augmentation du poids d’un lien aura pour effet de forcer les routeurs les plus éloignés de ce composant à se mettre à jour avant les routeurs plus proches. En adaptant finement l’amplitude de tels changements, il est alors possible de répartir la mise à jour de routeurs potentiellement impliqués dans une boucle sur plusieurs étapes. Cette opération peut ensuite être répétée jusqu’à ce que le composant ne soit plus utilisé pour acheminer des données dans le réseau, permettant un retrait sans impact sur le routage<br>The use of real time media or mission critical applications over IP networks is making strong pressure on service providers to operate disruption free networks. However, after any topological change, link-state Interior Gateway Protocols (IGPs), such as IS-IS or OSPF, enter a convergence phase during which transient forwarding loops may occur. Such loops increase the network latency and cause packet losses for several seconds. In this thesis, we propose and evaluate innovative solutions to prevent these perturbations in case a planned modification on a link or a router. Our approach only relies on core functionalities of link-state routing protocols, thus being incrementally deployable in any network. Intuitively, it consists in implicitly controlling the routers update order through successive IGP weight reconfigurations on a subset of links. For example, progressively increasing the weight of a link forces farthest routers to update their routes first, before closest ones. Hence, finely tuning such changes may allow to spread the update of routers potentially implied in a loop across multiple steps. This operation can be repeated until the component to be removed is no longer used to forward traffic in the network, thus allowing its removal with no impact on the routing decisions
APA, Harvard, Vancouver, ISO, and other styles
15

Kiennert, Christophe. "Elaboration d'un modèle d'identité numérique adapté à la convergence." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-01002153.

Full text
Abstract:
L'évolution des réseaux informatiques, et notamment d'Internet, s'ancre dans l'émergence de paradigmes prépondérants tels que la mobilité et les réseaux sociaux. Cette évolution amène à considérer une réorganisation de la gestion des données circulant au cœur des réseaux. L'accès à des services offrant de la vidéo ou de la voix à la demande depuis des appareils aussi bien fixes que mobiles, tels que les Smartphones, ou encore la perméabilité des informations fournies à des réseaux sociaux conduisent à s'interroger sur la notion d'identité numérique et, de manière sous-jacente, à reconsidérer les concepts de sécurité et de confiance. La contribution réalisée dans ce travail de thèse consiste, dans une première partie, à analyser les différents modèles d'identité numérique existants ainsi que les architectures de fédération d'identité, mais également les protocoles déployés pour l'authentification et les problèmes de confiance engendrés par l'absence d'élément sécurisé tel qu'une carte à puce. Dans une deuxième partie, nous proposons, en réponse aux éléments dégagés dans la partie précédente, un modèle d'identité fortement attaché au protocole d'authentification TLS embarqué dans un composant sécurisé, permettant ainsi de fournir les avantages sécuritaires exigibles au cœur des réseaux actuels tout en s'insérant naturellement dans les différents terminaux, qu'ils soient fixes ou mobiles. Enfin, dans une dernière partie, nous expliciterons plusieurs applications concrètes, testées et validées, de ce modèle d'identité, afin d'en souligner la pertinence dans des cadres d'utilisation pratique extrêmement variés.
APA, Harvard, Vancouver, ISO, and other styles
16

Mandallena, Jean-Philippe. "Contributions à une approche générale de la régularisation variationnelle de fonctionnelles intégrales." Montpellier 2, 1999. http://www.theses.fr/1999MON20083.

Full text
Abstract:
Dans le premier chapitre de cette these on presente une nouvelle approche permettant de relaxer, en un sens variationnel, des fonctionnelles integrales associees a des mesures. On applique cette demarche a une mesure de hausdorff restreinte a une partie convenable d'une sous-variete lisse de r n et on donne une representation integrale de la fonctionnelle relaxee associee. Dans le deuxieme chapitre on developpe un cadre assez general pour traiter des problemes d'homogeneisation lorsque plusieurs parametres tendent simultanement vers zero. Ceci permet d'unifier certains resultats connus et aussi d'en obtenir de nouveaux. Enfin, dans le troisieme chapitre on etudie la convergence variationnelle en loi et en probabilite d'une famille de metriques riemanniennes.
APA, Harvard, Vancouver, ISO, and other styles
17

Moon, Kyoung-Sook. "Convergence rates of adaptive algorithms for deterministic and stochastic differential equations." Licentiate thesis, KTH, Numerical Analysis and Computer Science, NADA, 2001. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-1382.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Lavie, Marc. "Contribution à l'étude de la convergence de sommes d'ensembles aléatoires indépendants et de martingales multivoques." Montpellier 2, 1990. http://www.theses.fr/1990MON20030.

Full text
Abstract:
Differents modes de convergence sont etudies pour des sommes d'ensembles aleatoires independants a valeurs convexes fermes bornes. On definit la fonction caracteristiques d'un ensemble aleatoire et on etudie ses proprietes. Une topologie, introduite par beer, est etudiee sur l'ensemble des parties convexes fermees bornees d'un espace de banach separable. Elle est moins fine que la topologie de hausdorff et plus fine que la topologie de mosco. Plusieurs theoremes de convergence de martingales multivoques sont donnes
APA, Harvard, Vancouver, ISO, and other styles
19

Truedsson, Stefan. "Simulation driven design : An iterative approach for mechanical engineerswith focus on mesh, quality and convergence." Thesis, Högskolan i Halmstad, Akademin för ekonomi, teknik och naturvetenskap, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-29031.

Full text
Abstract:
This thesis of 15 hp has been implemented at Halmstad University, incollaboration with Saab Dynamics in Linköping. Saab Dynamics is a companyoperating in the defence industry where competition is tough. This necessitatesnew ways to increase efficiency in the company, which is the basis for this thesis.Saab Dynamics wants to introduce simulation driven design. Since SaabDynamics engineers have little experience of simulation, required a usermethodology with clear guidelines. Due to lack of time, they chose to assign thetask to students, which resulted in this thesis.The aim of the thesis is to develop a methodology in mechanical design, wherethe designer uses the FE analysis early in the design process to develop thestructures' mechanical properties. The methodology should be seen as a guide anda source of information to enable an iterative approach with FE-analysis, which isthe basis of simulation-driven design. The iterative process of simulation drivendesign, which can lead to reduced lead times and cost savings in the designprocess.The work was carried out by three students from the mechanical engineeringprogram between December 2014 and May 2015. Because of the scale of theproject, it has been carried out by a total of three students with individual focusareas.The work has followed a self-developed method and the project began withtheoretical studies of the topic to get an understanding of what has been done andwhat research in simulation driven design. Then conducted an empirical study onthe Saab Dynamics in Linköping, in order to increase understanding of how thedesign process looks like. Meanwhile, sustainable development and ethicalaspects has been taken into account.Much time has been devoted to investigate the possibilities and limitations of 3DExperience, which is Dassault Systèmes latest platform for 3D modelling- andsimulation software. 3D Experience is the software, the methodology is based on.This thesis has resulted in a methodology for simulating at the designer level thatthe project team in consultation with the supervisor at Saab Dynamics managed toadapt to the company's requirements.
APA, Harvard, Vancouver, ISO, and other styles
20

Guerre, Emmanuel. "Méthode non paramétriques d'analyse des séries temporelles multivariées : estimation de mesures de dépendances." Paris 6, 1993. http://www.theses.fr/1993PA066110.

Full text
Abstract:
Dans un premier chapitre, on presente differentes hypotheses permettant, si elles sont verifiees, d'obtenir de meilleures vitesses de convergence pour des estimateurs utilisant ces proprietes. Les deux chapitres suivants s'interessent a l'estimation de mesures caracterisant ces hypotheses de dependance: on etudie la convergence presque sure et la loi limite d'estimateurs non parametriques de contrastes de kullback. Le dernier chapitre s'interesse a un probleme different, de choix de modeles. On propose des tests pour determiner si une marche aleatoire est de type geometrique ou arithmetique
APA, Harvard, Vancouver, ISO, and other styles
21

Chizat, Lénaïc. "Transport optimal de mesures positives : modèles, méthodes numériques, applications." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED063/document.

Full text
Abstract:
L'objet de cette thèse est d'étendre le cadre théorique et les méthodes numériques du transport optimal à des objets plus généraux que des mesures de probabilité. En premier lieu, nous définissons des modèles de transport optimal entre mesures positives suivant deux approches, interpolation et couplage de mesures, dont nous montrons l'équivalence. De ces modèles découle une généralisation des métriques de Wasserstein. Dans une seconde partie, nous développons des méthodes numériques pour résoudre les deux formulations et étudions en particulier une nouvelle famille d'algorithmes de "scaling", s'appliquant à une grande variété de problèmes. La troisième partie contient des illustrations ainsi que l'étude théorique et numérique, d'un flot de gradient de type Hele-Shaw dans l'espace des mesures. Pour les mesures à valeurs matricielles, nous proposons aussi un modèle de transport optimal qui permet un bon arbitrage entre fidélité géométrique et efficacité algorithmique<br>This thesis generalizes optimal transport beyond the classical "balanced" setting of probability distributions. We define unbalanced optimal transport models between nonnegative measures, based either on the notion of interpolation or the notion of coupling of measures. We show relationships between these approaches. One of the outcomes of this framework is a generalization of the p-Wasserstein metrics. Secondly, we build numerical methods to solve interpolation and coupling-based models. We study, in particular, a new family of scaling algorithms that generalize Sinkhorn's algorithm. The third part deals with applications. It contains a theoretical and numerical study of a Hele-Shaw type gradient flow in the space of nonnegative measures. It also adresses the case of measures taking values in the cone of positive semi-definite matrices, for which we introduce a model that achieves a balance between geometrical accuracy and algorithmic efficiency
APA, Harvard, Vancouver, ISO, and other styles
22

Ouellet, Rosalie. "Étude de la fonction de l'alexithymie sur la convergence de mesures de la personnalité chez de jeunes adultes souffrant d'une psychose débutante." Master's thesis, Université Laval, 2005. http://hdl.handle.net/20.500.11794/43536.

Full text
Abstract:
L'évaluation de la personnalité des individus souffrant de schizophrénie (SZ) ou de psychose apparentée à la schizophrénie (PASZ) renseigne sur l'étiologie de la maladie, le pronostic et le traitement à privilégier. Il n'y a pas de consensus actuellement quant à l'emploi d'une méthode particulière pour l'évaluation de la personnalité chez la population à l'étude. La validité convergente de 2 méthodes fréquemment utilisées, soit l'Inventaire Clinique Multiaxial de Millon-III (MCMI-III), et l'entrevue semi-structurée de l'Axe II («Structured Clinical Interview for DSM-IV Axis II Personality Disorders»; SCID-II) a été évaluée auprès d'un échantillon de 20 participants atteints de SZ et de PASZ. Tel qu'attendu, l'accord est faible pour la majorité des 12 échelles cliniques. L'hypothèse voulant qu'il existe une relation linéaire négative entre le degré d'accord du MCMI-III et du SCID-II et la présence d'alexithymie est confirmée dans le présent échantillon. L'alexithymie, évaluée à l'aide de l'Échelle d'Alexithymie de Toronto («Toronto Alexithymia Scale»; TAS), expliquerait une proportion substantielle de la variance du désaccord diagnostique entre les instruments (27%). Ces résultats supportent la pertinence de raffiner les méthodes d'évaluation de la personnalité et l'importance d'évaluer la présence d'alexithymie chez les personnes souffrant de schizophrénie et de psychose apparentée.
APA, Harvard, Vancouver, ISO, and other styles
23

Aït, Hennani Larbi. "Comportement asymptotique du processus de vraisemblance dans le cas non régulier." Rouen, 1989. http://www.theses.fr/1989ROUES039.

Full text
Abstract:
Ce travail a pour point de départ les résultats de Ibragimov et Has'minskii concernant la convergence des lois marginales du processus de vraisemblance dans le cas où, la densité considérée, est de la forme f(x-t) et possède un nombre fini de singularités. Il a pour but la généralisation de ces résultats, et l'étude de la convergence en moyenne quadratique du processus de vraisemblance lorsqu'on remplace f(x-t) par f(x,t) où t est un réel fixe appartenant à un ouvert de R. Apres avoir défini les singularités d'ordre alpha de f(. ,t), on établit une expression maniable du processus de vraisemblance, et on applique les résultats obtenus à l'aide de cette expression d'un paramètre inconnu thêta
APA, Harvard, Vancouver, ISO, and other styles
24

Lamarfa, Houda. "Développement d'une méthode multi-échelle de traitement des nuages de points LiDAR mobile pour la détection de convergence des tunnels miniers souterrains." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34007.

Full text
Abstract:
La sécurité dans les mines souterraines est l’une des principales préoccupations des entreprises d’exploitation minières. La surveillance des moindres changements ou déformations au niveau des tunnels et galeries miniers, notamment la convergence des tunnels (rétrécissement diamétral d’une section de tunnel), figure parmi les principales priorités de ces entreprises. Les techniques de surveillance de la convergence des tunnels miniers communément utilisées se basent essentiellement sur des mesures ponctuelles et limitées qui sont généralement longues et coûteuses. Les technologies LiDAR mobiles émergentes et prometteuses amènent des pistes de solutions qui permettent de gagner en efficacité et en sécurité. Cependant, la détection et la mesure précise de convergence des tunnels miniers au moyen de données LiDAR mobile demeurent problématiques en raison des enjeux suivants : la précision des nuages de points, l’irrégularité de la zone observée, la variabilité de la densité des scans et de leur prise de vue, la présence d’obstructions, la complexité de l’alignement parfait des nuages de points. La recherche visée dans ce mémoire de maîtrise s’inscrit dans le cadre du projet « MinEyes » et elle a pour objectif principal de détecter et de mesurer la convergence de tunnels miniers souterrains à partir de données LiDAR mobile. Pour ce faire, nous proposons une méthode multi-échelles de comparaison de nuages de points qui prend en considération les irrégularités de surface des tunnels miniers et qui permet une meilleure détection de leurs changements et une mesure plus précise de leur convergence. La méthode proposée se base sur une approche de comparaison modèle à modèle locale des nuages de points LiDAR mobile souterrain. Les résultats obtenus sont très prometteurs comparés à ceux d’autres méthodes de détection de changement dans les nuages de points LiDAR (ex. : méthodes C2C, C2M). Une analyse statistique des résultats a également permis de confirmer la robustesse de la méthode proposée surtout dans des zones rugueuses des tunnels miniers.<br>Security in underground mines is one of the main concerns of mining companies. Monitoring any changes or distortions in mining tunnels and galleries, including tunnel’s convergence, is one of the top priorities for those companies. Commonly used convergence monitoring techniques in underground tunnels are based on limited measurements that are usually very time-consuming and costly in terms of process. Emerging mobile LiDAR technologies offer alternative solutions that are far more efficient and lower in risk. However, the accurate measurements of convergence in mining tunnels using mobile LiDAR data remains challenging because of the following issues: limited precision of LiDAR point clouds, the roughness and irregularity of the studied surfaces in the tunnels, the irregularity of the scan density, the presence of occlusions and the complexities of reliable registration of point clouds. This research work is defined as a part of the ‘MinEyes project’ in collaboration with the company Pecktech which main objective is to detect and measure the convergence of underground mining tunnels from mobile LiDAR data. To do so, we propose a multi-scale point cloud comparison method that considers the surface irregularities of the mining tunnels and allows a better detection of their changes and a more precise measurement of their convergence. The proposed method is based on a local model-to-model comparison method of underground mobile LiDAR point clouds. The results obtained are very promising compared to other LiDAR point cloud comparison methods (e.g. C2C, C2M methods). A statistical analysis of the results also has confirmed the efficiency of the proposed method, especially in the rough areas of the mining tunnels.
APA, Harvard, Vancouver, ISO, and other styles
25

Weber, Michael Thomas. "Analysis of Zincblende-Phase GaN, Cubic-Phase SiC, and GaAs MESFETs Including a Full-Band Monte Carlo Simulator." Diss., Georgia Institute of Technology, 2005. http://hdl.handle.net/1853/7500.

Full text
Abstract:
The objective of this research has been the study of device properties for emerging wide-bandgap cubic-phase semiconductors. Though the wide-bandgap semiconductors have great potential as high-power microwave devices, many gaps remain in the knowledge about their properties. The simulations in this work are designed to give insight into the performance of microwave high-power devices constructed from the materials in question. The simulation are performed using a Monte Carlo simulator which was designed from the ground up to include accurate, numerical band structures derived from an empirical pseudo-potential model. Improvements that have been made to the simulator include the generalized device structure simulation, the fully numerical final state selector, and the inclusion of the overlap integrals in the final-state selection. The first comparison that is made among the materials is direct-current breakdown. The DC voltage at which breakdown occurs is a good indication of how much power a transistor can provide. It is found that GaAs has the smallest DC breakdown, with 3C-SiC and ZB-GaN being over 3 times higher. This follows what is expected and is discussed in detail in the work. The second comparison made is the radio-frequency breakdown of the transistors. When devices are used in high-frequency applications it is possible to operate them beyond DC breakdown levels. This phenomenon is caused by the reaction time of the carriers in the device. It is important to understand this effect if these materials are used in a high-frequency application, since this effect can cause a change in the ability of a material to produce high-power devices. MESFETs made from these materials are compared and the results are discussed in detail.
APA, Harvard, Vancouver, ISO, and other styles
26

Bessoud, Anne-Laure. "Modélisations mathématiques d'un multi-matériau." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00461938.

Full text
Abstract:
Cette thèse est consacrée à la modélisation d'une structure constituée de l'assemblage de deux solides Ω+ et Ω− à l'aide d'une couche mince (d'épaisseur d'ordre ε) très rigide (d'ordre 1/ε), où ε est un petit paramètre. Différentes situations et considérations sont prises en compte. Dans un premier temps, on se place dans le cadre de l'élasticité linéaire. Une analyse asymptotique formelle conduit à un problème posé sur Ω+UΩ-US où S est l'intersection des frontières . Nous nous intéressons dans cette partie aux deux aspects suivants : - Prise en compte de la géométrie et de la rigidité de la couche intermédiaire : résultats de convergence faible et forte pour des modèles de plaques et de coques ; - Proposition de méthodes de résolution numérique par décomposition de domaine ou avec pénalisation. Nous proposons ensuite une modélisation dans un cadre plus général et obtenons dans le cadre de la Γ-convergence, un modèle en élasticité linéaire non isotrope et un modèle en élasticité non linéaire. Lorsque le matériau dans la couche rigide présente des transitions de phase solide/solide, sa densité d'énergie g possède plusieurs puits de potentiel rendant compte de microstructures. Pour modéliser ces microstructures, il convient de réécrire l'énergie dans la couche en terme de mesures de Young. L'énergie de la structure est alors donnée par une bifonctionnelle ayant pour argument un couple déplacement-mesure de Young. Une des deux fonctions marginales de la fonctionnelle limite nous redonne l'énergie (classique) du modèle limite obtenu précédemment par Γ-convergence . Nous pouvons également réécrire l'énergie de toute la structure en terme de mesures de Young. Nous montrons alors comment les solutions du problème formulé en terme de mesures de Young donnent une description microscopique des solutions classiques. Enfin, lorsque la couche mince a un comportement plastique, des difficultés liées à la croissance linéaire de l'énergie de densité g apparaissent. En s'inspirant des méthodes de régularisation de Norton-Hoff, nous étudions le cas où g est à croissance d'ordre p, 1< p <2, la densité d'énergie f dans le reste de la structure étant à croissance d'ordre 2. Nous obtenons un premier modèle limite lorsque ε tend vers 0. Nous étudions ensuite la Γ-convergence de la fonctionnelle limite obtenue lorsque p tend vers 1. Mots clés : élasticité, multi-matériau, Γ-convergence, analyse asymptotique, mesures de Young.
APA, Harvard, Vancouver, ISO, and other styles
27

Langlet, Thomas. "Étude de convergences de séries aléatoires échantillonnées, mesures de Markov quasi-Bernoulli ou quasi-Bernoulli faible et temps de retour uniforme dans les systèmes exponentiellement mélangeants." Amiens, 2009. http://www.theses.fr/2009AMIE0122.

Full text
Abstract:
Dans la première partie de cette thèse, on s'intéresse à la convergence de certaines séries aléatoires. On détermine des conditions suffisantes sur la suite (ak)k et sur les variables aléatoires indépendantes (Xk)k, afin que pour presque tout ω ϵ Ω, on ait la convergence uniforme ou pour presque tout x de la série Σk ak f(x(X1+. . . +Xk)(ω)) pour une certaine classe de fonctions f. On trouve, aussi, des conditions suffisantes sur la suite (ak)k et sur les variables aléatoires indépendantes (Xk)k, afin que pour presque tout ω ϵ Ω, on ait la convergence dans L²(μ) ou μ-presque partout de la série Σk ak T^{(X1+. . . +Xk)(ω)}(g)(x) pour certaines classes de fonctions g ϵ L²(μ) et de flot {Tt,t ϵ G} d'opérateurs de L²(μ) dans L²(μ) (où G est un semi-groupe de l'ensemble des réels). La deuxième partie porte sur des propriétés de mesures : quasi-Bernoulli et quasi-Bernoulli faible. On trouve notamment des conditions nécessaires et suffisantes pour qu'une mesure de Markov inhomogène soit quasi-Bernoulli ou quasi-Bernoulli faible. On caractérise à l'aide de ces conditions les mesures de Bernoulli qui sont quasi-Bernoulli ou quasi-Bernoulli faible. On prouve que si une mesure de Bernoulli n'ayant que des probabilités non nulles est quasi-Bernoulli faible alors elle est quasi-Bernoulli. La dernière partie est consacrée à l'étude du problème du temps de retour uniforme dans les systèmes exponentiellement mélangeant. Il s'agit d'avoir un recouvrement aléatoire de l'espace engendré par un processus exponentiellement mélangeant. Etant donné un recouvrement aléatoire, on obtient une estimation du nombre de recouvrements en fonction de la dimension maximale locale de la mesure<br>In the first part of this thesis, we study the convergence of two different random series. We give some sufficient conditions on the sequence (ak)k, on the random independent variables (Xk)k, such that for almost every ω, to have the uniform convergence or almost everywhere convergence of Σk ak f(x(X1+. . . +Xk)(ω)) for a certain class of functions f. We also find some sufficient conditions on (ak)k and on the random independent variables (Xk)k to have a certain class of function g ϵ L²(μ) and a certain class of operator {Tt,t ϵ G} such that the series Σk ak T^{(X1+. . . +Xk)(ω)}(g)(x) converge in L²(μ) or for μ-almost every x. In the second part, we prove some necessary and sufficient condition for an inhomogeneous Markov measure to be a quasi-Bernoulli measure or a weak quasi-Bernoulli measure. We apply this condition on the Bernoulli measure. We proved that a Bernoulli measure which only has some non-negative probability is a weak quasi-Bernoulli measure, then it is a quasi-Bernoulli measure. The last part is devoted to the study of a uniform hitting problem in an exponentially mixing dynamical system. This is a random covering problem driven by an exponentially mixing stationary process. For such a covering, among others, we obtain a satisfactory estimation on the covering numbers
APA, Harvard, Vancouver, ISO, and other styles
28

Michel, Anthony. "Convergence de schémas volumes finis pour des problèmes de convection diffusion non linéaires." Phd thesis, Université de Provence - Aix-Marseille I, 2001. http://tel.archives-ouvertes.fr/tel-00002553.

Full text
Abstract:
Ce mémoire est centré autour de l'analyse numérique de schémas volumes finis pour un modèle simplifié d'écoulement de deux fluides incompressibles en milieu poreux. Ces phénomènes sont souvent qualifiés de phénomènes de convection diffusion à convection dominante (``convection dominated problems'' en anglais). La première partie du mémoire est consacrée à l'approximation numérique d'équations paraboliques hyperboliques faiblement ou fortement dégénérées. Les trois premiers chapitres sont consacrés à l'étude de la convergence de schémas volumes finis. Le dernier chapitre est consacré à l'analyse des résultats numériques obtenus. La seconde partie est consacrée à l'analyse numérique d'un modèle simplifié d'écoulement diphasique en milieu poreux par deux schémas différents. Le premier schéma dit ``des mathématiciens'' est basé sur la réécriture du système étudié sous la forme d'une équation parabolique hyperbolique sur la saturation et d'une équation elliptique sur la pression, ces deux équations étant couplées par le coefficient de diffusion. Le second schéma dit schéma ``des pétroliers'' est une méthode numérique utilisée en pratique dans l'industrie pétrolière. Les deux schémas sont analysés séparément et ils sont ensuite comparés numériquement.
APA, Harvard, Vancouver, ISO, and other styles
29

Soueycatt, Mohamed. "Analyse épi/hypo-graphique des problèmes de points-selles." Montpellier 2, 1991. http://www.theses.fr/1991MON20198.

Full text
Abstract:
L'analyse epigraphique des fonctions privilegie le role joue par l'epigraphe (par contraste avec l'approche classique ou c'est le graphe qui joue le role important) et s'applique tout naturellement a l'etude de problemes de minimisation en optimisation, calcul des variations. . . Cette demarche, naturelle lorsque l'on aborde les notions de convexite, semicontinuite s'est averee tres feconde egalement lorsque l'on s'interesse aux proprietes de differentiabilite, integration en analyse non reguliere. Ce point de vue a conduit a l'introduction de nouveaux concepts, epi-convergence, somme epigraphique, epiderivee, epi-integrales,. . . Jouant un role cle dans ces questions. La version hypographique, tout a fait symetrique, traite les problemes de maximisation. En vue de l'etude des problemes de points selles (plus particulierement convexes-concaves) nous developpons une analyse dite analyse epi/hypo graphique combinant les deux aspects precedents, epigraphique et hypographique. La somme et la multiplication epi/hypo graphique que nous avons introduites possedent des proprietes remarquables vis-a-vis des problemes de points-selles. A l'aide des metriques variationnelles de type hausdorff locales ou basees sur l'approximation moreau-yosida entre fonctions convexes-concaves, nous developpons une analyse quantitative concernant la stabilite des points selles
APA, Harvard, Vancouver, ISO, and other styles
30

Hahn, Léo. "Interacting run-and-tumble particles as piecewise deterministic Markov processes : invariant distribution and convergence." Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2024. http://www.theses.fr/2024UCFA0084.

Full text
Abstract:
Cette thèse étudie le comportement en temps long des particules run-and-tumble (RTPs), un modèle pour les bactéries en physique statistique hors équilibre, en utilisant des processus de Markov déterministes par morceaux (PDMPs). La motivation est d'améliorer la compréhension au niveau particulaire des phénomènes actifs, en particulier la séparation de phase induite par la motilité (MIPS). La mesure invariante pour deux RTPs avec jamming sur un tore 1D est déterminée pour mécanismes de tumble et jamming généraux, révélant deux classes d'universalité hors équilibre. De plus, la dépendance du temps de mélange en fonction des paramètres du modèle est déterminée en utilisant des techniques de couplage et le modèle continu PDMP est rigoureusement relié à un modèle sur réseau connu. Dans le cas de deux RTPs avec jamming sur la droite réelle et interagissant à travers un potentiel attractif, la mesure invariante présente des différences qualitatives en fonction des paramètres du modèle, rappelant des transitions de forme et des classes d'universalité. Des taux de convergence fins sont à nouveau obtenus par des techniques de couplage. Par ailleurs, la mesure invariante explicite de trois RTPs se bloquant sur le tore 1D est calculée. Enfin, les résultats de convergence hypocoercive sont étendus aux RTPs, obtenant ainsi des taux de convergence \( L^2 \) fins dans un cadre général qui couvre également les PDMPs utilisés pour l'échantillonnage et Langevin cinétique<br>This thesis investigates the long-time behavior of run-and-tumble particles (RTPs), a model for bacteria's moves and interactions in out-of-equilibrium statistical mechanics, using piecewise deterministic Markov processes (PDMPs). The motivation is to improve the particle-level understanding of active phenomena, in particular motility induced phase separation (MIPS). The invariant measure for two jamming RTPs on a 1D torus is determined for general tumbling and jamming, revealing two out-of-equilibrium universality classes. Furthermore, the dependence of the mixing time on model parameters is established using coupling techniques and the continuous PDMP model is rigorously linked to a known on-lattice model. In the case of two jamming RTPs on the real line interacting through an attractive potential, the invariant measure displays qualitative differences based on model parameters, reminiscent of shape transitions and universality classes. Sharp quantitative convergence bounds are again obtained through coupling techniques. Additionally, the explicit invariant measure of three jamming RTPs on the 1D torus is computed. Finally, hypocoercive convergence results are extended to RTPs, achieving sharp \( L^2 \) convergence rates in a general setting that also covers kinetic Langevin and sampling PDMPs
APA, Harvard, Vancouver, ISO, and other styles
31

Bringmann, Philipp. "Adaptive least-squares finite element method with optimal convergence rates." Doctoral thesis, Humboldt-Universität zu Berlin, 2021. http://dx.doi.org/10.18452/22350.

Full text
Abstract:
Die Least-Squares Finite-Elemente-Methoden (LSFEMn) basieren auf der Minimierung des Least-Squares-Funktionals, das aus quadrierten Normen der Residuen eines Systems von partiellen Differentialgleichungen erster Ordnung besteht. Dieses Funktional liefert einen a posteriori Fehlerschätzer und ermöglicht die adaptive Verfeinerung des zugrundeliegenden Netzes. Aus zwei Gründen versagen die gängigen Methoden zum Beweis optimaler Konvergenzraten, wie sie in Carstensen, Feischl, Page und Praetorius (Comp. Math. Appl., 67(6), 2014) zusammengefasst werden. Erstens scheinen fehlende Vorfaktoren proportional zur Netzweite den Beweis einer schrittweisen Reduktion der Least-Squares-Schätzerterme zu verhindern. Zweitens kontrolliert das Least-Squares-Funktional den Fehler der Fluss- beziehungsweise Spannungsvariablen in der H(div)-Norm, wodurch ein Datenapproximationsfehler der rechten Seite f auftritt. Diese Schwierigkeiten führten zu einem zweifachen Paradigmenwechsel in der Konvergenzanalyse adaptiver LSFEMn in Carstensen und Park (SIAM J. Numer. Anal., 53(1), 2015) für das 2D-Poisson-Modellproblem mit Diskretisierung niedrigster Ordnung und homogenen Dirichlet-Randdaten. Ein neuartiger expliziter residuenbasierter Fehlerschätzer ermöglicht den Beweis der Reduktionseigenschaft. Durch separiertes Markieren im adaptiven Algorithmus wird zudem der Datenapproximationsfehler reduziert. Die vorliegende Arbeit verallgemeinert diese Techniken auf die drei linearen Modellprobleme das Poisson-Problem, die Stokes-Gleichungen und das lineare Elastizitätsproblem. Die Axiome der Adaptivität mit separiertem Markieren nach Carstensen und Rabus (SIAM J. Numer. Anal., 55(6), 2017) werden in drei Raumdimensionen nachgewiesen. Die Analysis umfasst Diskretisierungen mit beliebigem Polynomgrad sowie inhomogene Dirichlet- und Neumann-Randbedingungen. Abschließend bestätigen numerische Experimente mit dem h-adaptiven Algorithmus die theoretisch bewiesenen optimalen Konvergenzraten.<br>The least-squares finite element methods (LSFEMs) base on the minimisation of the least-squares functional consisting of the squared norms of the residuals of first-order systems of partial differential equations. This functional provides a reliable and efficient built-in a posteriori error estimator and allows for adaptive mesh-refinement. The established convergence analysis with rates for adaptive algorithms, as summarised in the axiomatic framework by Carstensen, Feischl, Page, and Praetorius (Comp. Math. Appl., 67(6), 2014), fails for two reasons. First, the least-squares estimator lacks prefactors in terms of the mesh-size, what seemingly prevents a reduction under mesh-refinement. Second, the first-order divergence LSFEMs measure the flux or stress errors in the H(div) norm and, thus, involve a data resolution error of the right-hand side f. These difficulties led to a twofold paradigm shift in the convergence analysis with rates for adaptive LSFEMs in Carstensen and Park (SIAM J. Numer. Anal., 53(1), 2015) for the lowest-order discretisation of the 2D Poisson model problem with homogeneous Dirichlet boundary conditions. Accordingly, some novel explicit residual-based a posteriori error estimator accomplishes the reduction property. Furthermore, a separate marking strategy in the adaptive algorithm ensures the sufficient data resolution. This thesis presents the generalisation of these techniques to three linear model problems, namely, the Poisson problem, the Stokes equations, and the linear elasticity problem. It verifies the axioms of adaptivity with separate marking by Carstensen and Rabus (SIAM J. Numer. Anal., 55(6), 2017) in three spatial dimensions. The analysis covers discretisations with arbitrary polynomial degree and inhomogeneous Dirichlet and Neumann boundary conditions. Numerical experiments confirm the theoretically proven optimal convergence rates of the h-adaptive algorithm.
APA, Harvard, Vancouver, ISO, and other styles
32

Daout, Simon. "Mesures géodésiques et modélisation de la convergence oblique au travers de failles transformantes. Application au bord Nord du Plateau Tibétain et à la Californie du Sud." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU025/document.

Full text
Abstract:
Je me focalise sur trois grands systèmes de failles transformantes obliques au Tibet et en Californie du Sud, et ce, afin de mieux comprendre et quantifier les relations entre les différentes structures qui les définissent. L'interférométrie radar à Synthèse d'Ouverture (InSAR) dispose du potentiel pour cartographier et localiser précisément la déformation sur des zones étendues et ainsi contraindre la géométrie des structures profondes. Cependant son utilisation en milieu naturel se trouve fortement entravée par la décorrelation due à la végétation, au relief, et aux cycles de gel et dégel, mais aussi par les délais troposphériques et les rampes orbitales résiduelles. J'ai développé des méthodes pour palier ces limitations. Au Tibet, j'ai ainsi traité les archives du satellite Envisat au niveau de deux zones de lacune sismique, à la bordure Nord du plateau, se présentant comme des zones intéressantes pour étudier le partitionnement de la convergence: le système de faille de Haiyuan au north-est Tibet et la faille sénestre de l'Altyn Tagh, au nord-ouest du plateau. Une attention spécifique sur les déformations liées au pergélisol m'a permis de (1) retrouver la continuité du signal sur de grandes zones, (2) de quantifier le comportement temporel des cycles de gel et dégel des sédiments recouvrant le pergélisol, (3) d'isoler les zones stables des sédiments se déformant. Je montre que les déformations saisonnières sont fortement dépendantes des unités géomorphologiques et que la fonte du pergélisol est plus important à faible qu'à haute altitude. J'analyse aussi le signal saisonnier au travers la marche topographique et je définie un proxy pour les incertitudes de la correction atmosphérique. J'observe un gradient de déformation au travers la faille de l'Altyn Tagh de l'ordre de 11-15 mm/an et un alignement claire de la déformation dans le Tarim, parallèle à la faille de l'Altyn Tagh, ainsi que des soulèvements de l'ordre de 1 mm/an associés à des chevauchements. Ce travail montre aussi un gradient de déformation associé à la terminaison ouest de la faille du Kunlun, re-définissant ainsi la géométrie des blocs tectoniques dans cette région. Parallèlement à cette acquisition de données, je développe des outils d'inversion basés sur des algorithmes de Monte Carlo afin d'explorer l'ensemble des géométries en accord avec les observations et d'estimer la compatibilité de la déformation actuelle avec des modèles tectoniques long-termes. Je montre ainsi une convergence uniforme de 8.5-11.5 mm/an et d'orientation N81-98E à travers le système de faille d'Haiyuan et quantifie son partitionnement le long des différentes structures. Par ailleurs, j'applique mon approche en Californie du Sud, au niveau du « Big Bend » de la faille de San Andreas où, en analogie avec des modèles structuraux géologiques, j'utilise des lois de conservations du mouvement pour contraindre la géométrie des chevauchements aveugles. Je montre la compatibilité du champs de déformation actuel avec un décollement grande échelle et quantifie une accumulation de contrainte de 2.5 mm/an le long de la structure majeure sous Los Angeles<br>I focus on three major oblique transform faults in Tibet and in Southern California, in order to better measure and quantify the present-day strain accumulation on these structures. Interferometric synthetic Aperture Radar (InSAR) has the potential to map and localize precisely the deformation over wide areas and thus constrain the deep geometry of these structures. However, its application in natural environments in hindered by strong decorrelation of the radar phase due to vegetation, relief, and freeze and thaw cycles, but also due to variable tropospheric phase delays across topographic feature and long-wavelength residual orbital ramps. Here, I develop methodologies to circumvent these limitations and separate tectonic from other parasite signals. In Tibet, I process data from the Envisat satellite archives, at the boundary of the Tibetan plateau, in two seismic gaps, which appear interesting to study the partitioning of the convergence: the Haiyuan Fault system in northeastern Tibet and the left-lateral Altyn Tagh Fault, in northwestern Tibet. A specific focus on the permafrost related deformation signal allows us to: (1) correctly unwrap interferograms from north to south, (2) quantify the temporal behavior of the freeze/thaw cycles, and (3) isolate bedrock pixels that are not affected by the permafrost signal for further tectonic analysis. I show that the seasonal subsidence depends greatly on the geological land unit and that lower elevations are thawing faster than higher elevations. I analyze the atmospheric signal across the high plateau margin and estimate proxy for the uncertainty on atmospheric corrections. I observe a strike-slip deformation of around 11-15 mm/yr across the Altyn Tagh fault, a clear line of concentrated strike-slip deformation of around 3 mm/yr within the Tarim basin, trending parallel to the Altyn Tagh Fault trace, as well as thrust signal uplifting terraces at a rate of 1 mm/yr. This work also shows a strain accumulation around the west extension of the south trace of the Kunlun Fault, redefining the block boundaries in northwestern Tibet. In parallel this data acquisition, I develop Monte Carlo inversion tools in order to explore the various geometries in agreement with observations and estimate the compatibility of actual surface displacements with long-term slip partitioning models. I thus show a uniform convergence rate of 8.5-11.5 mm/yr with a N81-98E across the Haiyuan fault system and quantify the partitioning along the various structures. I also apply my approach in Southern California, across the « Big Bend » of the San Andreas Fault, where, in analogy with structural geological models, I use conservation of motion to help constraining the geometry and the kinematics of blind thrust faults. I show the compatibility of surface displacements with a large-scale décollement and quantify a loading rate of 2.5 mm/yr along the major thrust structure developing under Los Angeles
APA, Harvard, Vancouver, ISO, and other styles
33

Erlandsson, Andreas. "Simulation driven design : An iterative approach for mechanical engineers with focus on modal analysis." Thesis, Högskolan i Halmstad, Akademin för ekonomi, teknik och naturvetenskap, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-28980.

Full text
Abstract:
This thesis of 15 hp has been implemented at Halmstad University, in collaboration with Saab Dynamics in Linköping. Saab Dynamics is a company operating in the defence industry where competition is tough. This necessitates new ways to increase efficiency in the company, which is the basis for this thesis. Saab Dynamics wants to introduce simulation driven design. Since Saab Dynamics engineers have little experience of simulation, required a user methodology with clear guidelines. Due to lack of time, they chose to assign the task to students, which resulted in this thesis. The aim of the thesis is to develop a methodology in mechanical design, where the designer uses the FE analysis early in the design process to develop the structures' mechanical properties. The methodology should be seen as a guide and a source of information to enable an iterative approach with FE-analysis, which is the basis of simulation-driven design. The iterative process of simulation driven design, which can lead to reduced lead times and cost savings in the design process. The work was carried out by three students from the mechanical engineering program between December 2014 and May 2015. Because of the scale of the project, it has been carried out by a total of three students with individual focus areas. The work has followed a self-developed method and the project began with theoretical studies of the topic to get an understanding of what has been done and what research in simulation driven design. Then conducted an empirical study on the Saab Dynamics in Linköping, in order to increase understanding of how the design process looks like. Meanwhile, sustainable development and ethical aspects has been taken into account. Much time has been devoted to investigate the possibilities and limitations of 3D Experience, which is Dassault Systèmes latest platform for 3D modelling- and simulation software. 3D Experience is the software, the methodology is based on. This thesis has resulted in a methodology for simulating at the designer level that the project team in consultation with the supervisor at Saab Dynamics managed to adapt to the company's requirements.
APA, Harvard, Vancouver, ISO, and other styles
34

Bessoud, Anne-Laure. "Modélisations mathématiques d'un multi-matériau." Phd thesis, Montpellier 2, 2009. http://www.theses.fr/2009MON20039.

Full text
Abstract:
Cette thèse est consacrée à la modélisation d'une structure constituée de l'assemblage de deux solides Ω+ et Ω− à l'aide d'une couche mince (d'épaisseur d'ordre ε) très rigide (d'ordre 1/ ε), où ε est un petit paramètre. Différentes situations et considérations sont prises en compte. Nous étudions dans le cadre de l'élasticité linéaire isotrope les cas où la couche est de type plaque et de type coque. Une analyse asymptotique conduit à un problème posé sur Ω+U Ω-US où S est l'interface. Nous proposons alors des méthodes de résolution numérique par décomposition de domaine ou avec pénalisation. Nous présentons ensuite une modélisation dans un cadre plus général et obtenons dans le cadre de la convergence, un modèle en élasticité linéaire non isotrope et un modèle en élasticité non linéaire. Lorsque le matériau dans la couche rigide possède des microstructures, sa densité d'énergie g a une structure en puits de potentiel. Pour modéliser ces microstructures, il convient de réécrire l'énergie dans la couche en termes de mesures de Young. L'énergie de la structure est alors donnée par une bifonctionnelle ayant pour argument un couple déplacement-mesure de Young. Une des deux fonctions marginales de la fonctionnelle limite nous redonne l'énergie (classique) du modèle limite obtenu précédemment par convergence. Enfin, on s'intéresse au cas où la couche mince a un comportement plastique. En s'inspirant des méthodes de régularisation de Norton-Hoff, nous étudions le cas où g est à croissance d'ordre p, 1&lt; p &lt;2. Nous obtenons un premier modèle limite lorsque ε tend vers 0. Nous étudions ensuite la convergence quand p tend vers 1<br>This thesis is concerned with the modeling of a structure made of two bodies Ω+ and Ω− joined by a very rigid layer of thickness ε, ε being a small parameter. Different situations and considerations are taken into account. In linear isotropic elasticity, we are interested in the case when the behavior of the thin layer is that of a plate-like or a shell-like structure. An asymptotic analysis leads to a problem set on Ω+UΩ-US , where S is the interface. Then we propose to solve the problem with a domain decomposition method or with a penalization method. Next we obtain a limit model for the linear anisotropic case and one in a non linear setting in the framework of convergence. When the material in the thin layer posseses microstructures, its energy density g entails a multi-well structure so we rewrite the stored strain energy in the layer in terms of Young measures. A new model is obtained where the elastic energy is a bifunctional of pairs of displacement/Young measure. The classical stored strain energy of the previous model is recovered as to be one of the two marginal maps of this bifunctional. A more difficult situation arises when the thin layer has a plastic behavior. Following Norton-Hoff's regularisation methods, we study the problem when g has growth of order p, 1&lt;2. A first limit model is obtained by letting ε go to 0. Then we study the convergence of the limit functional when p goes to 1
APA, Harvard, Vancouver, ISO, and other styles
35

Arbel, Julyan. "Contributions à la statistique bayésienne non-paramétrique." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-01067718.

Full text
Abstract:
La thèse est divisée en deux parties portant sur deux aspects relativement différents des approches bayésiennes non-paramétriques. Dans la première partie, nous nous intéressons aux propriétés fréquentistes (asymptotiques) de lois a posteriori pour des paramètres appartenant à l'ensemble des suites réelles de carré sommable. Dans la deuxième partie, nous nous intéressons à des approches non-paramétriques modélisant des données d'espèces et leur diversité en fonction de certaines variables explicatives, à partir de modèles qui utilisent des mesures de probabilité aléatoires.
APA, Harvard, Vancouver, ISO, and other styles
36

Elvinger, Victorien. "Réplication sécurisée dans les infrastructures pair-à-pair de collaboration." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0099.

Full text
Abstract:
Une application de collaboration permet à plusieurs individus de coéditer un contenu. Les infrastructures pair-à-pair de collaboration visent à la conception d'applications hautement disponibles, aux latences faibles, qui tolèrent les partitions réseaux, et qui passent à l'échelle. Chaque pair (individu) modifie sa propre copie du contenu. La modification concurrente des copies conduit à leur divergence. Les protocoles de réplication sont responsables de la convergence des copies. Ces protocoles supposent l'absence de pairs malintentionnés qui compromettent la convergence des copies. Pouvons-nous protéger la convergence des copies et préserver les propriétés des infrastructures pair-à-pair ? Nous proposons deux protocoles qui protègent la convergence des copies. Le premier protocole maintient un journal répliqué et infalsifiable qui enregistre les modifications du contenu. Les pairs conservent l'intégralité du journal pour déjouer les attaques des pairs malintentionnés et pour le transmettre à ceux qui rejoignent la collaboration. Le second protocole permet aux pairs de tronquer leur journal. La troncature du journal repose sur le concept de Stabilité. Une modification devient stable lorsque toute modification intégrée dans le journal dépend d'elle. Pour rejoindre la collaboration, un pair récupère une copie et un journal tronqué. Il vérifie l'authenticité de la copie à partir du journal tronqué. Un type de données répliquées (CRDT) encapsule un protocole de réplication. Les CRDTs séquences supposent généralement un ordre d'intégration causal des modifications du contenu. Le retard d'une modification propage des ralentissements dans l'ensemble du système. La connexion d'un pair peut engendrer l'intégration de nombreuses modifications. Pouvons-nous éliminer ces ralentissements et ces intégrations coûteuses ? Nous formalisons une famille de CRDTs séquences et nous proposons une approche qui permet leur synchronisation par différences d'états. Les différences d'états peuvent être intégrées dans un ordre arbitraire et résumer plusieurs modifications. Nous proposons un CRDT séquence qui tire avantage de notre approche<br>A collaborative application allows multiple users to edit a shared content. Collaborative peer-to-peer environments aim to design applications with desirable properties: high-availability, low-latency, fault-tolerance, and scalability. Every peer (user) modifies her own copy of the content. Concurrent modifications of the copies lead to their divergence. Replication protocols are responsible for the convergence of copies. These protocols assume the absence of malicious peers that compromise the convergence of copies. Can we secure the convergence of copies and preserve the properties of collaborative peer-to-peer environment? We propose two protocols to secure convergence. The first protocol maintains a replicated and unforgeable log that stores the modifications of the content. Peers preserve the full log in order to foil the attacks of malicious peers and to transmit it to new peers. The second protocol enables the peers to truncate their log. The log truncation relies on the concept of Stability. A modification becomes stable once every modification added in the log depends on it. To join the collaboration, a peer retrieves a copy of the content and a truncated log used for checking the copy authenticity. A CRDT encapsulates a replication protocol. Sequence CRDTs generally assume the integration of content modifications in a causal order. A delayed integration propagates slowness across the system. The connection of a peer may lead to the integration of multiple modifications. Can we remove these delays and these costly integrations? We formalize a family of sequence CRDTs and we propose their synchronization using delta states. Delta states can be integrated in any order. They are able to summarize several modifications. We propose a sequence CRDT that takes advantage of our approach
APA, Harvard, Vancouver, ISO, and other styles
37

Jan, Christophe. "Vitesse de convergence dans le TCL pour des processus associés à des systèmes dynamiques et aux produits de matrices aléatoires." Rennes 1, 2001. http://www.theses.fr/2001REN10073.

Full text
Abstract:
La question de la vitesse de convergence dans le TCL a fait l'objet de nombreux travaux. Dans cette thèse, nous nous intéressons à différents types de situations liées d'une part à des processus et d'autre part au comportement limite de produits de matrices aléatoires. Dans une première partie, nous établissons quelques résultats de vitesses concernant des processus à accroissement de martingale de moments finis de tout ordre, puis des processus bornés. Dans une seconde partie, nous étudions le comportement asymptotique de produits de matrices aléatoires. Dans ce domaine, nous établissons des résultats de vitesse et de TCL pour des processus de matrices inversibles sous des conditions d'intégrabilité affaiblies.
APA, Harvard, Vancouver, ISO, and other styles
38

Langlet, Thomas. "Etude de convergences de séries aléatoires échantillonnées, mesures de Markov quasi-Bernoulli ou quasi-Bernoulli faible et temps de retour uniforme dans les systèmes exponentiellement mélangeants." Phd thesis, Université de Picardie Jules Verne, 2009. http://tel.archives-ouvertes.fr/tel-00465854.

Full text
Abstract:
Dans la première partie de cette thèse, on s'intéresse à la convergence de certaines séries aléatoires. On détermine des conditions suffisantes sur la suite $(a_k)_{k\geq 1}$ et sur les variables aléatoires indépendantes $(X_k)_{k\geq 1}$, afin que pour presque tout $\omega\in\Omega$, on ait la convergence uniforme ou pour presque tout $x$ de la série $\sum_{k\geq 1}a_k f(x\cdot(X_1+\cdots+X_k)(\omega))$ pour une certaine classe de fonctions $f$. On trouve, aussi, des conditions suffisantes sur la suite $(a_k)_{k\geq 1}$ et sur les variables aléatoires indépendantes $(X_k)_{k\geq 1}$, afin que pour presque tout $\omega\in\Omega$, on ait la convergence dans $L^2(\mu)$ ou $\mu$-presque partout de la série $\sum_{k\geq 1}a_k T^{(X_1+\cdots+X_k)(\omega)}(g)(x)$ pour certaines classes de fonctions $g\in L^2(\mu)$ et de flot $\{T^{t},t\in G\}$ d'opérateurs de $L^2(\mu)$ dans $L^2(\mu)$ (où $G$ est un semi-groupe de $\mathbb{R}$). La deuxième partie porte sur des propriétés de mesures : quasi-Bernoulli et quasi-Bernoulli faible. On trouve notamment des conditions nécessaires et suffisantes pour qu'une mesure de Markov inhomogène soit quasi-Bernoulli ou quasi-Bernoulli faible. On caractèrise à l'aide de ces conditions les mesures de Bernoulli qui sont quasi-Bernoulli ou quasi-Bernoulli faible. On prouve que si une mesure de Bernoulli n'ayant que des probabilités non nulles est quasi-Bernoulli faible alors elle est quasi-Bernoulli. La dernière partie est consacrée à l'étude du problème du temps de retour uniforme dans les systèmes exponentiellement mélangeant. Il s'agit d'avoir un recouvrement aléatoire de l'espace engendré par un processus exponentiellement mélangeant. Etant donné un recouvrement aléatoire, on obtient une estimation du nombre de recouvrements en fonction de la dimension maximale locale de la mesure
APA, Harvard, Vancouver, ISO, and other styles
39

Degras, David. "Contribution à l'étude de la régression non paramétrique et à l'estimation de la moyenne d'un processus à temps continu." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00201438.

Full text
Abstract:
Cette thèse porte sur l'étude de la régression non paramétrique en présence de mesures répétées. D'abord, nous étendons aux estimateurs splines de lissage les vitesses de convergence présentées dans la littérature pour d'autres estimateurs usuels sous différentes hypothèses classiques de dépendance des données. Ensuite, dans le cadre de l'estimation de la moyenne d'un processus aléatoire à temps continu, nous généralisons les résultats existants sur la convergence en moyenne quadratique et nous établissons de nouveaux résultats de normalité asymptotique pour les distributions finies-dimensionnelles. Enfin, dans le cadre d'un échantillon fini et corrélé, nous comparons les performances d'estimateurs construits par moindres carrés ordinaires ou généralisés, nous proposons une méthode efficace de sélection du paramètre de lissage tenant compte de la structure de covariance des données, et à travers des simulations, nous mettons en évidence l'apport du lissage local par rapport au lissage global.
APA, Harvard, Vancouver, ISO, and other styles
40

Helali, Amine. "Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique." Thesis, Brest, 2019. http://www.theses.fr/2019BRES0002/document.

Full text
Abstract:
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre<br>Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium
APA, Harvard, Vancouver, ISO, and other styles
41

Cattaneo, Paolo. "Développement d'une méthodologie de modélisation multiphysique de type best-estimate d'un coeur de REP en évolution." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI037.

Full text
Abstract:
Cette thèse vise à améliorer la modélisation des Réacteurs à Eau Pressurisée (REPs). Les réacteurs nucléaires en général peuvent être considérés comme des systèmes multiphysiques, leur modélisation nécessite la prise en compte des phénomènes de neutronique, thermohydraulique, évolution isotopique et physique du combustible. Plus en détail, ces travaux concernent le développement d’un schéma de calcul d’évolution de type multiphysique avec maillage raffiné (échelle cellule du combustible) et son optimisation numérique. La démarche classique est basée sur l’utilisation de solveurs spécialisés sur un sous-ensemble des physiques combiné avec des modèles simplifiés pour le reste. Grâce à la croissante disponibilité de grandes ressources computationnelles et à la grande flexibilité des langages de programmation modernes, beaucoup de chercheurs sont en train de travailler sur le développement d’outils de simulation qui s’appuient moins sur des modèles simplifiés. Un schéma de calcul a ainsi été développé en exploitant les outils de la plateforme SALOME. Un ensemble de solveurs CEA est intégré, dont APOLLO3® pour la neutronique, FLICA4 ou THEDI pour la thermohydraulique et la conduction de chaleur et MENDEL pour le calcul d’évolution. A travers le couplage entre APOLLO3® et FLICA4, il est possible de combiner un calcul neutronique en deux étapes basé sur une homogénéisation à l’échelle cellule de combustible avec un calcul thermohydraulique sous-canal et la conduction de chaleur dans tous les crayons. Cette approche est intermédiaire entre les deux stratégies les plus diffusées pour le calcul de paramètres de sûreté et conception à l’échelle de la cellule de combustible : il demande moins de puissance computationnelle que les schémas high-fidelity basés sur un calcul direct (i.e. sans homogénéisation a priori) et il fait moins d’hypothèses que les schémas basés sur la technique de reconstruction de la forme de puissance fine qui sont pourtant souvent plus rapides.Les calculs d’évolution sont modélisés comme une séquence d’états permanents. Pour cela, une partie conséquente de la thèse est dédiée à l’optimisation du schéma de calcul en permanent. Un cas d’étude simple (mini-cœur : 5x5 assemblages REPs plus réflecteur) est défini pour pouvoir exécuter un grand nombre de simulations dans un temps acceptable. Sur ce cas test, la meilleure combinaison de modèles est sélectionnée d’après une analyse de performance basée sur les écarts avec la référence et les coûts computationnels. Par rapport à l’optimisation numérique, deux des méthodes les plus utilisées, le point-fixe et Anderson, sont testées en confirmant la supériorité de cette dernière. Une généralisation du point-fixe basée sur les convergences partielles, qui est diffusée dans l’industrie, mais pas autant que ça dans la littérature, est étudiée en détails. Sachant que l’efficacité de cette technique dépend des solveurs considérés, elle démontre pouvoir résoudre les problèmes de robustesse du point fixe et offrir une meilleure efficacité que la méthode d’Anderson. Alors que ce n’est pas possible d’étendre directement la méthode d’Anderson avec les convergences partielles, en suivant leurs principes fondamentaux, une version modifiée est proposée. Des tests préliminaires donnent des résultats prometteurs en termes d’efficacité.Afin de prendre en compte l’évolution des propriétés thermomécaniques du combustible, un modèle simplifié pour le coefficient d’échange thermique dans le jeu pastille-gaine est inclus dans le schéma. Les premiers tests confirment l’importance de ce modèle. La recherche de la concentration de bore ciblé est implémentée. Pour obtenir la compatibilité avec le point-fixe généralisé aux convergences partielles, une méthode de Newton est adaptée. Tous les éléments mentionnés jusqu’à maintenant sont combinés ensemble pour produire un schéma de calcul d’évolution de type multiphysique, qui est testé avec succès sur un scénario d’irradiation à puissance constante<br>This thesis aims at improving the modelling of Pressurized Water Reactors (PWRs). Nuclear reactors in general can be considered as multiphysic systems, as their accurate representation often requires to account for neutronics, thermal-hydraulics, isotopic evolution and fuel performance. In particular, this work concerns the development of a multiphysic calculation scheme for fine mesh (pin cell resolution) depletion calculations and its numerical optimization. Conventional approaches generally deploy solvers specialised on a subset of the physics, while resorting to simplified models for the rest. Thanks to the increasing availability of large computational resources and to the higher flexibility of modern programming languages, a large number of research groups is working on the development of simulation tools that rely less on the use of simplified models. A general coupling scheme is developed exploiting the tools from the SALOME platform. It ensures the compatibility with a set of the CEA solvers, including APOLLO3® for the neutronics, FLICA4 or THEDI for the thermal-hydraulics and heat conduction and MENDEL for the depletion calculations. Through the coupling of an APOLLO3® core solver with FLICA4, it is possible to combine two-steps neutronic simulations based on pin-cell homogenization with subchannel thermal-hydraulics and heat conduction on every fuel rod. This approach could be placed in between the two most common solutions found in literature for the computation of safety and design parameters at the pin-cell scale: it requires less computing power than the high-fidelity direct calculations (i.e. with no a priori homogenization) and it makes fewer assumptions than the faster running schemes based on the pin-power-reconstruction technique (i.e. the combination of coarse mesh calculations with form functions for the local refining of the results).Following a common approach, the depletion calculations are modelled as a sequence of steady states. For this reason, a large part of the thesis is devoted to the optimization of the steady-state scheme. A simple case study (mini-core: 5x5 PWR fuel assemblies plus reflector) is defined in order to allow to perform a large number of simulations in an acceptable time. On this applicative test, the best combination of models is selected by analysing the performance of the alternatives in terms of discrepancies with the reference and computational cost. In respect of the numerical optimization, two of the most common methods found in literature, the fixed-point and the Anderson methods, are tested confirming the superiority of the latter both in terms of robustness and efficiency. A variant of the fixed-point, here referred to as generalized fixed-point with partial-convergences, which is widespread in the nuclear industry, but hardly ever mentioned in publications, is studied in detail. Knowing that the effectiveness of this technique depends on the considered solvers, in this context, this method proves to solve the major robustness problems of the fixed-point and offers a higher efficiency than the Anderson method. While not possible to directly extend the Anderson method with the partial-convergences, following their core principles, a modified Anderson algorithm is proposed. Preliminary tests lead to promising results in terms of efficiency improvement.In order to account for the evolution of the fuel thermal-mechanical properties along irradiation, a simplified fuel gap heat transfer model is included in the scheme. The first tests confirm the importance of including this model. For the depletion scheme, the research of the target boron concentration is implemented. To do so, an approximated Newton method is adapted to be compatible with the generalized fixed-point with partial-convergences. All the elements mentioned so far are combined together to produce a multiphysic depletion calculation scheme, which is successfully tested on a constant power irradiation scenario
APA, Harvard, Vancouver, ISO, and other styles
42

Karlsson, Filip. "Simulation driven design : An iterative approach for mechanical engineers with focus on static analysis." Thesis, Högskolan i Halmstad, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-28919.

Full text
Abstract:
This thesis of 15 hp has been implemented at Halmstad University, in collaboration with Saab Dynamics in Linköping. Saab Dynamics is a company operating in the defence industry where competition is tough. This necessitates new ways to increase efficiency in the company, which is the basis for this thesis. Saab Dynamics wants to introduce simulation driven design. Since Saab Dynamics engineers have little experience of simulation, required a user methodology with clear guidelines. Due to lack of time, they chose to assign the task to students, which resulted in this thesis. The aim of the thesis is to develop a methodology in mechanical design, where the designer uses the FE analysis early in the design process to develop the structures' mechanical properties. The methodology should be seen as a guide and a source of information to enable an iterative approach with FE-analysis, which is the basis of simulation-driven design. The iterative process of simulation driven design, which can lead to reduced lead times and cost savings in the design process. The work was carried out by three students from the mechanical engineering program between December 2014 and May 2015. Because of the scale of the project, it has been carried out by a total of three students with individual focus areas. The work has followed a self-developed method and the project began with theoretical studies of the topic to get an understanding of what has been done and what research in simulation driven design. Then conducted an empirical study on the Saab Dynamics in Linköping, in order to increase understanding of how the design process looks like. Meanwhile, sustainable development and ethical aspects has been taken into account. Much time has been devoted to investigate the possibilities and limitations of 3D Experience, which is Dassault Systèmes latest platform for 3D modelling- and simulation software. 3D Experience is the software, the methodology is based on. This thesis has resulted in a methodology for simulating at the designer level that the project team in consultation with the supervisor at Saab Dynamics managed to adapt to the company's requirements.
APA, Harvard, Vancouver, ISO, and other styles
43

Lacombe, Théo. "Statistiques sur les descripteurs topologiques à base de transport optimal." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX036.

Full text
Abstract:
L’analyse topologique des données (ATD) permet d’extraire une information riche des données structurées (telles que les graphes ou les séries temporelles) présentes dans les problèmes modernes d’apprentissage. Elle va représenter cette information sous forme de descripteurs dont font partie les diagrammes de persistance, qui peuvent être décrits comme des mesures ponctuelles supportées sur un demi-plan. À défaut d’être de simples vecteurs, les diagrammes de persistance peuvent néanmoins être comparés entre eux à l’aide de métriques d’appariement partiel. La similarité entre ces métriques et les métriques usuelles du transport optimal - un autre domaine des mathématiques - est connue de longue date, mais un lien formel entre ces deux domaines restait à établir. L’objet de cette thèse est de clarifier cette connexion pour pouvoir utiliser les nombreux acquis du transport optimal afin de développer de nouveaux outils statistiques (théoriques et pratiques) pour manipuler les diagrammes de persistance. Dans un premier temps, nous montrons comment le transport optimal partiel avec frontière, une variante du transport optimal classique, nous fournit un formalisme qui contient les métriques usuelles de l’ATD. Nous illustrons ensuite les apports bénéfiques de cette reformulation dans différentes situations: étude théorique et algorithme pour l’estimation efficace des barycentres de diagrammes de persistance grâce au transport régularisé, caractérisation des représentations linéaires continues des diagrammes et leur apprentissage via un réseau de neurones versatile, ainsi qu’un résultat de stabilité des moyennes linéaires de diagrammes tirés aléatoirement<br>Topological data analysis (TDA) allows one to extract rich information from structured data (such as graphs or time series) that occurs in modern machine learning problems. This information will be represented as descriptors such as persistence diagrams, which can be described as point measures supported on a half-plane. While persistence diagrams are not elements of a vector space, they can still be compared using partial matching metrics. The similarities between these metrics and those routinely used in optimal transport—another field of mathematics—are known for long, but a formal connection between these two fields is yet to come.The purpose of this thesis is to clarify this connection and develop new theoretical and computational tools to manipulate persistence diagrams, targeting statistical applications. First, we show how optimal partial transport with boundary, a variation of classic optimal transport theory, provides a formalism that encompasses standard metrics in TDA. We then show-case the benefits of this connection in different situations: a theoretical study and the development of an algorithm to perform fast estimation of barycenters of persistence diagrams, the characterization of continuous linear representations of persistence diagrams and how to learn such representations using a neural network, and eventually a stability result in the context of linearly averaging random persistence diagrams
APA, Harvard, Vancouver, ISO, and other styles
44

Apel, T., and F. Milde. "Realization and comparison of various mesh refinement strategies near edges." Universitätsbibliothek Chemnitz, 1998. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-199800531.

Full text
Abstract:
This paper is concerned with mesh refinement techniques for treating elliptic boundary value problems in domains with re- entrant edges and corners, and focuses on numerical experiments. After a section about the model problem and discretization strategies, their realization in the experimental code FEMPS3D is described. For two representative examples the numerically determined error norms are recorded, and various mesh refinement strategies are compared.
APA, Harvard, Vancouver, ISO, and other styles
45

Nicolas, Matthieu. "Ré-identification sans coordination dans les types de données répliquées sans conflits (CRDTs)." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0375.

Full text
Abstract:
Un système collaboratif permet à plusieurs utilisateur-rices de créer ensemble un contenu. Afin de supporter des collaborations impliquant des millions d'utilisateurs, ces systèmes adoptent une architecture décentralisée pour garantir leur haute disponibilité, tolérance aux pannes et capacité de passage à l'échelle. Cependant, ces systèmes échouent à garantir la confidentialité des données, souveraineté des données, pérennité et résistance à la censure. Pour répondre à ce problème, la littérature propose la conception d'applications Local-First Software (LFS) : des applications collaboratives pair-à-pair (P2P). Une pierre angulaire des applications LFS sont les Conflict-free Replicated Data Types (CRDTs). Il s'agit de nouvelles spécifications des types de données, tels que l'Ensemble ou la Séquence, permettant à un ensemble de nœuds de répliquer une donnée. Les CRDTs permettent aux nœuds de consulter et de modifier la donnée sans coordination préalable, et incorporent un mécanisme de résolution de conflits pour intégrer les modifications concurrentes. Cependant, les CRDTs pour le type Séquence souffrent d'une croissance monotone du surcoût de leur mécanisme de résolution de conflits. Pouvons-nous proposer un mécanisme de réduction du surcoût des CRDTs pour le type Séquence qui soit compatible avec les applications LFS ? Dans cette thèse, nous proposons un nouveau CRDT pour le type Séquence, RenamableLogootSplit. Ce CRDT intègre un mécanisme de renommage qui minimise périodiquement le surcoût de son mécanisme de résolution de conflits ainsi qu'un mécanisme de résolution de conflits pour intégrer les modifications concurrentes à un renommage. Finalement, nous proposons un mécanisme de Garbage Collection (GC) qui supprime à terme le propre surcoût du mécanisme de renommage<br>A collaborative system enables multiple users to work together to create content. To support collaborations involving millions of users, these systems adopt a decentralised architecture to ensure high availability, fault tolerance and scalability. However, these systems fail to guarantee the data confidentiality, data sovereignty, longevity and resistance to censorship. To address this problem, the literature proposes the design of Local-First Software (LFS) applications : collaborative peer-to-peer applications. A cornerstone of LFS applications are Conflict-free Replicated Data Types (CRDTs). CRDTs are new specifications of data types, e.g. Set or Sequence, enabling a set of nodes to replicate a data. CRDTs enable nodes to access and modify the data without prior coordination, and incorporate a conflict resolution mechanism to integrate concurrent modifications. However, Sequence CRDTs suffer from a monotonous growth in the overhead of their conflict resolution mechanism. Can we propose a mechanism for reducing the overhead of Sequence-type CRDTs that is compatible with LFS applications? In this thesis, we propose a novel CRDT for the Sequence type, RenamableLogootSplit. This CRDT embeds a renaming mechanism that periodically minimizes the overhead of its conflict resolution mechanism as well as a conflict resolution mechanism to integrate concurrent modifications to a rename. Finally, we propose a mechanism of Garbage Collection (GC) that eventually removes the own overhead of the renaming mechanism
APA, Harvard, Vancouver, ISO, and other styles
46

Gao, Yueyuan. "Méthodes de volumes finis pour des équations aux dérivées partielles déterministes et stochastiques." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS187/document.

Full text
Abstract:
Le but de cette thèse est de faire l'étude de méthodes de volumes finis pour des équations aux dérivées partielles déterministes et stochastiques; nous effectuons des simulations numériques et démontrons des résultats de convergence d'algorithmes.Au Chapitre 1, nous appliquons un schéma semi-implicite en temps combiné avec la méthode de volumes finis généralisés SUSHI pour la simulation d'écoulements à densité variable en milieu poreux; il vient à résoudre une équation de convection-diffusion parabolique pour la concentration couplée à une équation elliptique en pression. Nous présentons ensuite une méthode de simulation numérique pour un problème d'écoulements à densité variable couplé à un transfert de chaleur.Au Chapitre 2, nous effectuons une étude numérique de l'équation de Burgers non visqueuse en dimension un d'espace, avec des conditions aux limites périodiques, un terme source stochastique de moyenne spatiale nulle et une condition initiale déterministe. Nous utilisons un schéma de volumes finis combinant une intégration en temps de type Euler-Maruyama avec le flux numérique de Godunov. Nous effectuons des simulations par la méthode de Monte-Carlo et analysons les résultats pour différentes régularités du terme source. Il apparaît que la moyenne empirique des réalisations converge vers la moyenne en espace de la condition initiale déterministe quand t → ∞. Par ailleurs, la variance empirique converge elle aussi en temps long, vers une valeur qui dépend de la régularité et de l'amplitude du terme stochastique.Au Chapitre 3, nous démontrons la convergence d'une méthode de volumes finis pour une loi de conservation du premier ordre avec une fonction de flux monotone et un terme source multiplicatif faisant intervenir un processus Q-Wiener. Le terme de convection est discrétisé à l'aide d'un schéma amont. Nous présentons des estimations a priori pour la solution discrète dont en particulier une estimation de type BV faible. A l'aide d'une interpolation en temps, nous démontrons deux inégalité entropiques vérifiées par la solution discrète, ce qui nous permet de prouver que la solution discrète converge selon une sous-suite vers une solution stochastique faible entropique à valeurs mesures de la loi de conservation.Au Chapitre 4, nous obtenons des résultats similaires à ceux du Chapitre 3 dans le cas où la fonction flux n'est pas monotone; le terme de convection est discrétisé à l'aide d'un schéma monotone<br>This thesis bears on numerical methods for deterministic and stochastic partial differential equations; we perform numerical simulations by means of finite volume methods and prove convergence results.In Chapter 1, we apply a semi-implicit time scheme together with the generalized finite volume method SUSHI for the numerical simulation of density driven flows in porous media; it amounts to solve a nonlinear convection-diffusion parabolic equation for the concentration coupled with an elliptic equation for the pressure. We then propose a numerical scheme to simulate density driven flows in porous media coupled to heat transfer. We use adaptive meshes, based upon square or cubic volume elements.In Chapter 2, We perform Monte-Carlo simulations in the one-dimensional torus for the first order Burgers equation forced by a stochastic source term with zero spatial integral. We suppose that this source term is a white noise in time, and consider various regularities in space. We apply a finite volume scheme combining the Godunov numerical flux with the Euler-Maruyama integrator in time. It turns out that the empirical mean converges to the space-average of the deterministic initial condition as t → ∞. The empirical variance also stabilizes for large time, towards a limit which depends on the space regularity and on the intensity of the noise.In Chapter 3, we study a time explicit finite volume method with an upwind scheme for a first order conservation law with a monotone flux function and a multiplicative source term involving a Q-Wiener process. We present some a priori estimates including a weak BV estimate. After performing a time interpolation, we prove two entropy inequalities for the discrete solution and show that it converges up to a subsequence to a stochastic measure-valued entropy solution of the conservation law in the sense of Young measures.In Chapter 4, we obtain similar results as in Chapter 3, in the case that the flux function is non-monotone, and that the convection term is discretized by means of a monotone scheme
APA, Harvard, Vancouver, ISO, and other styles
47

Durochat, Clément. "Méthode de type Galerkin discontinu en maillages multi-éléments (et non-conformes) pour la résolution numérique des équations de Maxwell instationnaires." Thesis, Nice, 2013. http://www.theses.fr/2013NICE4005.

Full text
Abstract:
Cette thèse porte sur l’étude d’une méthode de type Galerkin discontinu en domaine temporel (GDDT), afin de résoudre numériquement les équations de Maxwell instationnaires sur des maillages hybrides tétraédriques/hexaédriques en 3D (triangulaires/quadrangulaires en 2D) et non-conformes, que l’on note méthode GDDT-PpQk. Comme dans différents travaux déjà réalisés sur plusieurs méthodes hybrides (par exemple des combinaisons entre des méthodes Volumes Finis et Différences Finies, Éléments Finis et Différences Finies, etc.), notre objectif principal est de mailler des objets ayant une géométrie complexe à l’aide de tétraèdres, pour obtenir une précision optimale, et de mailler le reste du domaine (le vide environnant) à l’aide d’hexaèdres impliquant un gain en terme de mémoire et de temps de calcul. Dans la méthode GDDT considérée, nous utilisons des schémas de discrétisation spatiale basés sur une interpolation polynomiale nodale, d’ordre arbitraire, pour approximer le champ électromagnétique. Nous utilisons un flux centré pour approcher les intégrales de surface et un schéma d’intégration en temps de type saute-mouton d’ordre deux ou d’ordre quatre. Après avoir introduit le contexte historique et physique des équations de Maxwell, nous présentons les étapes détaillées de la méthode GDDT-PpQk. Nous réalisons ensuite une analyse de stabilité L2 théorique, en montrant que cette méthode conserve une énergie discrète et en exhibant une condition suffisante de stabilité de type CFL sur le pas de temps, ainsi que l’analyse de convergence en h (théorique également), conduisant à un estimateur d’erreur a-priori. Ensuite, nous menons une étude numérique complète en 2D (ondes TMz), pour différents cas tests, des maillages hybrides et non-conformes, et pour des milieux de propagation homogènes ou hétérogènes. Nous faisons enfin de même pour la mise en oeuvre en 3D, avec des simulations réalistes, comme par exemple la propagation d’une onde électromagnétique dans un modèle hétérogène de tête humaine. Nous montrons alors la cohérence entre les résultats mathématiques et numériques de cette méthode GDDT-PpQk, ainsi que ses apports en termes de précision et de temps de calcul<br>This thesis is concerned with the study of a Discontinuous Galerkin Time-Domain method (DGTD), for the numerical resolution of the unsteady Maxwell equations on hybrid tetrahedral/hexahedral in 3D (triangular/quadrangular in 2D) and non-conforming meshes, denoted by DGTD-PpQk method. Like in several studies on various hybrid time domain methods (such as a combination of Finite Volume with Finite Difference methods, or Finite Element with Finite Difference, etc.), our general objective is to mesh objects with complex geometry by tetrahedra for high precision and mesh the surrounding space by square elements for simplicity and speed. In the discretization scheme of the DGTD method considered here, the electromagnetic field components are approximated by a high order nodal polynomial, using a centered approximation for the surface integrals. Time integration of the associated semi-discrete equations is achieved by a second or fourth order Leap-Frog scheme. After introducing the historical and physical context of Maxwell equations, we present the details of the DGTD-PpQk method. We prove the L2 stability of this method by establishing the conservation of a discrete analog of the electromagnetic energy and a sufficient CFL-like stability condition is exhibited. The theoritical convergence of the scheme is also studied, this leads to a-priori error estimate that takes into account the hybrid nature of the mesh. Afterward, we perform a complete numerical study in 2D (TMz waves), for several test problems, on hybrid and non-conforming meshes, and for homogeneous or heterogeneous media. We do the same for the 3D implementation, with more realistic simulations, for example the propagation in a heterogeneous human head model. We show the consistency between the mathematical and numerical results of this DGTD-PpQk method, and its contribution in terms of accuracy and CPU time
APA, Harvard, Vancouver, ISO, and other styles
48

Roos, Hans-Görg, and Martin Schopf. "Layer structure and the galerkin finite element method for a system of weakly coupled singularly perturbed convection-diffusion equations with multiple scales." Cambridge University Press, 2015. https://tud.qucosa.de/id/qucosa%3A39046.

Full text
Abstract:
We consider a system of weakly coupled singularly perturbed convection-diffusion equations with multiple scales. Based on sharp estimates for first order derivatives, Linß [T. Linß, Computing 79 (2007) 23–32.] analyzed the upwind finite-difference method on a Shishkin mesh. We derive such sharp bounds for second order derivatives which show that the coupling generates additional weak layers. Finally, we prove the first robust convergence result for the Galerkin finite element method for this class of problems on modified Shishkin meshes introducing a mesh grading to cope with the weak layers. Numerical experiments support our theory.
APA, Harvard, Vancouver, ISO, and other styles
49

Cloez, Bertrand. "Comportement asymptotique de processus avec sauts et applications pour des modèles avec branchement." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00862913.

Full text
Abstract:
L'objectif de ce travail est d'étudier le comportement en temps long d'un modèle de particules avec une interaction de type branchement. Plus précisément, les particules se déplacent indépendamment suivant une dynamique markovienne jusqu'au temps de branchement, où elles donnent naissance à de nouvelles particules dont la position dépend de celle de leur mère et de son nombre d'enfants. Dans la première partie de ce mémoire nous omettons le branchement et nous étudions le comportement d'une seule lignée. Celle-ci est modélisée via un processus de Markov qui peut admettre des sauts, des parties diffusives ou déterministes par morceaux. Nous quantifions la convergence de ce processus hybride à l'aide de la courbure de Wasserstein, aussi nommée courbure grossière de Ricci. Cette notion de courbure, introduite récemment par Joulin, Ollivier, et Sammer correspond mieux à l'étude des processus avec sauts. Nous établissons une expression du gradient du semigroupe des processus de Markov stochastiquement monotone, qui nous permet d'expliciter facilement leur courbure. D'autres bornes fines de convergence en distance de Wasserstein et en variation totale sont aussi établies. Dans le même contexte, nous démontrons qu'un processus de Markov, qui change de dynamique suivant un processus discret, converge rapidement vers un équilibre, lorsque la moyenne des courbures des dynamiques sous-jacentes est strictement positive. Dans la deuxième partie de ce mémoire, nous étudions le comportement de toute la population de particules. Celui-ci se déduit du comportement d'une seule lignée grâce à une formule many-to-one, c'est-à-dire un changement de mesure de type Girsanov. Via cette transformation, nous démontrons une loi des grands nombres et établissons une limite macroscopique, pour comparer nos résultats aux résultats déjà connus en théorie des équations aux dérivées partielles. Nos résultats sont appliqués sur divers modèles ayant des applications en biologie et en informatique. Parmi ces modèles, nous étudierons le comportement en temps long de la plus grande particule dans un modèle simple de population structurée en taille
APA, Harvard, Vancouver, ISO, and other styles
50

Shikongo, Albert. "Numerical Treatment of Non-Linear singular pertubation problems." Thesis, Online access, 2007. http://etd.uwc.ac.za/usrfiles/modules/etd/docs/etd_gen8Srv25Nme4_3831_1257936459.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography