To see the other types of publications on this topic, follow the link: Calcul généralisé.

Dissertations / Theses on the topic 'Calcul généralisé'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Calcul généralisé.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ferreira, Paul. "Introduction du calcul mécanique généralisé dans la simulation bidimensionnelle de procédés technologiques silicium." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-399.pdf.

Full text
Abstract:
Les travaux de recherche rapportés dans ce document s'axent autour de la modélisation et de la simulation de procédés technologiques silicium. Historiquement, cette activité avait pour objectif de prédire la géométrie ainsi que les profils de dopage des micro-structures sur silicium. Cependant, avec la diminution des dimensions des composants intégrés à des valeurs submicroniques (technologie CMOS 0. 25 µm et 0. 18 µm) et l'essor actuel de la micromécanique, le niveau des contraintes mécaniques résiduelles après fabrication est devenu un paramètre important qu'il faut prendre en compte dans la conception des micro-structures afin d'éviter des dysfonctionnements. L'objectif de ce travail est donc d'introduire le calcul de structure dans la simulation de procédés technologiques. Après avoir analysé les mécanismes générateurs de contraintes mécaniques liés aux étapes de dépôts/gravures de couches minces et de recuits thermiques, une modélisation de ces mécanismes a été conçue. Les propriétés rhéologiques des matériaux ont été également finement modélisées afin de pouvoir calculer avec précision la distribution des champs de contraintes mécaniques au cours de la fabrication des composants microélectroniques intégrés. Les algorithmes permettant ces calculs ont été établis et inclus dans un simulateur bidimensionnel de procédés technologiques, IMPACT-4, utilisant une discrétisation spatiale de type éléments finis. Afin d'assurer le caractère prédictif de cet outil, des méthodes de calibration des paramètres mécaniques ont été étudiées et validées. Enfin, ces nouvelles fonctionnalités du simulateur IMPACT-4 sont mis en oeuvres pour réaliser l'étude et l'optimisation d'étapes de procédés industriels BICMOS et CMOS dans le but de réduire le niveau général des contraintes mécaniques dans le substrat de silicium.
APA, Harvard, Vancouver, ISO, and other styles
2

Lafitte, Grégory. "Calculs et infinis." Lyon, École normale supérieure (sciences), 2002. http://www.theses.fr/2002ENSL0239.

Full text
Abstract:
"Nous introduisons une hiérarchie de notions de calcul généralisé. L'idée est de regrouper en une notion tout ce que l'on pourrait qualifier de "calculabilité", de pouvoir étudier ces notions et en fin de compte d'établir des théorèmes de transfert entre elles. Ces notions correspondent certaines fois aussi à des modèles de calcul obtenues par le biais de machines concrètes. Nous avons ainsi un nouveau modèle de calcul avec les " automates cellulaires à temps infini " qui ont l'avantage sur les machines de Turing d'être plus homogènes (absence de tête). La notion de complexité de calcul (selon une certaine notion de calcul) est également généralisée et étudiée. Enfin, nous obtenons des notions de réels aléatoires plus fines que la notion classique de Martin-Löf (ou Kolmogorov) que l'on peut affiner de plus en plus. Tout ceci mène à la notion de complexité de Kolmogorov généralisée qui ouvre des perspectives intéressantes. "
We introduce a hierarchy of notions of generalized computation. The idea is to almagamate in one concept all that we could qualify of "computability", to study those notions and ultimately to have transfer theorems between those notions. Those notions correspond also in some cases to computation models obtained by means of concrete machines. We obtain in this way a new computation model, "infinite time cellular automata", which are more homogeneous than Turing machines (lack of head). The notion of computational complexity (according to a certain notion of computation) is also generalized and studied. Finally, we obtain notions of random reals that are finer than the classical notion of Martin-Löf (or Kolmogorov) and yet more and more refinable. All of this leads to a notion of generalized Kolmogorov complexity which opens up interesting prospects.
APA, Harvard, Vancouver, ISO, and other styles
3

Nourdin, Ivan. "Calcul stochastique généralisé et applications au mouvement brownien fractionnaire : Estimation non paramétrique de la volatilité et test d'adéquation." Phd thesis, Université Henri Poincaré - Nancy I, 2004. http://tel.archives-ouvertes.fr/tel-00008600.

Full text
Abstract:
Dans la première partie de cette thèse, nous introduisons des intégrales d'ordre m et leur associons des formules d'Ito. Nous nous intéressons plus particulièrement au cas du mouvement brownien fractionnaire. Dans la seconde partie, nous étudions les approximations aux premier et second ordres des intégrales d'ordre m. Nous donnons des résultats de convergences presque-sure et en loi. Dans la troisième partie, nous nous intéressons aux équations différentielles dirigées par une fonction holdérienne. Nous donnons un résultat d'existence et d'unicité et étudions deux approximations de la solution. Dans la quatrième partie, nous étudions l'absolue continuité de la loi de la solution d'une équation différentielle stochastique dirigée par un mouvement brownien fractionnaire. Nous proposons un critère simple assurant que la solution au temps t admet une densité. Enfin, la dernière partie s'intéresse à l'estimation du coefficient de volatilité de la solution d'une équation différentielle stochastique classique. Nous construisons également un test d'adéquation.
APA, Harvard, Vancouver, ISO, and other styles
4

Bassomo, Pierre. "Contribution à la parallélisation de méthodes numériques à matrices creuses skyline. Application à un module de calcul de modes et fréquences propres de Systus." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00822654.

Full text
Abstract:
L'augmentation continue de la puissance des ordinateurs personnels (stations de travail ou PCs) et l'émergence de réseaux à haut débits fournissent de nouvelle opportunités de réalisation de machines parallèle à faible coût, en comparaison des machines parallèles traditionnelles. On peut aujourd 'hui construire de véritables machines parallèles en interconnectant des processeurs standards. Le fonctionnement de cet ensemble de processeurs en tant que machines parallèle est alors assuré par des logiciels tels que PVM et MPI. Quelle que soit la machine parallèle considérée, concevoir des applications parallèles impose, soit des outils de parallélisation automatique, soit un effort du programmeur suivant des méthodologies de programmation. Dans cette thèse, nous proposons une méthodologie de parallélisation des méthodes numériques. En général les méthodes numériques sont une chaîne d'algorithmes s'appelant les uns après les autres tout au long de leur exécution. A moins d'aborder leur parallélisation à partir du problème physique qu'elles traitent, par exemple par des techniques de décomposition de domaines, l'approche de parallélisation la plus réaliste est celle de type client/serveur.
APA, Harvard, Vancouver, ISO, and other styles
5

Goldsztejn, Alexandre. "Définition et applications des extensions des fonctions réelles aux intervalles généralisés : révision de la théorie des intervalles aux intervalles généralisés." Nice, 2005. http://www.theses.fr/2005NICE4056.

Full text
Abstract:
La théorie des intervalles permet de construire des sur-ensemble du domaine de variation d’une fonction réelle. Ainsi, de manière très naturelle, elle permet de construire une approximation extérieure de l’ensemble des solutions d’un système d’équations. Couplée aux théorèmes usuels d’existence (par exemple les théorèmes de Brouwer ou de Miranda) la théorie des intervalles permet aussi de prouver rigoureusement l’existence de solutions pour un système d’équations. La théorie des intervalles modaux permet de prouver directement l’existence de solution d’un système d’équations (sans faire intervenir explicitement les théorèmes d’existence). Malgré les récents développements qui ont montré le potentiel applicatif de la théorie des intervalles modaux, l’utilisation de cette théorie reste fort limitée. D’une part, une nouvelle formulation des principaux résultats de la théorie des intervalles modaux est proposée. Cette nouvelle formulation est faite dans le cadre des intervalles généralisés (intervalles dont les bornes ne sont pas contraintes à être ordonnées) et reprend la construction de la théorie des intervalles classiques, ce qui permettra une utilisation plus aisée de la théorie des intervalles modaux. D’autre part, un protocole de préconditionnement et un protocole de linéarisation compatibles avec les interprétations des nouvelles extensions aux intervalles généralisés sont proposés. Le protocole de linéarisation proposé aura la forme d’une nouvelle extension de la valeur moyenne aux intervalles généralisés
The intervals theory allows constructing supersets of the range of real functions. Therefore, in a very natural way it allows constructing some outer approximation of the solution set of systems of real equations. When it is used in conjunction to some usual existence theorems (e. G. Brouwer or Miranda theorems), the intervals theory also allows to rigorously prove the existence of solutions to such systems of equations. The modal intervals theory proposed some richer interpretations. In particular, the construction of both subjects and supersets of the range of real functions are in the scope of extensions to modal intervals. As a consequence, the extensions of real functions to modal intervals have the intrinsic power of proving the existence of solutions to systems of equations. In spite of some recent developments that have shown the promising potential applications of these richer interpretations, the modal intervals theory remains unused by most of the interval community. On one hand, a new formulation of the modal intervals theory is proposed. This new formulation uses only generalized intervals (intervals whose bounds are not constrained to be ordered) and follows the construction of the classical intervals theory. This will allow using the modal intervals theory in an easier way. On the other hand, some new preconditioning and linearization processes are proposed which are compatible with the richer interpretations provided by the modal interval theory. The new linearization process which is proposed will have the form of a new mean-value extension to generalized intervals
APA, Harvard, Vancouver, ISO, and other styles
6

Balaa, Antonia. "Fonctions récursives générales dans le calcul des constructions." Nice, 2002. http://www.theses.fr/2002NICE5777.

Full text
Abstract:
Notre objectif est la définition des fonctions récursives générales en théorie des types, où la méthodologie consiste à montrer que les arguments des appels récursifs sont décroissants pour un ordre bien fondé. Basées sur le théorème du point fixe nos recherches ont été menées suivant deux directions. La première, complexe, repose fortement sur la notion de type dépendant et mélange le problème de terminaison de la fonction avec celui de son adéquation à sa spécification. La deuxième, vise à réduire la complexité des données à fournir par le programmeur:la construction de la fonction récursive s'effectue par itération. Notre contribution est intéressante en ce qu'elle sépare les problématiques:définir la fonction et prouver sa terminaison. Ces travaux ont permis le développement de deux outils automatiques pour la programmation en Coq de fonctions récursives générales. Ces techniques s'appliqueront avec des variations mineures dans tout système de démonstration basé sur la théorie des types
Inductive type theories provide a systematic approach to program and reason about recursive functions. Intuitively, these functions are described such that recursive calls are performed only on terms that are smaller than the initial argument for some well-founded order. Using the fix-point theorem, we show two approaches to formalise recursive functions. The first one, quite complex, is based on the notion of dependent types. Specification of the recursive function and its termination proof are treated simultaneously. In the second, recursive functions are constructed by iteration. Our contribution is interesting as we could separate the main difficulties: function definition and its termination proof. As a result we considerably reduce the programmer's effort. For each approach, a tool is generated which allows us to program general recursive functions in Coq, as naturally as in functional programming languages. We believe that our techniques can be adapted for any type theory based system
APA, Harvard, Vancouver, ISO, and other styles
7

ZIMMER, Pascal. "Récursion généralisée et inférence de types avec intersection." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00006314.

Full text
Abstract:
Dans une première partie, nous définissons un nouveau langage à base fonctionnelle et avec récursion généralisée, en utilisant le système de types avec degrés de Boudol pour éliminer les récursions dangereuses. Ce langage est ensuite étendu par des enregistrements récursifs, puis par des mixins, permettant ainsi de mêler totalement les paradigmes fonctionnels et objets. Nous présentons également une implémentation, MlObj, ainsi que la machine abstraite servant à son exécution.

Dans une deuxième partie, nous présentons un nouvel algorithme d'inférence pour les systèmes de types avec intersection, dans le cadre d'une extension du lambda-calcul. Après avoir prouvé sa correction, nous étudions sa généralisation aux références et à la récursion, nous le comparons aux algorithmes d'inférence déjà existants, notamment à celui de Système I, et nous montrons qu'il devient décidable à rang fini.
APA, Harvard, Vancouver, ISO, and other styles
8

Rodier, Lise. "Existence et calcul distribué d'équilibres dans des jeux de congestion généralisés." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV049/document.

Full text
Abstract:
Cette thèse se focalise sur les jeux de potentiel et une généralisation d'un jeu d'ordonnancement dans un graphe que nous avons appelé jeu de placement.Dans ce jeu, le coût d'un joueur est impacté par son voisinage.Nous pouvons illustrer cela avec un exemple : le placement de joueurs dans un train, pour lesquels la présence de voisins directs influe sur le bien-être.Les résultats de cette thèse se divisent en deux parties.Tout d'abord, nous étudions ces jeux en considérant l'existence et les propriétés de structure des équilibres.Nous nous posons la question fondamentale de savoir s'il existe des équilibres de Nash dans le jeu de placement.Si tel est le cas, nous tachons de déterminer si ces équilibres sont facilement calculables.Dans le cas où il n'existe pas d'équilibre nous prouvons la NP-complétude du problème.Dans un second temps nous nous intéressons à la notion de calcul distribué d'équilibre de Nash dans des jeux de placement.En particulier nous considérons un jeu basé sur le problème de Max-Cut, qui a été plus étudié en théorie des graphes.Cela nous a permis d'étendre nos travaux à une application aux réseaux mobiles pour la gestion d'interférences dans les réseaux sans fils.Nous avons pu, pour les différents jeux, mettre en place des algorithmes distribués de calcul d'équilibres et étudier leur convergence.Parallèlement, nous avons étendu les travaux de Max-Cut à un problème de sélection d'offre de qualité de service parmi divers fournisseurs d'accès.Nous comparons les performances d'algorithmes de calcul distribué d'équilibres et de minimisation de regret
This thesis focuses on potential games and a generalized load balancing game in a graph we called placement game.In this game, the cost of a player is affected by its neighbors.We can illustrate this with an example: the placement of players on a train, where the presence of direct neighbors affects their well-being.The results of this thesis are divided into two parts.First, we study these games considering the existence and structural properties of equilibria.We ask ourselves the fundamental question of whether there are Nash equilibria in the placement game.If this is the case we aim to determine if they are easily calculable, if there is no such equilibria we prove the NP-completeness of the problem.Secondly we focus on the concept of distributed algorithms to compute Nash equilibria in placement games.In particular we consider a game based on the Max-Cut problem, which has been more frequently studied.This allowed us to expand our work to a mobile network application for managing interference in wireless networks.We were able, for those different games, to implement distributed algorithms to compute equilibria and study their convergence.Meanwhile, we have expanded the Max-Cut works with a selection of QoS offers problem from various network providers.We compare the performance of distributed algorithms and regret minimization
APA, Harvard, Vancouver, ISO, and other styles
9

Nguyen, Xuan Hai. "Existence des solutions des problèmes d'équilibre et des problèmes généralisés." Pau, 2007. http://www.theses.fr/2007PAUU3006.

Full text
Abstract:
Blum et Oettli (1994) ont introduit les problèmes d'équilibre comme des généralisations directes des inéquations variationnelles et des problèmes d'optimisation. Ce problème général contient plusieurs problèmes liés au problème d'optimisation, par exemple, le problème de complémentarité, le problème de point fixe, le problème de point de coúncidence, le problème de minimax, etc. Pour les problèmes mentionnés ci-dessus, bien des efforts ont été consacrés à l'étude de l'existence de solutions. Le but de cette thèse est de développer des conditions suffisantes pour l'existence de solutions exactes et de solutions approchées des problèmes de quasi-équilibre et des problèmes d'inclusion quasi-variationnelles. La thèse est divisée en deux parties. La première partie est constituée des trois chapitres 1-3 sur les problèmes de quasi-équilibre et la deuxième partie est constituée des chapitres restants sur les problèmes d'inclusions quasivariationnelles. Dans le Chapitre 1, nous établissons quelques conditions pour l'existence de solutions de problèmes de quasi-équilibre. Dans le Chapitre 2, nous abordons la question de l'existence pour des systèmes de problèmes de quasiéquilibre. Les solutions approchées sont étudiées au Chapitre 3. Ensuite, dans le Chapitre 4, nous proposons un problème général d'inclusion quasi-variationelle qui contient tous les problèmes connus de ce type, ainsi que tous les problèmes de quasi-équilibre. Nous obtenons des conditions suffisantes pour l'existence de solutions de ces problèmes. Dans le dernier chapitre, nous traitons un système de problèmes d'inclusions quasi-variationnelles dans un espace produit
Blum and Oettli (1994) introduced the equilibrium problem as a direct generalization of the variational inequality and the optimization problem. This new general problem setting proved to contain also many other optimizationrelated problems such as the complementarity problem, the fixed-point and coincidence-point problems, the minimax problem, the Nash equilibrium, the traffic network problem. As in many research field in mathematics, for the mentioned problems most of efforts have been devoted to the solution existence, The purpose of our thesis is to develop sufficient conditions for the existence of solutions to quasiequilibrium problems and systems of such problems and to propose more general definitions of quasivariational inclusion problems and of systems of these problems. We also consider the existence of approximate solutions. So the thesis includes two parts. Part 1, which includes three chapters, is devoted to quasiequilibrium problems and Part 2, with two chapters, considers quasivariational inclusion problems. In Chapter 1 we obtain some existence conditions for quasiequilibrium problems and show that they not only contain recent results but also sharpen some recent existence conditions even for particular cases. Chapter 2 is devoted to developing existence results for systems of quasiequilibrium problems in product spaces. Approximate solutions to quasiequilibrium problems is provided in Chapter 3. In Chapter 4, we propose general quasivariational inclusion problems to include all the previously existing problems of this kind and then all quasiequilibrium problems. We investigate sufficient conditions for the existence of solutions to these problems. In the final Chapter 5 we introduce systems of quasivariational inclusion problems in product spaces which contain most of the above-encountered problems
APA, Harvard, Vancouver, ISO, and other styles
10

Rossi, Fabrice. "Calcul de différentielles dans les réseaux de neurones généralisés : algorithmes, complexité, implantation logicielle et applications." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090043.

Full text
Abstract:
Les réseaux de neurones sont des outils de régression non linéaire asymptotiquement plus parcimonieux que les b-splines ou les polynômes. Certains types de réseaux comme les perceptrons multicouches et réseaux de radial basis functions ont été étudiés de façon assez complète. D'autres types, comme les réseaux d'ondelettes ou les neurones d'ordre supérieur, restent plus délicats à mettre en œuvre. Nous développons un cadre mathématique général permettant une unification de tous les types de réseaux de neurones dans une unique définition. Nous montrons que les réseaux classiques sont tous des cas particuliers de la définition proposée. Ce cadre mathématique permet d'analyser les réseaux de neurones sans se préoccuper de la fonction implantée par chaque neurone, mais en préservant la structure du réseau étudié. Nous introduisons ainsi des algorithmes de calcul des différentielles du premier et second ordre portant sur les fonctions calculables par ce modèle. Nous étudions les complexités exactes de ces algorithmes et montrons que la rétropropagation (étendue au cas général) n'est pas nécessairement la méthode la plus efficace. Nous décrivons enfin une implantation orientée objet des réseaux généralisés proposés. Nous illustrons ainsi l'utilisation pratique du cadre mathématique proposé. Il permet une unification des algorithmes d'apprentissage sous la forme de méthodes de minimisation de fonctions. Il permet aussi d'obtenir un logiciel très facilement extensible et résout ainsi un des problèmes liés à la simulation neuronale dans un environnement de recherche : l'implantation dans un simulateur d'un nouveau type de réseau de neurones
Neural networks are non linear régression tools. They are asymptotically more efficient than B-spline or polynomial régression. Classical types of neural network hâve been studied rather completely. This is the case for instance for Multi-Layer Perceptron and Radial Basis Function based networks. Less common neural network types such as wavelet network or high order neurons hâve not been studied as completely as classical ones. VVe introduce a general mathematical framework that allows to uniformly describe every neural network type. We show that classic neural networks are particular cases of our general model. The proposed mathematical framework allows the analysis of neural networks without précisé knowledge of functions implemented by each neuron while keeping the architecture of the network build into the mathematical définition. We introduce this way algorithms that allow to compute first and second dérivatives of different functions computed with this model. We study the time complexities of these algorithms and show that the back-propagation algorithm (extended to our general définition) is not always the fastest algorithm. We finally describe an object-oriented implémentation of our generalized neural networks. We thus illustrate a practical use of our framework. It allows to unify neural network training methods, which are considered as function minimization algorithms. It allows also to obtain an easy to extend neural network simulator which solves one of the important problems of neural network simulation in a research framework : the implémentation of a new neural network type in an already existing simulator
APA, Harvard, Vancouver, ISO, and other styles
11

Sahili, Jihad. "Mise en œuvre numérique des applications des inverses généralisées en calcul des structures." Dijon, 2004. http://www.theses.fr/2004DIJOS029.

Full text
Abstract:
La contribution de cette thèse concerne la mise en œuvre numérique pour des calculs à hautes performances de l'inverse généralisée pour l'analyse des structures mécaniques. Ces applications conduisent à la résolution de grands systèmes linéaires creux. On a visé des problèmes discrétisés par éléments finis 1D, 2D et 3D, pour lesquelles la taille de la matrice résultante est fortement liée au degré de raffinement de maillage, et peut atteindre une taille très grande. Le calcul de l'inverse généralisée a rendu nécessaire l'utilisation aussi bien des formules de calcul de S optimales que l'utilisation des solveurs creux pour les systèmes linéaires. Ces solveurs, de plus en plus indispensables dans de nombreuses autres applications, doivent répondre aux exigences de performances, notamment pour le temps de calcul, la taille mémoire mise en jeu ainsi que pour la précision des résultats obtenus. Le travail porte sur trois techniques numériques différentes : directes, itératives et parallèles. Dans chacune de ces trois techniques, nous avons traité le problème avec des moyens d'optimisation appropriés aux particularités de notre problème en comparant ces différentes techniques numériques
The computation of the generalized inverse of mechanical structures requires actually systems with high performances, which must meet the needs of the requirements in numerical methods of calculation. These kinds of applications lead to the resolution of the large sparse linear systems. In this work, we have aimed to solve problems discretized by finite elements 1D, 2D and 3D, for which the size of the resulting matrix is strongly related to the degree of refinement of grid, and can reach a very large size. The calculation of the generalized inverse made necessary the use as well of the optimal formulas of calculation of S as the use of the sparse solvers for the linear systems. These solvers increasingly essential in many other applications must fulfill the requirements of performances, in particular computing the time, the size memory brought into play as well as the precision of the results obtained. The work concerns three different numerical techniques: direct, iterative and parallel. In each one of these three techniques, we dealt with the problem with average optimization suitable for the characteristics of our problem by comparing these various numerical techniques
APA, Harvard, Vancouver, ISO, and other styles
12

Nguyen, Tuan Linh. "La Décomposition propre généralisée pour la résolution de problèmes multiphysiques transitoires couplés dédiés à la mécanique des matériaux." Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2012. https://theses.hal.science/docs/00/78/59/85/PDF/manuscrit_final_NGUYEN_Tuan_Linh_ENSMA_Poitiers_v2B.pdf.

Full text
Abstract:
Ce travail de recherche est une contribution au développement de la méthode Décomposition Propre Généralisée (PGD) à la résolution de problèmes multiphysiques transitoires couplés à différents temps caractéristiques dédiés à la mécanique des matériaux. Cette méthode se résume à la recherche de solutions d'Equations aux Dérivées Partielles sous forme séparée. L'équation de la chaleur transitoire 2D est tout d'abord traitée. Une technique de maillage adaptatif automatique est proposée afin d'adapter la discrétisation aux différentes zones transitoires de la solution. L'imbrication entre la technique de maillage adaptatif et la PGD est discutée à travers deux types de couplage. Le premier consiste à recalculer la solution PGD sur chaque nouveau maillage à partir de la solution nulle et le second à calculer la solution sur chaque nouveau maillage en conservant les fonctions de base de la solution générées sur le maillage précédent. Le premier couplage apparaît plus performant dans la mesure où peu de modes sont nécessaires pour décrire précisément la solution sur le maillage final. Néanmoins, le second couplage permet de réduire fortement le nombre d'enrichissements cumulé au cours de l'ensemble du procédé de maillage adaptatif. Quel que soit le couplage utilisé, la technique de maillage adaptatif est capable de décrire automatiquement des transitoires localisés. La résolution de l'équation de la chaleur ID transitoire avec une non linéarité dans le terme source est envisagée. Une nouvelle approche couplant la méthode PGD et la Méthode Asymptotique Numérique (MAN) est proposée et testée. Elle permet de résoudre efficacement certaines familles de problèmes transitoires non linéaires. Enfm, deux problèmes multiphysiques multitemps sont traités. Il s'agit d'un partiellement couplé diffusothermique et d'un fortement couplé thermoviscoélastique. La PGD permet de prédire précisément la réponse de ces problèmes multiphysiques pour lesquels les termes de couplage font apparaître des transitoires spécifiques que l'on obtient avec un maillage suffisamment fin. La stratégie de maillage adaptatif associée à la PGD trouve alors tout son sens dans ces situations multitemps fortement couplées. L'association de la technique de maillage adaptatif avec la PGD mène aux mêmes conclusions que dans le cas avec une seule physique. La discussion porte sur deux stratégies de construction des maillages : concaténer les deux maillages temporelles de chaque physique ou adapter indépendamment le maillage de chaque physique. La concaténation des deux maillages permet de converger avec moins d'étapes de maillage adaptatif mais avec des densités de maillage beaucoup plus importantes
This work presents the development of the Proper Generalized Decomposition (PGD) method for solving couple transient multiphysics problems with different characteristic times. This method consists in approximating solutions ( Partial Differentiai Equations with separated representations. The 2D transient heat equation is initially considered. A automatic adaptive mesh technique is proposed in order to make the discretization fit the different transient domains. Tw different couplings between the PGD method and the adaptive mesh refinement technique are discussed: the frrst on consists in computing the PGD solution for each new mesh from the null solution; the second one consists in enrichin the PGD solution for each new mesh from the basis functions generated on the previous meshes. The frrst coupling. More efficient since fewer modes are required to accurately describe the solution on the final mesh. Nevertheless, th second one decreases the number of enrichments cumulated tbrough the mesh refmement pro cess. Regardless of th coupling used, the adaptive mesh technique is able to automatically describe the localized transient zones. The II transient heat equation with a non linear source term is also studied. A new approach combining the PGD method and th Asymptotic Numerical Method (ANM) is tested, which allows to efficiently solve sorne families of non linear transiel problems. Finally, two muItitime and multiphysics problems are considered. It consists of a partially coupled he diffusion problem and a strongly coupled thermoviscoelastic problem. The PGD method gives an accurate prediction c the response of these muItiphysics problems for which the coupling terms lead to specific transient zones. Combined wit the PGD method, the adaptive mesh technique is particularly suitable for these situations of strongly coupled tim multiscale. This combination brings to the same conclusions as in the case of a single physical phenomenon. The discussion focuses on two strategies of mesh construction: concatenating the time meshes of each physical phenomeno or refme each mesh independently. The concatenation of two meshes allows a convergence with fewer steps of mes refmement but with a much bigher mesh density
APA, Harvard, Vancouver, ISO, and other styles
13

Dutang, Christophe. "Etude des marchés d'assurance non-vie à l'aide d'équilibre de Nash et de modèle de risques avec dépendance." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00703797.

Full text
Abstract:
L'actuariat non-vie étudie les différents aspects quantitatifs de l'activité d'assurance. Cette thèse vise à expliquer sous différentes perspectives les interactions entre les différents agents économiques, l'assuré, l'assureur et le marché, sur un marché d'assurance. Le chapitre 1 souligne à quel point la prise en compte de la prime marché est importante dans la décision de l'assuré de renouveler ou non son contrat d'assurance avec son assureur actuel. La nécessitéd'un modèle de marché est établie. Le chapitre 2 répond à cette problématique en utilisant la théorie des jeux non-coopératifs pour modéliser la compétition. Dans la littérature actuelle, les modèles de compétition seréduisent toujours à une optimisation simpliste du volume de prime basée sur une vision d'un assureur contre le marché. Partant d'un modèle de marché à une période, un jeu d'assureurs est formulé, où l'existence et l'unicité de l'équilibre de Nash sont vérifiées. Les propriétés des primes d'équilibre sont étudiées pour mieux comprendre les facteurs clés d'une position dominante d'un assureur par rapport aux autres. Ensuite, l'intégration du jeu sur une période dans un cadre dynamique se fait par la répétition du jeu sur plusieurs périodes. Une approche par Monte-Carlo est utilisée pour évaluer la probabilité pour un assureur d'être ruiné, de rester leader, de disparaître du jeu par manque d'assurés en portefeuille. Ce chapitre vise à mieux comprendre la présence de cycles en assurance non-vie. Le chapitre 3 présente en profondeur le calcul effectif d'équilibre de Nash pour n joueurs sous contraintes, appelé équilibre de Nash généralisé. Il propose un panorama des méthodes d'optimisation pour la résolution des n sous-problèmes d'optimisation. Cette résolution sefait à l'aide d'une équation semi-lisse basée sur la reformulation de Karush-Kuhn-Tucker duproblème d'équilibre de Nash généralisé. Ces équations nécessitent l'utilisation du Jacobiengénéralisé pour les fonctions localement lipschitziennes intervenant dans le problème d'optimisation.Une étude de convergence et une comparaison des méthodes d'optimisation sont réalisées.Enfin, le chapitre 4 aborde le calcul de la probabilité de ruine, un autre thème fondamentalde l'assurance non-vie. Dans ce chapitre, un modèle de risque avec dépendance entre lesmontants ou les temps d'attente de sinistre est étudié. De nouvelles formules asymptotiquesde la probabilité de ruine en temps infini sont obtenues dans un cadre large de modèle de risquesavec dépendance entre sinistres. De plus, on obtient des formules explicites de la probabilité deruine en temps discret. Dans ce modèle discret, l'analyse structure de dépendance permet dequantifier l'écart maximal sur les fonctions de répartition jointe des montants entre la versioncontinue et la version discrète.
APA, Harvard, Vancouver, ISO, and other styles
14

Baboin, Anne-Céline. "Calcul quantique : algèbre et géométrie projective." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00600387.

Full text
Abstract:
Cette thèse a pour première vocation d'être un état de l'art sur le calcul quantique, sinon exhaustif, simple d'accès (chapitres 1, 2 et 3). La partie originale de cet essai consiste en deux approches mathématiques du calcul quantique concernant quelques systèmes quantiques : la première est de nature algébrique et fait intervenir des structures particulières : les corps et les anneaux de Galois (chapitre 4), la deuxième fait appel à la géométrie dite projective (chapitre 5). Cette étude a été motivée par le théorème de Kochen et Specker et par les travaux de Peres et Mermin qui en ont découlé
APA, Harvard, Vancouver, ISO, and other styles
15

Blanck, Olivier. "Structure et fonction des lectines animales dépendantes du calcium : des généralités au modèle thyroi͏̈dien." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22001.

Full text
Abstract:
Le glcnac recepteur thyroidien est une lectine endogene impliquee dans l'optimisation de l'hormonogenese thyroidienne, laquelle necessite des retours successifs des molecules de prohormones sur les membranes apicales des thyrocytes, sites de l'iodation et de l'hormonogenese. Le but de notre travail a ete de caracteriser plus avant la structure et la fonction de ce recepteur thyroidien. Par des etudes de biologie cellulaire nous montrons que ce recepteur assure un processus de retention intrafolliculaire de certaines formes de thyroglobuline. En effet, cette lectine est apte a selectionner les formes immatures des molecules de thyroglobuline, au faible contenu en iode et en hormone, par leurs residus n-acetylglucosamine accessibles presents sur leurs chaines glycanniques incompletes. Cette selection, effectuee dans le compartiment endosomal, evite l'adressage vers les lysosomes et donc la degradation prematuree de ces prohormones. Elle est suivie de leur recyclage vers la membrane apicale via l'appareil de golgi ou s'effectue l'elongation progressive de leurs chaines glycanniques et donc l'extinction du signal glcnac de retention. La localisation et l'expression du recepteur sur des pieces d'exereses humaines varient selon les cas pathologiques etudies (absence d'expression dans le cas des cancers papillaires; delocalisation essentiellement au niveau subnucleaire dans le cas des goitres adenomateux et delocalisation au niveau de la membrane basolaterale dans le cas des cancers folliculaires et de l'hyperthyroidie). Il ressort de ces etudes que l'expression du recepteur thyroidien est une caracteristique du phenotype differencie et que ce recepteur est utilisable en anatomopathologie. Nous avons clone le (ou l'un des) monomere(s) de ce recepteur. L'analyse de la sequence deduite (htgr1) indique qu'il s'agit d'une proteine membranaire de type i, possedant un signal d'internalisation dans son domaine intracytoplasmique et ne presentant aucune homologie avec des sequences connues. Son gene a ete localise sur le chromosome humain 19 petit bras, sous-bandes 13. 2-13. 3
APA, Harvard, Vancouver, ISO, and other styles
16

Courau, Tanguy. "Application de la théorie des perturbations généralisées aux calculs de cellules utilisant la méthode des probabilités de collision." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ65538.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Castor, Pierre. "Les hypercalcémies de la personne âgée : revue de la littérature : place du médecin généraliste." Montpellier 1, 1996. http://www.theses.fr/1996MON11092.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Della, Corte Alessandro. "Lattice structures with pivoted beams : Homogenization and nonlinear elasticity results." Thesis, Toulon, 2017. http://www.theses.fr/2017TOUL0019/document.

Full text
Abstract:
Cette thèse est consacrée à la modélisation des structures fibreuses avec des milieuxcontinus généralisés. Dans l’Introduction, l'état de l'art concernant les milieuxcontinus généralisée et applications aux structures fibreuses sont décrits et lesproblèmes ouverts pertinents sont mis en évidence. Dans le Chapitre 1 et 2, uneprocédure d'homogénéisation rigoureuse basée sur des arguments de Gammaconvergenceest appliquée à une structure en treillis et à un model de poutrediscrétisé. Dans le Chapitre 3, un traitement variationnel est utilisé pour formuler unapproche favorable du point de vue numérique. Dans le Chapitre 4 sont discutées lesrésultats expérimentaux concernant le comportement de la structure dans différentstypes de déformation. Cela à motivé les études effectuées dans le Chapitre 5, ou lesMéthodes directes de calcul des variations sont appliquées à poutres d’Euler engrandes déformations
This thesis focuses on the mathematical modeling of fibrous structures having somepeculiar properties (high strength-to-weight ratio and very good toughness infracture), whose mechanical behavior escapes from standard Cauchy elasticity. Inparticular, it addresses cases in which the presence of a microstructure, consisting ofregularly spaced pivoted beams, entails effects that are well described by generalizedcontinuum models, i.e. models in which the deformation energy density depends notonly on the gradient of the placement but also on the second (and possibly higher)gradients of it. In the Introduction, the state of the art concerning generalizedcontinua and their applications for the description of fibrous structures is describedand some relevant open problems are highlighted. In Chapter 1 and 2 a rigoroushomogenization procedure based on Gamma-convergence arguments is performedfor a lattice (truss-like) structure and for a discrete 1D system (Hencky-type beammodel). In Chapter 3, a variational treatment is employed to formulate acomputationally convenient approach. In Chapter 4 some experimental resultsconcerning the behavior of the structure in various kinds of deformation arediscussed. This motivated the investigation performed in Chapter 5, in which DirectMethods of Calculus of Variations are applied to Euler beams in large deformationsunder distributed load
APA, Harvard, Vancouver, ISO, and other styles
19

Salles, Nicolas. "Calcul des singularités dans les méthodes d'équations intégrales variationnelles." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00877482.

Full text
Abstract:
La mise en œuvre de la méthode des éléments finis de frontière nécessite l'évaluation d'intégrales comportant un intégrand singulier. Un calcul fiable et précis de ces intégrales peut dans certains cas se révéler à la fois crucial et difficile. La méthode que nous proposons consiste en une réduction récursive de la dimension du domaine d'intégration et aboutit à une représentation de l'intégrale sous la forme d'une combinaison linéaire d'intégrales mono-dimensionnelles dont l'intégrand est régulier et qui peuvent s'évaluer numériquement mais aussi explicitement. L'équation de Helmholtz 3-D sert d'équation modèle mais ces résultats peuvent être utilisés pour les équations de Laplace et de Maxwell 3-D. L'intégrand est décomposé en une partie homogène et une partie régulière ; cette dernière peut être traitée par les méthodes usuelles d'intégration numérique. Pour la discrétisation du domaine, des triangles plans sont utilisés ; par conséquent, nous évaluons des intégrales sur le produit de deux triangles. La technique que nous avons développée nécessite de distinguer entre diverses configurations géométriques ; c'est pourquoi nous traitons séparément le cas de triangles coplanaires, dans des plans sécants ou parallèles. Divers prolongements significatifs de la méthode sont présentés : son extension à l'électromagnétisme, l'évaluation de l'intégrale du noyau de Green complet pour les coefficients d'auto-influence, et le calcul de la partie finie d'intégrales hypersingulières.
APA, Harvard, Vancouver, ISO, and other styles
20

Balland, Pascale. "Sur le rôle des potentiels généralisés en thermodynamique de la relaxation : application au comportement mécanique des polymères : de la loi locale au calcul de structure." Vandoeuvre-les-Nancy, INPL, 1999. http://www.theses.fr/1999INPL013N.

Full text
Abstract:
Le développement de lois de comportement adaptées au calcul de structure par éléments finis pour les polymères a servi de fil conducteur à ce travail. Le formalisme très général qui découle de la thermodynamique de la relaxation (formalisme d. N. L. R. Distribution of non linear relaxations) fournit directement les lois d'évolution qui lient les variables de contrôle accessibles à l'expérimentateur aux variables duales directement mesurables. A chaque situation de contrôle expérimental correspond un potentiel thermodynamique adapté. Or, la méthode des éléments finis qui prend appui sur les principes variationnels privilégie souvent le potentiel de Helmholtz dans la mesure où elle repose sur une formulation en déplacement. Nous montrons que l'approche d. N. L. R. Est compatible avec ce schéma variationnel. Nous vérifions la pertinence du cadre propose pour le fluage des polymères en confrontant le modèle aux puissantes formulations empiriques de type GAROFALO. L'implantation dans des codes de calcul est alors justifiée. Nous l'avons menée et avons teste sa cohérence en petites déformations avec une formulation d. N. L. R. De base. Cette formulation simplifiée s'est révélée insuffisante. L'utilisation de l'approche empirique de type GAROFALO a servi de guide pour affiner la formulation du comportement du pa11. Nous avons donc décide d'introduire la statistique des chaines macromoléculaires pour décrire le comportement en grandes déformations des polymères. La représentation modale des cinétiques de dissipation nous a permis d'établir un lien entre la théorie de l'état transitoire active et la description des mouvements hiérarchiquement corrélés de Perez et al. Ainsi, la capacité du cadre d. N. L. R. à accepter des modèles reposant sur la physique de la déformation ouvre-t-elle de nouvelles perspectives pour la prévision du comportement des polymères.
APA, Harvard, Vancouver, ISO, and other styles
21

Saad, Roy. "Sur une approche à objets généralisée pour la mécanique non linéaire." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10137/document.

Full text
Abstract:
Les problèmes qui se posent aujourd'hui en mécanique numérique et domaines connexes sont complexes, et impliquent de plus en plus souvent plusieurs physiques à différentes échelles de temps et d’espace. Leur traitement numérique est en général long et difficile, d’où l’intérêt d’avoir accès à des méthodes et outils facilitant l’intégration de nouveaux modèles physiques dans des outils de simulation. Ce travail se pose dans la problématique du développement de codes de calcul numérique. L’approche proposée couvre la démarche de développement du modèle numérique depuis la formulation variationnelle jusqu’à l’outil de simulation. L’approche est appliquée à la méthode des éléments finis. Nous avons développé des concepts génériques afin d’automatiser la méthode des éléments finis. Nous nous sommes appuyés sur l'analyse tensorielle dans le contexte de la méthode des éléments finis. Le formalisme mathématique est basé sur l’algèbre tensorielle appliquée à la description de la discrétisation des formes variationnelles. Ce caractère générique est conservé grâce à l'approche logicielle choisie pour l’implantation; orientée objet en Java. Nous proposons donc un cadre orienté objet, basé sur des concepts symboliques, capables de gérer de manière symbolique les développements assistés des contributions élémentaires pour la méthode éléments finis. Ces contributions sont ensuite automatiquement programmées dans un code de calcul. L'intérêt de cette approche est la généricité de la description qui peut être étendue naturellement à tout autre modèle de discrétisation (spatiale ou temporelle). Dans ce travail, les concepts sont validés dans le cadre de problèmes linéaires simples (élasticité, chaleur,...), dans le cadre du traitement de formulations variationnelles mixtes (thermomécanique, Navier-Stokes,…) et dans un cadre Lagrangien (élasticité en grandes transformations, hyperélasticité,…)
The problems occurring today in computational mechanics and related domains are complex, and may involve several physics at different time and space scales. The numerical treatment of complex problems is in general tough and time consuming. In this context, the interest to develop methods and tools to accelerate the integration of new formulations into simulation tools is obvious. This work arises on the issue of the development of computational tool. The proposed approach covers the development process of numerical models from the variational statement to the simulation tool. The approach is applied to the finite element method. We have developed generic concepts to automate the development of the finite element method. To achieve this goal, we relied on tensor analysis applied in the context of the finite element method. The mathematical formalism is based on the tensor algebra to describe the discretization of a variational formulation. The generic character of the approach is preserved through the object-oriented approach in Java. We propose a framework based on object-oriented concepts capable of handling symbolic developments of elemental contributions for finite element codes. The advantage of this approach is the generic description that can be extended naturally to any discretization model in space or time. This concept is fully validated for simple linear problems (elasticity, heat convection, ...), for the treatment of mixed variational formulations (thermo-mechanical, Navier-Stokes for incompressible flows...) and Lagrangian frameworks (elasticity in larges transformations, hyperelasticity, ...)
APA, Harvard, Vancouver, ISO, and other styles
22

Marie, Nicolas. "Trajectoires rugueuses, processus gaussiens et applications." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00783931.

Full text
Abstract:
Les principaux thèmes de cette thèse sont la théorie des trajectoires rugueuses développée par T. Lyons (1998) et ses applications, notamment à l'étude des équations différentielles stochastiques (EDS) et au calcul de sensibilités. Des applications potentielles des résultats théoriques en science du vivant et en finance y sont également développés. En premier lieu, sont étendues l'existence et l'expression des grecques Delta et Véga, sensibilités bien connues en finance, pour des EDS à coefficients bornés et dirigées par un processus gaussien multidimensionnel centré, à trajectoires continues, au-dessus duquel il existe une trajectoire géométrique naturelle. Le cas du mouvement brownien fractionnaire a particulièrement été développé afin de proposer d'une part, une application du calcul de Véga dans un modèle de marché financier à volatilité stochastique fractionnaire et d'autre part, d'effectuer des simulations. En second lieu, est étudiée une généralisation d'équation mean-reverting au cas d'un signal gaussien unidimensionnel, centré et à trajectoires continues : existence globale et unicité de la solution, intégrabilité, continuité et différentiabilité de l'application d'Itô, existence d'un schéma d'approximation convergeant dans tous les Lp avec une vitesse de convergence presque-sure, un principe de grandes déviations et, l'existence d'une densité par rapport à la mesure de Lebesgue. L'étude de cette famille d'EDS a débouché sur une application en pharmacocinétique.
APA, Harvard, Vancouver, ISO, and other styles
23

De, angelis cordeiro Daniel. "Impact de la coopération dans les nouvelles plates-formes de calcul à hautes performances." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767078.

Full text
Abstract:
L'informatique a changé profondément les aspects méthodologiques du processus de découverte dans les différents domaines du savoir. Les chercheurs ont à leur disposition aujourd'hui de nouvelles capacités qui permettent d'envisager la résolution de nouveaux problèmes. Les plates-formes parallèles et distribués composées de ressources partagés entre différents participants peuvent rendre ces nouvelles capacités accessibles à tout chercheur et offre une puissance de calcul qui a été limitée jusqu'à présent, aux projets scientifiques les plus grands (et les plus riches). Dans ce document qui regroupe les résultats obtenus pendant mon doctorat, nous explorons quatre facettes différentes de la façon dont les organisations s'engagent dans une collaboration sur de plates-formes parallèles et distribuées. En utilisant des outils classiques de l'analyse combinatoire, de l'ordonnancement multi-objectif et de la théorie des jeux, nous avons montré comment calculer des ordonnancements avec un bon compromis entre les résultats obtenu par les participants et la performance globale de la plate-forme. En assurant des résultats justes et en garantissant des améliorations de performance pour les différents participants, nous pouvons créer une plate-forme efficace où chacun se sent toujours encourager à collaborer et à partager ses ressources. Tout d'abord, nous étudions la collaboration entre organisations égoïstes. Nous montrons que le comportement égoïste entre les participants impose une borne inférieure sur le makespan global. Nous présentons des algorithmes qui font face à l'égoïsme des organisations et qui présentent des résultats équitables. La seconde étude porte sur la collaboration entre les organisations qui peuvent tolérer une dégradation limitée de leur performance si cela peut aider à améliorer le makespan global. Nous améliorons les bornes d'inapproximabilité connues sur ce problème et nous présentons de nouveaux algorithmes dont les garanties sont proches de l'ensemble de Pareto (qui regroupe les meilleures solutions possibles). La troisième forme de collaboration étudiée est celle entre des participants rationnels qui peuvent choisir la meilleure stratégie pour leur tâches. Nous présentons un modèle de jeu non coopératif pour le problème et nous montrons comment l'utilisation de "coordination mechanisms" permet la création d'équilibres approchés avec un prix de l'anarchie borné. Finalement, nous étudions la collaboration entre utilisateurs partageant un ensemble de ressources communes. Nous présentons une méthode qui énumère la frontière des solutions avec des meilleurs compromis pour les utilisateurs et sélectionne la solution qui apporte la meilleure performance globale.
APA, Harvard, Vancouver, ISO, and other styles
24

Milliet, Cédric. "Propriétés algébriques des structures menues ou minces, rang de Cantor Bendixson, espaces topologiques généralisés." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00442772.

Full text
Abstract:
Les structures menues apparaissent dans les années 1960 de paire avec la conjecture de Vaught, dont elles sont les seuls contre-exemples possibles. Les structures minces sont introduites par Belegradek, et englobent à la fois les structures minimales et menues. Il est bien connu que les ensembles définissables d'une structure mince sont rangés par le rang de Cantor-Bendixson, lorsque l'on fixe un ensemble fini de paramètres. L'étude de ces structures est rendue difficile par le fait que si l'on augmente cet ensemble de paramètres, le rang croît, et on ne sait maîtriser sa croissance. Nous présentons des propriétés de calcul de ce rang, une condition de chaîne descendante locale sur les groupes définissables (par des formules faisant intervenir des paramètres de la clôture algébrique d'un ensemble fini), ainsi qu'une notion de presque stabilisateur local. Nous en déduisons des propriétés algébriques des structures minces : un corps mince de caractéristique positive est localement de dimension finie sur son centre (une réponse au problème 6.1.5 de Wagner, Simple Theories), et un groupe mince infini a un sous groupe abélien infini (cela répond en particulier à la question 2.8 de Wagner, "Groups in simple theories"). Nous nous intéressons ensuite aux structures menues infiniment définissables, et montrons que les groupes d'arité finie infiniment définissables (par des formules n'utilisant que les paramètres d'un ensemble fini) sont l'intersection de groupes définissables (réponse au problème 6.1.14 du livre de Wagner). Nous étendons le résultat aux demi-groupes, anneaux, corps, catégories et groupoïdes infiniment définissables (toujours avec un nombre fini de paramètres), et donnons des résultats de définissabilité locale pour les groupes et corps simples et menus, infiniment définissables sur un ensemble quelconque de paramètres. Enfin, nous réintroduisons le rang de Cantor dans son contexte topologique et montrons que la dérivée de Cantor peut être vue comme un opérateur de dérivation dans un semi-anneau d'espaces topologiques. Dans l'idée de trouver un rang de Cantor global pour les théories stables, nous essayons de nous débarrasser du mot dénombrable omniprésent lorsque l'on fait de la topologie, en le remplaçant par un cardinal régulier k. Nous développons une notion d'espace k-métrique, de k-topologie, de k-compacité etc. et montrons un k-analogue du lemme de métrisabilité d'Urysohn, et du théorème de Cantor-Bendixson.
APA, Harvard, Vancouver, ISO, and other styles
25

Barkatou, My Abdelfattah. "Contribution à l'étude des équations différentielles et aux différences dans le champ complexe." Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00332857.

Full text
Abstract:
Un logiciel pour les solutions formelles d'équations différentielles linéaires d'ordre 2 au voisinage de points singuliers est présenté. Pour les équations d'ordre quelconque on donne une version modifiée de l'algorithme de newton. Un algorithme permettant d'obtenir une base de solutions asymptotiques d'une équation récurrente linéaire à coefficients polynomiaux est ensuite présenté. Ceci mène à l'étude des systèmes linéaires aux différences à coefficients séries de factorielles
APA, Harvard, Vancouver, ISO, and other styles
26

Fouotsa, Emmanuel. "Calcul des couplages et arithmétique des courbes elliptiques pour la cryptographie." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00919779.

Full text
Abstract:
Alors qu'initialement utilisés pour résoudre le Problème du Logarithme Discret (DLP) dans le groupe de points d'une courbe elliptique, les couplages sont très à la mode en cryptographie ces années car ils permettent de construire de nouveaux protocoles cryptographiques. Cependant, le calcul efficace du couplage dépend de l'arithmétique du modèle de courbe elliptique choisi et du corps sur lequel cette courbe est définie. Dans cette thèse, nous calculons le couplage sur deux modèles de Jacobi de courbes elliptiques puis nous introduisons et étudions l'arithmétique d'un nouveau modèle d'Ewards de courbe elliptique défini en toutes caractéristiques. Plus précisément, Nous utilisons l'interprétation géométrique de la loi de groupe sur l'intersection des quadriques de Jacobi pour obtenir pour la première fois dans la littérature, les formules explicites de la fonction de Miller pour le calcul du couplage de Tate sur cette courbe. Pour un calcul de couplage avec un degré de plongement pair, nous définissons la tordue quadratique pour obtenir des étapes de doublement et d'addition efficaces dans l'algorithme de Miller. Ensuite nous utilisons un isomorphisme entre la quartique spéciale de Jacobi Ed: Y²=dX⁴+Z⁴ et le modèle de Weierstrass pour obtenir la fonction de Miller nécessaire au calcul du couplage de Tate. Pour un degré de plongement divisible par 4, nous définissons la tordue d'ordre 4 de cette courbe pour obtenir un résultat meilleur du calcul du couplage de Tate par rapport aux courbes elliptiques sous forme de Weierstrass. Notre résultat améliore en même temps les derniers résultats obtenus sur cette courbe. Ce résultat est donc le meilleur connu à ce jour, à notre connaissance, pour le calcul du couplage de Tate sur les courbes possédant des tordues d'ordre 4. En 2006, Hess et al. introduisent le couplage Ate, qui est une version améliorée du couplage de Tate. Nous calculons ce couplage et ses variantes sur la même quartique. Nous y obtenons encore des résultats meilleurs. Notre troisième contribution est l'introduction d'un nouveau modèle d'Edwards de courbe elliptique d'équation 1+x²+y²+x²y²=Xxy. Ce modèle est ordinaire sur les corps de caractéristique 2 et nous montrons qu'il est birationnellement équivalent au modèle original d'Edwards x²+y²=c²(1+x²y²) en caractéristique différente de 2. Pour ce faire, nous utilisons la théorie des fonctions thêta et un modèle intermédiaire que nous appelons modèle thêta de niveau 4. Nous utilisons les relations de Riemann des fonctions thêta pour étudier l'arithmétique de ces deux courbes. Nous obtenons d'une part une loi de groupe complète, unifiée et en particulier compétitive en caractéristique 2 et d'autre part nous présentons les meilleures formules d'addition différentielle sur le modèle thêta de niveau 4.
APA, Harvard, Vancouver, ISO, and other styles
27

Benoit, Alexandre. "Algorithmique semi-numérique rapide des séries de Tchebychev." Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00726487.

Full text
Abstract:
Une série de Tchebychev est un développement dans la base des polynômes de Tchebychev. Ces séries sont importantes en théorie de l'approximation. Contrairement aux séries de Taylor, l'algorithmique en calcul formel autour d'elles n'est pas très développée. Cette thèse propose de nouveaux algorithmes pour ces séries. Une première partie présente des algorithmes rapides pour convertir une série de Tchebychev tronquée en une série de Taylor tronquée et réciproquement, et pour multiplier ou diviser deux séries de Tchebychev tronquées. Le reste de la thèse porte sur les séries de Tchebychev solutions d'une équation différentielle linéaire à coefficients polynomiaux. Dans cette classe, les coefficients des séries sont solutions d'une récurrence linéaire. Cette thèse montre comment calculer cette récurrence efficacement, puis comment l'utiliser pour obtenir un calcul approché efficace des coefficients malgré des instabilités numériques. Ces algorithmes mènent au calcul efficace d'une approximation sur un segment par un polynôme de degré fixé d'une fonction solution d'une équation différentielle linéaire. Enfin, le calcul des récurrences pour les coefficients de séries est généralisé au cas des séries de Fourier généralisées. L'ensemble est illustré d'exemples à partir de programmes développés durant cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
28

Giraldi, Loïc. "Contributions aux méthodes de calcul basées sur l'approximation de tenseurs et applications en mécanique numérique." Phd thesis, Ecole centrale de nantes - ECN, 2012. http://tel.archives-ouvertes.fr/tel-00861986.

Full text
Abstract:
Cette thèse apporte différentes contributions à la résolution de problèmes de grande dimension dans le domaine du calcul scientifique, en particulier pour la quantification d'incertitudes. On considère ici des problèmes variationnels formulés dans des espaces produit tensoriel. On propose tout d'abord une stratégie de préconditionnement efficace pour la résolution de systèmes linéaires par des méthodes itératives utilisant des approximations de tenseurs de faible rang. Le préconditionneur est recherché comme une approximation de faible rang de l'inverse. Un algorithme glouton permet le calcul de cette approximation en imposant éventuellement des propriétés de symétrie ou un caractère creux. Ce préconditionneur est validé sur des problèmes linéaires symétriques ou non symétriques. Des contributions sont également apportées dans le cadre des méthodes d'approximation directes de tenseurs qui consistent à rechercher la meilleure approximation de la solution d'une équation dans un ensemble de tenseurs de faibles rangs. Ces méthodes, parfois appelées "Proper Generalized Decomposition" (PGD), définissent l'optimalité au sens de normes adaptées permettant le calcul a priori de cette approximation. On propose en particulier une extension des algorithmes gloutons classiquement utilisés pour la construction d'approximations dans les ensembles de tenseurs de Tucker ou hiérarchiques de Tucker. Ceci passe par la construction de corrections successives de rang un et de stratégies de mise à jour dans ces ensembles de tenseurs. L'algorithme proposé peut être interprété comme une méthode de construction d'une suite croissante d'espaces réduits dans lesquels on recherche une projection, éventuellement approchée, de la solution. L'application à des problèmes symétriques et non symétriques montre l'efficacité de cet algorithme. Le préconditionneur proposé est appliqué également dans ce contexte et permet de définir une meilleure norme pour l'approximation de la solution. On propose finalement une application de ces méthodes dans le cadre de l'homogénéisation numérique de matériaux hétérogènes dont la géométrie est extraite d'images. On présente tout d'abord des traitements particuliers de la géométrie ainsi que des conditions aux limites pour mettre le problème sous une forme adaptée à l'utilisation des méthodes d'approximation de tenseurs. Une démarche d'approximation adaptative basée sur un estimateur d'erreur a posteriori est utilisée afin de garantir une précision donnée sur les quantités d'intérêt que sont les propriétés effectives. La méthodologie est en premier lieu développée pour l'estimation de propriétés thermiques du matériau, puis est étendue à l'élasticité linéaire.
APA, Harvard, Vancouver, ISO, and other styles
29

Archid, Atika. "Méthodes par blocs adaptées aux matrices structurées et au calcul du pseudo-inverse." Thesis, Littoral, 2013. http://www.theses.fr/2013DUNK0394/document.

Full text
Abstract:
Nous nous intéressons dans cette thèse, à l'étude de certaines méthodes numériques de type krylov dans le cas symplectique, en utilisant la technique de blocs. Ces méthodes, contrairement aux méthodes classiques, permettent à la matrice réduite de conserver la structure Hamiltonienne ou anti-Hamiltonienne ou encore symplectique d'une matrice donnée. Parmi ces méthodes, nous nous sommes intéressés à la méthodes d'Arnoldi symplectique par bloc que nous appelons aussi bloc J-Arnoldi. Notre but essentiel est d’étudier cette méthode de façon théorique et numérique, sur la nouvelle structure du K-module libre ℝ²nx²s avec K = ℝ²sx²s où s ≪ n désigne la taille des blocs utilisés. Un deuxième objectif est de chercher une approximation de l'epérateur exp(A)V, nous étudions en particulier le cas où A est une matrice réelle Hamiltonnienne et anti-symétrique de taille 2n x 2n et V est une matrice rectangulaire ortho-symplectique de taille 2n x 2s sur le sous-espace de Krylov par blocs Km(A,V) = blockspan {V,AV,...,Am-1V}, en conservant la structure de la matrice V. Cette approximation permet de résoudre plusieurs problèmes issus des équations différentielles dépendants d'un paramètre (EDP) et des systèmes d'équations différentielles ordinaires (EDO). Nous présentons également une méthode de Lanczos symplectique par bloc, que nous nommons bloc J-Lanczos. Cette méthode permet de réduire une matrice structurée sous la forme J-tridiagonale par bloc. Nous proposons des algorithmes basés sur deux types de normalisation : la factorisation S R et la factorisation Rj R. Dans une dernière partie, nous proposons un algorithme qui généralise la méthode de Greville afin de déterminer la pseudo inverse de Moore-Penros bloc de lignes par bloc de lignes d'une matrice rectangulaire de manière itérative. Nous proposons un algorithme qui utilise la technique de bloc. Pour toutes ces méthodes, nous proposons des exemples numériques qui montrent l'efficacité de nos approches
We study, in this thesis, some numerical block Krylov subspace methods. These methods preserve geometric properties of the reduced matrix (Hamiltonian or skew-Hamiltonian or symplectic). Among these methods, we interest on block symplectic Arnoldi, namely block J-Arnoldi algorithm. Our main goal is to study this method, theoretically and numerically, on using ℝ²nx²s as free module on (ℝ²sx²s, +, x) with s ≪ n the size of block. A second aim is to study the approximation of exp (A)V, where A is a real Hamiltonian and skew-symmetric matrix of size 2n x 2n and V a rectangular matrix of size 2n x 2s on block Krylov subspace Km (A, V) = blockspan {V, AV,...Am-1V}, that preserve the structure of the initial matrix. this approximation is required in many applications. For example, this approximation is important for solving systems of ordinary differential equations (ODEs) or time-dependant partial differential equations (PDEs). We also present a block symplectic structure preserving Lanczos method, namely block J-Lanczos algorithm. Our approach is based on a block J-tridiagonalization procedure of a structured matrix. We propose algorithms based on two normalization methods : the SR factorization and the Rj R factorization. In the last part, we proposea generalized algorithm of Greville method for iteratively computing the Moore-Penrose inverse of a rectangular real matrix. our purpose is to give a block version of Greville's method. All methods are completed by many numerical examples
APA, Harvard, Vancouver, ISO, and other styles
30

Louet, Jean. "Problèmes de transport optimal avec pénalisation en gradient." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01070163.

Full text
Abstract:
Le problème du transport optimal, originellement introduit par Monge au 18ème siècle, consiste à minimiser l'énergie nécessaire au déplacement d'une masse dont la répartition est donnée vers une autre masse dont la répartition est elle aussi donnée; mathématiquement, cela se traduit par : trouver le minimiseur de l'intégrale de c(x,T(x)) (où c est le coût de transport de x vers T(x)) parmi toutes les applications T à mesure image prescrite.Cette thèse est consacrée à l'étude de problèmes variationnels similaires où l'on fait intervenir la matrice jacobienne de la fonction de transport, c'est-à-dire que le coût dépend de trois variables c(x,T(x),DT(x)) ; il s'agit typiquement de rajouter l'intégale de |DT(x)|^2 à la fonctionnelle afin d'obtenir une pénalisation Sobolev. Ce type de problème trouve ses motivations en mécanique des milieux continus, élasticité incompressible ou en analyse de forme et appelle d'un point de vue mathématique une approche totalement différente de celle du problème de transport usuel.Les questions suivantes sont envisagées :- bonne définition du problème, notamment de l'énergie de Dirichlet, via les espaces de Sobolev par rapport à une mesure, et résultats d'existence de minimiseurs ;- caractérisation de ces minimiseurs : optimalité du transport croissant sur la droite réelle, et approche du type équation d'Euler-Lagrange en dimension quelconque ;- sélection d'un minimiseur via une procédure de pénalisation du type Gamma-convergence (l'énergie de Dirichlet est mutipliée par un petit paramètre) lorsque le coût de transport est le coût de Monge donné par la distance, pour lequel l'application de transport optimale n'est pas unique ;- autres approches du problème et perspectives : formulation dynamique du type Benamou-Brenier, et formulation duale similaire à celle de Kantorovitch dans le cas du problème du transport optimal usuel.
APA, Harvard, Vancouver, ISO, and other styles
31

Sok, Jérémy. "Etude d'un modèle de champ moyen en électrodynamique quantique." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01070652.

Full text
Abstract:
Les modèles de champ moyen en QED apparaissent naturellement dans la modélisation du nuage électronique des atomes lourds. Cette modélisation joue un rôle croissant en physique et chimie quantique, les effets relativistes ne pouvant pas être négligés pour ces atomes. En physique quantique relativiste, le vide est un milieu polarisable, susceptible de réagir à la présence de champ électromagnétique.On se place dans le cadre du modèle variationnel de Bogoliubov-Dirac-Fock (BDF) qui est une approximation de champ moyen de la QED sans photon (en particulier, les interactions considérées sont purement électrostatiques).Il est à noter que pour donner un sens au modèle BDF, il est nécessaire d'introduire une régularisation ultra-violette. Il se produit un phénomène de renormalisation de charge due à la polarisation du vide : la charge de l'électron observée dépend de la charge " nue " de l'électron et du paramètre de régularisation. On étudie rigoureusement ce phénomène ainsi que le problème de la renormalisation de la masse. Cette dernière est en lien avec l'existence d'un état fondamental pour le système d'un électron dans le vide, en l'absence de tout champ extérieur. En revanche, on montre l'absence de minimiseurs dans le cas de deux électrons.Enfin, on exhibe des points critiques de l'énergie BDF, interprétés comme des états excités du vide. On met en évidence le positronium, système métastable d'un électron et de son antiparticule le positron, ainsi que le dipositronium, molécule métastable constituée de deux électrons et de deux positrons.Les méthodes utilisées sont variationnelles (concentration-compacité, lemme de Borwein et Preiss).
APA, Harvard, Vancouver, ISO, and other styles
32

Roche, Jean-Christophe. "Localisation spatiale par subdivision pour l'accélération des calculs en radiométrie :." Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006752.

Full text
Abstract:
La physique de la lumière ainsi que les outils géométriques pour la Conception Assistée par Ordinateur sont à la base des logiciels de simulation des phénomènes lumineux pour la fabrication des systèmes optiques. Ce n'est pas sans difficulté que les industriels conçoivent ces logiciels dont un des principaux handicaps est que les simulations sont très coûteuses en temps. L'objectif principal de ce travail est de rechercher et développer des algorithmes de calcul plus performants. Dans un premier temps, on décrit précisément le modèle du transport des photons dans ce contexte, composé de l'équation de Boltzmann accompagné de conditions de bord, et qui, dans le cas de milieux homogènes par morceaux, se ramène à l'équation de radiosité. Ensuite, on présente les outils géométriques utilisés dans le modeleur hybride CSG (Constructive Solid Geometry) et BRep (Boundary Representation) ainsi que les algorithmes de base nécessaires à la recherche d'intersections entre des demi-droites et des objets géométriques. Puis, un tour d'horizon des méthodes d'accélération des calculs en radiométrie par localisation spatiale est présenté. En tenant compte des contraintes industrielles, une telle méthode d'accélération est alors adaptée au contexte puis développée dans un environnement logiciel existant. Des expérimentations numériques montrent l'efficacité des nouvelles bibliothèques. Enfin, une étude théorique des complexités en temps et en mémoire liées aux méthodes de localisation spatiale, faisant intervenir les sommes de Minkowski d'ensembles géométriques, débouche sur une stratégie consistant à minimiser la complexité en temps pour choisir les paramètres de localisation.
APA, Harvard, Vancouver, ISO, and other styles
33

Boyer, Brice. "Multiplication matricielle efficace et conception logicielle pour la bibliothèque de calcul exact LinBox." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767915.

Full text
Abstract:
Dans ce mémoire de thèse, nous développons d'abord des multiplications matricielles efficaces. Nous créons de nouveaux ordonnancements qui permettent de réduire la taille de la mémoire supplémentaire nécessaire lors d'une multiplication du type Winograd tout en gardant une bonne complexité, grâce au développement d'outils externes ad hoc (jeu de galets), à des calculs fins de complexité et à de nouveaux algorithmes hybrides. Nous utilisons ensuite des technologies parallèles (multicœurs et GPU) pour accélérer efficacement la multiplication entre matrice creuse et vecteur dense (SpMV), essentielles aux algorithmes dits /boîte noire/, et créons de nouveaux formats hybrides adéquats. Enfin, nous établissons des méthodes de /design/ générique orientées vers l'efficacité, notamment par conception par briques de base, et via des auto-optimisations. Nous proposons aussi des méthodes pour améliorer et standardiser la qualité du code de manière à pérenniser et rendre plus robuste le code produit. Cela permet de pérenniser de rendre plus robuste le code produit. Ces méthodes sont appliquées en particulier à la bibliothèque de calcul exact LinBox.
APA, Harvard, Vancouver, ISO, and other styles
34

Marchand, Dominique. "Calcul des corrections radiatives à la diffusion compton virtuelle. Mesure absolue de l'énergie du faisceau d'électrons de Jefferson Lab. (Hall A) par une méthode magnétique : projet ARC." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 1998. http://tel.archives-ouvertes.fr/tel-00298382.

Full text
Abstract:
Cette thèse, articulée en deux parties, présente le calcul des corrections radiatives à la diffusion Compton virtuelle (VCS) et décrit la méthode magnétique (projet ARC) adoptée dans le Hall A à Jefferson Lab. pour mesurer l'énergie absolue du faisceau d'électrons avec une précision de 10-4.

Les expériences de diffusion Compton virtuelle nous permettent d'accéder à de nouvelles observables du proton : les polarisabilités généralisées. L'extraction de ces polarisabilités s'effectuant par comparaison des sections efficaces expérimentale et théorique, il est indispensable de contrôler avec une grande précision les erreurs systématiques et les effets radiatifs liés à l'expérience. Un calcul complet des corrections radiatives internes a donc été mené dans le cadre de l'électrodynamique quantique. Ce calcul inédit tient compte de tous les graphes contribuant à l'ordre alpha^4 au niveau de la section efficace à l'exception de ceux mettant en jeu l'échange de deux photons entre les bras leptonique et hadronique ainsi que ceux relatifs au rayonnement du proton. La méthode de régularisation dimensionnelle a été employée pour le traitement des divergences ultraviolettes et infrarouges. Après utilisation d'une procédure d'addition-soustraction, la compensation infrarouge est vérifiée. Nous avons privilégié le calcul analytique pour les intégrales les plus internes et avons eu ensuite recours à un traitement numérique spécifique. Les résultats présentés correspondent aux différentes cinématiques de l'expérience VCS qui s'est déroulée à TJNAF en 1998.

La méthode de mesure absolue d'énergie que nous avons développée s'appuie sur la déviation magnétique, constituée de huit dipôles identiques, conduisant le faisceau de l'accélérateur au hall A expérimental. L'énergie est déterminée à partir de la mesure absolue de l'angle de déviation du faisceau dans le plan horizontal et de la mesure absolue de l'intégrale de champ magnétique le long de la déviation magnétique. La mesure de l'angle de déviation se décompose en une mesure ponctuelle d'un angle de référence (par une méthode optique d'autocollimation) et en une mesure « en ligne » des déviations angulaires du faisceau par rapport à cet angle de référence (utilisation de quatre profileurs à fil : une paire en amont et une paire en aval de l'arc). L'intégrale de champ absolue le long de la déviation résulte, elle, de la mesure ponctuelle de la somme des intégrales de champ relatives des huit dipôles de l'arc par rapport à un aimant de référence et de la mesure « en ligne » de l'intégrale de champ de cet aimant de référence alimenté en série avec les huit autres de l'arc.
APA, Harvard, Vancouver, ISO, and other styles
35

Lin, Zhicong. "Eulerian calculus arising from permutation statistics." Phd thesis, Université Claude Bernard - Lyon I, 2014. http://tel.archives-ouvertes.fr/tel-00996105.

Full text
Abstract:
In 2010 Chung-Graham-Knuth proved an interesting symmetric identity for the Eulerian numbers and asked for a q-analog version. Using the q-Eulerian polynomials introduced by Shareshian-Wachs we find such a q-identity. Moreover, we provide a bijective proof that we further generalize to prove other symmetric qidentities using a combinatorial model due to Foata-Han. Meanwhile, Hyatt has introduced the colored Eulerian quasisymmetric functions to study the joint distribution of the excedance number and major index on colored permutations. Using the Decrease Value Theorem of Foata-Han we give a new proof of his main generating function formula for the colored Eulerian quasisymmetric functions. Furthermore, certain symmetric q-Eulerian identities are generalized and expressed as identities involving the colored Eulerian quasisymmetric functions. Next, generalizing the recent works of Savage-Visontai and Beck-Braun we investigate some q-descent polynomials of general signed multipermutations. The factorial and multivariate generating functions for these q-descent polynomials are obtained and the real rootedness results of some of these polynomials are given. Finally, we study the diagonal generating function of the Jacobi-Stirling numbers of the second kind by generalizing the analogous results for the Stirling and Legendre-Stirling numbers of the second kind. It turns out that the generating function is a rational function, whose numerator is a polynomial with nonnegative integral coefficients. By applying Stanley's theory of P-partitions we find combinatorial interpretations of those coefficients
APA, Harvard, Vancouver, ISO, and other styles
36

Koshelev, Dmitrii. "Nouvelles applications des surfaces rationnelles et surfaces de Kummer généralisées sur des corps finis à la cryptographie à base de couplages et à la théorie des codes BCH." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASM001.

Full text
Abstract:
Il y a une théorie bien développée de ce qu'on appelle codes toriques, c'est-à-dire des codes de géométrie algébrique sur des variétés toriques sur un corps fini. A côté des tores et variétés toriques ordinaires (c'est-à-dire déployés), il y a non-déployés. La thèse est donc dédiée à l'étude des codes de géométrie algébrique sur les derniers
There is well developed theory of so-called toric codes, i.e., algebraic geometry codes on toric varieties over a finite field. Besides ordinary (i.e., split) tori and toric varieties there are non-split ones. Therefore the thesis is dedicated to the study of algebraic geometry codes on the latter
APA, Harvard, Vancouver, ISO, and other styles
37

Gloaguen, Arnaud. "A statistical and computational framework for multiblock and multiway data analysis." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG016.

Full text
Abstract:
L'étude des relations entre plusieurs ensembles de variables mesurées sur un même groupe d'individus est un défi majeur en statistique. La littérature fait référence à ce paradigme sous plusieurs termes : "analyse de données multimodales", "intégration de données", "fusion de données" ou encore "analyse de données multibloc". Ce type de problématique se retrouve dans des domaines aussi variés que la biologie, la chimie, l'analyse multi-capteurs, le marketing, la recherche agro-alimentaire, où l'objectif commun est d'identifier les variables de chaque bloc intervenant dans les intéractions entre blocs. Par ailleurs, il est possible que chaque bloc soit composé d'un très grand nombre de variables (~1M), nécessitant le calcul de milliards d'associations. L'élaboration d'un cadre statistique épousant la complexité et l'hétérogénéité des données est donc primordial pour mener une analyse pertinente.Le développement de méthodes d'analyse de données hétérogènes, potentiellement de grande dimension, est au coeur de ce travail. Ces développements se basent sur l'Analyse Canonique Généralisée Régularisée (RGCCA), un cadre général pour l'analyse de données multiblocs. Le coeur algorithmique de RGCCA se résume à un unique "update", répété jusqu'à convergence. Si cet update possède certaines "bonnes" propriétés, la convergence globale de l'algorithme est garantie. Au cours de ces travaux, le cadre algorithmique de RGCCA a été étendu dans plusieurs directions :(i) Du séquentiel au global. Plutôt que d'extraire de chaque bloc les composantes de manière séquentielle, un problème d'optimisation globale permettant de construire ces composantes simultanément a été proposé.(ii) De la matrice au tenseur. L'Analyse Canonique Généralisée Multivoie (MGCCA) étend RGCCA à l'analyse conjointe d'un ensemble de tenseurs. Des versions séquentielle et globale de MGCCA ont été proposées. La convergence globale de ces algorithmes est montrée.(iii) De la parcimonie à la parcimonie structurée. Le coeur de l'algorithme d'Analyse Canonique Généralisée Parcimonieuse (SGCCA) a été amélioré en fournissant un algorithme à convergence globale beaucoup plus rapide. Des contraintes de parcimonie structurée ont également été ajoutées à SGCCA.Dans une seconde partie, l'analyse de plusieurs jeux de données est menée à l'aide de ces nouvelles méthodes. La polyvalence des ces outils est démontrée sur (i) deux études en imagerie-génétique, (ii) deux études en électroencéphalographie ainsi (iii) qu'une étude en microscopie Raman. L'accent est mis sur l'interprétation des résultats facilitée par la prise en compte des structures multiblocs, tensorielles et/ou parcimonieuses
A challenging problem in multivariate statistics is to study relationships between several sets of variables measured on the same set of individuals. In the literature, this paradigm can be stated under several names as “learning from multimodal data”, “data integration”, “data fusion” or “multiblock data analysis”. Typical examples are found in a large variety of fields such as biology, chemistry, sensory analysis, marketing, food research, where the common general objective is to identify variables of each block that are active in the relationships with other blocks. Moreover, each block can be composed of a high number of measurements (~1M), which involves the computation of billion(s) of associations. A successful investigation of such a dataset requires developing a computational and statistical framework that fits both the peculiar structure of the data as well as its heterogeneous nature.The development of multivariate statistical methods constitutes the core of this work. All these developments find their foundations on Regularized Generalized Canonical Correlation Analysis (RGCCA), a flexible framework for multiblock data analysis that grasps in a single optimization problem many well known multiblock methods. The RGCCA algorithm consists in a single yet very simple update repeated until convergence. If this update is gifted with certain conditions, the global convergence of the procedure is guaranteed. Throughout this work, the optimization framework of RGCCA has been extended in several directions:(i) From sequential to global. We extend RGCCA from a sequential procedure to a global one by extracting all the block components simultaneously with a single optimization problem.(ii) From matrix to higher order tensors. Multiway Generalized Canonical Correlation Analysis (MGCCA) has been proposed as an extension of RGCCA to higher order tensors. Sequential and global strategies have been designed for extracting several components per block. The different variants of the MGCCA algorithm are globally convergent under mild conditions.(iii) From sparsity to structured sparsity. The core of the Sparse Generalized Canonical Correlation Analysis (SGCCA) algorithm has been improved. It provides a much faster globally convergent algorithm. SGCCA has been extended to handle structured sparse penalties.In the second part, the versatility and usefulness of the proposed methods have been investigated on various studies: (i) two imaging-genetic studies, (ii) two Electroencephalography studies and (iii) one Raman Microscopy study. For these analyses, the focus is made on the interpretation of the results eased by considering explicitly the multiblock, tensor and sparse structures
APA, Harvard, Vancouver, ISO, and other styles
38

Javan, Peykar Ariyan. "Bornes polynomiales et explicites pour les invariants arakeloviens d'une courbe de Belyi." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00840828.

Full text
Abstract:
On borne explicitement la hauteur de Faltings d'une courbe sur le corps de nombres algèbriques en son degré de Belyi. Des résultats similaires sont démontré pour trois autres invariants arakeloviennes : le discriminant, l'invariant delta et l'auto-intersection de omega. Nos résultats nous permettent de borner explicitement les invariantes arakeloviennes des courbes modulaires, des courbes de Fermat et des courbes de Hurwitz. En plus, comme application, on montre que l'algorithme de Couveignes-Edixhoven-Bruin est polynomial sous l'hypothèse de Riemann pour les fonctions zeta des corps de nombres. Ceci était connu uniquement pour certains sous-groupes de congruence. Finalement, on utilise nos résultats pour démontrer une conjecture de Edixhoven, de Jong et Schepers sur la hauteur de Faltings d'un revêtement ramifié de la droite projective sur l'anneau des entiers.
APA, Harvard, Vancouver, ISO, and other styles
39

Derfoul, Ratiba. "Intégration des données de sismique 4D dans les modèles de réservoir : recalage d'images fondé sur l'élasticité non linéraire." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00924825.

Full text
Abstract:
Dans une première partie, nous proposons une méthodologie innovante pour la comparaison d'images en ingénierie de réservoir. L'objectif est de pouvoir comparer des cubes sismiques obtenus par simulation avec ceux observés sur un champ pétrolier, dans le but de construire un modèle représentatif de la réalité. Nous développons une formulation fondée sur du filtrage, de la classification statistique et de la segmentation d'images. Ses performances sont mises en avant sur des cas réalistes. Dans une seconde partie, nous nous intéressons aux méthodes de recalage d'images utilisées en imagerie médicale pour mettre en correspondance des images. Nous introduisons deux nouveaux modèles de recalage fondés sur l'élasticité non linéaire, où les formes sont appréhendées comme des matériaux de type Saint Venant-Kirchhoff et Ciarlet-Geymonat. Nous justifions théoriquement l'existence de solutions ainsi que la résolution numérique. Le potentiel de ces méthodes est illustré sur des images médicales.
APA, Harvard, Vancouver, ISO, and other styles
40

Thai, Hoang phuong. "Sur l'utilisation de l'analyse isogéométrique en mécanique linéaire ou non-linéaire des structures : certification des calculs et couplage avec la réduction de modèle PGD." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN017/document.

Full text
Abstract:
Le sujet de la thèse porte sur la mise en place d’approches numériques avancées pour la simulation et l’optimisation de structures mécaniques présentant une géométrie complexe. Il se focalise sur l’analyse isogéométrique (IGA) qui a reçu beaucoup d’intérêt cette dernière décennie dû à sa grande flexibilité, précision, et robustesse dans de nombreux contextes industriels comparé à la méthode des éléments finis (FEA) classique. En particulier, la technologie IGA fournit un lien direct avec les logiciels de CAO (les mêmes fonctions sont utilisées pour la représentation de la géométrie et l’analyse numérique) et facilite les procédures de maillage.Dans ce contexte, et comme première partie du travail, une méthode de vérification basée sur la dualité et le concept d’erreur en relation de comportement (ERC) est proposé. Il permet d’obtenir des estimateurs d’erreur a posteriori à la fois garantis et entièrement calculables pour les solutions numériques issues de simulation par IGA. Ces estimateurs, valables pour une large gamme de modèles linéaires ou non-linéaires en mécanique des structures, constituent donc des outils performants et utiles pour le contrôle quantitatif de la qualité numérique et pour la conduite de procédures adaptatives. Un intérêt particulier est porté sur la construction de champs équilibrés, qui est un point clé du concept ERC, et qui jusqu’à présent était essentiellement développée dans le cadre de la méthode des éléments finis. L’extension au contexte IGA nécessite d’aborder plusieurs problèmes techniques, liés à l’utilisation de fonctions de base B-Spline/NURBS. Le concept ERC est aussi mis en oeuvre avec les techniques d’adjoint pour faire de l’estimation d’erreur sur des quantités d’intérêt.Dans une seconde partie du travail, la technologie IGA est couplée avec une procédure de réduction de modèle pour obtenir des solutions certifiées, et en temps réel, de problèmes avec une géométrie paramétrée. Après avoir défini le paramétrage sur la transformation permettant de passer de l’espace paramétrique IGA à l’espace physique, un modèle réduit basé sur la technique PGD (Proper Generalized Decomposition) est introduit pour résoudre le problème multi-dimensionnel. Avec une stratégie hors-ligne/en-ligne, la procédure permet alors de décrire l’ensemble des solutions paramétrées avec un coût de calcul réduit, et de faire de l’optimisation de forme en temps réel. Ici encore, l’estimation a posteriori des diverses sources d’erreur venant de la discrétisation et de la réduction de modèle PGD est menée à partir du concept ERC. Cela permet de contrôler la qualité de la solution PGD approchée (globalement ou sur des quantités d’intérêt), pour toute configuration géométrique, et de nourrir un algorithme adaptatif qui optimise l’effort de calcul pour une tolérance d’erreur donnée.Le travail de recherche dans son ensemble fournit donc des outils pertinents et pratiques pour les activités de simulation en ingénierie mécanique. Le potentiel et les performances de ces outils sont montrés à travers plusieurs exemples numériques impliquant des problèmes académiques et industriels, et des modèles linéaires et non-linéaires (endommagement)
The topic of the PhD thesis deals with the construction of advanced numerical approaches for the simulation and optimization of mechanical structures with complex geometry. It focuses on the Isogeometric Analysis (IGA) technology which has received much attention of the last decade due to its increased flexibility, accuracy, and robustness in many engineering simulations compared to classical Finite Element Analysis (FEA). In particular, IGA enables a direct link with CAD software (the same functions are used for both analysis and geometry) and facilitates meshing procedures.In this framework, and as a first part of the work, a verification method based on duality and the concept of Constitutive Relation Error (CRE) is proposed. It enables to derive guaranteed and fully computable a posteriori error estimates on the numerical solution provided by IGA. Such estimates, which are valid for a wide class of linear or nonlinear structural mechanics models, thus constitute performing and useful tools to quantitatively control the numerical accuracy and drive adaptive procedures. The focus here is on the construction of equilibrated flux fields, which is key ingredient of the CRE concept, and which was until now almost exclusively developed in the FEA framework alone. The extension to IGA requires to address some technical issues, due to the use of B-Spline/NURBS basis functions. The CRE concept is also implemented together with adjoint techniques in order to perform goal-oriented error estimation.In a second part, IGA is coupled with model reduction in order to get certified real-time solutions to problems with parameterized geometry. After defining the parametrization on the mapping from the IGA parametric space to the physical space, a reduced model based on the Proper Generalized Decomposition (PGD) is introduced to solve the multi-dimensional problem. From an offline/online strategy, the procedure then enables to describe the manifold of parametric solutions with reduced CPU cost, and to further perform shape optimization in real-time. Here again, a posteriori estimation of the various error sources inheriting from discretization and PGD model reduction is performed from the CRE concept. It enables to control the quality of the approximate PGD solution (globally or on outputs of interest), for any geometry configuration, and to feed a robust greedy algorithm that optimizes the computational effort for a prescribed error tolerance.The overall research work thus provides for reliable and practical tools in mechanical engineering simulation activities. Capabilities and performance of these tools are shown on several numerical experiments with academic and engineering problems, and with linear and nonlinear (damage) models
APA, Harvard, Vancouver, ISO, and other styles
41

Le, Minh Hoang. "Modélisation multi-échelle et simulation numérique de l'érosion des sols de la parcelle au bassin versant." Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00838947.

Full text
Abstract:
L'objectif global de ce travail est d'étudier une modélisation multi échelle et de développer une méthode adaptée pour la simulation numérique du processus d'érosion à l'échelle du bassin versant. Après avoir passé en revue les différents modèles existants, nous dérivons une solution analytique non triviale pour le système couplé modélisant le transport de sédiments par charriage. Ensuite, nous étudions l'hyperbolicité de ce système avec diverses lois de sédimentation proposées dans la littérature. Concernant le schéma numérique, nous présentons le domaine de validité de la méthode de splitting, pour les équations modélisant l'écoulement et celle décrivant l'évolution du fond. Pour la modélisation du transport en suspension à l'échelle de la parcelle, nous présentons un système d'équations couplant les mécanismes d'infiltration, de ruissellement et le transport de plusieurs classes de sédiments. L'implémentation et des tests de validation d'un schéma d'ordre élevé et de volumes finis bien équilibré sont également présentés. Ensuite, nous discutons sur l'application et la calibration du modèle avec des données expérimentales sur dix parcelles au Niger. Dans le but d'aboutir la simulation à l'échelle du bassin versant, nous développons une modélisation multi échelle dans laquelle nous intégrons le taux d'inondation dans les équations d'évolution afin de prendre en compte l'effet à petite échelle de la microtopographie. Au niveau numérique, nous étudions deux schémas bien équilibrés : le schéma de Roe basé sur un chemin conservatif, et le schéma avec reconstruction hydrostatique généralisée. Enfin, nous présentons une première application du modèle avec les données expérimentales du bassin versant de Ganspoel qui nécessite la parallélisation du code.
APA, Harvard, Vancouver, ISO, and other styles
42

Auliac, Sylvain. "développement d'outils d'optimisation pour freefem++." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01001631.

Full text
Abstract:
Cette thèse est consacrée au développement d'outils pour FreeFem++ destinés à faciliter la résolution des problèmes d'optimisation. Ce travail se compose de deux parties principales. La première consiste en la programmation, la validation et l'exploitation d'interfaces permettant l¿utilisation de routines d'optimisation directement dans le logiciel. La seconde comprend le développement de solutions pour le calcul automatisé des dérivées, toujours au sein de FreeFem++, en exploitant les paradigmes de la différentiation automatique. FreeFem++ est un environnement de développement intégré dédié à la résolution numérique d¿équations aux dérivées partielles en dimension 2 et 3. Son langage ergonomique permet à l'utilisateur d'exploiter aisément ses nombreux outils de création de maillages, de résolution de systèmes linéaires, ainsi que ses bibliothèques d'éléments finis, etc... Nous introduisons les nouvelles routines d'optimisation désormais accessibles depuis la bibliothèque de modules du logiciel. En particulier, le logiciel libre d'optimisation sous contraintes IPOPT, qui implémente une méthode de points intérieurs très robuste pour l¿optimisation en grande dimension. Nous appliquons avec succès ces algorithmes à une série de problèmes concrets parmi lesquels la résolution numérique de problèmes de sur- faces minimales, la simulation de condensats de Bose-Einstein, ou encore un problème de positionnement inverse en mécanique des fluides. Une version prototypique de FreeFem++ contenant les outils de différentiation automatique est présentée, après avoir exposé les principes fondamentaux de cette méthode de calcul de dérivées pour le calcul scientifique.
APA, Harvard, Vancouver, ISO, and other styles
43

Garnaud, Eve. "Dépendances fonctionnelles : extraction et exploitation." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00951619.

Full text
Abstract:
Les dépendances fonctionnelles fournissent une information sémantique sur les données d'une table en mettant en lumière les liens de corrélation qui les unient. Dans cette thèse, nous traitons du problème de l'extraction de ces dépendances en proposant un contexte unifié permettant la découverte de n'importe quel type de dépendances fonctionnelles (dépendances de clé, dépendances fonctionnelles conditionnelles, que la validité soit complète ou approximative). Notre algorithme, ParaCoDe, s'exécute en parallèle sur les candidats, réduisant ainsi le temps global de calcul. De ce fait, il est très compétitif vis-à-vis des approches séquentielles connues à ce jour. Les dépendances satisfaites sur une table nous servent à résoudre le problème de la matérialisation partielle du cube de données. Nous présentons une caractérisation de la solution optimale dans laquelle le coût de chaque requête est borné par un seuil de performance fixé préalablement et dont la taille est minimale. Cette spécification de la solution donne un cadre unique pour décrire et donc comparer formellement les techniques de résumé de cubes de données.
APA, Harvard, Vancouver, ISO, and other styles
44

Palade, Adrian-Ciprian. "Caractérisation du comportement mécanique de la sous surface d'un polymère percé, sous une sollicitation de type hertzienne." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00960291.

Full text
Abstract:
Ce travail s'inscrit dans la compréhension du comportement de la sous-surface d'une pièce présentant des hétérogénéités contrôlées, soumise à un chargement de type hertzien sans affecter l'intégrité de sa surface initiale. Le but est de qualifier le champ de contraintes en sous couche. Pratiquement, des défauts de forme cylindrique sont positionnés là où le champ de contraintes est maximal. Le contact est dimensionné pour pouvoir observer, par photoélasticimétrie, les évolutions du champ de contraintes et développer une modélisation numérique pour étudier le comportement statique puis dynamique. Il ressort que la présence d'un trou sur l'axe de symétrie z (x = 0) est le facteur prépondérant. Les caractéristiques qui permettent de diminuer la contrainte de cisaillement sur l'axe de symétrie sont celles qui conduisent à un renforcement de la contrainte de cisaillement maximale dans le massif. Cette dualité nous conduit à proposer un indicateur qui prend en compte, à la fois, la contrainte de cisaillement, l'aplomb du contact et l"évolution de la contrainte maximale dans le massif. La méthodologie de travail a été mise en oeuvre et validée. Les approches analytiques et expérimentales ont permis de valider les modélisations numériques qui sont seules à même de permettre l'étude de nombreux cas. Les perspectives sont nombreuses, avec des incursions possibles en structuration de sous-surfaces, perçage simple, frittage sélectif par laser. Ce doctorat a permis de traiter le cas des défauts circulaires. Dans un autre domaine, le soudage est également un cas d'intérêt pour l'étude du comportement des cordons de soudure présentant des défauts de type porosités ou inclusions.
APA, Harvard, Vancouver, ISO, and other styles
45

Mansour, Abdelouahab. "Résolution de deux types d’équations opératorielles et interactions." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1151/document.

Full text
Abstract:
Le sujet de cette thèse porte sur la résolution d'équations d'opérateurs dans l'algèbre B(H) des opérateurs linéaires bornés sur un espace de Hilbert H. Nous étudié celles qui sont associées aux dérivations généralisées. Mon sujet de thèse explore aussi des équations beaucoup plus générales comme celles du type AXB - XD = E ou AXB - CXD = E où A, B, C, D et E appartiennent à B(H). Plus précisément il s'agit de donner une description des solutions de ces équations pour E appartenant à une famille précise(autoadjoint, normal, rang un, rang fini, compact, couple de Fuglède Putnam) et pour des opérateurs A, B, C et D appartenant à des bonnes classes d'opérateurs ( celles qui interviennent dans les applications, notamment en physique) comme les opérateurs autoadjoints, les opérateurs normaux, sous normaux,... En dehors du cas où les spectres de A et B sont disjoints, il n'existe pas de méthode générale pour construire de manière effective l'ensemble des solutions de l'équation de Sylvester AX - XB = C à partir des opérateurs A, B et C. Un des objectifs de mon travail de thèse est de fournir une méthode constructive dans le cas où A, B et C appartiennent à des bonnes classes d'opérateurs. Une étude spectrale des solutions est également faite. A coté de cette étude qualitative, il y a aussi une étude quantitative.Il s'agit d'obtenir aussi des estimations précises de la norme d'opérateur(ou norme de Schatten) des solutions en fonction des normes des opérateurs correspondants aux données. Ceci nous a d'ailleurs conduit à des résultats concernant quelques inégalités intéressantes pour les dérivations généralisées, et enfin quelques résultats concernant les opérateurs dans un espace de Banach sont également donnés
The subject of this thesis focuses on the resolution of operator equationsin B(H) algebra of bounded linear operators on a Hilbert space. We studythose associated with generalized derivations. In this thesis, we also exploremore general equations such as the type AXB - XD = E or AXB -CXD = E where A, B, C, D and E belong to B(H). Specifically it is adescription of the solutions of these equations for E belongs in a precisefamily (Self-adjoint, normal, rank one, finite rank, compact, pair of FugledePutnam) and the operators A, B, C and D belonging to the good classesof operators (Those involved in applications , especially in physics) as theself-adjoint operators, normal operators, subnormal operators... Apart fromthe case where the spectra of A and B are disjoint, there is not any generalmethod for constructing effectively all solutions of the Sylvester equationAX - XB = C from the given operators A, B and C. One objective of thisthesis is to provide a constructive approach in when A, B and C belong toconventional families of operators. A spectral study of the solutions is alsostudied. Besides this qualitative study, there is also a quantitative study.It is also to obtain accurate estimates of the operator norm (or norm ofSchatten) of the solutions in terms of operator norms corresponding to data.This also led us to obtain results concerning some interesting inequalitiesfor generalized derivations, and finally some examples and properties ofoperators on a Banach space are also given
APA, Harvard, Vancouver, ISO, and other styles
46

Yang, Qing. "Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles." Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00869975.

Full text
Abstract:
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
47

Sabra, Hussein. "Contribution à l'étude du travail documentaire des enseignants de mathématiques : les incidents comme révélateurs des rapports entre documentations individuelle et communautaire." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00768508.

Full text
Abstract:
La thèse traite des rapports entre documentations individuelle et communautaire des enseignants de mathématiques. L'étude est conduite sur deux terrains contrastés. Le premier est constitué d'une communauté institutionnelle : des enseignants de mathématiques d'un lycée, dont les classes sont simultanément équipées d'une technologie complexe ; le deuxième est constitué d'une communauté associative : un groupe de travail de l'association Sésamath engagé dans la conception d'un manuel numérique pour la classe de seconde. Dans les deux cas, l'étude s'intéresse plus particulièrement à l'enseignement de l'analyse, du fait de l'importance et de la complexité de ce domaine au niveau du lycée. La thèse propose des concepts (visions, monde du professeur, monde de la communauté) et des développements méthodologiques pour saisir les documentations individuelle et communautaire dans leur structure, leur dynamique et leurs interactions. Elle met en évidence, sur les deux terrains d'étude, des moments critiques de ces processus, les incidents documentaires, qui apparaissent à la fois comme des révélateurs et des accélérateurs. Elle montre enfin le potentiel qu'ont ces incidents pour le développement des articulations, globales ou locales, des documentations individuelles et communautaires.
APA, Harvard, Vancouver, ISO, and other styles
48

Le, Treust Loïc. "Méthodes variationnelles et topologiques pour l'étude de modèles non liénaires issus de la mécanique relativiste." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00908953.

Full text
Abstract:
Cette thèse porte sur l'étude de modèles non linéaires issus de la mécanique quantique relativiste.Dans la première partie, nous démontrons à l'aide d'une méthode de tir l'existence d'une infinité de solutions d'équations de Dirac non linéaires provenant d'un modèle de hadrons et d'un modèle de la physique des noyaux.Dans la seconde partie, nous prouvons par des méthodes variationnelles l'existence d'un état fondamental et d'états excités pour deux modèles de la physique des hadrons. Par la suite, nous étudions la transition de phase reliant les deux modèles grâce à la Gamma-convergence.La dernière partie est consacrée à l'étude d'un autre modèle de hadrons dans lequel les fonctions d'onde des quarks sont parfaitement localisées. Nous énonçons quelques résultats préliminaires que nous avons obtenus.
APA, Harvard, Vancouver, ISO, and other styles
49

Anton, François. "Voronoi diagrams of semi-algebraic sets." Phd thesis, 2003. http://tel.archives-ouvertes.fr/tel-00005932.

Full text
Abstract:
La majorité des courbes et surfaces rencontrées dans la modélisation géométrique sont définies comme l'ensemble des solutions d'un système d'équations et d'inéquations algébriques (ensemble semi-algébrique). De nombreux problèmes dans différentes disciplines scientifiques font appel à des requètes de proximité telles que la recherche du ou des voisins les plus proches ou la quantification du voisinage de deux objets.

Le diagramme de Voronoï d'un ensemble d'objets est une décomposition de l'espace en zones de proximité. La zone de proximité d'un objet est l'ensemble des points plus proches de cet objet que de tout autre objet. Les diagrammes de Voronoï permettent de répondre aux requètes de proximité après avoir identifié la zone de proximité à laquelle le point objet de la requète appartient. Le graphe dual du diagramme de Voronoï est appelé le graphe de Delaunay. Seules les approximations par des coniques peuvent garantir un ordre de continuité approprié au niveau des points de contact, ce qui est nécessaire pour garantir l'exactitude du graphe de Delaunay.

L'objectif théorique de cette thèse est la mise en évidence des propriétés algébriques et géométriques élémentaires de la courbe déplacée d'une courbe algébrique et de réduire le calcul semi-algébrique du graphe de Delaunay à des calculs de valeurs propres. L'objectif pratique de cette thèse est le calcul certifié du graphe de Delaunay pour des ensembles semi-algébriques de faible degré dans le plan euclidien.

La méthodologie associe l'analyse par intervalles et la géométrie algébrique algorithmique. L'idée centrale de cette thèse est qu'un pré-traitement symbolique unique peut accélérer l'évaluation numérique certifiée du détecteur de conflits dans le graphe de Delaunay. Le pré-traitement symbolique est le calcul de l'équation implicite de la courbe déplacée généralisée d'une conique. La réduction du problème semi-algébrique de la détection de conflits dans le graphe de Delaunay à un problème d'algèbre linéaire a été possible grâce à la considération du sommet de Voronoï généralisé (un concept introduit dans cette thèse).

Le calcul numérique certifié du graphe de Delaunay a été éffectué avec une librairie de résolution de systèmes zéro-dimensionnels d'équations et d'inéquations algébriques basée sur l'analyse d'intervalles (ALIAS). Le calcul certifié du graphe de Delaunay repose sur des théorèmes sur l'unicité de racines dans des intervalles donnés (Kantorovitch et Moore-Krawczyk). Pour les coniques, les calculs sont accélérés lorsque l'on ne considère que les équations implicites des courbes déplacées.
APA, Harvard, Vancouver, ISO, and other styles
50

Dayeh, Nour. "Calcium dynamics and related alterations in pulmonary hypertension associated with heart failure." Thèse, 2019. http://hdl.handle.net/1866/21836.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography