To see the other types of publications on this topic, follow the link: Tensor Calculus.

Dissertations / Theses on the topic 'Tensor Calculus'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Tensor Calculus.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Van, Zyl Augustinus Johannes. "Metrical aspects of the complexification of tensor products and tensor norms." Thesis, Pretoria : [s.n.], 2009. http://upetd.up.ac.za/thesis/available/etd-07142009-180520.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Chappa, Eduardo. "The x-ray transform of tensor fields /." Thesis, Connect to this title online; UW restricted, 2002. http://hdl.handle.net/1773/5750.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Miller, Charles E. "Vessiot: A Maple Package for Varational and Tensor Calculus in Multiple Coordinate Frames." DigitalCommons@USU, 1999. https://digitalcommons.usu.edu/etd/7115.

Full text
Abstract:
The Maple V package Vessiot is an extensive set of procedures for performing computations in variational and tensor calculus. Vessiot is an extension of a previous package, Helmholtz, which was written by Cinnamon Hillyard for performing operations in the calculus of variations. The original set of commands included standard operators on differential forms, Euler-Lagrange operators, the Lie bracket operator, Lie derivatives, and homotopy operators. These capabilities are preserved in Vessiot, and enhanced so as to function in a multiple coordinate frame context. In addition, a substantial number of general tensor operations have been added to the package. These include standard algebraic operations such as the tensor product, contraction, raising and lowering of indices, as well covariant and Lie differentiation. Objects such as connections, the Riemannian curvature tensor, and Ricci tensor and scalar may also be easily computed. A synopsis of the command syntax appears in Appendix A on pages 194 through 225, and a complete listing of the Maple procedural code is given in Appendix B, beginning on page 222.
APA, Harvard, Vancouver, ISO, and other styles
4

Ng, Ho Lun. "ROD-TV : surface reconstruction on demand by tensor voting /." View Abstract or Full-Text, 2003. http://library.ust.hk/cgi/db/thesis.pl?COMP%202003%20NG.

Full text
Abstract:
Thesis (M. Phil.)--Hong Kong University of Science and Technology, 2003.<br>Includes bibliographical references (leaves 123-127). Also available in electronic version. Access restricted to campus users.
APA, Harvard, Vancouver, ISO, and other styles
5

Young, Justin. "The twisted tensor L-function of GSp(4)." Columbus, Ohio : Ohio State University, 2009. http://rave.ohiolink.edu/etdc/view.cgi?acc%5Fnum=osu1244049123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Jia, Jiaya. "Image and video correction by ND tensor voting with intensity and structure consideration /." View abstract or full-text, 2004. http://library.ust.hk/cgi/db/thesis.pl?COMP%202004%20JIAJ.

Full text
Abstract:
Thesis (Ph. D.)--Hong Kong University of Science and Technology, 2004.<br>Includes bibliographical references (leaves 107-112). Also available in electronic version. Access restricted to campus users.
APA, Harvard, Vancouver, ISO, and other styles
7

Yalanda, Muelas Yamit Yesid 1988. "Modificações do tensor de Ricci e aplicações." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306951.

Full text
Abstract:
Orientador: Diego Sebastian Ledesma<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica<br>Made available in DSpace on 2018-08-21T14:31:48Z (GMT). No. of bitstreams: 1 YalandaMuelas_YamitYesid_M.pdf: 7930295 bytes, checksum: 93c5826f6c164fed94abacbb42db5256 (MD5) Previous issue date: 2012<br>Resumo: Nesta dissertação apresentamos generalizações de três resultados muito conhecidos em geometria Riemanniana: o Teorema de Myers, o Teorema de Bochner e o Teorema de decomposição de Cheeger-Gromoll. Em particular veremos que fazendo uma pequena modificação sobre os requisitos destes teoremas no que se refere ao tensor de Ricci, os resultados permanecem inalterados<br>Abstract: In this dissertation we present generalizations of three well-known results in Riemannian geometry: The Myers's theorem, Bochner's theorem and the Cheeger-Gromoll splitting theorem. In particular, we will prove that making a small modification of the requirements of these theorems related to the Ricci tensor, the results remain unchanged<br>Mestrado<br>Matematica<br>Mestre em Matemática
APA, Harvard, Vancouver, ISO, and other styles
8

Mehta, Ketan. "NLCViz tensor visualization and defect detection in nematic liquid crystals /." Master's thesis, Mississippi State : Mississippi State University, 2006. http://sun.library.msstate.edu/ETD-db/ETD-browse/browse.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Paula, Pedro Manfrim Magalhães de 1991. "Consequências geométricas associadas à limitação do tensor de Bakry-Émery-Ricci." [s.n.], 2015. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306950.

Full text
Abstract:
Orientador: Diego Sebastian Ledesma<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica<br>Made available in DSpace on 2018-08-26T22:36:25Z (GMT). No. of bitstreams: 1 Paula_PedroManfrimMagalhaesde_M.pdf: 1130226 bytes, checksum: bbd8d375ddf7846ed2eafe024103e682 (MD5) Previous issue date: 2015<br>Resumo: Este trabalho apresenta um estudo sobre variedades Riemannianas que possuem um tensor de Bakry-Émery-Ricci com limitações. Inicialmente abordamos tanto aspectos da geometria Riemanniana tradicional como métricas e geodésicas, quanto aspectos mais avançados como as fórmulas de Bochner, Weitzenböck e o teorema de Hodge. Em seguida discutimos a convergência de Gromov-Hausdorff e suas propriedades, além de serem apresentados alguns teoremas como os de Kasue e Fukaya. Por fim estudamos as propriedades topológicas e geométricas de variedades com limitação no tensor de Bakry-Émery-Ricci e o comportamento de tais limitações com respeito à submersões e à convergência de Gromov-Hausdorff<br>Abstract: This work presents a study about Riemannian manifolds having a Bakry-Émery-Ricci tensor with bounds. Initially we approached both the traditional aspects of Riemannian geometry like metrics and geodesics, as more advanced aspects like the Bochner, Weitzenböck formulas and the Hodge's theorem. Then we discussed the Gromov-Hausdorff convergence and its properties, in addition to showing some theorems as those from Kasue and Fukaya. Lastly we studied the topological and geometric properties of manifolds with bounds on the Bakry-Émery-Ricci tensor and the behavior of these bounds with respect to submersions and the Gromov-Hausdorff convergence<br>Mestrado<br>Matematica<br>Mestre em Matemática
APA, Harvard, Vancouver, ISO, and other styles
10

Balasubramanian, Krishnakumar. "Learning without labels and nonnegative tensor factorization." Thesis, Georgia Institute of Technology, 2010. http://hdl.handle.net/1853/33926.

Full text
Abstract:
Supervised learning tasks like building a classifier, estimating the error rate of the predictors, are typically performed with labeled data. In most cases, obtaining labeled data is costly as it requires manual labeling. On the other hand, unlabeled data is available in abundance. In this thesis, we discuss methods to perform supervised learning tasks with no labeled data. We prove consistency of the proposed methods and demonstrate its applicability with synthetic and real world experiments. In some cases, small quantities of labeled data maybe easily available and supplemented with large quantities of unlabeled data (semi-supervised learning). We derive the asymptotic efficiency of generative models for semi-supervised learning and quantify the effect of labeled and unlabeled data on the quality of the estimate. Another independent track of the thesis is efficient computational methods for nonnegative tensor factorization (NTF). NTF provides the user with rich modeling capabilities but it comes with an added computational cost. We provide a fast algorithm for performing NTF using a modified active set method called block principle pivoting method and demonstrate its applicability to social network analysis and text mining.
APA, Harvard, Vancouver, ISO, and other styles
11

Tong, Dickson Wai Shun. "A complete theory on 3D tensor voting for computer vision and graphics applications /." View abstract or full-text, 2004. http://library.ust.hk/cgi/db/thesis.pl?COMP%202004%20TONG.

Full text
Abstract:
Thesis (Ph. D.)--Hong Kong University of Science and Technology, 2004.<br>Includes bibliographical references (leaves 158-162). Also available in electronic version. Access restricted to campus users.
APA, Harvard, Vancouver, ISO, and other styles
12

Souères, Bertrand. "Supergravities in Superspace." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1141/document.

Full text
Abstract:
Les corrections d’ordre supérieur en dérivées applicables à la théorie de supergravité à onze dimensions constituent un puissant outil pour étudier la structure miscroscopique de la théorie M. Plus partculièrement, l’invariant supersymétrique à l’ordre huit en en dérivées est nécessaire à la cohérence quantique de la théorie, mais il n’en existe à ce jour aucune expression complète. Dans cette thèse, après une introduction formelle aux théories de supergravité, nous présentons une technique appelée principe d’action (en superespace), dont le but est de générer le superinvariant complet associé au terme de Chern-Simons d’ordre huit. Bien que ce résultat ne soit pas encore atteint, nous en déterminons certaines caratérisiques, et ouvrons la voie à une résolution systématiques des étapes de calcul à venir. Dans le chapitre suivant, nous présentons les principales fonctionnalités du programme informatique crée pour gérer les imposants calculs liés au principe d’action. Ce programme est particulièrement adapté au traitement des matrices gamma, des tenseurs et des spineurs tels qu’ils surviennent en superespace. Enfin, à l’aide de ce programme, nous abordons un autre sujet calculatoire : la condensation fermionique en supergravité IIA massive. En utilisant la formulation en superespace des supergravités IIA, nous dérivons les termes de l’action quartiques en fermions, puis en imposant une valeur moyenne dans le vide non-nulle, nous montrons qu’il est possible de construire une solution de géométrie de Sitter dans deux cas simples<br>High order derivative terms in eleven dimensional supergravity are a powerful tool to probe the microscopic structure of M-theory. In particular, the superinvariant at order eight in number of derivatives is required for quantum consistency, but has not been completely constructed to this day. In this thesis, after a formal introduction to supergravity, we focus on a technique called the actions principle, in superspace, with the aim of generating the full superinvariant associated to the Chern-Simons term at order eight. Although we do not construct the superinvariant, we determine some of its characteristics, and pave the way for a systematic treatment of the computations leading to the correction. Then we present the main features of the computer program we built for dealing with the computations encountered in the action principle. It is specifically designed to deal with gamma matrices, tensors and spinors as they appear in superspace. Finally, with the help of this program, we tackle another computationally intensive subject : the fermionic condensation in IIA massive superspace. We use the superspace formulations of IIA supergravitites to find the quartic fermion term of the action, and by imposing a non-vanishing vacuum expectation value for this term, we realize a de Sitter solution in two simple cases
APA, Harvard, Vancouver, ISO, and other styles
13

Foo, Wei Guo. "Explicit Calculations of Siu’s Effective Termination of Kohn’s Algorithm and the Hachtroudi-Chern-Moser Tensors in CR Geometry." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS041/document.

Full text
Abstract:
La première partie présente des calculs explicites de terminaison effective de l'algorithme de Kohn proposée par Siu. Dans la deuxième partie, nous étudions la géométrie des hypersurfaces réelles dans Cⁿ, et nous calculons des invariants explicites avec la méthode d'équivalences de Cartan pour déterminer les lieux CR-ombilics<br>The first part of the thesis consists of calculations around Siu's effective termination of Kohn's algorithm. The second part of the thesis studies the CR real hypersurfaces in complex spaces and calculates various explicit invariants using Cartan's equivalence method to study CR-umbilical points
APA, Harvard, Vancouver, ISO, and other styles
14

Šramková, Kristína. "Frölicherova-Nijenhuisova závorka a její aplikace v geometrii a variačním počtu." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2018. http://www.nusl.cz/ntk/nusl-382475.

Full text
Abstract:
This Master's thesis clarifies the significance of Frölicher-Nijenhuis bracket and its applications in problems of physics. The basic apparatus for these applications is differential geometry on manifolds, tensor calculus and differential forms, which are contained in the first part of the thesis. The second part summarizes the basic theory of calculus of variations on manifolds and its selected applications in the field of physics. The last part of the thesis is devoted to the applications of Frölicher-Nijenhuis bracket in the derivation of Maxwell's equations and to the description of the geometry of ordinary differential equations.
APA, Harvard, Vancouver, ISO, and other styles
15

Coine, Clément. "Continuous linear and bilinear Schur multipliers and applications to perturbation theory." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD074/document.

Full text
Abstract:
Dans le premier chapitre, nous commençons par définir certains produits tensoriels et identifions leur dual. Nous donnons ensuite quelques propriétés des classes de Schatten. La fin du chapitre est dédiée à l’étude des espaces de Bochner à valeurs dans l'espace des opérateurs factorisables par un espace de Hilbert. Le deuxième chapitre est consacré aux multiplicateurs de Schur linéaires. Nous caractérisons les multiplicateurs bornés sur B(Lp, Lq) lorsque p est inférieur à q puis appliquons ce résultat pour obtenir de nouvelles relations d'inclusion entre espaces de multiplicateurs. Dans le troisième chapitre, nous caractérisons, au moyen de multiplicateurs de Schur linéaires, les multiplicateurs de Schur bilinéaires continus à valeurs dans l'espace des opérateurs à trace. Dans le quatrième chapitre, nous donnons divers résultats concernant les opérateurs intégraux multiples. En particulier, nous caractérisons les opérateurs intégraux triples à valeurs dans l'espace des opérateurs à trace puis nous donnons une condition nécessaire et suffisante pour qu'un opérateur intégral triple définisse une application complètement bornée sur le produit de Haagerup de l'espace des opérateurs compacts. Enfin, le cinquième chapitre est dédié à la résolution des problèmes de Peller. Nous commençons par étudier le lien entre opérateurs intégraux multiples et théorie de la perturbation pour le calcul fonctionnel des opérateurs autoadjoints pour finir par la construction de contre-exemples à ces problèmes<br>In the first chapter, we define some tensor products and we identify their dual space. Then, we give some properties of Schatten classes. The end of the chapter is dedicated to the study of Bochner spaces valued in the space of operators that can be factorized by a Hilbert space.The second chapter is dedicated to linear Schur multipliers. We characterize bounded multipliers on B(Lp, Lq) when p is less than q and then apply this result to obtain new inclusion relationships among spaces of multipliers.In the third chapter, we characterize, by means of linear Schur multipliers, continuous bilinear Schur multipliers valued in the space of trace class operators. In the fourth chapter, we give several results concerning multiple operator integrals. In particular, we characterize triple operator integrals mapping valued in trace class operators and then we give a necessary and sufficient condition for a triple operator integral to define a completely bounded map on the Haagerup tensor product of compact operators. Finally, the fifth chapter is dedicated to the resolution of Peller's problems. We first study the connection between multiple operator integrals and perturbation theory for functional calculus of selfadjoint operators and we finish with the construction of counter-examples for those problems
APA, Harvard, Vancouver, ISO, and other styles
16

Salahifar, Raydin. "Analysis of Pipeline Systems Under Harmonic Forces." Thesis, Université d'Ottawa / University of Ottawa, 2011. http://hdl.handle.net/10393/19820.

Full text
Abstract:
Starting with tensor calculus and the variational form of the Hamiltonian functional, a generalized theory is formulated for doubly curved thin shells. The formulation avoids geometric approximations commonly adopted in other formulations. The theory is then specialized for cylindrical and toroidal shells as special cases, both of interest in the modeling of straight and elbow segments of pipeline systems. Since the treatment avoids geometric approximations, the cylindrical shell theory is believed to be more accurate than others reported in the literature. By adopting a set of consistent geometric approximations, the present theory is shown to revert to the well known Flugge shell theory. Another set of consistent geometric approximations is shown to lead to the Donnell-Mushtari-Vlasov (DMV) theory. A general closed form solution of the theory is developed for cylinders under general harmonic loads. The solution is then used to formulate a family of exact shape functions which are subsequently used to formulate a super-convergent finite element. The formulation efficiently and accurately captures ovalization, warping, radial expansion, and other shell behavioural modes under general static or harmonic forces either in-phase or out-of-phase. Comparisons with shell solutions available in Abaqus demonstrate the validity of the formulation and the accuracy of its predictions. The generalized thin shell theory is then specialized for toroidal shells. Consistent sets of approximations lead to three simplified theories for toroidal shells. The first set of approximations has lead to a theory comparable to that of Sanders while the second set of approximation has lead to a theory nearly identical to the DMV theory for toroidal shells. A closed form solution is then obtained for the governing equation. Exact shape functions are then developed and subsequently used to formulate a finite element. Comparisons with Abaqus solutions show the validity of the formulation for short elbow segments under a variety of loading conditions. Because of their efficiency, the finite elements developed are particularly suited for the analysis of long pipeline systems.
APA, Harvard, Vancouver, ISO, and other styles
17

Iacopini, Matteo. "Essays on econometric modelling of temporal networks." Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E058/document.

Full text
Abstract:
La théorie des graphes a longtemps été étudiée en mathématiques et en probabilité en tant qu’outil pour décrire la dépendance entre les nœuds. Cependant, ce n’est que récemment qu’elle a été mise en œuvre sur des données, donnant naissance à l’analyse statistique des réseaux réels.La topologie des réseaux économiques et financiers est remarquablement complexe: elle n’est généralement pas observée, et elle nécessite ainsi des procédures inférentielles adéquates pour son estimation, d’ailleurs non seulement les nœuds, mais la structure de la dépendance elle-même évolue dans le temps. Des outils statistiques et économétriques pour modéliser la dynamique de changement de la structure du réseau font défaut, malgré leurs besoins croissants dans plusieurs domaines de recherche. En même temps, avec le début de l’ère des “Big data”, la taille des ensembles de données disponibles devient de plus en plus élevée et leur structure interne devient de plus en plus complexe, entravant les processus inférentiels traditionnels dans plusieurs cas. Cette thèse a pour but de contribuer à ce nouveau champ littéraire qui associe probabilités, économie, physique et sociologie en proposant de nouvelles méthodologies statistiques et économétriques pour l’étude de l’évolution temporelle des structures en réseau de moyenne et haute dimension<br>Graph theory has long been studied in mathematics and probability as a tool for describing dependence between nodes. However, only recently it has been implemented on data, giving birth to the statistical analysis of real networks.The topology of economic and financial networks is remarkably complex: it is generally unobserved, thus requiring adequate inferential procedures for it estimation, moreover not only the nodes, but the structure of dependence itself evolves over time. Statistical and econometric tools for modelling the dynamics of change of the network structure are lacking, despite their increasing requirement in several fields of research. At the same time, with the beginning of the era of “Big data” the size of available datasets is becoming increasingly high and their internal structure is growing in complexity, hampering traditional inferential processes in multiple cases.This thesis aims at contributing to this newborn field of literature which joins probability, economics, physics and sociology by proposing novel statistical and econometric methodologies for the study of the temporal evolution of network structures of medium-high dimension
APA, Harvard, Vancouver, ISO, and other styles
18

Pawlowski, Filip igor. "High-performance dense tensor and sparse matrix kernels for machine learning." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN081.

Full text
Abstract:
Dans cette thèse, nous développons des algorithmes à haute performance pour certains calculs impliquant des tenseurs denses et des matrices éparses. Nous abordons les opérations du noyau qui sont utiles pour les tâches d'apprentissage de la machine, telles que l'inférence avec les réseaux neuronaux profonds. Nous développons des structures de données et des techniques pour réduire l'utilisation de la mémoire, pour améliorer la localisation des données et donc pour améliorer la réutilisation du cache des opérations du noyau. Nous concevons des algorithmes parallèles à mémoire séquentielle et à mémoire partagée.Dans la première partie de la thèse, nous nous concentrons sur les noyaux tenseurs denses. Les noyaux tenseurs comprennent la multiplication tenseur-vecteur (TVM), la multiplication tenseur-matrice (TMM) et la multiplication tenseur-tendeur (TTM). Parmi ceux-ci, la MVT est la plus liée à la largeur de bande et constitue un élément de base pour de nombreux algorithmes. Nous proposons une nouvelle structure de données qui stocke le tenseur sous forme de blocs, qui sont ordonnés en utilisant la courbe de remplissage de l'espace connue sous le nom de courbe de Morton (ou courbe en Z). L'idée clé consiste à diviser le tenseur en blocs suffisamment petits pour tenir dans le cache et à les stocker selon l'ordre de Morton, tout en conservant un ordre simple et multidimensionnel sur les éléments individuels qui les composent. Ainsi, des routines BLAS haute performance peuvent être utilisées comme micro-noyaux pour chaque bloc. Les résultats démontrent non seulement que l'approche proposée est plus performante que les variantes de pointe jusqu'à 18%, mais aussi que l'approche proposée induit 71% de moins d'écart-type d'échantillon pour le MVT dans les différents modes possibles. Enfin, nous étudions des algorithmes de mémoire partagée parallèles pour la MVT qui utilisent la structure de données proposée. Nos résultats sur un maximum de 8 systèmes de prises montrent une performance presque maximale pour l'algorithme proposé pour les tenseurs à 2, 3, 4 et 5 dimensions.Dans la deuxième partie de la thèse, nous explorons les calculs épars dans les réseaux de neurones en nous concentrant sur le problème d'inférence profonde épars à haute performance. L'inférence sparse DNN est la tâche d'utiliser les réseaux sparse DNN pour classifier un lot d'éléments de données formant, dans notre cas, une matrice de caractéristiques sparse. La performance de l'inférence clairsemée dépend de la parallélisation efficace de la matrice clairsemée - la multiplication matricielle clairsemée (SpGEMM) répétée pour chaque couche dans la fonction d'inférence. Nous introduisons ensuite l'inférence modèle-parallèle, qui utilise un partitionnement bidimensionnel des matrices de poids obtenues à l'aide du logiciel de partitionnement des hypergraphes. Enfin, nous introduisons les algorithmes de tuilage modèle-parallèle et de tuilage hybride, qui augmentent la réutilisation du cache entre les couches, et utilisent un module de synchronisation faible pour cacher le déséquilibre de charge et les coûts de synchronisation. Nous évaluons nos techniques sur les données du grand réseau du IEEE HPEC 2019 Graph Challenge sur les systèmes à mémoire partagée et nous rapportons jusqu'à 2x l'accélération par rapport à la ligne de base<br>In this thesis, we develop high performance algorithms for certain computations involving dense tensors and sparse matrices. We address kernel operations that are useful for machine learning tasks, such as inference with deep neural networks (DNNs). We develop data structures and techniques to reduce memory use, to improve data locality and hence to improve cache reuse of the kernel operations. We design both sequential and shared-memory parallel algorithms. In the first part of the thesis we focus on dense tensors kernels. Tensor kernels include the tensor--vector multiplication (TVM), tensor--matrix multiplication (TMM), and tensor--tensor multiplication (TTM). Among these, TVM is the most bandwidth-bound and constitutes a building block for many algorithms. We focus on this operation and develop a data structure and sequential and parallel algorithms for it. We propose a novel data structure which stores the tensor as blocks, which are ordered using the space-filling curve known as the Morton curve (or Z-curve). The key idea consists of dividing the tensor into blocks small enough to fit cache, and storing them according to the Morton order, while keeping a simple, multi-dimensional order on the individual elements within them. Thus, high performance BLAS routines can be used as microkernels for each block. We evaluate our techniques on a set of experiments. The results not only demonstrate superior performance of the proposed approach over the state-of-the-art variants by up to 18%, but also show that the proposed approach induces 71% less sample standard deviation for the TVM across the d possible modes. Finally, we show that our data structure naturally expands to other tensor kernels by demonstrating that it yields up to 38% higher performance for the higher-order power method. Finally, we investigate shared-memory parallel TVM algorithms which use the proposed data structure. Several alternative parallel algorithms were characterized theoretically and implemented using OpenMP to compare them experimentally. Our results on up to 8 socket systems show near peak performance for the proposed algorithm for 2, 3, 4, and 5-dimensional tensors. In the second part of the thesis, we explore the sparse computations in neural networks focusing on the high-performance sparse deep inference problem. The sparse DNN inference is the task of using sparse DNN networks to classify a batch of data elements forming, in our case, a sparse feature matrix. The performance of sparse inference hinges on efficient parallelization of the sparse matrix--sparse matrix multiplication (SpGEMM) repeated for each layer in the inference function. We first characterize efficient sequential SpGEMM algorithms for our use case. We then introduce the model-parallel inference, which uses a two-dimensional partitioning of the weight matrices obtained using the hypergraph partitioning software. The model-parallel variant uses barriers to synchronize at layers. Finally, we introduce tiling model-parallel and tiling hybrid algorithms, which increase cache reuse between the layers, and use a weak synchronization module to hide load imbalance and synchronization costs. We evaluate our techniques on the large network data from the IEEE HPEC 2019 Graph Challenge on shared-memory systems and report up to 2x times speed-up versus the baseline
APA, Harvard, Vancouver, ISO, and other styles
19

Hou, Ming. "Tensor-based regression models and applications." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27787.

Full text
Abstract:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2017-2018<br>Avec l’avancement des technologies modernes, les tenseurs d’ordre élevé sont assez répandus et abondent dans un large éventail d’applications telles que la neuroscience informatique, la vision par ordinateur, le traitement du signal et ainsi de suite. La principale raison pour laquelle les méthodes de régression classiques ne parviennent pas à traiter de façon appropriée des tenseurs d’ordre élevé est due au fait que ces données contiennent des informations structurelles multi-voies qui ne peuvent pas être capturées directement par les modèles conventionnels de régression vectorielle ou matricielle. En outre, la très grande dimensionnalité de l’entrée tensorielle produit une énorme quantité de paramètres, ce qui rompt les garanties théoriques des approches de régression classique. De plus, les modèles classiques de régression se sont avérés limités en termes de difficulté d’interprétation, de sensibilité au bruit et d’absence d’unicité. Pour faire face à ces défis, nous étudions une nouvelle classe de modèles de régression, appelés modèles de régression tensor-variable, où les prédicteurs indépendants et (ou) les réponses dépendantes prennent la forme de représentations tensorielles d’ordre élevé. Nous les appliquons également dans de nombreuses applications du monde réel pour vérifier leur efficacité et leur efficacité.<br>With the advancement of modern technologies, high-order tensors are quite widespread and abound in a broad range of applications such as computational neuroscience, computer vision, signal processing and so on. The primary reason that classical regression methods fail to appropriately handle high-order tensors is due to the fact that those data contain multiway structural information which cannot be directly captured by the conventional vector-based or matrix-based regression models, causing substantial information loss during the regression. Furthermore, the ultrahigh dimensionality of tensorial input produces huge amount of parameters, which breaks the theoretical guarantees of classical regression approaches. Additionally, the classical regression models have also been shown to be limited in terms of difficulty of interpretation, sensitivity to noise and absence of uniqueness. To deal with these challenges, we investigate a novel class of regression models, called tensorvariate regression models, where the independent predictors and (or) dependent responses take the form of high-order tensorial representations. We also apply them in numerous real-world applications to verify their efficiency and effectiveness. Concretely, we first introduce hierarchical Tucker tensor regression, a generalized linear tensor regression model that is able to handle potentially much higher order tensor input. Then, we work on online local Gaussian process for tensor-variate regression, an efficient nonlinear GPbased approach that can process large data sets at constant time in a sequential way. Next, we present a computationally efficient online tensor regression algorithm with general tensorial input and output, called incremental higher-order partial least squares, for the setting of infinite time-dependent tensor streams. Thereafter, we propose a super-fast sequential tensor regression framework for general tensor sequences, namely recursive higher-order partial least squares, which addresses issues of limited storage space and fast processing time allowed by dynamic environments. Finally, we introduce kernel-based multiblock tensor partial least squares, a new generalized nonlinear framework that is capable of predicting a set of tensor blocks by merging a set of tensor blocks from different sources with a boosted predictive power.
APA, Harvard, Vancouver, ISO, and other styles
20

Humbert, Pierre. "Multivariate analysis with tensors and graphs – application to neuroscience." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM029.

Full text
Abstract:
Comment extraire l’information contenue dans des données multivariées est devenue une question fondamentale ces dernières années. En effet, leur disponibilité croissante a mis en évidence les limites des modèles standards et la nécessité d’évoluer vers des méthodes plus polyvalentes. L’objectif principal de cette thèse est de fournir des méthodes et des algorithmes prenant en compte la structure des signaux multivariés. Des exemples bien connus de tels signaux sont les images, les signaux audios stéréo, et les signaux d’électroencéphalographie multicanaux. Parmi les approches existantes, nous nous concentrons spécifiquement sur celles basées sur la structure induite par les graphes ou les tenseurs qui ont déjà attiré une attention croissante en raison de leur capacité à mieux exploiter l’aspect multivarié des données et leur structure sous-jacente. Bien que cette thèse prenne l’étude de l’anesthésie générale comme contexte applicatif privilégié, les méthodes développées sont adaptées à un large spectre de données structurées multivariées<br>How to extract knowledge from multivariate data has emerged as a fundamental question in recent years. Indeed, their increasing availability has highlighted the limitations of standard models and the need to move towards more versatile methods. The main objective of this thesis is to provide methods and algorithms taking into account the structure of multivariate signals. Well-known examples of such signals are images, stereo audio signals, and multichannel electroencephalography signals. Among the existing approaches, we specifically focus on those based on graph or tensor-induced structure which have already attracted increasing attention because of their ability to better exploit the multivariate aspect of data and their underlying structure. Although this thesis takes the study of patients under general anesthesia as a privileged applicative context, methods developed are also adapted to a wide range of multivariate structured data
APA, Harvard, Vancouver, ISO, and other styles
21

Robeyns, Matthieu. "Mixed precision algorithms for low-rank matrix and tensor approximations." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG095.

Full text
Abstract:
La gestion des données est souvent réalisée par des objets mathématiques tels que les matrices et les tenseurs, qui sont la généralisation des matrices à plus de deux dimensions.Certains domaines d'application nécessitent de stocker trop d'éléments, créant des tenseurs trop grands ; ce problème est connu sous le nom de emph curse of dimensionality.Des méthodes mathématiques telles que les approximations de rang faible ont été développées pour réduire la dimensionnalité de ces objets malgré un coût très élevé en temps de calcul.De plus, de nouvelles architectures informatiques telles que les GPU nous permettent d'effectuer des calculs rapidement, notamment lors de calculs en faible précision.Combiner ces nouvelles architectures avec l'approximation de rang faible est une solution malgré la qualité des résultats altérée par la faible précision.Cette thèse vise à proposer des algorithmes d'approximation de rang faible stables en faible précision tout en conservant l'accélération inhérente au calcul en faible précision, ce qui est réalisable grâce au calcul en précision mixte.Nous avons développé une méthode générale d'approximation de tenseurs en précision mixte en calculant d'abord une approximation en faible précision et en l'affinant itérativement avec une précision supérieure pour maintenir la qualité du résultat.Sachant que cette accélération provient principalement des architectures GPU, plus précisément d'unités de calcul spécialisées appelées emph tensor cores, nous avons développé une méthode générale d'approximation matricielle pour les architectures GPU en précision mixte utilisant ces emph tensor cores.Notre méthode maintient la qualité du résultat, mais au prix d'une approximation de dimension supérieur à celle des applications standards.Pour compenser cet écart, des méthodes de recompression de dimension existent pour différents formats de tenseurs.Notre contribution finale propose une méthode de recompression englobant les différents formats de tenseurs et de matrices tout en prouvant analytiquement sa stabilité<br>Data management is often done by mathematical objects such as matrices and tensors, which are the generalization of matrices to more than two dimensions.Some application domains require too many elements to be stored, creating tensors too large; this problem is known as the emph curse of dimensionality.Mathematical methods such as low-rank approximations have been developed to reduce the dimensionality of these objects despite a very high cost in computation time.Moreover, new computer architectures such as GPUs allow us to perform computations quickly, especially when computing with low precision.Combining these new architectures with low-rank approximation is a solution despite the quality of the results being impaired by low precision.This thesis aims to propose low-rank approximation algorithms that are stable in low precision while maintaining the speedup inherent in low-precision computation, which is feasible thanks to mixed-precision computation.We have developed a general method for mixed-precision tensor approximation by first computing a low-precision approximation and iteratively refining it with higher precision to maintain the quality of the result.Knowing that this speedup comes mainly from GPU architectures, more precisely from specialized computing units called emph ensor cores, we have developed a general matrix approximation method for mixed-precision GPU architectures using these emph tensor cores.Our method maintains the quality of the result but at the expense of a higher-dimensional approximation than standard applications.To compensate for this gap, dimension recompression methods exist for different tensor formats.Our final contribution proposes a recompression method encompassing the different tensor and matrix formats while proving analytically its stability
APA, Harvard, Vancouver, ISO, and other styles
22

Sorensen, Mikael. "Tensor tools with application in signal processing." Nice, 2010. http://www.theses.fr/2010NICE4030.

Full text
Abstract:
Several problems in signal processing can be put in a tensorial framework. In many cases, these problems lead to compute structured tensor decompositions. The main purpose of this thesis is the development of computational methods for structured tensor decomposition problems with application in signal processing. First, we propose methods for the computation of the CANDECOMP/PARAFAC (CP) decomposition with a semi-unitary matrix factor. Moreover, we develop methods to solve CP structured independent component analysis problems by addressing them as semi-unitary constrained CP decompositions problems. Second, we propose simultaneous (generalized) Schur decomposition methods to compute CP decompositions possibly with partial (Hermitian) symmetries. Moreover, a Jacobi-type sweeping procedure for the computation of a real CP decomposition will be considered. Third, we propose methods to compute tensor decompositions with banded or Hankel/Toeplitz matrix factors and possibly also with partial (Hermitian) symmetries. The methods will be applied to solve some cumulant based blind identification problems. Fourth, we propose a more efficient Jacobi method for blind equalization of paraunitary channels. Furthermore, we also derive an algebraic solution for the Jacobi method for likelihood based joint diagonalization of real positive definite matrices<br>Nombre de problèmes issus du traitement de signal peuvent être modélisés par des équations/problèmes tensoriels. La spécificité des problèmes de traitement de signal est qu’ils donnent lieu à des décompositions tensorielles structurées. L’objectif principal de cette thèse est, d’une part, le développement de méthodes numériques appliquées aux problèmes de décompositions de tenseurs structurés et, d’autre part, leur application en traitement de signal. Dans un premier temps, nous proposons des méthodes pour le calcul de la décomposition CANDECOMP/PARAFAC (CP) avec un facteur matriciel semi-unitaire. De plus, nous développons des méthodes pour résoudre des problèmes d’analyse en composantes indépendantes (ICA) pouvant être modélisés par une décomposition CP structurée, en les considérant comme des problèmes de décompositions CP sous contrainte de semi-unitarité. Ensuite, pour le calcul de décompositions CP avec symétries hermitiennes partielles, nous proposons des méthodes de décompositions simultanées de Schur généralisées. D’un point de vue numérique, nous développons le calcul de décompositions CP réelles par une méthode de Jacobi. En troisième lieu, nous nous attaquons à la décomposition de tenseurs ayant des facteurs matriciels bande ou Hankel/Toeplitz, conjointement (ou non) à des symétries hermitiennes partielles. Ces méthodes sont appliquées à la résolution de problèmes d’identification aveugle basés sur des cumulants. Enfin, nous proposons une méthode (plus) efficace pour l’égalisation aveugle de canaux paraunitaires basée sur les itérations de Jacobi. Dans le même esprit, nous dérivons une solution algébrique à la méthode de Jacobi pour effectuer la diagonalisation conjointe de matrices réelles définies positives
APA, Harvard, Vancouver, ISO, and other styles
23

Skokan, Michal. "Regularity of ghosts of geodesic X-ray transform /." Thesis, Connect to this title online; UW restricted, 2004. http://hdl.handle.net/1773/5744.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Maaroufi, Abdelaziz. "Tenseur de déformation de l'espace-temps et gravitation." Metz, 1994. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1994/Maaroufi.Abdelaziz.SMZ9427.pdf.

Full text
Abstract:
Une description simple de l'espace-temps et de la gravitation est obtenue en introduisant un tenseur de déformation de l'espace-temps. Ce tenseur est diagonal dans un repère galiléen ayant son origine au centre du soleil. La condition d’Einstein appliquée à la variation du temps propre conduit à un mouvement presque newtonien. Le calcul des perturbations relativistes conduit à une avance correcte des périhélies des planètes<br>A simple description of space-time and gravitation is obtained by using a strain tensor of space-time. This tensor is diagonal in a galilean frame with origin at the center of sun. The condition of Einstein for the variation of proper time to a quasi newtonian motion. The calculation of relativistic perturbations leads to a correct advance of the perihilies of the planets
APA, Harvard, Vancouver, ISO, and other styles
25

Dreher, Thibaud. "Simulation moléculaire d'interfaces solide-liquide : calcul de la tension de surface." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC089/document.

Full text
Abstract:
Le présent manuscrit présente le développement méthodologique du calcul de la tension de surface d’interfaces solide-liquide via des simulations de dynamique moléculaire. Après une courte présentation des avancées dans le domaine du calcul de la tension de surface pour les interfaces fluide-fluide et solide-fluide, les principales méthodes de calcul de la tension de surface d’un point de vue théorique sont montrées et généralisées pour le cas des interfaces solide-liquide, puis mises en oeuvre dans le cas de simulations de dynamique moléculaire. Un système école, constitué d’une feuille de graphène pour la phase solide et d’un bain de méthane pour la phase liquide, est ensuite étudié pour observer l’influence des artefacts de simulation sur le calcul de la tension de surface, montrant en particulier des effets de taille bien plus importants que pour le cas des interfaces liquide-liquide. Un autre système constitué d’une tranche de cuivre pour la phase solide, et d’un bain de méthane pour la phase liquide, a permis d’étudier l’effet inédit aux systèmes solide-liquide appelé anisotropie, montrant en particulier l’importance du caractère tensoriel de la tension de surface pour ce type de système. L’influence des paramètres du potentiel croisé entre les atomes de cuivre et de méthane est ensuite étudié. Finalement, deux systèmes applicatifs sont abordés, d’une part le système graphène-eau permettant d’étudier les effets de l’interaction électrostatique, et d’autre part un système constitué d’un solide explosif, le 1,3,5-triamino-2,4,6-trinitrobenzène (TATB) en contact avec un bain polymère pour la phase liquide, représentatif d’un cas réel d’intérêt<br>This manuscript presents the methodological development of surface tension calculation of solid-liquidinterfaces via molecular dynamics simulations. After a short presentation of the advances in the field ofsurface tension calculation for fluid-fluid and solid-fluid interfaces, the main methods of surface tensioncalculation from a theoretical point of view are shown and generalized for solid-liquid interfaces, thenimplemented in the case of molecular dynamics simulations. A school system, consisting of a graphenesheet for the solid phase and a methane bath for the liquid phase, is then studied to observe the influenceof simulation artifacts on the surface tension calculation, showing in particular much larger size effectsthan in the case of liquid-liquid interfaces. Another system consisting of a copper slice for the solid phaseand a methane bath for the liquid phase made it possible to study the novel effect of solid-liquid systemscalled anisotropy, showing in particular the importance of the tensor character of the surface tension forthis type of system. The influence of the parameters of the cross potential between copper and methaneatoms is then studied. Finally, two application systems are discussed, on the one hand the graphene-watersystem for studying the effects of electrostatic interaction, and on the other hand a system consisting ofan explosive solid, 1,3,5-triamino-2,4,6-trinitrobenzene (TATB) in contact with a polymer bath for theliquid phase, representing a real case of interest
APA, Harvard, Vancouver, ISO, and other styles
26

Nguyen, Dinh Quoc Dang. "Representation of few-group homogenized cross sections by polynomials and tensor decomposition." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP142.

Full text
Abstract:
Cette thèse se concentre sur l'étude de la modélisation mathématique des sections efficaces homogénéisées à peu de groupes, un élément essentiel du schéma à deux étapes, qui est largement utilisé dans les simulations de réacteurs nucléaires. À mesure que les demandes industrielles nécessitent de plus en plus des maillages spatiaux et énergétiques fins pour améliorer la précision des calculs cœur, la taille de la bibliothèque des sections efficaces peut devenir excessive, entravant ainsi les performances des calculs cœur. Il est donc essentiel de développer une représentation qui minimise l'utilisation de la mémoire tout en permettant une interpolation des données efficace.Deux approches, la représentation polynomiale et la décomposition "Canonical Polyadic" des tenseurs, sont présentées et appliquées aux données de sections efficaces homogénéisées à peu de groupes. Les données sont préparées à l'aide d'APOLLO3 sur la géométrie de deux assemblages dans le benchmark X2 VVER-1000. Le taux de compression et la précision sont évalués et discutés pour chaque approche afin de déterminer leur applicabilité au schéma standard en deux étapes.De plus, des implémentations sur GPUs des deux approches sont testées pour évaluer la scalabilité des algorithmes en fonction du nombre de threads impliqués. Ces implémentations sont encapsulées dans une bibliothèque appelée Merlin, destinée à la recherche future et aux applications industrielles utilisant ces approches.Les deux approches, en particulier la méthode de décomposition des tenseurs, montrent des résultats prometteurs en termes de compression des données et de précision de reconstruction. L'intégration de ces méthodes dans le schéma standard en deux étapes permettrait non seulement de réduire considérablement l'utilisation de la mémoire pour le stockage des sections efficaces, mais aussi de diminuer significativement l'effort de calcul requis pour l'interpolation des sections efficaces lors des calculs cœur, réduisant donc le temps de calcul global pour les simulations de réacteurs industriels<br>This thesis focuses on studying the mathematical modeling of few-group homogenized cross sections, a critical element in the two-step scheme widely used in nuclear reactor simulations. As industrial demands increasingly require finer spatial and energy meshes to improve the accuracy of core calculations, the size of the cross section library can become excessive, hampering the performance of core calculations. Therefore, it is essential to develop a representation that minimizes memory usage while still enabling efficient data interpolation.Two approaches, polynomial representation and Canonical Polyadic decomposition of tensors, are presented and applied to few-group homogenized cross section data. The data is prepared using APOLLO3 on the geometry of two assemblies in the X2 VVER-1000 benchmark. The compression rate and accuracy are evaluated and discussed for each approach to determine their applicability to the standard two-step scheme.Additionally, GPU implementations of both approaches are tested to assess the scalability of the algorithms based on the number of threads involved. These implementations are encapsulated in a library called Merlin, intended for future research and industrial applications that involve these approaches.Both approaches, particularly the method of tensor decomposition, demonstrate promising results in terms of data compression and reconstruction accuracy. Integrating these methods into the standard two-step scheme would not only substantially reduce memory usage for storing cross sections, but also significantly decrease the computational effort required for interpolating cross sections during core calculations, thereby reducing overall calculation time for industrial reactor simulations
APA, Harvard, Vancouver, ISO, and other styles
27

Traoré, Abraham. "Contribution à la décomposition de données multimodales avec des applications en apprentisage de dictionnaires et la décomposition de tenseurs de grande taille." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR068/document.

Full text
Abstract:
Dans ce travail, on s'intéresse à des outils mathématiques spéciaux appelés tenseurs qui sont formellement définis comme des tableaux multidimensionnels définis sur le produit tensoriel d'espaces vectoriels (chaque espace vectoriel étant muni de son système de coordonnées), le nombre d'espaces vectoriels impliqués dans ce produit étant l'ordre du tenseur. L'intérêt pour les tenseurs est motivé par certains travaux expérimentaux qui ont prouvé, dans divers contextes, que traiter des données multidimensionnelles avec des tenseurs plutôt que des matrices donne un meilleur résultat aussi bien pour des tâches de régression que de classification. Dans le cadre de la thèse, nous nous sommes focalisés sur une décomposition dite de Tucker et avons mis en place une méthode pour l'apprentissage de dictionnaires, une technique pour l'apprentissage en ligne de dictionnaires, une approche pour la décomposition d'un tenseur de grandes tailles et enfin une méthodologie pour la décomposition d'un tenseur qui croît par rapport à tous les modes. De nouveaux résultats théoriques concernant la convergence et la vitesse de convergence sont établis et l'efficacité des algorithmes proposés, reposant soit sur la minimisation alternée, soit sur la descente de gradients par coordonnées, est démontrée sur des problèmes réels<br>In this work, we are interested in special mathematical tools called tensors, that are multidimensional arrays defined on tensor product of some vector spaces, each of which has its own coordinate system and the number of spaces involved in this product is generally referred to as order. The interest for these tools stem from some empirical works (for a range of applications encompassing both classification and regression) that prove the superiority of tensor processing with respect to matrix decomposition techniques. In this thesis framework, we focused on specific tensor model named Tucker and established new approaches for miscellaneous tasks such as dictionary learning, online dictionary learning, large-scale processing as well as the decomposition of a tensor evolving with respect to each of its modes. New theoretical results are established and the efficiency of the different algorithms, which are based either on alternate minimization or coordinate gradient descent, is proven via real-world problems
APA, Harvard, Vancouver, ISO, and other styles
28

Akhavanbahabadi, Saeed. "Analyse des Crises d’Epilepsie à l’Aide de Mesures de Profondeur." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT063.

Full text
Abstract:
Le doctorant n'a pas délivré de résumé en français<br>Absence epilepsy syndrome is accompanied with sudden appearance of seizures in different regions of the brain. The sudden generalization of absence seizures to every region of the brain shows the existence of a mechanism which can quickly synchronizes the activities of the majority of neurons in the brain. The presence of such a mechanism challenges our information about the integrative properties of neurons and the functional connectivity of brain networks. For this reason, many researchers have tried to recognize the main origin of absence seizures. Recent studies have suggested a theory regarding the origin of absence seizures which states that somatosensory cortex drives the thalamus during the first cycles of absence seizures, while thereafter, cortex and thalamus mutually drive each other and continue absence seizures.This theory motivated the neuroscientists in Grenoble Institute of Neurosciences (GIN) to record data from different layers of somatosensory cortex of Genetic Absence Epilepsy Rats from Strasbourg (GAERS), which is a well-validate animal model for absence epilepsy, to explore the main starting region of absence seizures locally. An electrode with E = 16 sensors was vertically implanted in somatosensory cortex of GAERS, and potentials were recorded. In this study, we aim to localize the onset layers of somatosensory cortex during absence seizures and investigate the temporal evolution and dynamics of absence seizures using the recorded data. It is worth mentioning that all previous studies have investigated absence seizures using the data recorded from different regions of the brain, while this is the first study that performs the local exploration of absence seizures using the data recorded from different layers of somatosensory cortex, i.e., the main starting region of absence seizures.Using factor analysis, source separation, and blind deconvolution methods in different scenarios, we show that 1) the top and bottom layers of somatosensory cortex activate more than the other layers during absence seizures, 2) there is a background epileptic activity during absence seizures, 3) there are few activities or states which randomly activate with the background epileptic activity to generate the absence seizures, and 4) one of these states is dominant, and the others are unstable
APA, Harvard, Vancouver, ISO, and other styles
29

Gérard, Maxime. "Méthodes de sélection de structures presque complexes dans le cadre symplectique." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0051/document.

Full text
Abstract:
Étant donné une variété symplectique $(M,\omega)$, il existe toujours des structures presque complexes $\omega$-compatibles positives. La question qui nous intéresse est de trouver des méthodes de sélection de certaines de ces structures. Des réponses ont déjà été données par V. Apostolov et T.Draghici, J.G. Evans, et J. Keller et M. Lejmi. Nous nous intéressons ici principalement à des méthodes de sélection définies en termes du tenseur de Nijenhuis. De manière très générale, lorsqu'on veut sélectionner certaines données géométriques, on peut aborder le problème de différentes manières. L’une d’entre elles consiste à regarder la décomposition en composantes irréductibles de certains tenseurs naturellement associés à la structure considérée et poser des conditions sur certaines composantes. Nous avons montré que le tenseur de Nijenhuis est irréductible sous l'action du groupe unitaire. Cette irréductibilité ne nous permet pas d'imposer d'autre condition linéaire à ce tenseur que son annulation, qui correspond aux variétés de Kähler. Une autre méthode possible de sélection est d’imposer des conditions à certaines distributions liées au problème. Nous avons étudié des distributions liées au tenseur de Nijenhuis. Nous nous sommes intéressés ici aux dimensions et propriétés d’involutivité possibles de ces distributions. Nous donnons des exemples invariants sous l’action d’un groupe, construits sur des groupes symplectiques ou sur des fibrés de twisteurs sur une variété riemannienne. La dernière méthode envisagée dans ce travail est la considération de fonctionnelles définies à partir des données. Pour construire une fonctionnelle la plus simple possible en termes du tenseur de Nijenhuis, nous intégrons une fonction polynomiale du second degré en les composantes du tenseur de Nijenhuis. On montre qu’un tel polynôme est toujours un multiple de la norme au carré de ce tenseur. La fonctionnelle obtenue est celle étudiée par Evans. Elle est a priori peu intéressante pour notre problème de sélection car il a prouvé qu’on peut trouver des exemples de variétés symplectiques n’admettant aucune structure kählérienne mais telle que l’infimum de la fonctionnelle soit nul<br>Given a symplectic manifold $(M,\omega)$, there always exist almost complex $\omega,$-compatible positive structures. The problem studied in this thesis is to find methods to select some of these structures. Answers have already been suggested by V. Apostolov and T.Draghici, J. G. Evans, and J. Keller and M. Lejmi. We are mainly interested here in selection methods defined in terms of the Nijenhuis tensor. The problem of selecting geometric objects can be tackled in various ways. One of them is to decompose into irreducible components some tensors naturally associated with the structure, and to impose conditions on some of those components. We prove that the Nijenhuis tensor is irreducible under the action of the unitary group. This irreducibility does not allow to impose any linear condition on the Nijenhuis tensor, except the vanishing of it, which corresponds to Kähler manifolds. Another possible method of selection is to impose conditions on distributions related to the problem. We study distributions defined by the Nijenhuis tensor. Our results concern the possible dimensions and properties of involutivity of these distributions. We give examples which are invariant under the action of a group, on some symplectic groups and on twisted bundles over some Riemannian manifolds. The last method considered in this work consists in looking for extremals of functionals defined from the data. To construct the simplest functional defined in terms of the Nijenhuis tensor, we integrate a polynomial function of the second degree into the components of this tensor. All such polynomials are multiple of the square of the norm of this tensor. This functional is the one studied by Evans; the drawback for our selection problem is that there exist examples of compact symplectic manifolds which do not admit any K\"ahler structure but such that the infimum of the functional is zero
APA, Harvard, Vancouver, ISO, and other styles
30

Fillard, Pierre. "Riemannian processing of tensors for diffusion MRI and computational anatomy of the brain." Nice, 2008. http://www.theses.fr/2008NICE4002.

Full text
Abstract:
Symmetric, positive-definite matrices, or tensors, are nowadays a common geometrical tool for image processing and analysis. The recent emergence of diffusion tensor MRI (DTI) and computational anatomy (CA) brought importance of tensors out to the medical community. However, working with those is difficult: the positive-definite constraint must be satisfied at any cost, which cannot be ensured in general with standard matrix operations. In this work, we propose two alternatives to the standard Euclidean calculus on tensors. Instead of seeing the tensor space as a vector space, we consider it as a manifold, i. E. , a smooth curved space. Thanks to the Riemannian geometry, we are able to ``unfold'' this space, and to generalize any operation on tensors with astonishing simple implementations. In a second step, we review the applications of such frameworks in the context of clinical DTI and brain CA. In DTI, we show that very noisy data, typical of clinical acquisitions, can be optimally exploited and eventually produce a meaningful and clinically relevant fiber reconstruction. In brain CA, we show that, by considering simple brain anatomical landmarks - the sulcal lines - we are able to precisely measure the inter-individual variability of the cortex. Finally, we develop a new framework to study the anatomical correlations between brain regions, and present results of so far unknown relationships between symmetric sulcal positions, and between a-priori unrelated sulci, which raises new fundamental questions about the origin of such statistical dependencies<br>Les matrices symétriques et définies positives, ou tenseurs, sont aujourd'hui fréquemment utilisées en traitement et analyse des images. Leur importance a été mise à jour avec l'apparition récente de l'IRM du tenseur de diffusion (ITD) et de l'anatomie algorithmique (AA). Cependant, il est difficile de travailler avec : la contrainte de positivité doit être satisfaite à tout prix, ce qui n'est pas garanti avec les opérations matricielles standard. Dans ce travail, nous proposons deux alternatives au calcul euclidien sur les tenseurs. Au lieu de voir l'espace des tenseurs comme un espace vectoriel, nous le considérons comme une variété, i. E. , un espace courbe et lisse. Grâce à la géométrie riemannienne, il est alors possible de " déplier " cet espace et de généraliser aux tenseurs toute opération avec des implémentations étonnamment simples. Dans un deuxième temps, nous passons en revue les applications de tels cadres de calcul en ITD clinique et en AA du cerveau. En ITD, nous montrons qu'il est possible de traiter de manière optimale des données très bruitées typiques d'acquisitions cliniques, et de produire des reconstructions de fibres plausibles. En AA du cerveau, nous montrons qu'en considérant des repères anatomiques simples - les lignes sulcales - il est possible de mesurer précisément la variabilité interindividuelle du cortex. Finalement, nous développons un cadre nouveau pour étudier les corrélations anatomiques entre régions du cerveau, et présentons des résultats jusqu'à maintenant inconnus de dépendances entre sillons symétriques, et entre sillons à priori non reliés, soulevant ainsi de nouvelles questions sur l'origine de telles dépendances statistiques
APA, Harvard, Vancouver, ISO, and other styles
31

Harmouch, Jouhayna. "Décomposition de petit rang, problèmes de complétion et applications : décomposition de matrices de Hankel et des tenseurs de rang faible." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4236/document.

Full text
Abstract:
On étudie la décomposition de matrice de Hankel comme une somme des matrices de Hankel de rang faible en corrélation avec la décomposition de son symbole σ comme une somme des séries exponentielles polynomiales. On présente un nouvel algorithme qui calcule la décomposition d’un opérateur de Hankel de petit rang et sa décomposition de son symbole en exploitant les propriétés de l’algèbre quotient de Gorenstein . La base de est calculée à partir la décomposition en valeurs singuliers d’une sous-matrice de matrice de Hankel . Les fréquences et les poids se déduisent des vecteurs propres généralisés des sous matrices de Hankel déplacés de . On présente une formule pour calculer les poids en fonction des vecteurs propres généralisés au lieu de résoudre un système de Vandermonde. Cette nouvelle méthode est une généralisation de Pencil méthode déjà utilisée pour résoudre un problème de décomposition de type de Prony. On analyse son comportement numérique en présence des moments contaminés et on décrit une technique de redimensionnement qui améliore la qualité numérique des fréquences d’une grande amplitude. On présente une nouvelle technique de Newton qui converge localement vers la matrice de Hankel de rang faible la plus proche au matrice initiale et on montre son effet à corriger les erreurs sur les moments. On étudie la décomposition d’un tenseur multi-symétrique T comme une somme des puissances de produit des formes linéaires en corrélation avec la décomposition de son dual comme une somme pondérée des évaluations. On utilise les propriétés de l’algèbre de Gorenstein associée pour calculer la décomposition de son dual qui est définie à partir d’une série formelle τ. On utilise la décomposition d’un opérateur de Hankel de rang faible associé au symbole τ comme une somme des opérateurs indécomposables de rang faible. La base d’ est choisie de façon que la multiplication par certains variables soit possible. On calcule les coordonnées des points et leurs poids correspondants à partir la structure propre des matrices de multiplication. Ce nouvel algorithme qu’on propose marche bien pour les matrices de Hankel de rang faible. On propose une approche théorique de la méthode dans un espace de dimension n. On donne un exemple numérique de la décomposition d’un tenseur multilinéaire de rang 3 en dimension 3 et un autre exemple de la décomposition d’un tenseur multi-symétrique de rang 3 en dimension 3. On étudie le problème de complétion de matrice de Hankel comme un problème de minimisation. On utilise la relaxation du problème basé sur la minimisation de la norme nucléaire de la matrice de Hankel. On adapte le SVT algorithme pour le cas d’une matrice de Hankel et on calcule l’opérateur linéaire qui décrit les contraintes du problème de minimisation de norme nucléaire. On montre l’utilité du problème de décomposition à dissocier un modèle statistique ou biologique<br>We study the decomposition of a multivariate Hankel matrix as a sum of Hankel matrices of small rank in correlation with the decomposition of its symbol σ as a sum of polynomialexponential series. We present a new algorithm to compute the low rank decomposition of the Hankel operator and the decomposition of its symbol exploiting the properties of the associated Artinian Gorenstein quotient algebra . A basis of is computed from the Singular Value Decomposition of a sub-matrix of the Hankel matrix . The frequencies and the weights are deduced from the generalized eigenvectors of pencils of shifted sub-matrices of Explicit formula for the weights in terms of the eigenvectors avoid us to solve a Vandermonde system. This new method is a multivariate generalization of the so-called Pencil method for solving Pronytype decomposition problems. We analyse its numerical behaviour in the presence of noisy input moments, and describe a rescaling technique which improves the numerical quality of the reconstruction for frequencies of high amplitudes. We also present a new Newton iteration, which converges locally to the closest multivariate Hankel matrix of low rank and show its impact for correcting errors on input moments. We study the decomposition of a multi-symmetric tensor T as a sum of powers of product of linear forms in correlation with the decomposition of its dual as a weighted sum of evaluations. We use the properties of the associated Artinian Gorenstein Algebra to compute the decomposition of its dual which is defined via a formal power series τ. We use the low rank decomposition of the Hankel operator associated to the symbol τ into a sum of indecomposable operators of low rank. A basis of is chosen such that the multiplication by some variables is possible. We compute the sub-coordinates of the evaluation points and their weights using the eigen-structure of multiplication matrices. The new algorithm that we propose works for small rank. We give a theoretical generalized approach of the method in n dimensional space. We show a numerical example of the decomposition of a multi-linear tensor of rank 3 in 3 dimensional space. We show a numerical example of the decomposition of a multi-symmetric tensor of rank 3 in 3 dimensional space. We study the completion problem of the low rank Hankel matrix as a minimization problem. We use the relaxation of it as a minimization problem of the nuclear norm of Hankel matrix. We adapt the SVT algorithm to the case of Hankel matrix and we compute the linear operator which describes the constraints of the problem and its adjoint. We try to show the utility of the decomposition algorithm in some applications such that the LDA model and the ODF model
APA, Harvard, Vancouver, ISO, and other styles
32

Faiez, Sorkhabi Mohammad Reza. "Calcul théorique du couplage spin-orbite et du tenseur G dans les systèmes moléculaires." Nancy 1, 1992. http://www.theses.fr/1992NAN10070.

Full text
Abstract:
L'objectif le plus important de ce travail a été de mettre au point une méthode de calcul des grandeurs physiques dépendantes de l'interaction spin-orbite, dans le cadre des méthodes semi-empiriques et en particulier de la méthode indo. Nous avons développé des algorithmes originaux qui ont été utilisés pour calculer le tenseur G qui joue un rôle central dans la spectroscopie de résonance de spin électronique. Notre calcul est basé sur la théorie des perturbations finies
APA, Harvard, Vancouver, ISO, and other styles
33

Nguyen, Viet anh. "Contributions to tensor models, Hurwitz numbers and Macdonald-Koornwinder polynomials." Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0052/document.

Full text
Abstract:
Dans cette thèse, j’étudie trois sujets reliés : les modèles de tenseurs, les nombres de Hurwitz et les polynômes de Macdonald-Koornwinder. Les modèles de tenseurs généralisent les modèles de matrices en tant qu’une approche à la gravité quantique en dimension arbitraire (les modèles de matrices donnent une version bidimensionnelle). J’étudie un modèle particulier qui s’appelle le modèle quartique mélonique. Sa spécialité est qu’il s’écrit en termes d’un modèle de matrices qui est lui-même aussi intéressant. En utilisant les outils bien établis, je calcule les deux premiers ordres de leur 1=N expansion. Parmi plusieurs interprétations, les nombres de Hurwitz comptent le nombre de revêtements ramifiés de surfaces de Riemann. Ils sont connectés avec de nombreux sujets en mathématiques contemporaines telles que les modèles de matrices, les équations intégrables et les espaces de modules. Ma contribution principale est une formule explicite pour les nombres doubles avec 3-cycles complétées d’une part. Cette formule me permet de prouver plusieurs propriétés intéressantes de ces nombres. Le dernier sujet de mon étude est les polynôme de Macdonald et Koornwinder, plus précisément les identités de Littlewood. Ces polynômes forment les bases importantes de l’algèbre des polynômes symétriques. Un des problèmes intrinsèques dans la théorie des fonctions symétriques est la décomposition d’un polynôme symétrique dans la base de Macdonald. La décomposition obtenue (notamment si les coefficients sont raisonnablement explicites et compacts) est nommée une identité de Littlewood. Dans cette thèse, j’étudie les identités démontrées récemment par Rains et Warnaar. Mes contributions incluent une preuve d’une extension d’une telle identité et quelques progrès partiels vers la généralisation d’une autre<br>In this thesis, I study three related subjects: tensor models, Hurwitz numbers and Macdonald-Koornwinder polynomials. Tensor models are generalizations of matrix models as an approach to quantum gravity in arbitrary dimensions (matrix models give a 2D version). I study a specific model called the quartic melonic tensor model. Its specialty is that it can be transformed into a multi-matrix model which is very interesting by itself. With the help of well-established tools, I am able to compute the first two leading orders of their 1=N expansion. Among many interpretations, Hurwitz numbers count the number of weighted ramified coverings of Riemann surfaces. They are connected to many subjects of contemporary mathematics such as matrix models, integrable equations and moduli spaces of complex curves. My main contribution is an explicit formula for one-part double Hurwitz numbers with completed 3-cycles. This explicit formula also allows me to prove many interesting properties of these numbers. The final subject of my study is Macdonald-Koornwinder polynomials, in particular their Littlewood identities. These polynomials form important bases of the algebra of symmetric polynomials. One of the most important problems in symmetric function theory is to decompose a symmetric polynomial into the Macdonald basis. The obtained decomposition (in particular, if the coefficients are explicit and reasonably compact) is called a Littlewood identity. In this thesis, I study many recent Littlewood identities of Rains and Warnaar. My own contributions include a proof of an extension of one of their identities and partial progress towards generalization of one another
APA, Harvard, Vancouver, ISO, and other styles
34

Olivier, Clément. "Décompositions tensorielles et factorisations de calculs intensifs appliquées à l'identification de modèles de comportement non linéaire." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM040/document.

Full text
Abstract:
Cette thèse développe une méthodologie originale et non intrusive de construction de modèles de substitution applicable à des modèles physiques multiparamétriques.La méthodologie proposée permet d’approcher en temps réel, sur l’ensemble du domaine paramétrique, de multiples quantités d’intérêt hétérogènes issues de modèles physiques.Les modèles de substitution sont basés sur des représentations en train de tenseurs obtenues lors d'une phase hors ligne de calculs intensifs.L'idée essentielle de la phase d'apprentissage est de construire simultanément les approximations en se basant sur un nombre limité de résolutions du modèle physique lancées à la volée.L'exploration parcimonieuse du domaine paramétrique couplée au format compact de train de tenseurs permet de surmonter le fléau de la dimension.L'approche est particulièrement adaptée pour traiter des modèles présentant un nombre élevé de paramètres définis sur des domaines étendus.Les résultats numériques sur des lois élasto-viscoplastiques non linéaires montrent que des modèles de substitution compacts en mémoire qui approchent précisément les différentes variables mécaniques dépendantes du temps peuvent être obtenus à des coûts modérés.L'utilisation de tels modèles exploitables en temps réel permet la conception d'outils d'aide à la décision destinés aux experts métiers dans le cadre d'études paramétriques et visent à améliorer la procédure de calibration des lois matériaux<br>This thesis presents a novel non-intrusive methodology to construct surrogate models of parametric physical models.The proposed methodology enables to approximate in real-time, over the entire parameter space, multiple heterogeneous quantities of interest derived from physical models.The surrogate models are based on tensor train representations built during an intensive offline computational stage.The fundamental idea of the learning stage is to construct simultaneously all tensor approximations based on a reduced number of solutions of the physical model obtained on the fly.The parsimonious exploration of the parameter space coupled with the compact tensor train representation allows to alleviate the curse of dimensionality.The approach accommodates particularly well to models involving many parameters defined over large domains.The numerical results on nonlinear elasto-viscoplastic laws show that compact surrogate models in terms of memory storage that accurately predict multiple time dependent mechanical variables can be obtained at a low computational cost.The real-time response provided by the surrogate model for any parameter value allows the implementation of decision-making tools that are particularly interesting for experts in the context of parametric studies and aim at improving the procedure of calibration of material laws
APA, Harvard, Vancouver, ISO, and other styles
35

Guihard, Vincent. "Homogénéisation de grandeurs électromagnétiques dans les milieux cimentaires pour le calcul de teneur en eau." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30165/document.

Full text
Abstract:
La quantité et la distribution de l'eau interstitielle dans l'espace poral des milieux cimentaires sont des marqueurs fondamentaux de la durabilité des structures de Génie Civil en béton. La connaissance de ces grandeurs est également importante pour l'interprétation de certains essais non destructifs mis en œuvre pour évaluer les performances mécaniques des ouvrages ou détecter certains défauts. L'évaluation de la teneur en eau par méthode non-destructive requiert l'utilisation d'une grandeur intermédiaire telle que la permittivité diélectrique. La relation entre cette propriété électromagnétique et la teneur en eau dépend alors de la composition et donc de la formulation du béton. En électromagnétisme, les lois d'homogénéisation permettent de lier la permittivité effective d'un matériau hétérogène avec la permittivité intrinsèque et la fraction volumique de chaque hétérogénéité présente. Afin de pallier le temps important requis pour l'établissement d'une courbe de calibration expérimentale propre à chaque formulation, l'étude présentée propose la mise en place d'une démarche d'homogénéisation de la permittivité pour lier quantité d'eau présente dans un béton et permittivité macroscopique du matériau. Les travaux présentés rapportent la fabrication, la modélisation et l'utilisation de sondes coaxiales ouvertes pour la mesure de la permittivité complexe de matériaux solides et liquides. Le concept d'estimation de la teneur en eau par utilisation de lois d'homogénéisation est validé pour le cas d'un sable partiellement saturé en eau. Au vu des résultats prometteurs obtenus par modélisation analytique, des schémas d'homogénéisation sont combinés lors d'un processus de remontée d'échelle depuis celle des hydrates jusqu'à celle des granulats, en tenant compte de la morphologie de la microstructure. Les propriétés intrinsèques des principaux constituants d'un béton (granulats, hydrates, ciment anhydre) sont alors mesurées par sonde coaxiale et utilisées en données d'entrée du modèle construit. Une bonne cohérence est observée entre parties réelles de la permittivité simulées et mesurées, pour des échantillons de pâtes de ciment, mortiers et bétons. A la différence des lois expérimentales et empiriques, le modèle construit se caractérise par un temps de calcul quasi-instantané et peut être adapté d'une formulation de béton à une autre en fonction du type de ciment utilisé, de la nature et de la quantité de granulats ou encore de la porosité accessible à l'eau du matériau<br>Prediction of delayed behavior in concrete can be significantly improved by monitoring the amount and spatial distribution of water within a concrete structure over time. Water content of cement-based materials can also be required to interpret non-destructive tests such as ultrasonic and radar measurements. Electromagnetic properties of heterogeneous and porous materials, such as dielectric permittivity, are closely related to water content. Measurement of these properties is thus a common non-destructive technique used to assess the moisture content, but a calibration curve is required to link the measured permittivity to the saturation degree. This curve can be determined experimentally, or from empirical models. However, the first approach is tedious and time consuming, while the second one is not adapted to concrete. Hence, this contribution proposes an alternative route, relying on electromagnetic homogenization schemes, to connect the macroscopic permittivity of cement-based materials with the water content of the structure. Therefore, different open-ended coaxial probes were designed, modelled and tested in order to perform complex permittivity measurements of both solids and liquids. The homogenization approach is first validated on unsaturated sand. Then, the permittivity of concrete components (aggregates, hydrates, interstitial liquid, anhydrous cement) was assessed by means of coaxial probe measurements. Finally, a specific combination of analytical homogenization laws taking into account the microstructure's morphology of the material is built. Results show that there is a good correlation between the model and measurements acquired on different cement pastes, mortars and concretes, at different saturation degrees. The model is characterized by a quasi-instantaneous calculation time and can be adapted to different concretes depending on cement type, nature and quantity aggregates or porosity
APA, Harvard, Vancouver, ISO, and other styles
36

Akl, Adib. "Analyse / synthèse de champs de tenseurs de structure : application à la synthèse d’images et de volumes texturés." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0009/document.

Full text
Abstract:
Cette thèse s’inscrit dans le contexte de la synthèse d’images texturées. Dans l’objectif d’assurer une reproduction fidèle des motifs et des variations d’orientations d’une texture initiale, un algorithme de synthèse de texture à deux étapes « structure/texture » est proposé. Il s’agit, dans une première étape, de réaliser la synthèse d’une couche de structure caractérisant la géométrie de l’exemplaire et représentée par un champ de tenseurs de structure et, dans une deuxième étape, d’utiliser le champ de structure résultant pour contraindre la synthèse d’une couche de texture portant des variations plus locales. Une réduction du temps d’exécution est ensuite développée, fondée notamment sur l’utilisation de pyramides Gaussiennes et la parallélisation des calculs mis en oeuvre.Afin de démontrer la capacité de l’algorithme proposé à reproduire fidèlement l’aspect visuel des images texturées considérées, la méthode est testée sur une variété d’échantillons de texture et évaluée objectivement à l’aide de statistiques du 1er et du 2nd ordre du champ d’intensité et d’orientation. Les résultats obtenus sont de qualité supérieure ou équivalente à ceux obtenus par des algorithmes de la littérature. Un atout majeur de l’approche proposée est son aptitude à synthétiser des textures avec succès dans de nombreuses situations où les algorithmes existants ne parviennent pas à reproduire les motifs à grande échelle.L’approche de synthèse structure/texture proposée est étendue à la synthèse de texture couleur. La synthèse de texture 3D est ensuite abordée et, finalement, une extension à la synthèse de texture de forme spécifiée par une texture imposée est mise en oeuvre, montrant la capacité de l’approche à générer des textures de formes arbitraires en préservant les caractéristiques de la texture initiale<br>This work is a part of the texture synthesis context. Aiming to ensure a faithful reproduction of the patterns and variations of orientations of the input texture, a two-stage structure/texture synthesis algorithm is proposed. It consists of synthesizing the structure layer showing the geometry of the exemplar and represented by the structure tensor field in the first stage, and using the resulting tensor field to constrain the synthesis of the texture layer holding more local variations, in the second stage. An acceleration method based on the use of Gaussian pyramids and parallel computing is then developed.In order to demonstrate the ability of the proposed algorithm to faithfully reproduce the visual aspect of the considered textures, the method is tested on various texture samples and evaluated objectively using statistics of 1st and 2nd order of the intensity and orientation field. The obtained results are of better or equivalent quality than those obtained using the algorithms of the literature. A major advantage of the proposed approach is its capacity in successfully synthesizing textures in many situations where traditional algorithms fail to reproduce the large-scale patterns.The structure/texture synthesis approach is extended to color texture synthesis. 3D texture synthesis is then addressed and finally, an extension to the synthesis of specified form textures using an imposed texture is carried out, showing the capacity of the approach in generating textures of arbitrary forms while preserving the input texture characteristics
APA, Harvard, Vancouver, ISO, and other styles
37

Gérard, Maxime. "Méthodes de sélection de structures presque complexes dans le cadre symplectique." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0051.

Full text
Abstract:
Étant donné une variété symplectique (M,ω), il existe toujours des structures presque complexes ω-compatibles positives. La question qui nous intéresse est de trouver des méthodes de sélection de certaines de ces structures. Des réponses ont déjà été données par V. Apostolov et T.Draghici, J.G. Evans, et J. Keller et M. Lejmi. Nous nous intéressons ici principalement à des méthodes de sélection définies en termes du tenseur de Nijenhuis. De manière très générale, lorsqu'on veut sélectionner certaines données géométriques, on peut aborder le problème de différentes manières. L’une d’entre elles consiste à regarder la décomposition en composantes irréductibles de certains tenseurs naturellement associés à la structure considérée et poser des conditions sur certaines composantes. Nous avons montré que le tenseur de Nijenhuis est irréductible sous l'action du groupe unitaire. Cette irréductibilité ne nous permet pas d'imposer d'autre condition linéaire à ce tenseur que son annulation, qui correspond aux variétés de Kähler. Une autre méthode possible de sélection est d’imposer des conditions à certaines distributions liées au problème. Nous avons étudié des distributions liées au tenseur de Nijenhuis. Nous nous sommes intéressés ici aux dimensions et propriétés d’involutivité possibles de ces distributions. Nous donnons des exemples invariants sous l’action d’un groupe, construits sur des groupes symplectiques ou sur des fibrés de twisteurs sur une variété riemannienne. La dernière méthode envisagée dans ce travail est la considération de fonctionnelles définies à partir des données. Pour construire une fonctionnelle la plus simple possible en termes du tenseur de Nijenhuis, nous intégrons une fonction polynomiale du second degré en les composantes du tenseur de Nijenhuis. On montre qu’un tel polynôme est toujours un multiple de la norme au carré de ce tenseur. La fonctionnelle obtenue est celle étudiée par Evans. Elle est a priori peu intéressante pour notre problème de sélection car il a prouvé qu’on peut trouver des exemples de variétés symplectiques n’admettant aucune structure kählérienne mais telle que l’infimum de la fonctionnelle soit nul<br>Given a symplectic manifold (M, ω), there always exist almost complex ω-compatible positive structures. The problem studied in this thesis is to find methods to select some of these structures. Answers have already been suggested by V. Apostolov and T.Draghici, J. G. Evans, and J. Keller and M. Lejmi. We are mainly interested here in selection methods defined in terms of the Nijenhuis tensor. The problem of selecting geometric objects can be tackled in various ways. One of them is to decompose into irreducible components some tensors naturally associated with the structure, and to impose conditions on some of those components. We prove that the Nijenhuis tensor is irreducible under the action of the unitary group. This irreducibility does not allow to impose any linear condition on the Nijenhuis tensor, except the vanishing of it, which corresponds to Kähler manifolds. Another possible method of selection is to impose conditions on distributions related to the problem. We study distributions defined by the Nijenhuis tensor. Our results concern the possible dimensions and properties of involutivity of these distributions. We give examples which are invariant under the action of a group, on some symplectic groups and on twisted bundles over some Riemannian manifolds. The last method considered in this work consists in looking for extremals of functionals defined from the data. To construct the simplest functional defined in terms of the Nijenhuis tensor, we integrate a polynomial function of the second degree into the components of this tensor. All such polynomials are multiple of the square of the norm of this tensor. This functional is the one studied by Evans; the drawback for our selection problem is that there exist examples of compact symplectic manifolds which do not admit any K\"ahler structure but such that the infimum of the functional is zero
APA, Harvard, Vancouver, ISO, and other styles
38

Lestandi, Lucas. "Approximations de rang faible et modèles d'ordre réduit appliqués à quelques problèmes de la mécanique des fluides." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0186/document.

Full text
Abstract:
Les dernières décennies ont donné lieux à d'énormes progrès dans la simulation numérique des phénomènes physiques. D'une part grâce au raffinement des méthodes de discrétisation des équations aux dérivées partielles. Et d'autre part grâce à l'explosion de la puissance de calcul disponible. Pourtant, de nombreux problèmes soulevés en ingénierie tels que les simulations multi-physiques, les problèmes d'optimisation et de contrôle restent souvent hors de portée. Le dénominateur commun de ces problèmes est le fléau des dimensions. Un simple problème tridimensionnel requiert des centaines de millions de points de discrétisation auxquels il faut souvent ajouter des milliers de pas de temps pour capturer des dynamiques complexes. L'avènement des supercalculateurs permet de générer des simulations de plus en plus fines au prix de données gigantesques qui sont régulièrement de l'ordre du pétaoctet. Malgré tout, cela n'autorise pas une résolution ``exacte'' des problèmes requérant l'utilisation de plusieurs paramètres. L'une des voies envisagées pour résoudre ces difficultés est de proposer des représentations ne souffrant plus du fléau de la dimension. Ces représentations que l'on appelle séparées sont en fait un changement de paradigme. Elles vont convertir des objets tensoriels dont la croissance est exponentielle $n^d$ en fonction du nombre de dimensions $d$ en une représentation approchée dont la taille est linéaire en $d$. Pour le traitement des données tensorielles, une vaste littérature a émergé ces dernières années dans le domaine des mathématiques appliquées.Afin de faciliter leurs utilisations dans la communauté des mécaniciens et en particulier pour la simulation en mécanique des fluides, ce manuscrit présente dans un vocabulaire rigoureux mais accessible les formats de représentation des tenseurs et propose une étude détaillée des algorithmes de décomposition de données qui y sont associées. L'accent est porté sur l'utilisation de ces méthodes, aussi la bibliothèque de calcul texttt{pydecomp} développée est utilisée pour comparer l'efficacité de ces méthodes sur un ensemble de cas qui se veut représentatif. La seconde partie de ce manuscrit met en avant l'étude de l'écoulement dans une cavité entraînée à haut nombre de Reynolds. Cet écoulement propose une physique très riche (séquence de bifurcation de Hopf) qui doit être étudiée en amont de la construction de modèle réduit. Cette étude est enrichie par l'utilisation de la décomposition orthogonale aux valeurs propres (POD). Enfin une approche de construction ``physique'', qui diffère notablement des développements récents pour les modèles d'ordre réduit, est proposée. La connaissance détaillée de l'écoulement permet de construire un modèle réduit simple basé sur la mise à l'échelle des fréquences d'oscillation (time-scaling) et des techniques d'interpolation classiques (Lagrange,..)<br>Numerical simulation has experienced tremendous improvements in the last decadesdriven by massive growth of computing power. Exascale computing has beenachieved this year and will allow solving ever more complex problems. But suchlarge systems produce colossal amounts of data which leads to its own difficulties.Moreover, many engineering problems such as multiphysics or optimisation andcontrol, require far more power that any computer architecture could achievewithin the current scientific computing paradigm. In this thesis, we proposeto shift the paradigm in order to break the curse of dimensionality byintroducing decomposition and building reduced order models (ROM) for complexfluid flows.This manuscript is organized into two parts. The first one proposes an extendedreview of data reduction techniques and intends to bridge between appliedmathematics community and the computational mechanics one. Thus, foundingbivariate separation is studied, including discussions on the equivalence ofproper orthogonal decomposition (POD, continuous framework) and singular valuedecomposition (SVD, discrete matrices). Then a wide review of tensor formats andtheir approximation is proposed. Such work has already been provided in theliterature but either on separate papers or into a purely applied mathematicsframework. Here, we offer to the data enthusiast scientist a comparison ofCanonical, Tucker, Hierarchical and Tensor train formats including theirapproximation algorithms. Their relative benefits are studied both theoreticallyand numerically thanks to the python library texttt{pydecomp} that wasdeveloped during this thesis. A careful analysis of the link between continuousand discrete methods is performed. Finally, we conclude that for mostapplications ST-HOSVD is best when the number of dimensions $d$ lower than fourand TT-SVD (or their POD equivalent) when $d$ grows larger.The second part is centered on a complex fluid dynamics flow, in particular thesingular lid driven cavity at high Reynolds number. This flow exhibits a seriesof Hopf bifurcation which are known to be hard to capture accurately which iswhy a detailed analysis was performed both with classical tools and POD. Oncethis flow has been characterized, emph{time-scaling}, a new ``physics based''interpolation ROM is presented on internal and external flows. This methodsgives encouraging results while excluding recent advanced developments in thearea such as EIM or Grassmann manifold interpolation
APA, Harvard, Vancouver, ISO, and other styles
39

Habib, Georges. "Tenseur d'impulsion-énergie et feuilletages." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00116770.

Full text
Abstract:
Le sujet principal de cette thèse est d'interpréter le tenseur d'impulsion-énergie dans le cadre des feuilletages. On s'intéresse dans un premier temps à la géométrie spinorielle transverse, i.e. celle du fibré normal. On définit l'opérateur de Dirac basique sur un feuilletage riemannian et on établit une formule de type Schrodinger-Lichnerowicz. On donne ainsi des inégalités de type Friedrich et de type Kirchberg dans le cas d'un feuilletage kahlérien et une estimation dans le cas d'un feuilletage kahler-quaternionien. Le cas des flots riemanniens va permettre de mieux comprendre le tenseur d'impulsion-énergie dans le cadre des feuilletages. Il apparait comme un tenseur naturel antisymétrique permettant de le voir comme le tenseur d'O'Neill du flot. Finalement, on caractérise le cas de dimension 3 par une solution de l'équation de Dirac.
APA, Harvard, Vancouver, ISO, and other styles
40

Foix, Dominique. "Caractéristiques structurales et électroniques de verres chalcogénures : Etude par spectroscopie photoélectronique à rayonnement X (XPS) et calculs quantiques." Pau, 2002. http://www.theses.fr/2002PAUU3032.

Full text
Abstract:
Ce travail a été consacré à l'analyse de verres chalcogénures par spectroscopie photoélectronique à rayonnement X (XPS) couplée à des calculs quantiques. Une première partie du mémoire traite de verres thiosilicates et thiogermanates pour lesquels une analyse des pics de cœur XPS a permis de dégager certaines conclusions quant à l'influence d'un changement de teneur et de nature de l'agent modificateur. Pour approfondir les résultats expérimentaux, nous avons réalisé des calculs ab-initio en formalisme Hartree Fock sur les verres thiogermanates. L'analyse des spectres de valence XPS (des verres thiogermanates et thiosilicates) a également été réalisée à partir d'une étude approfondie effectuée en calcul périodique FPLAPW, sur les phases cristallisées GeS2, Na2GeS3 et SiS2. Un deuxième aspect de cette thèse concerne le suivi, lors de la mise en solution, des évolutions chimiques à la surface de membranes de capteurs chimiques à base de verres thioarséniates et sensibles aux ions cuivre<br>The aim of this work is the analysis by X-Ray Photoelectron Spectroscopy (XPS) of chalcogenide glasses associated with theoretical calculations. The first part of this report deals with thiosilicate and thiogermanate glasses for which a XPS analyses of core peaks allowed us to determine the influence of a change of modifier content and nature. In order to support the experimental results, ab initio calculations (HF - LanL2DZ) were performed on clusters modelling thiogermanate glasses. Beside this core peak study, the XPS valence spectra of thiogermanate and thiosilicates glasses were analysed. These analyses were based on theoretical calculations performed in a FPLAPW method on reference crystalline materials such as GeS2, Na2GeS3 et SiS2. The second part of this report concerns the study of the chemical evolution (for soaked samples) at the surface of a membrane of chemical sensors based on thioarseniate glasses and sensitive to cupric ions
APA, Harvard, Vancouver, ISO, and other styles
41

Deguillard, Estelle. "Simulations de Dynamique Particulaire Dissipative pour le calcul de tension interfaciale dans des systèmes eau/tensioactif/huile." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112288/document.

Full text
Abstract:
La tension interfaciale est une grandeur physico-chimique d'intérêt pour de nombreuses industries et notamment l'industrie pétrolière. Cette grandeur est l'un des paramètres qui permet d'optimiser le rendement d'un puits de pétrole. La difficulté liée à sa mesure dans les conditions réservoirs a amené à étudier les systèmes eau/tensioactif/huile par simulation moléculaire. Ce travail a permis de montrer que la Dynamique Particulaire Dissipative (DPD) était un outil adapté pour l’étude de systèmes eau/tensioactif/huile sous différents aspects, de la caractérisation de la structure des interfaces au calcul de la tension interfaciale. Cette thèse a permis la démonstration de l’influence non-négligeable de la variation des paramètres de la force harmonique, l’amplitude K et la distance d’équilibre r0 , sur le calcul de la tension interfaciale et sur la structure des interfaces à forte concentration en tensioactif. En effet, la structure des tensioactifs aux interfaces est le résultat d’une balance subtile entre les forces intra et inter moléculaire. L’étude d’une population modèle de tensioactifs non chargés a permis de montrer que la DPD reproduit bien l'évolution de la tension interfaciale en fonction de la concentration en tensioactif en solution et en fonction du coefficient de partage de tensioactifs modèles non chargés. Une méthodologie est proposée pour caractériser les systèmes contenant des interfaces et où la tension interfaciale est calculée.Des travaux prospectifs ont permis de montrer que la DPD permettait d'étudier des phénomènes liés à la tension interfaciale comme le mûrissement d'Ostwald dans les émulsions d'huile dans l'eau. Ces derniers travaux ouvrent la voie à l’étude d’autres systèmes d’intérêt pour le milieu pétrolier comme le décollement de gouttes de pétroles adsorbées sur des parois ou l’étude d’émulsions pétrolières<br>The interfacial tension is a physical-chemical property that numerous industrial areas have an interest of especially the petroleum industry. This property is one of the many which helps to optimize production wells' rate of return. Measuring that property in reservoir's conditions (high pressure and temperature) is highly difficult and led to study water/surfactant/oil systems using molecular modeling. The difficulty to measure that specific physical-chemical property linked to the pressure and temperature conditions in the reservoirs led the scientists to study water/surfactant/oil systems using molecular modeling. This thesis establishes that the Dissipative Particle Dynamics (DPD) is able to study water/surfactant/oil systems. The study of the effect of the variation of the harmonic force's parameters, namely the force constant K and the equilibrium distance r0, demonstrated that their variation can heavily influence the interfacial tension computation. Actually, a subtle balance exists between the intra and inter-molecular interactions, which influences the local structure of the surfactants at the oil-water interface, modifies the interfacial tension and influences the interface stability. It was demonstrated that DPD reproduces the variation of interfacial tension with the bulk surfactant concentration and the effect of the variation of hydrophobicity of models of un-charged surfactants on interfacial tension by mean of their coefficient partition. We established a method to properly study systems containing interfaces where interfacial tension is computed. Prospective work showed that DPD was a good tool to study microscopic phenomenon which can be observed macroscopically like the Ostwald ripening in oil in water emulsions. This is a first step before studying others systems of interest for the petroleum industry such as oil/water emulsion or the adsorption of oil droplets on rock wall
APA, Harvard, Vancouver, ISO, and other styles
42

Boudehane, Abdelhak. "Structured-joint factor estimation for high-order and large-scale tensors." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG085.

Full text
Abstract:
Les données et les signaux multidimensionnels occupent une place importante dans les applications modernes. La décomposition tensorielle est un outil mathématique puissant permettant de modéliser les données et les signaux multidimensionnels, tout en préservant les relations interdimensionnelles. Le modèle Canonique Polyadique (CP), un modèle de décomposition tensorielle largement utilisé, est unique à des indéterminations d'échelle et de permutation près. Cette propriété facilite l'interprétation physique, ce qui a encouragé l'intégration du modèle CP dans divers contextes. Le défi auquel est confrontée la modélisation tensorielle est la complexité de calcul et l'espace mémoire requis. Les tenseurs d'ordre élevé représentent un problème délicat, car la complexité de calcul et l'espace mémoire requis augmentent de façon exponentielle en fonction de l'ordre. Les tenseurs de grandes tailles (lorsque le nombre de variables selon une ou plusieurs dimensions du tenseur est important) ajoute un fardeau supplémentaire. La théorie des réseaux de tenseurs (Tensor Networks - TN) est une piste prometteuse, permettant de réduire les problèmes d'ordre élevé en un ensemble de problèmes d'ordre réduit. En particulier, le modèle Tensor-Train (TT), l'un des modèles TN, est un terrain intéressant pour la réduction de la dimensionnalité. Cependant, représenter un modèle CP par une représentation TT est extrêmement coûteux dans le cas des tenseurs de grande taille, car il nécessite la matricisation complète du tenseur, ce qui peut dépasser la capacité mémoire.Dans cette thèse, nous étudions la réduction de la dimensionnalité dans le contexte de la décomposition tensorielle sous-contrainte de sparsité et la décomposition couplée d'ordre élevé. Sur la base des résultats du schéma JIRAFE (Joint dImensionality Reduction And Factor rEtrieval), nous utilisons la flexibilité du modèle TT pour intégrer les contraintes physiques et les connaissances préalables sur les facteurs, dans le but de réduire le temps de calcul. Pour les problèmes de grandes tailles, nous proposons un schéma permettant de paralléliser et de randomiser les différentes étapes, i.e., la réduction de dimensionnalité et l'estimation des facteurs du modèle CP. Nous proposons également une stratégie basée sur la grille de tenseur, permettant un traitement entièrement parallèle pour le cas des très grandes tailles et de la décomposition tensorielle dynamique<br>Multidimensional data sets and signals occupy an important place in recent application fields. Tensor decomposition represents a powerful mathematical tool for modeling multidimensional data and signals, without losing the interdimensional relations. The Canonical Polyadic (CP) model, a widely used tensor decomposition model, is unique up to scale and permutation indeterminacies. This property facilitates the physical interpretation, which has led the integration of the CP model in various contexts. The main challenge facing the tensor modeling is the computational complexity and memory requirements. High-order tensors represent a important issue, since the computational complexity and the required memory space increase exponentially with respect to the order. Another issue is the size of the tensor in the case of large-scale problems, which adds another burden to the complexity and memory. Tensor Networks (TN) theory is a promising framework, allowing to reduce high-order problems into a set of lower order problems. In particular, the Tensor-Train (TT) model, one of the TN models, is an interesting ground for dimensionality reduction. However, respresenting a CP tensor using a TT model, is extremely expensive in the case of large-scale tensors, since it requires full matricization of the tensor, which may exceed the memory capacity.In this thesis, we study the dimensionality reduction in the context of sparse-coding and high-order coupled tensor decomposition. Based on the results of Joint dImensionality Reduction And Factor rEtrieval (JIRAFE) scheme, we use the flexibility of the TT model to integrate the physical driven constraints and the prior knowledge on the factors, with the aim to reduce the computation time. For large-scale problems, we propose a scheme allowing to parallelize and randomize the different steps, i.e., the dimensionality reduction and the factor estimation. We also propose a grid-based strategy, allowing a full parallel processing for the case of very large scales and dynamic tensor decomposition
APA, Harvard, Vancouver, ISO, and other styles
43

Neyt, Jean-Claude. "Calcul de la tension interfaciale de mélanges gaz / eau, gaz / huile et huile / eau par simulation moléculaire." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00962483.

Full text
Abstract:
La prédiction de valeurs de tension interfaciale des fluides est capitale dans de nombreuses applications industrielles. Les techniques de simulation moléculaire et l'évolution rapide des moyens de calcul intensif permettent depuis quelques années de prédire des valeurs de tension interfaciale pour des systèmes complexes. Des travaux concernant des équilibres liquide / vapeur des corps purs SO2, O2, N2 et Ar montrent que les modèles choisi pour chaque molécule peuvent influencer la qualité des prédictions de tension interfaciale. Des simulations d'équilibres gaz acide / alcane de type CO2 / n-butane, CO2 / n-décane et H2S / n-pentane ont ensuite été réalisées. Elles ont mis en évidence l'efficacité des méthodes de simulation de type Monte Carlo pour la prédiction des tensions interfaciales pour de tels systèmes. L'étude de systèmes ternaires H2O / N2+CH4 et H2O / CO2+H2S a par ailleurs montré que le recourt à la dynamique moléculaire pouvait faciliter l'équilibration des systèmes simulés, rendant plus efficace la prédiction des tensions interfaciales. L'étude d'équilibres liquide / vapeur de saumures de chlorure de sodium a permis de mettre en évidence l'efficacité de certains potentiels non-polarisables pour la prédiction de l'évolution de la tension interfaciale avec la molarité de sel. Les modèles polarisables de type core-shell choisis ne permettent de prédire ni les masses volumiques, ni les tensions interfaciales. Enfin, l'étude d'équilibres eau / alcane en présence de sel ou de méthanol a montré que les méthodes de dynamique moléculaire permettaient de prédire quantitativement des valeurs de tension interfaciale pour ce type d'interface. L'effet de l'alcool abaissant la tension interfaciale a bien été observé, tout comme son placement préférentiel à l'interface.
APA, Harvard, Vancouver, ISO, and other styles
44

Rabusseau, Guillaume. "A tensor perspective on weighted automata, low-rank regression and algebraic mixtures." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4062.

Full text
Abstract:
Ce manuscrit regroupe différents travaux explorant les interactions entre les tenseurs et l'apprentissage automatique. Le premier chapitre est consacré à l'extension des modèles de séries reconnaissables de chaînes et d'arbres aux graphes. Nous y montrons que les modèles d'automates pondérés de chaînes et d'arbres peuvent être interprétés d'une manière simple et unifiée à l'aide de réseaux de tenseurs, et que cette interprétation s'étend naturellement aux graphes ; nous étudions certaines propriétés de ce modèle et présentons des résultats préliminaires sur leur apprentissage. Le second chapitre porte sur la minimisation approximée d'automates pondérés d'arbres et propose une approche théoriquement fondée à la problématique suivante : étant donné un automate pondéré d'arbres à n états, comment trouver un automate à m<br>This thesis tackles several problems exploring connections between tensors and machine learning. In the first chapter, we propose an extension of the classical notion of recognizable function on strings and trees to graphs. We first show that the computations of weighted automata on strings and trees can be interpreted in a natural and unifying way using tensor networks, which naturally leads us to define a computational model on graphs: graph weighted models; we then study fundamental properties of this model and present preliminary learning results. The second chapter tackles a model reduction problem for weighted tree automata. We propose a principled approach to the following problem: given a weighted tree automaton with n states, how can we find an automaton with m
APA, Harvard, Vancouver, ISO, and other styles
45

Zniyed, Yassine. "Breaking the curse of dimensionality based on tensor train : models and algorithms." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS330.

Full text
Abstract:
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D &gt; 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais<br>Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D&gt; 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems
APA, Harvard, Vancouver, ISO, and other styles
46

Teh, Winh-Chhunn. "L’épidémie des calculs rénaux. Approche physiopathologique alliant RMN à l’état solide et IRM." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS492.

Full text
Abstract:
La lithiase urinaire est un problème de santé publique majeur en particulier dans les pays développés occidentaux. Des populations de plus en jeunes sont touchées. En France les dépenses annuelles reliées aux traitements médicamenteux, aux actes chirurgicaux et aux éventuels traitements sous dialyse approchent les 800 millions d’euros. Les calcifications pathologiques de type calculs rénaux sont des composés extrêmement complexes à caractériser et à l’heure actuelle, leur formation in situ au sein du corps humain reste encore entourée de mystères, et ce, malgré de très nombreuses études cliniques in vivo et ex vivo. La complexité est avant tout de nature chimique, la composition de chaque calcul rénal étant particulière. Un calcul rénal est généralement composé de phases minérales et organiques constituant ainsi un dérivé hybride organique inorganique (à plusieurs échelles de taille). Deux phases d’oxalates de calcium hydraté sont surreprésentées, à savoir la whewellite, CaC2O4.H2O, et la weddellite, CaC2O4.2H2O. La deuxième famille la plus représentée correspond aux phosphates de calcium dont l’hydroxyapatite (HAp) carbonatée est un représentant majeur. La complexité des calculs rénaux est de nature structurale également. A l’heure actuelle, il est particulièrement difficile de caractériser l’interpénétration des réseaux organique et inorganique et surtout, à quelle échelle de taille. De plus, les phases présentes peuvent subir des transformations au cours du temps, qui rendent encore plus compliqué l’analyse des pathologies associées. La formation in vivo des calculs rénaux est un sujet passionnant mais difficile. La lithogénèse correspond globalement à une association (de type agglomération) d’un ou de plusieurs cristaux inorganiques au sein d’une matrice de nature organique (pouvant contenir des protéines, des lipides, des acides gras insaturés ou encore des triglycérides). On considère que la formation d’un calcul provient de la succession dans le temps de plusieurs évènements : la sursaturation des urines (qui est évidemment pH dépendante), la germination, la croissance et l’agrégation des cristaux, la rétention des cristaux via des processus d’adhésion dans une cavité des néphrons par exemple, et enfin la croissance finale pouvant conduire à un acte chirurgical. Un certain consensus existe sur les premières étapes de formation des calculs rénaux. Suite à des observations faites post-mortem par le chirurgien Randall, il a été proposé que le premier nucleus à se former soit de nature apatitique (carbonatée). C’est ce que l’on nomme désormais la plaque de Randall. A partir de la plaque de Randall, les calculs rénaux sont alors supposés croître, leur composition chimique finale dépendant des apports anioniques et cationiques, du métabolisme et de la prise éventuelle de traitements médicamenteux de longue durée. Enfin, de nombreuses techniques de caractérisation ont été mises en œuvre pour l’étude détaillée de la structure des calcifications pathologiques, tant en imagerie, diffraction et spectroscopie. Curieusement, la RMN en phase solide n’a été que peu mise en œuvre. De façon générale, l’IRM standard telle que pratiquée en milieu hospitalier n’est presque jamais mise en œuvre pour l’étude des calculs rénaux. Dans une revue de 2016 faisant un état de l’art des méthodes d’analyse des calculs, Brisbane ne consacre qu’un court paragraphe en toute fin d’article à l’IRM et parle d’un « non-specific void » à propos de l’image d’un calcul.Le coeur de ce travail de recherche s’attache à la caractérisation par DNP (Dynamic Nuclear Polarization) et imagerie en rotation à l’angle magique (IRM MAS) de la plaque de Randall, et plus généralement des phases d’oxalates/phosphates de calcium et des calculs rénaux. Le but est de proposer in fine des pistes intéressantes pour les praticiens hospitaliers quant au diagnostic des néphropathologies<br>Urolithiasis is a major public health problem especially in Western developed countries. Increasingly young populations are affected. In France, the annual expenses related to drug treatments, surgical procedures and possible dialysis treatments approach 800 million euros. Pathological calcifications like the kidney stones are extremely complex compounds to characterize and at present, their formation in situ within the human body is still shrouded in mystery, despite numerous in vivo and ex vivo clinical studies. The complexity is above all of a chemical nature, the composition of each kidney stone being particular. A kidney stone is generally composed of mineral and organic phases thus constituting an inorganic organic hybrid derivative (on several scales of size). Two phases of hydrated calcium oxalates are overrepresented, namely whewellite, CaC2O4.H2O, and weddellite, CaC2O4.2H2O. The second most represented family corresponds to calcium phosphates, of which carbonated hydroxyapatite (HAp) is a major representative. The complexity of kidney stones is also structural. At present, it is particularly difficult to characterize the interpenetration of organic and inorganic networks and above all, at what size scale. In addition, the phases present can undergo transformations over time, which make the analysis of associated pathologies even more complicated. Kidney stone formation in vivo is an exciting but challenging subject. Lithogenesis generally corresponds to an association (of the agglomeration type) of one or more inorganic crystals within an organic matrix (which may contain proteins, lipids, unsaturated fatty acids or even triglycerides). It is considered that the formation of a stone comes from the succession over time of several events: the supersaturation of the urine (which is obviously pH dependent), the germination, the growth and the aggregation of the crystals, the retention of the crystals via the process of adhesion in a cavity of the nephrons for example, and finally the final growth which can lead to a surgical act. Some consensus exists on the early stages of kidney stone formation. Following observations made post-mortem by the surgeon Randall, it has been proposed that the first nucleus to form is of an apatitic (carbonated) nature. This is what is now called the Randall’s plaque. From Randall's plaque, the kidney stones are then supposed to grow, their final chemical composition depending on the anionic and cationic contributions, the metabolism and the possible taking of long-term drug treatments. Finally, many characterization techniques have been implemented for the detailed study of the structure of pathological calcifications, both in imaging, diffraction and spectroscopy. Curiously, solid-phase NMR has been little implemented. In general, standard MRI as practiced in hospitals is almost never implemented for the study of kidney stones. In a 2016 review reviewing the state of the art of stone analysis methods, Brisbane devotes only a short paragraph at the very end of the article to MRI and speaks of a "non-specific void" about of the image of a calculation. The heart of this research work focuses on the characterization by DNP (Dynamic Nuclear Polarization) and magic angle spinning imaging (MAS MRI) of the Randall’s plaque, and more generally of the calcium oxalate/phosphate phases and kidney stones. The goal is to ultimately propose interesting avenues for hospital practitioners regarding the diagnosis of nephropathologies
APA, Harvard, Vancouver, ISO, and other styles
47

Leroy, César. "Oxalates de calcium et hydroxyapatite : des matériaux synthétiques et naturels étudiés par techniques RMN et DNP." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066256.

Full text
Abstract:
En France, environ 9,8% de la population souffre de lithiase urinaire. Nous proposons, ici, une nouvelle approche afin de caractériser ces matériaux et d'obtenir une meilleure compréhension de leur formation. Les médecins utilisent principalement des techniques FTIR pour déterminer les principales phases présentes dans une calcification pathologique donnée. Les méthodes de RMN semblent appropriées pour déterminer plus précisément la composition de ces calcifications pathologiques. Très peu d'analyses RMN de calculs rénaux et d'analogues synthétiques ont été réalisées à ce jour.Premièrement, les trois phases d'oxalate de calcium ont été synthétisées (CaC2O4?nH2O avec n = 1, 2, 3) en mettant en ¿uvre des protocoles originaux. L'analyse des spectres 1H, 13C CPMAS et 43Ca MAS à ultra-haut champ magnétique en abondance naturelle permet une identification précise des différentes phases et peut être interprétée en tenant compte du nombre d'inéquivalents des sites cristallographiques. L'hydroxyapatite a été étudiée en parallèle car pouvant également apparaître lors de lithiase urinaire.Enfin, nous montrons les résultats obtenus à partir de DNP MAS à 100 K sur les échantillons synthétiques. L'affinité de la combinaison biradical/solvant reste un facteur limitant pour les matériaux hétérogènes tels que ceux qui sont analysés dans cette étude. Nous devons être en mesure de trouver une combinaison appropriée pour les matériaux multi-composants complexes afin d'obtenir un gain équivalent sur tous les signaux. Finalement, il est démontré qu'il est possible de transposer l'approche méthodologique présentée ci-dessus à l'étude des calculs rénaux<br>In France, about 9.8% of the population suffer from urolithiasis. The treatment of kidney stones, composed of 72% of hydrated calcium oxalates (CaC2O4∙nH2O) with n = 1, 2, 3, represents almost 900 million euros in annual spending and it is therefore necessary to understand the in vivo formation of these stones. Here we propose a new approach in order to characterize kidney stones and have a greater understanding of their formation. Physicians primarily use FTIR techniques to determine the major phases present in a given pathological calcification. NMR methods appears suitable to determine more accurately the composition of these pathological calcifications. Very few NMR analyzes of kidney stones and synthetic analogues were conducted to date. In a first step, the three phases of calcium oxalate were synthesized by implementing original protocols. Analysis of the 1H, 13C CP MAS and MAS 43Ca ultra-high magnetic field spectra at natural abundance allow precise identification of the different phases and can be interpreted by taking into account the number of inequivalent crystallographic sites. The hydroxyapatite was studied in parallel as it may also appear in urolithiase. Finally, we show results obtained from DNP MAS at 100 K on the synthetic samples. The affinity of the biradical/solvent combination remains a limiting factor for heterogeneous materials such as those analyzed in this study. We have to be able to find a suitable combination for complex multi-component materials and to obtain an equivalent gain on all signals. In a last step, it is demonstrated that it is possible to transpose the methodological approach presented above to the study of kidney stones
APA, Harvard, Vancouver, ISO, and other styles
48

Bouanane, Mohamed El Amine. "Conception et optimisation des composants DMOS latéraux haute tension en technologie RESURF." Toulouse 3, 1992. http://www.theses.fr/1992TOU30238.

Full text
Abstract:
Une des solutions prometteuses pour la realisation des interrupteurs dans les circuits integres de puissance est le transistor lateral double diffuse mos utilisant la technique resurf (reduced surface field). Les avantages de ce dernier sont: (a) simplicite de mise en oeuvre, (b) excellente tenue en tension, (c) auto-isolation, (d) sa compatibilite avec la technologie des composants basses tensions (cmos, bipolaire ou bicmos). Cependant deux problemes majeurs interviennent dans l'optimisation de ce dispositif: (a) la resistance a l'etat passant ron trop elevee, (b) sensibilite importante de la tenue en tension vis-a-vis des parametres technologiques. Pour pallier a ces inconvenients nous proposons d'utiliser: (a) un surdopage en surface de la structure, (b) une passivation par une couche semi-resistive tel que le sipos. Les simulations numeriques bidimensionnelles montrent que l'utilisation conjointe de ces deux techniques permet d'obtenir une amelioration de la resistance ron qui s'evalue entre 40 et 60% ainsi qu'une desensibilisation importante au regard des tolerances technologiques. Les parametres geometriques (distance canal-drain, epaisseur de l'epitaxie et epaisseur de l'oxyde) et physiques (dopage de l'epitaxie, concentration et profondeur du surdopage) sont optimises afin d'obtenir la tenue en tension optimale de 400 volts. Les regles de conception ainsi definies ont permis la realisation des diodes ainsi que des transistors ldmos resurf utilisant le surdopage en surface et la passivation par du sipos
APA, Harvard, Vancouver, ISO, and other styles
49

Carrance, Ariane. "Triangulations colorées aléatoires." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1150/document.

Full text
Abstract:
L'unification de la mécanique quantique et de la relativité générale est un des grands problèmes ouverts en physique théorique. Une des approches possibles est de définir des espaces géométriques aléatoires avec des bonnes propriétés, qui peuvent être interprétés comme des espaces-temps quantiques. Cette thèse aborde des aspects mathématiques des modèles de tenseurs colorés, un type de modèle de physique théorique qui s'inscrit dans cette approche. Ces modèles décrivent des espaces linéaires par morceaux appelés trisps colorés, en toute dimension.Au cours de cette thèse, nous avons tout d'abord étudié des modèles aléatoires uniformes sur les trisps colorés, en toute dimension. Nous prouvons que ces modèles ont une limite singulière, ce qui a aussi donné lieu à un théorème central limite sur le genre d'une grande carte aléatoire uniforme.Nous avons ensuite étudié le cas particulier de la dimension 2, où les trisps colorés sont un type particulier de cartes, les triangulations eulériennes. Nous montrons que les triangulations eulériennes planaires convergent vers la carte brownienne, qui est un objet aléatoire continu universel en dimension 2. Ce résultat est particulièrement remarquable étant donnée la complexité de la structure des triangulations eulériennes, en comparaison avec les autres familles de cartes qui convergent vers la carte brownienne<br>The unification of quantum mechanics and general relativity is one the great open problems of theoretical physics. A possible approach is to define random geometric spaces with nice properties, that can be interpreted as quantum spacetimes.This thesis tackles mathematical aspects of colored tensor models, a type of theoretical physics model that is inscribed in this approach. These models describe piecewise-linear spaces called colored trisps, in any dimension.In this thesis, we first studied random uniform models of colored trisps, in any dimension. We prove that these models have a singular limit, which also entails a central limit theorem for the genus of a large uniform map. We then studied the particular case of dimension 2, where colored trisps are a particular case of maps, Eulerian triangulations. We show that planar Eulerian triangulations converge to the Brownian map, which is a universal continuum object in dimension 2. This result is of particular interest, as Eulerian triangulations have a much more complex structure than the other families that are known to converge to the Brownian map
APA, Harvard, Vancouver, ISO, and other styles
50

Berlu, Lilian. "Réalisation d'un logiciel de calcul des intégrales moléculaires impliquées dans le tenseur d'écran magnétique nucléaire sur orbitales atomiques de Slater." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2003. http://tel.archives-ouvertes.fr/tel-00660778.

Full text
Abstract:
Le but ultime de ce travail est la réalisation d'un logiciel de calcul de chimie quantique ab initio utilisant une base d'orbitales atomiques de Slater et capable d'évaluer les déplacements chimiques de RMN. Pour traiter le cas compliqué des intégrales multicentriques, nous avons utilisé la méthode de la transformée de Fourier des fonctions B. Un développement original des termes d'ordres non-nuls est présenté. Les expressions obtenues impliquent des intégrales semi-infinies dont l'intégrande est très oscillante. Dans ce travail, nous avons mis au point de nouveaux algorithmes récursifs de la (permittivité) de Wynn, du (u )de Levin et de la transformation non-linéaire SD, extrêmement rapides et qui garantissent la précision du résultat final. Les tableaux de résultats montrent l'efficacité de ces approches et plus particulièrement de SD pour accélérer la convergence des intégrales semi-finies. Les résultats obtenus permettent d'envisager la programmation d'un logiciel ab initio utilisant nos algorthimes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!