To see the other types of publications on this topic, follow the link: Graphical calculus.

Dissertations / Theses on the topic 'Graphical calculus'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 43 dissertations / theses for your research on the topic 'Graphical calculus.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zhou, Y. "A graphical calculus : extension, implication and application." Thesis, University of Oxford, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.365370.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kim, Dongseok. "Graphical calculus on representations of quantum Lie algebras /." For electronic version search Digital dissertations database. Restricted to UC campuses. Access is free to UC campus dissertations, 2003. http://uclibs.org/PID/11984.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Hagge, Tobias J. "Graphical calculus for fusion categories and quantum invariants for 3-manifolds." [Bloomington, Ind.] : Indiana University, 2008. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&res_dat=xri:pqdiss&rft_dat=xri:pqdiss:3334995.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Backens, Miriam K. "Completeness and the ZX-calculus." Thesis, University of Oxford, 2015. https://ora.ox.ac.uk/objects/uuid:0120239e-b504-4376-973d-d720a095f02e.

Full text
Abstract:
Graphical languages offer intuitive and rigorous formalisms for quantum physics. They can be used to simplify expressions, derive equalities, and do computations. Yet in order to replace conventional formalisms, rigour alone is not sufficient: the new formalisms also need to have equivalent deductive power. This requirement is captured by the property of completeness, which means that any equality that can be derived using some standard formalism can also be derived graphically. In this thesis, I consider the ZX-calculus, a graphical language for pure state qubit quantum mechanics. I show that it is complete for pure state stabilizer quantum mechanics, so any problem within this fragment of quantum theory can be fully analysed using graphical methods. This includes questions of central importance in areas such as error-correcting codes or measurement-based quantum computation. Furthermore, I show that the ZX-calculus is complete for the single-qubit Clifford+T group, which is approximately universal: any single-qubit unitary can be approximated to arbitrary accuracy using only Clifford gates and the T-gate. In experimental realisations of quantum computers, operations have to be approximated using some such finite gate set. Therefore this result implies that a wide range of realistic scenarios in quantum computation can be analysed graphically without loss of deductive power. Lastly, I extend the use of rigorous graphical languages outside quantum theory to Spekkens' toy theory, a local hidden variable model that nevertheless exhibits some features commonly associated with quantum mechanics. The toy theory for the simplest possible underlying system closely resembles stabilizer quantum mechanics, which is non-local; it thus offers insights into the similarities and differences between classical and quantum theories. I develop a graphical calculus similar to the ZX-calculus that fully describes Spekkens' toy theory, and show that it is complete. Hence, stabilizer quantum mechanics and Spekkens' toy theory can be fully analysed and compared using graphical formalisms. Intuitive graphical languages can replace conventional formalisms for the analysis of many questions in quantum computation and foundations without loss of mathematical rigour or deductive power.
APA, Harvard, Vancouver, ISO, and other styles
5

Stiles, Nancy L. Hathway Robert G. "Graphing calculators and calculus." Normal, Ill. Illinois State University, 1994. http://wwwlib.umi.com/cr/ilstu/fullcit?p9510432.

Full text
Abstract:
Thesis (D.A.)--Illinois State University, 1994.
Title from title page screen, viewed March 31, 2006. Dissertation Committee: Robert G. Hathway (chair), Lynn H. Brown, John A. Dossey, Arnold J. Insel, Patricia H. Klass. Includes bibliographical references (leaves 33-34) and abstract. Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
6

Prokopová, Dagmar. "Vizualizace výrazů procesní algebry pi-kalkul." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2017. http://www.nusl.cz/ntk/nusl-363857.

Full text
Abstract:
This work deals with the problem of visual representation of Pi-calculus expressions. The theoretical part of this paper discusses general principles of process algebras as well as specific properties of individual models, with a focus on Pi-calculus. Also included is the comparison of several text and graphical representations of expressions. The main part of the thesis deals with the design and implementation of an application for converting text representation of expressions into graphical representation. In addition to the text and graphical representation, an internal tree representation designed to work with expressions within the application is also proposed. The thesis also describes algorithms for finding feasible reductions, performing reductions and expression simplification that operate with the proposed tree representation.
APA, Harvard, Vancouver, ISO, and other styles
7

Maldonado, Aldo Rene. "Conversations with Hypatia : the use of computers and graphing calculators in the formulation of mathematical arguments in college calculus /." Digital version accessible at:, 1998. http://wwwlib.umi.com/cr/utexas/main.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Tall, David Orme. "Building and testing a cognitive approach to the calculus using interactive computer graphics." Thesis, University of Warwick, 1986. http://wrap.warwick.ac.uk/2409/.

Full text
Abstract:
This thesis consists of a theoretical building of a cognitive approach to the calculus and an empirical testing of the theory in the classroom. A cognitive approach to the teaching of a knowledge domain is defined to be one that aims to make the material potentially meaningful at every stage (in the sense of Ausubel). As a resource in such an approach, the notion of a generic organiser is introduced (after Dienes), which is an environment enabling the learner to explore examples of mathematical processes and concepts, providing cognitive experience to assist in the abstraction of higher order concepts embodied by the organiser. This allows the learner to build and test concepts in a mode 1 environment (in the sense of Skemp) rather than the more abstract modes of thinking typical in higher mathematics. The major hypothesis of the thesis is that appropriately designed generic organisers, supported by an appropriate learning environment, are able to provide students with global gestalts for mathematical processes and concepts at an earlier stage than occurs with current teaching methods. The building of the theory involves an in-depth study of cognitive development, of the cultural growth and theoretical content of the mathematics, followed by the design and programming of appropriate organisers for the teaching of the calculus. Generic organisers were designed for differentiation (gradient of a graph), integration (area), and differential equations, to be coherent ends in themselves as well as laying foundations for the formal theories of both standard and non-standard analysis. The testing is concerned with the program GRADIENT, which is designed to give a global gestalt of the dynamic concept of the gradient of a graph. Three experimental classes (one taught by the researcher in conjunction with the regular class teacher) used the software as an adjunct to the normal study of the calculus and five other classes acted as controls. Matched pairs were selected on a pre-test for the purpose of statistical comparison of performance on the post-test. Data was also collected from a third school where the organisers functioned less well, and from university mathematics students who had not used a computer. The generic organiser GRADIENT, supported by appropriate teaching, enabled the experimental students to gain a global gestalt of the gradient concept. They were able to sketch derivatives. for given graphs significantly better than the controls on the post-test, at a level comparable with more able students reading mathematics at university. Their conceptualizations of gradient and tangent transferred to a new situation involving functions given by different formulae on either side of the point in question, performing significantly better than the control students and at least as well, or better, than those at university.
APA, Harvard, Vancouver, ISO, and other styles
9

Brumberg, Marsha. "A study of the impact graphing calculators have on the achievement in high school pre calculus /." Full text available online, 2007. http://www.lib.rowan.edu/find/theses.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ng, Ho Lun. "ROD-TV : surface reconstruction on demand by tensor voting /." View Abstract or Full-Text, 2003. http://library.ust.hk/cgi/db/thesis.pl?COMP%202003%20NG.

Full text
Abstract:
Thesis (M. Phil.)--Hong Kong University of Science and Technology, 2003.
Includes bibliographical references (leaves 123-127). Also available in electronic version. Access restricted to campus users.
APA, Harvard, Vancouver, ISO, and other styles
11

Tong, Dickson Wai Shun. "A complete theory on 3D tensor voting for computer vision and graphics applications /." View abstract or full-text, 2004. http://library.ust.hk/cgi/db/thesis.pl?COMP%202004%20TONG.

Full text
Abstract:
Thesis (Ph. D.)--Hong Kong University of Science and Technology, 2004.
Includes bibliographical references (leaves 158-162). Also available in electronic version. Access restricted to campus users.
APA, Harvard, Vancouver, ISO, and other styles
12

Aveneau, Lilian. "Modèle, calculs et applications de la visibilité en dimension $n$." Habilitation à diriger des recherches, Université de Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00979543.

Full text
Abstract:
Ce mémoire d'habilitation à diriger des recherches résume les différents travaux menés entre 2000 et 2013 au sein du laboratoire SIC, à l'Université de Poitiers. Le coeur de ces activités est la caractérisation, le calcul, la représentation et l'utilisation de la visibilité entre des ensembles convexes de points de l'espace géométrique en dimension $n\ge2$. Nous avons notamment utilisé l'algèbre de Grassmann pour construire un espace de droites, dans lequel le problème de la visibilité peut être discuté. Nous avons proposé deux méthodes de calculs, l'un explicite et complet, et l'autre reposant sur une évaluation paresseuse. Différentes applications en synthèse d'images reposent sur ces travaux. D'autres travaux autour de la visibilité, en synthèse d'images mais aussi dans le domaine de la propagation des ondes, sont présentés dans ce mémoire. L'ensemble a été réalisé à travers l'encadrement de 5 doctorants.
APA, Harvard, Vancouver, ISO, and other styles
13

Rizk, Guillaume. "Parallelization on graphic hardware : contributions to RNA folding and sequence alignment." Rennes 1, 2011. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/df86b1c1-46f8-4fe8-ac6c-fb4920b31b84.

Full text
Abstract:
La bioinformatique nécessite l'analyse de grandes quantités de données. Avec l'apparition de nouvelles technologies permettant un séquençage à haut débit à bas coût, la puissance de calcul requise pour traiter les données a énormément augmenté. . Cette thèse examine la possibilité d'utiliser les processeurs graphiques (GPU) pour des applications de bioinformatique. Dans un premier temps, ce travail s'intéresse au calcul des structures secondaires d'ARN. Ce problème est en général calculé par programmation dynamique, avec un algorithme qui pose de sérieux problèmes pour un code GPU. Nous introduisons une nouvelle implémentation tuilée qui fait apparaitre une bonne localité mémoire, permettant ainsi un programme GPU très efficace. Cette modification permet également de vectoriser le code CPU et donc de faire une comparaison honnête des performances entre GPU et CPU. Dans un deuxième temps, ce travail aborde le problème d'alignements de séquences. Nous présentons une parallélisation GPU d'une méthode utilisant une indexation par graines. L' implémentation sur GPU n'étant pas efficace, nous nous tournons vers le développement d'une version CPU. Notre contribution principale est le développement d'un nouvel algorithme éliminant rapidement les nombreux alignements potentiels, basé sur le précalcul de portions de la matrice de programmation dynamique. Ce nouvel algorithme a conduit au développement d'un nouveau programme d'alignement très efficace. Notre travail fournit l'exemple de deux problèmes différents dont seulement un a pu être efficacement parallélisé sur GPU. Ces deux expériences nous permettent d'évaluer l'efficacité des GPU et leur place en bioinformatique
Bioinformatics require the analysis of large amounts of data. With the recent advent of next generation sequencing technologies generating data at a cheap cost, the computational power needed has increased dramatically. Graphic Processing Units (GPU) are now programmable beyond simple graphic computations, providing cheap high performance for general purpose applications. This thesis explores the usage of GPUs for bioinformatics applications. First, this work focuses on the computation of secondary structures of RNA sequences. It is traditionally conducted with a dynamic programming algorithm, which poses significant challenges for a GPU implementation. We introduce a new tiled implementation providing good data locality and therefore very efficient GPU code. We note that our algorithmic modification also enables tiling and subsequent vectorization of the CPU program, allowing us to conduct a fair CPU-GPU comparison. Secondly, this works addresses the short sequence alignment problem. We present an attempt at GPU parallelization using the seed-and-extend paradigm. Since this attempt is unsuccessful, we then focus on the development of a program running on CPU. Our main contribution is the development of a new algorithm filtering candidate alignment locations quickly, based on the pre computation of tiles of the dynamic programming matrix. This new algorithm proved to be in fact more effective on a sequential CPU program and lead to an efficient new CPU aligner. Our work provides the example of both successful an unsuccessful attempts at GPU parallelization. These two points of view allow us to evaluate GPUs efficiency and the role they can play in bioinformatics
APA, Harvard, Vancouver, ISO, and other styles
14

Bedez, Mathieu. "Modélisation multi-échelles et calculs parallèles appliqués à la simulation de l'activité neuronale." Thesis, Mulhouse, 2015. http://www.theses.fr/2015MULH9738/document.

Full text
Abstract:
Les neurosciences computationnelles ont permis de développer des outils mathématiques et informatiques permettant la création, puis la simulation de modèles représentant le comportement de certaines composantes de notre cerveau à l’échelle cellulaire. Ces derniers sont utiles dans la compréhension des interactions physiques et biochimiques entre les différents neurones, au lieu d’une reproduction fidèle des différentes fonctions cognitives comme dans les travaux sur l’intelligence artificielle. La construction de modèles décrivant le cerveau dans sa globalité, en utilisant une homogénéisation des données microscopiques est plus récent, car il faut prendre en compte la complexité géométrique des différentes structures constituant le cerveau. Il y a donc un long travail de reconstitution à effectuer pour parvenir à des simulations. D’un point de vue mathématique, les différents modèles sont décrits à l’aide de systèmes d’équations différentielles ordinaires, et d’équations aux dérivées partielles. Le problème majeur de ces simulations vient du fait que le temps de résolution peut devenir très important, lorsque des précisions importantes sur les solutions sont requises sur les échelles temporelles mais également spatiales. L’objet de cette étude est d’étudier les différents modèles décrivant l’activité électrique du cerveau, en utilisant des techniques innovantes de parallélisation des calculs, permettant ainsi de gagner du temps, tout en obtenant des résultats très précis. Quatre axes majeurs permettront de répondre à cette problématique : description des modèles, explication des outils de parallélisation, applications sur deux modèles macroscopiques
Computational Neuroscience helped develop mathematical and computational tools for the creation, then simulation models representing the behavior of certain components of our brain at the cellular level. These are helpful in understanding the physical and biochemical interactions between different neurons, instead of a faithful reproduction of various cognitive functions such as in the work on artificial intelligence. The construction of models describing the brain as a whole, using a homogenization microscopic data is newer, because it is necessary to take into account the geometric complexity of the various structures comprising the brain. There is therefore a long process of rebuilding to be done to achieve the simulations. From a mathematical point of view, the various models are described using ordinary differential equations, and partial differential equations. The major problem of these simulations is that the resolution time can become very important when important details on the solutions are required on time scales but also spatial. The purpose of this study is to investigate the various models describing the electrical activity of the brain, using innovative techniques of parallelization of computations, thereby saving time while obtaining highly accurate results. Four major themes will address this issue: description of the models, explaining parallelization tools, applications on both macroscopic models
APA, Harvard, Vancouver, ISO, and other styles
15

Ponsi, Nicolas. "Accélération du calcul d'animations de synthèse." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1997. http://tel.archives-ouvertes.fr/tel-00942854.

Full text
Abstract:
Le lancé de rayons est une technique très utilisée pour la production d'animations de synthèse. Les temps de calculs nécessaires sont cependant très importants.Nous proposons en conséquence une méthode permettant l'accélération de ceux-ci. Nous construirons tout d'abord les outils permettant de mesurer l'influence des translations et rotations de chaque objet sur son mouvement apparent dans l'espace de l'image, ceci entre deux instants de l'animation. A l'aide de cette information, nous proposerons une méthode permettant le calcul d'une animation visuellement équivalente à celle qui serait produite avec un calcul image par image, en un temps beaucoup plus court. Contrairement à d'autre méthodes, aucune limitation n'existe sur les mouvements ni de l'observateur ni des objets de la scène. De plus, la connaissance a priori de l'animation n'est pas nécessaire, ce qui permet d'appliquer la méthode au temps réel.
APA, Harvard, Vancouver, ISO, and other styles
16

Gómez, Cerdà Vicenç. "Algorithms and complex phenomena in networks: Neural ensembles, statistical, interference and online communities." Doctoral thesis, Universitat Pompeu Fabra, 2008. http://hdl.handle.net/10803/7548.

Full text
Abstract:
Aquesta tesi tracta d'algoritmes i fenòmens complexos en xarxes.

En la primera part s'estudia un model de neurones estocàstiques inter-comunicades mitjançant potencials d'acció. Proposem una tècnica de modelització a escala mesoscòpica i estudiem una transició de fase en un acoblament crític entre les neurones. Derivem una regla de plasticitat sinàptica local que fa que la xarxa s'auto-organitzi en el punt crític.

Seguidament tractem el problema d'inferència aproximada en xarxes probabilístiques mitjançant un algorisme que corregeix la solució obtinguda via belief propagation en grafs cíclics basada en una expansió en sèries. Afegint termes de correcció que corresponen a cicles generals en la xarxa, s'obté el resultat exacte. Introduïm i analitzem numèricament una manera de truncar aquesta sèrie.

Finalment analizem la interacció social en una comunitat d'Internet caracteritzant l'estructura de la xarxa d'usuaris, els fluxes de discussió en forma de comentaris i els patrons de temps de reacció davant una nova notícia.
This thesis is about algorithms and complex phenomena in networks.

In the first part we study a network model of stochastic spiking neurons. We propose a modelling technique based on a mesoscopic description level and show the presence of a phase transition around a critical coupling strength. We derive a local plasticity which drives the network towards the critical point.

We then deal with approximate inference in probabilistic networks. We develop an algorithm which corrects the belief propagation solution for loopy graphs based on a loop series expansion. By adding correction terms, one for each "generalized loop" in the network, the exact result is recovered. We introduce and analyze numerically a particular way of truncating the series.

Finally, we analyze the social interaction of an Internet community by characterizing the structure of the network of users, their discussion threads and the temporal patterns of reaction times to a new post.
APA, Harvard, Vancouver, ISO, and other styles
17

Winkler, Christophe. "Expérimentation d'algorithmes de calcul de radiosité à base d'ondelettes." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL071N.

Full text
Abstract:
La synthèse d'images, par modélisation physique des phénomènes lumineux, est un domaine de recherche très actif depuis un certain nombre d'années. De nombreuses solutions algorithmiques ont été proposées pour parvenir à résoudre l'équation de radiance. Néanmoins, peu de tests ont été effectués pour comparer l'efficacité des différentes approches. Le but de ce mémoire est de comparer certaines solutions parmi les plus efficaces, notamment les approches hiérarchiques à base d'ondelettes, qui permettent de résoudre le problème de l'illumination globale. Dans un premier temps, nous effectuons une étude théorique approfondie de l'équation de radiance, c'est-à-dire des phénomènes physiques aboutissant à cette équation, des solutions mathématiques utilisées pour la résoudre et de leurs conséquences algorithmiques. Puis nous décrivons l'architecture logicielle développée suite à cette analyse, ainsi que les solutions algorithmiques utilisées pour résoudre les différents problèmes rencontrés. Enfin, la comparaison empirique est basée sur un protocole d'expérimentation rigoureux permettant de quantifier les résultats obtenus. Les bases de tests proviennent d'applications réelles, comme l'ingénierie de l'éclairage, l'archéologie ou encore la visite virtuelle de bâtiments. Cela permet de juger de l'efficacité des méthodes de radiosité pour des problèmes réels. Pour finir, nous présentons une extension parallèle de l'algorithme de calcul de radiosité qui permet de tirer parti de la puissance des calculateurs multiprocesseurs.
APA, Harvard, Vancouver, ISO, and other styles
18

Serpaggi, Xavier. "Variations sur le calcul des vecteurs d'éclairement indirect." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2001. http://tel.archives-ouvertes.fr/tel-00804892.

Full text
Abstract:
L'exploration des diverses solutions liées au problème de l'éclairement global en synthèse d'images a vu l'émergence de deux disciplines fort différentes. La plus ancienne est l'application d'un principe utilisé par les physiciens dans les calculs d'échanges thermiques. Dans le cas de la synthèse d'images, ce ne sont en fait que les grandeurs échangées qui diffèrent et les ondes infrarouges sont remplacées par la lumière visible. Ce ne sont donc plus des échanges thermiques qui sont traités, mais uniquement des échanges lumineux entres différentes surfaces : la radiosité. Plus récemment, nous avons vu l'application de concepts mathématiques statistiques (les méthodes de Monte-Carlo) à un algorithme de lancer de rayons : l'équation de rendu et sa résolution par le suivi de chemins. Le travail présenté dans cette thèse fait partie de cette seconde famille. Les vecteurs d'éclairement indirect (VEI) obtenus à l'aide du lancer de rayons,s'appliquent dans le cadre de scènes d'intérieur et utilisent, pour leur calcul,une méthode de Monte-Carlo. Les recherches que nous avons menées ont pour but de développer cette jeune méthode que sont les VEI. Nous avons,pour cela,tenté d'explorer différentes voies, parfois en appliquant des principes connus,parfois en proposant des méthodes originales. Le résultat est une collections de propositions permettant de calculer les VEI plus rapidement et plus précisément. Ces propositions se séparent en deux groupes bien distincts dont le premier est l'étude du calcul d'un VEI. Le second propose des améliorations pour visualiser l'éclairement indirect calculé avec les VEI.
APA, Harvard, Vancouver, ISO, and other styles
19

Said, Issam. "Apports des architectures hybrides à l'imagerie profondeur : étude comparative entre CPU, APU et GPU." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066531/document.

Full text
Abstract:
Les compagnies pétrolières s'appuient sur le HPC pour accélérer les algorithmes d'imagerie profondeur. Les grappes de CPU et les accélérateurs matériels sont largement adoptés par l'industrie. Les processeurs graphiques (GPU), avec une grande puissance de calcul et une large bande passante mémoire, ont suscité un vif intérêt. Cependant le déploiement d'applications telle la Reverse Time Migration (RTM) sur ces architectures présente quelques limitations. Notamment, une capacité mémoire réduite, des communications fréquentes entre le CPU et le GPU présentant un possible goulot d'étranglement à cause du bus PCI, et des consommations d'énergie élevées. AMD a récemment lancé l'Accelerated Processing Unit (APU) : un processeur qui fusionne CPU et GPU sur la même puce via une mémoire unifiée. Dans cette thèse, nous explorons l'efficacité de la technologie APU dans un contexte pétrolier, et nous étudions si elle peut surmonter les limitations des solutions basées sur CPU et sur GPU. L'APU est évalué à l'aide d'une suite OpenCL de tests mémoire, applicatifs et d'efficacité énergétique. La faisabilité de l'utilisation hybride de l'APU est explorée. L'efficacité d'une approche par directives de compilation est également étudiée. En analysant une sélection d'applications sismiques (modélisation et RTM) au niveau du noeud et à grande échelle, une étude comparative entre CPU, APU et GPU est menée. Nous montrons la pertinence du recouvrement des entrées-sorties et des communications MPI par le calcul pour les grappes d'APU et de GPU, que les APU délivrent des performances variant entre celles du CPU et celles du GPU, et que l'APU peut être aussi énergétiquement efficace que le GPU
In an exploration context, Oil and Gas (O&G) companies rely on HPC to accelerate depth imaging algorithms. Solutions based on CPU clusters and hardware accelerators are widely embraced by the industry. The Graphics Processing Units (GPUs), with a huge compute power and a high memory bandwidth, had attracted significant interest.However, deploying heavy imaging workflows, the Reverse Time Migration (RTM) being the most famous, on such hardware had suffered from few limitations. Namely, the lack of memory capacity, frequent CPU-GPU communications that may be bottlenecked by the PCI transfer rate, and high power consumptions. Recently, AMD has launched theAccelerated Processing Unit (APU): a processor that merges a CPU and a GPU on the same die, with promising features notably a unified CPU-GPU memory. Throughout this thesis, we explore how efficiently may the APU technology be applicable in an O&G context, and study if it can overcome the limitations that characterize the CPU and GPU based solutions. The APU is evaluated with the help of memory, applicative and power efficiency OpenCL benchmarks. The feasibility of the hybrid utilization of the APUs is surveyed. The efficiency of a directive based approach is also investigated. By means of a thorough review of a selection of seismic applications (modeling and RTM) on the node level and on the large scale level, a comparative study between the CPU, the APU and the GPU is conducted. We show the relevance of overlapping I/O and MPI communications with computations for the APU and GPUclusters, that APUs deliver performances that range between those of CPUs and those of GPUs, and that the APU can be as power efficient as the GPU
APA, Harvard, Vancouver, ISO, and other styles
20

Coquerelle, Mathieu. "Calcul d’interaction fluide-structure par méthode de vortex et application en synthèse d’images." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0185.

Full text
Abstract:
La simulation de fluides est un problème classique en analyse numérique et en calcul scientifique. Elle prend aujourd'hui une place importante dans le domaine de la synthèse d'images. Ces domaines d'application sont demandeurs de techniques fiables et rapides. Mes travaux concernent le développement de méthodes hybrides Lagrangiennes-Euleriennes en formulation tourbillon, possédant de bonnes propriétés de précision et de rapidité de calcul. Elles sont suffisamment flexibles pour permettre le calcul d'écoulements multi-phasiques et d'interactions fluide-structure. Les interfaces entre les différents milieux sont capturées par une fonction level set. Je propose une nouvelle méthode permettant d'intégrer aisément les interactions avec des solides rigides - par une technique de pénalisation - ainsi que le traitement des collisions. Les résultats obtenus sont validés sur des cas tests, et je propose des exemples d'animations réalistes pour la synthèse d'images
Fluid simulation is a classical problem in numerical analysis and scientific computing. Nowadays it holds a significant place in the computer graphics domain. Those kind of applications are eager of efficient and reliable techniques. My works focus on the development of Lagrangian-Eulerian hybrid methods in a vortex formulation which give good precision and know efficient computation algorithms. Those methods are flexible enough to allow to compute multi-phasic flows as well as fluid-structure interactions. Interfaces between various phases (fluids or solids) are captured by a level set function. I propose a novel method that offers to easily integrate interactions with rigid solids - thanks to a penalization technique - and deal with collisions. The numerical results computed are compared to test cases from the literature and I offer examples of realistic 3D animations for computer graphics
APA, Harvard, Vancouver, ISO, and other styles
21

Haumont, Dominique. "Calcul et représentation de l'information de visibilité pour l'exploration interactive de scènes tridimensionnelles." Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210880.

Full text
Abstract:
La synthèse d'images, qui consiste à développer des algorithmes pour générer des images à l'aide d'un ordinateur, est devenue incontournable dans de nombreuses disciplines.

Les méthodes d'affichage interactives permettent à l'utilisateur d'explorer des environnements virtuels en réalisant l'affichage des images à une cadence suffisamment élevée pour donner une impression de continuité et d'immersion. Malgré les progrès réalisés par le matériel, de nouveaux besoins supplantent toujours les capacités de traitement, et des techniques d'accélération sont nécessaires pour parvenir à maintenir une cadence d'affichage suffisante. Ce travail s'inscrit précisemment dans ce cadre. Il est consacré à la problématique de l'élimination efficace des objets masqués, en vue d'accélérer l'affichage de scènes complexes. Nous nous sommes plus particulièrement intéressé aux méthodes de précalcul, qui effectuent les calculs coûteux de visibilité durant une phase de prétraitement et les réutilisent lors de la phase de navigation interactive. Les méthodes permettant un précalcul complet et exact sont encore hors de portée à l'heure actuelle, c'est pourquoi des techniques approchées leur sont préférée en pratique. Nous proposons trois méthodes de ce type.

La première, présentée dans le chapitre 4, est un algorithme permettant de déterminer de manière exacte si deux polygones convexes sont mutuellement visibles, lorsque des écrans sont placés entre eux. Nos contributions principales ont été de simplifier cette requête, tant du point de vue théorique que du point de vue de l'implémentation, ainsi que d'accélérer son temps moyen d'exécution à l'aide d'un ensemble de techniques d'optimisation. Il en résulte un algorithme considérablement plus simple à mettre en oeuvre que les algorithmes exacts existant dans la littérature. Nous montrons qu'il est également beaucoup plus efficace que ces derniers en termes de temps de calcul.

La seconde méthode, présentée dans le chapitre 5, est une approche originale pour encoder l'information de visibilité, qui consiste à stocker l'ombre que générerait chaque objet de la scène s'il était remplacé par une source lumineuse. Nous présentons une analyse des avantages et des inconvénients de cette nouvelle représentation.

Finalement, nous proposons dans le chapitre 6 une méthode de calcul de visibilité adaptée aux scènes d'intérieur. Dans ce type d'environnements, les graphes cellules-portails sont très répandus pour l'élimination des objets masqués, en raison de leur faible coût mémoire et de leur grande efficacité. Nous reformulons le problème de la génération de ces graphes en termes de segmentation d'images, et adaptons un algorithme classique, appelé «watershed», pour les obtenir de manière automatique. Nous montrons que la décomposition calculée de la sorte est proche de la décomposition classique, et qu'elle peut être utilisée pour l'élimination des objets masqués.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
22

Baboulin, Marc. "Résolutions rapides et fiables pour les solveurs d'algèbre linéaire numérique en calcul haute performance." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00967523.

Full text
Abstract:
Dans cette Habilitation à Diriger des Recherches (HDR), nous présentons notre recherche effectuée au cours de ces dernières années dans le domaine du calcul haute-performance. Notre travail a porté essentiellement sur les algorithmes parallèles pour les solveurs d'algèbre linéaire numérique et leur implémentation parallèle dans les bibliothèques logicielles du domaine public. Nous illustrons dans ce manuscrit comment ces calculs peuvent être accélérées en utilisant des algorithmes innovants et être rendus fiables en utilisant des quantités spécifiques de l'analyse d'erreur. Nous expliquons tout d'abord comment les solveurs d'algèbre linéaire numérique peuvent être conçus de façon à exploiter les capacités des calculateurs hétérogènes actuels comprenant des processeurs multicœurs et des GPUs. Nous considérons des algorithmes de factorisation dense pour lesquels nous décrivons la répartition des tâches entre les différentes unités de calcul et son influence en terme de coût des communications. Ces cal- culs peuvent être également rendus plus performants grâce à des algorithmes en précision mixte qui utilisent une précision moindre pour les tâches les plus coûteuses tout en calculant la solution en précision supérieure. Puis nous décrivons notre travail de recherche dans le développement de solveurs d'algèbre linéaire rapides qui utilisent des algorithmes randomisés. La randomisation représente une approche innovante pour accélérer les calculs d'algèbre linéaire et la classe d'algorithmes que nous proposons a l'avantage de réduire la volume de communications dans les factorisations en supprimant complètement la phase de pivotage dans les systèmes linéaires. Les logiciels correspondants on été développés pour architectures multicœurs éventuellement accélérées par des GPUs. Enfin nous proposons des outils qui nous permettent de garantir la qualité de la solution calculée pour les problèmes de moindres carrés sur-déterminés, incluant les moindres carrés totaux. Notre méthode repose sur la dérivation de formules exactes ou d'estimateurs pour le conditionnement de ces problèmes. Nous décrivons les algorithmes et les logiciels qui permettent de calculer ces quantités avec les bibliothèques logicielles parallèles standards. Des pistes de recherche pour les années à venir sont données dans un chapître de conclusion.
APA, Harvard, Vancouver, ISO, and other styles
23

Bezerra, Cristina Alves. "Proposta de abordagem para as tÃcnicas de integraÃÃo usando o software Geogebra." Universidade Federal do CearÃ, 2015. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=14598.

Full text
Abstract:
Este trabalho propÃe uma forma de abordagem para as TÃcnicas de IntegraÃÃo â que serve como um complemento para aquelas que sÃo trabalhadas por parte dos autores dos livros de CÃlculo Diferencial e Integral (C.D.I). Seu objetivo geral à estruturar e propor situaÃÃes de ensino apoiadas na Tecnologia Digital, mais precisamente no software Geogebra, relativa Ãs TÃcnicas de IntegraÃÃo, onde sejam explorados os padrÃes grÃfico-geomÃtricos relacionados com as funÃÃes integrandas e suas primitivas. A organizaÃÃo da pesquisa seguiu as duas fases iniciais da Engenharia DidÃtica (E.D) â AnÃlises Preliminares e AnÃlise a Priori. A estruturaÃÃo das sessÃes didÃticas, envolvendo situaÃÃes-problema diferenciadas, respeitou as fases da SequÃncia Fedathi â Tomada de posiÃÃo, MaturaÃÃo, SoluÃÃo e Prova. Iniciamos o trabalho com o levantamento da problemÃtica â identificamos que o conteÃdo, TÃcnicas de IntegraÃÃo, Ã, nos livros didÃticos da disciplina de C.D.I, citados no Programa de Unidade DidÃtica (PUD) do Curso Licenciatura em MatemÃtica do IFCE â Juazeiro do Norte, trabalhado unicamente por meio do carÃter algÃbrico. Com a intenÃÃo de registrarmos essa observaÃÃo, fizemos comentÃrios sobre as formas de abordagens dos autores Stewart (2010), Guidorizzi (2011) e Leithold (1994), em que pudemos deixar registrado que, de fato, hà uma limitaÃÃo sobre a exploraÃÃo dos padrÃes grÃfico-geomÃtricos relativos Ãs TÃcnicas: SubstituiÃÃo de VariÃveis, Por Partes, FraÃÃes Parciais e SubstituiÃÃo TrigonomÃtrica. Como produto educacional, foi desenvolvido um âsiteâ em que disponibilizamos as videoaulas e as respectivas sessÃes didÃticas.
APA, Harvard, Vancouver, ISO, and other styles
24

Farrugia, Jean-Philippe. "Modèles de vision et synthèse d'images." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2002. http://tel.archives-ouvertes.fr/tel-00800330.

Full text
Abstract:
Le photo-réalisme en synthèse d'images nécessite l'intervention de nombreux paramètres, ainsi que des calculs complexes. Le but peut être considéré comme atteint lorsque un observateur ne peut plus faire la différence entre une simulation et une photographie de la scène simulée. Pour atteindre cet objectif, il est nécessaire d'effectuer des calculs complexes, aussi bien au niveau de la géométrie de la scène, de la simulation des matériaux, ou encore de l'interaction lumière matière. Toutefois, un élément est souvent oublié dans cette quête de réalisme : l'environnement d'observation. Cette simulation est en effet observée sur un dispositif de visualisation, par un observateur humain, placé dans un certain environnement. Or, chacune de ces trois composantes dispose de caractéristiques bien spécifiques qu'il peut être intéressant d'exploiter en synthèse d'images. C'est ce que nous nous proposons de faire à travers une métrique perceptuelle entre images développée pour correspondre à nos besoins. Cette métrique permet de comparer deux images en utilisant un modèle de vision qui simule le traitement effectué par le système visuel humain. Elle sera ensuite intégrée dans un algorithme de rendu progressif, afin de remplacer les critères empiriques de ce dernier par des critères perceptuels. Les temps de calculs obtenus sont pratiquement deux fois inférieurs à eux d'un calcul complet.
APA, Harvard, Vancouver, ISO, and other styles
25

Jeljeli, Hamza. "Accélérateurs logiciels et matériels pour l'algèbre linéaire creuse sur les corps finis." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0065/document.

Full text
Abstract:
Les primitives de la cryptographie à clé publique reposent sur la difficulté supposée de résoudre certains problèmes mathématiques. Dans ce travail, on s'intéresse à la cryptanalyse du problème du logarithme discret dans les sous-groupes multiplicatifs des corps finis. Les algorithmes de calcul d'index, utilisés dans ce contexte, nécessitent de résoudre de grands systèmes linéaires creux définis sur des corps finis de grande caractéristique. Cette algèbre linéaire représente dans beaucoup de cas le goulot d'étranglement qui empêche de cibler des tailles de corps plus grandes. L'objectif de cette thèse est d'explorer les éléments qui permettent d'accélérer cette algèbre linéaire sur des architectures pensées pour le calcul parallèle. On est amené à exploiter le parallélisme qui intervient dans différents niveaux algorithmiques et arithmétiques et à adapter les algorithmes classiques aux caractéristiques des architectures utilisées et aux spécificités du problème. Dans la première partie du manuscrit, on présente un rappel sur le contexte du logarithme discret et des architectures logicielles et matérielles utilisées. La seconde partie du manuscrit est consacrée à l'accélération de l'algèbre linéaire. Ce travail a donné lieu à deux implémentations de résolution de systèmes linéaires basées sur l'algorithme de Wiedemann par blocs : une implémentation adaptée à un cluster de GPU NVIDIA et une implémentation adaptée à un cluster de CPU multi-cœurs. Ces implémentations ont contribué à la réalisation de records de calcul de logarithme discret dans les corps binaires GF(2^{619}) et GF(2^{809} et dans le corps premier GF(p_{180})
The security of public-key cryptographic primitives relies on the computational difficulty of solving some mathematical problems. In this work, we are interested in the cryptanalysis of the discrete logarithm problem over the multiplicative subgroups of finite fields. The index calculus algorithms, which are used in this context, require solving large sparse systems of linear equations over finite fields. This linear algebra represents a serious limiting factor when targeting larger fields. The object of this thesis is to explore all the elements that accelerate this linear algebra over parallel architectures. We need to exploit the different levels of parallelism provided by these computations and to adapt the state-of-the-art algorithms to the characteristics of the considered architectures and to the specificities of the problem. In the first part of the manuscript, we present an overview of the discrete logarithm context and an overview of the considered software and hardware architectures. The second part deals with accelerating the linear algebra. We developed two implementations of linear system solvers based on the block Wiedemann algorithm: an NVIDIA-GPU-based implementation and an implementation adapted to a cluster of multi-core CPU. These implementations contributed to solving the discrete logarithm problem in binary fields GF(2^{619}) et GF(2^{809}) and in the prime field GF(p_{180})
APA, Harvard, Vancouver, ISO, and other styles
26

Ghazanfarpour, Anahid. "Proximity-aware multiple meshes decimation using quadric error metric." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30168.

Full text
Abstract:
La décimation progressive de maillage par l'application successive d'opérateurs topologiques est un outil standard de traitement de la géométrie. Un élément clé de tels algorithmes est la métrique d'erreur, qui donne la priorité aux opérateurs minimisant l'erreur de décimation. La plupart des travaux précédents se concentrent sur la préservation des propriétés locales du maillage lors du processus de décimation, le plus notable étant la métrique d'erreur quadrique qui utilise l'opérateur d'effondrement d'arête. Toutefois, les maillages obtenus à partir de scènes issues de CAO et décrivant des systèmes complexes requièrent souvent une décimation significative pour la visualisation et l'interaction sur des terminaux bas de gamme. Par conséquent, la préservation de la disposition des objets est nécessaire dans de tels cas, afin de préserver la lisibilité globale du système pour des applications telles que la réparation sur site, l'inspection, la formation, les jeux sérieux, etc. Dans ce contexte, cette thèse a trait à préserver la lisibilité des relations de proximité entre maillages lors de la décimation, en introduisant une nouvelle approche pour la décimation conjointe de multiples maillages triangulaires présentant des proximités. Les travaux présentés dans cette thèse se décomposent en trois contributions. Tout d'abord, nous proposons un mécanisme pour la décimation simultanée de multiples maillages. Ensuite, nous introduisons une métrique d'erreur sensible à la proximité, combinant l'erreur locale de l'arête (i.e. la métrique d'erreur quadrique) avec une fonction pénalisant la proximité, ce qui augmente l'erreur des effondrements d'arête là où les maillages sont proches les uns des autres. Enfin, nous élaborons une détection automatique des zones de proximité. Pour finir, nous démontrons les performances de notre approche sur plusieurs modèles générés à partir de scènes issues de CAO
Progressive mesh decimation by successively applying topological operators is a standard tool in geometry processing. A key element of such algorithms is the error metric, which allows to prioritize operators minimizing the decimation error. Most previous work focus on preserving local properties of the mesh during the decimation process, with the most notable being the Quadric Error Metric which uses the edge collapse operator. However, meshes obtained from CAD scenes and describing complex systems often require significant decimation for visualization and interaction on low-end terminals. Hence preserving the arrangement of objects is required in such cases, in order to maintain the overall system readability for applications such as on-site repair, inspection, training, serious games, etc. In this context, this thesis focuses on preserving the readability of proximity relations between meshes during decimation, by introducing a novel approach for the joint decimation of multiple triangular meshes with proximities. The works presented in this thesis consist in three contributions. First, we propose a mechanism for the simultaneous decimation of multiple meshes. Second, we introduce a proximity-aware error metric, combining the local edge error (i.e. Quadric Error Metric) with a proximity penalty function, which increases the error of edge collapses modifying the geometry where meshes are close to each other. Last, we devise an automatic detection of proximity areas. Finally, we demonstrate the performances of our approach on several models generated from CAD scenes
APA, Harvard, Vancouver, ISO, and other styles
27

Quinto, Michele Arcangelo. "Méthode de reconstruction adaptive en tomographie par rayons X : optimisation sur architectures parallèles de type GPU." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT109/document.

Full text
Abstract:
La reconstruction tomographique à partir de données de projections est un problème inverse largement utilisé en imagerie médicale et de façon plus modeste pour le contrôle nondestructif. Avec un nombre suffisant de projections, les algorithmes analytiques permettentdes reconstructions rapides et précises. Toutefois, dans le cas d’un faible nombre de vues(imagerie faible dose) et/ou d’angle limité (contraintes spécifiques liées à l’installation), lesdonnées disponibles pour l’inversion ne sont pas complètes, le mauvais conditionnementdu problème s’accentue, et les résultats montrent des artefacts importants. Pour aborderces situations, une approche alternative consiste à discrétiser le problème de reconstruction,et à utiliser des algorithmes itératifs ou une formulation statistique du problème afinde calculer une estimation de l’objet inconnu. Ces méthodes sont classiquement basées surune discrétisation du volume en un ensemble de voxels, et fournissent des cartes 3D de ladensité de l’objet étudié. Les temps de calcul et la ressource mémoire de ces méthodesitératives sont leurs principaux points faibles. Par ailleurs, quelle que soit l’application, lesvolumes sont ensuite segmentés pour une analyse quantitative. Devant le large éventaild’outils de segmentation existant, basés sur différentes interprétations des contours et defonctionnelles à minimiser, les choix sont multiples et les résultats en dépendent.Ce travail de thèse présente une nouvelle approche de reconstruction simultanée àla segmentation des différents matériaux qui composent le volume. Le processus dereconstruction n’est plus basé sur une grille régulière de pixels (resp. voxels), mais sur unmaillage composé de triangles (resp. tétraèdres) non réguliers qui s’adaptent à la formede l’objet. Après une phase d’initialisation, la méthode se décompose en trois étapesprincipales que sont la reconstruction, la segmentation et l’adaptation du maillage, quialternent de façon itérative jusqu’à convergence. Des algorithmes itératifs de reconstructioncommunément utilisés avec une représentation conventionnelle de l’image ont étéadaptés et optimisés pour être exécutés sur des grilles irrégulières composées d’élémentstriangulaires ou tétraédriques. Pour l’étape de segmentation, deux méthodes basées surune approche paramétrique (snake) et l’autre sur une approche géométrique (level set)ont été mises en oeuvre afin de considérer des objets de différentes natures (mono- etmulti- matériaux). L’adaptation du maillage au contenu de l’image estimée est basée surles contours segmentés précédemment, pour affiner la maille au niveau des détails del’objet et la rendre plus grossière dans les zones contenant peu d’information. En finde processus, le résultat est une image classique de reconstruction tomographique enniveaux de gris, mais dont la représentation par un maillage adapté au contenu proposeidirectement une segmentation associée. Les résultats montrent que la partie adaptative dela méthode permet de représenter efficacement les objets et conduit à diminuer drastiquementla mémoire nécessaire au stockage. Dans ce contexte, une version 2D du calcul desopérateurs de reconstruction sur une architecture parallèle type GPU montre la faisabilitédu processus dans son ensemble. Une version optimisée des opérateurs 3D permet descalculs encore plus efficaces
Tomography reconstruction from projections data is an inverse problem widely used inthe medical imaging field. With sufficiently large number of projections over the requiredangle, the FBP (filtered backprojection) algorithms allow fast and accurate reconstructions.However in the cases of limited views (lose dose imaging) and/or limited angle (specificconstrains of the setup), the data available for inversion are not complete, the problembecomes more ill-conditioned, and the results show significant artifacts. In these situations,an alternative approach of reconstruction, based on a discrete model of the problem,consists in using an iterative algorithm or a statistical modelisation of the problem to computean estimate of the unknown object. These methods are classicaly based on a volumediscretization into a set of voxels and provide 3D maps of densities. Computation time andmemory storage are their main disadvantages. Moreover, whatever the application, thevolumes are segmented for a quantitative analysis. Numerous methods of segmentationwith different interpretations of the contours and various minimized energy functionalare offered, and the results can depend on their use.This thesis presents a novel approach of tomographic reconstruction simultaneouslyto segmentation of the different materials of the object. The process of reconstruction isno more based on a regular grid of pixels (resp. voxel) but on a mesh composed of nonregular triangles (resp. tetraedra) adapted to the shape of the studied object. After aninitialization step, the method runs into three main steps: reconstruction, segmentationand adaptation of the mesh, that iteratively alternate until convergence. Iterative algorithmsof reconstruction used in a conventionnal way have been adapted and optimizedto be performed on irregular grids of triangular or tetraedric elements. For segmentation,two methods, one based on a parametric approach (snake) and the other on a geometricapproach (level set) have been implemented to consider mono and multi materials objects.The adaptation of the mesh to the content of the estimated image is based on the previoussegmented contours that makes the mesh progressively coarse from the edges to thelimits of the domain of reconstruction. At the end of the process, the result is a classicaltomographic image in gray levels, but whose representation by an adaptive mesh toits content provide a correspoonding segmentation. The results show that the methodprovides reliable reconstruction and leads to drastically decrease the memory storage. Inthis context, the operators of projection have been implemented on parallel archituecturecalled GPU. A first 2D version shows the feasability of the full process, and an optimizedversion of the 3D operators provides more efficent compoutations
APA, Harvard, Vancouver, ISO, and other styles
28

Daval, Nathalie. "Les archives nomographiques de l’ENPC : un nouveau regard sur Maurice d’Ocagne et l’histoire de la nomographie." Thesis, La Réunion, 2020. http://www.theses.fr/2020LARE0029.

Full text
Abstract:
La nomographie est une branche des mathématiques appliquées née vers la fin du 19e siècle qui a pour objet la théorie et les méthodes de construction de graphiques cotés qui permettent, par simple lecture, d’effectuer des calculs numériques rapidement. Les archives nomographiques déposées à l’École nationale des ponts et chaussées (ENPC) par Maurice d’Ocagne à sa retraite en 1927 et retrouvées il y a une dizaine d’années, permettent un regard nouveau sur cet ingénieur et sur l’histoire de la nomographie en général. L’objet de cette thèse est donc, au travers des documents de ces archives (articles récoltés, nomogrammes édités et lettres reçues), d’effectuer une étude historique et sociale de la nomographie, et plus particulièrement du rôle de d’Ocagne, considéré comme le père de la discipline. En complément, nous apporterons quelques éléments nouveaux à la biographie de ce dernier
Nomography is a branch of applied mathematics which appeared towards the end of the19th century. It deals with the theory and methods of constructing rated graphs thatenable numerical calculations to be carried out quickly by simply reading them. Thenomographic archives deposited at the École nationale des ponts et chaussées (ENPC) by Maurice d’Ocagne on his retirement in 1927, and found about ten years ago, allow a new vision of this engineer and of the history of nomography in general. The purpose of this thesis is therefore to carry out a historical and social study of nomography through the documents in these archives (articles collected, nomograms published and letters received), and more particularly to study the role of d’Ocagne, considered as the father of nomography. In this thesis we will also bring some new elements to his biography
APA, Harvard, Vancouver, ISO, and other styles
29

Avril, Quentin. "Détection de Collision pour Environnements Large Échelle : Modèle Unifié et Adaptatif pour Architectures Multi-coeur et Multi-GPU." Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00642067.

Full text
Abstract:
Les environnements de réalité virtuelle devenant de plus en plus complexes et de très grandes dimensions, un niveau d'interaction temps-réel devient impossible à garantir. En effet, de par leur complexité, due à une géométrie détaillée et aux propriétés physiques spécifiques, ces environnements large échelle engendrent un goulet d'étranglement calculatoire critique sur les algorithmes de simulation physique. Nous avons focalisé nos travaux sur la première étape de ces algorithmes qui concerne la détection de collision, car les problématiques font partie intégrante de ce goulet d'étranglement et leur complexité peut parfois se révéler quadratique dans certaines situations. Le profond bouleversement que subissent les architectures machines depuis quelques années ouvre une nouvelle voie pour réduire le goulet d'étranglement. La multiplication du nombre de cœurs offre ainsi la possibilité d'exécuter ces algorithmes en parallèle sur un même processeur. Dans le même temps, les cartes graphiques sont passées d'un statut de simple périphérique d'affichage graphique à celui de supercalculateur. Elles jouissent désormais d'une attention toute particulière de la part de la communauté traitant de la simulation physique. Afin de passer au large échelle et d'être générique sur la machine d'exécution, nous avons proposé des modèles unifiés et adaptatifs de correspondance entre les algorithmes de détection de collision et les architectures machines de type multi-coeur et multi-GPU. Nous avons ainsi défini des solutions innovantes et performantes permettant de réduire significativement le temps de calcul au sein d'environnements large échelle tout en assurant la pérennité des résultats. Nos modèles couvrent l'intégralité du pipeline de détection de collision en se focalisant aussi bien sur des algorithmes de bas ou de haut niveau. Nos modèles multi-coeur, GPU et multi-GPU allient différentes techniques de subdivision spatiale à des algorithmes basés topologie ainsi que des techniques d'équilibrage de charge basées sur le vol de données. Notre solution hybride permet d'accroitre l'espace et le temps de calcul ainsi que le passage au large échelle. L'association de ces nouveaux algorithmes nous a permis de concevoir deux modèles d'adaptation algorithmique dynamique basés, ou non, sur des scénarios de pré-calcul hors-ligne. Enfin, il nous est apparu indispensable d'ajouter au pipeline de détection de collision une nouvelle dimension révélant la prise en compte des architectures pour une exécution optimale. Grâce à ce formalisme, nous avons proposé un nouveau pipeline de détection de collision offrant une granularité de parallélisme sur processeurs multi-coeur. Il permet une exécution simultanée des différentes étapes du pipeline ainsi qu'un parallélisme interne à chacune de ces étapes.
APA, Harvard, Vancouver, ISO, and other styles
30

Zammar, Chadi. "Interactions coopératives 3D distantes en environnements virtuels : gestion des problèmes réseau." Phd thesis, INSA de Rennes, 2005. http://tel.archives-ouvertes.fr/tel-00908525.

Full text
Abstract:
Pour assurer un niveau de coopération acceptable entre les diff érents utilisateurs, il faut prendre en considération certains critères. Nous pouvons diviser ces critères selon deux catégories : la première est visuelle/psychologique et elle est souvent liée à l'utilisateur. Il s'agit de comprendre les interactions de l'autre utilisateur : que fait-il ? Que va-t-il faire ? Sur quoi interagit-il ? ... Pour comprendre tout cela il faut assurer que l'utilisateur ait un certain niveau de conscience de tout ce qui évolue dans l'environnement. Cette conscience est la connaissance de l'état de l'environnement qui est assurée à travers des métaphores visuelles signi catives, d'où le facteur psycho-cognitif. La deuxième catégorie est technique et elle est liée au réseau. Pour garantir la mise à jour de l'évolution de l'environnement virtuel il faut assurer la transmission d'informations liées à cette évolution dans les meilleurs délais. L'assurance de la réception des mises-à-jour nécessite à son tour une qualité de service réseau jugée acceptable en terme de latence et de bande pas- sante. Qu'arrive-t-il si cette qualité de service est interrompue à un moment donné ? Quel est l'impact d'un problème au niveau réseau sur la coopéra- tion ? Jusqu'à quel point ? Cette thèse a pour objectif d'essayer de répondre à ces questions en mettant l'accent sur les conséquences indésirables d'un problème réseau sur les environne- ments virtuels coopératifs. Nous allons suivre le problème réseau dès le moment de son apparition au niveau de la couche de transport, et tout le long de son passage par les di érentes couches qui composent les environnements virtuels distribués. Ces couches comportent : la couche de communication, le noyau du support d'exécution d'environnements virtuels, et enfi n la couche applicative en relation directe avec l'utilisateur. Sur chaque niveau nous étudions les eff ets provoqués par le problème réseau et nous proposons des solutions.
APA, Harvard, Vancouver, ISO, and other styles
31

Bjørneng, Bjørn. "How to increase the understanding of differentials by using the Casio-calculator model 9860 G I/II to solve differential equations." Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-79468.

Full text
Abstract:
The major aims of this paper are to present how we can improve the students understanding and involvement in mathematics by using a programming/graphic calculator. I will use differentials as examples such as differentiation ,integrals and differential equations, creating lines of slopes for differential equation of the type y’= f(x,y) . Find the solution of some differential equations by using regression and create the graph connected to the differential equation. As we have different approaches to solving a problem, it is a hope the students interest in mathematics will improve. The tools used will be programming, graphic commands as plot, f-line, etc. One goal is also to show how we can create small programs solving problems in mathematics. For many students this will be a stepping stone for further work with programming. The programs used can be copied using the program FA 124 that can be downloaded from Casios homepages. On request I can send you the programs.
APA, Harvard, Vancouver, ISO, and other styles
32

Marak, Laszlo. "On continuous maximum flow image segmentation algorithm." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00786914.

Full text
Abstract:
In recent years, with the advance of computing equipment and image acquisition techniques, the sizes, dimensions and content of acquired images have increased considerably. Unfortunately as time passes there is a steadily increasing gap between the classical and parallel programming paradigms and their actual performance on modern computer hardware. In this thesis we consider in depth one particular algorithm, the continuous maximum flow computation. We review in detail why this algorithm is useful and interesting, and we propose efficient and portable implementations on various architectures. We also examine how it performs in the terms of segmentation quality on some recent problems of materials science and nano-scale biology
APA, Harvard, Vancouver, ISO, and other styles
33

Butler, Douglas. "Presentations Using Autograph." Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-79554.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Popescu, Valentina. "Towards fast and certified multiple-precision librairies." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN036/document.

Full text
Abstract:
De nombreux problèmes de calcul numérique demandent parfois à effectuer des calculs très précis. L'étude desystèmes dynamiques chaotiques fournit des exemples très connus: la stabilité du système solaire ou l’itération à longterme de l'attracteur de Lorenz qui constitue un des premiers modèles de prédiction de l'évolution météorologique. Ons'intéresse aussi aux problèmes d'optimisation semi-définie positive mal-posés qui apparaissent dans la chimie oul'informatique quantique.Pour tenter de résoudre ces problèmes avec des ordinateurs, chaque opération arithmétique de base (addition,multiplication, division, racine carrée) demande une plus grande précision que celle offerte par les systèmes usuels(binary32 and binary64). Il existe des logiciels «multi-précision» qui permettent de manipuler des nombres avec unetrès grande précision, mais leur généralité (ils sont capables de manipuler des nombres de millions de chiffres) empêched’atteindre de hautes performances. L’objectif majeur de cette thèse a été de développer un nouveau logiciel à la foissuffisamment précis, rapide et sûr : on calcule avec quelques dizaines de chiffres (quelques centaines de bits) deprécision, sur des architectures hautement parallèles comme les processeurs graphiques et on démontre des bornesd'erreur afin d'être capables d’obtenir des résultats certains
Many numerical problems require some very accurate computations. Examples can be found in the field ofdynamical systems, like the long-term stability of the solar system or the long-term iteration of the Lorenz attractor thatis one of the first models used for meteorological predictions. We are also interested in ill-posed semi-definite positiveoptimization problems that appear in quantum chemistry or quantum information.In order to tackle these problems using computers, every basic arithmetic operation (addition, multiplication,division, square root) requires more precision than the ones offered by common processors (binary32 and binary64).There exist multiple-precision libraries that allow the manipulation of very high precision numbers, but their generality(they are able to handle numbers with millions of digits) is quite a heavy alternative when high performance is needed.The major objective of this thesis was to design and develop a new arithmetic library that offers sufficient precision, isfast and also certified. We offer accuracy up to a few tens of digits (a few hundred bits) on both common CPU processorsand on highly parallel architectures, such as graphical cards (GPUs). We ensure the results obtained by providing thealgorithms with correctness and error bound proofs
APA, Harvard, Vancouver, ISO, and other styles
35

Passerat-Palmbach, Jonathan. "Contributions to parallel stochastic simulation : application of good software engineering practices to the distribution of pseudorandom streams in hybrid Monte Carlo simulations." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00858735.

Full text
Abstract:
The race to computing power increases every day in the simulation community. A few years ago, scientists have started to harness the computing power of Graphics Processing Units (GPUs) to parallelize their simulations. As with any parallel architecture, not only the simulation model implementation has to be ported to the new parallel platform, but all the tools must be reimplemented as well. In the particular case of stochastic simulations, one of the major element of the implementation is the pseudorandom numbers source. Employing pseudorandom numbers in parallel applications is not a straightforward task, and it has to be done with caution in order not to introduce biases in the results of the simulation. This problematic has been studied since parallel architectures are available and is called pseudorandom stream distribution. While the literature is full of solutions to handle pseudorandom stream distribution on CPU-based parallel platforms, the young GPU programming community cannot display the same experience yet. In this thesis, we study how to correctly distribute pseudorandom streams on GPU. From the existing solutions, we identified a need for good software engineering solutions, coupled to sound theoretical choices in the implementation. We propose a set of guidelines to follow when a PRNG has to be ported to GPU, and put these advice into practice in a software library called ShoveRand. This library is used in a stochastic Polymer Folding model that we have implemented in C++/CUDA. Pseudorandom streams distribution on manycore architectures is also one of our concerns. It resulted in a contribution named TaskLocalRandom, which targets parallel Java applications using pseudorandom numbers and task frameworks. Eventually, we share a reflection on the methods to choose the right parallel platform for a given application. In this way, we propose to automatically build prototypes of the parallel application running on a wide set of architectures. This approach relies on existing software engineering tools from the Java and Scala community, most of them generating OpenCL source code from a high-level abstraction layer.
APA, Harvard, Vancouver, ISO, and other styles
36

Obrecht, Christian. "High performance lattice Boltzmann solvers on massively parallel architectures with applications to building aeraulics." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00776986.

Full text
Abstract:
With the advent of low-energy buildings, the need for accurate building performance simulations has significantly increased. However, for the time being, the thermo-aeraulic effects are often taken into account through simplified or even empirical models, which fail to provide the expected accuracy. Resorting to computational fluid dynamics seems therefore unavoidable, but the required computational effort is in general prohibitive. The joint use of innovative approaches such as the lattice Boltzmann method (LBM) and massively parallel computing devices such as graphics processing units (GPUs) could help to overcome these limits. The present research work is devoted to explore the potential of such a strategy. The lattice Boltzmann method, which is based on a discretised version of the Boltzmann equation, is an explicit approach offering numerous attractive features: accuracy, stability, ability to handle complex geometries, etc. It is therefore an interesting alternative to the direct solving of the Navier-Stokes equations using classic numerical analysis. From an algorithmic standpoint, the LBM is well-suited for parallel implementations. The use of graphics processors to perform general purpose computations is increasingly widespread in high performance computing. These massively parallel circuits provide up to now unrivalled performance at a rather moderate cost. Yet, due to numerous hardware induced constraints, GPU programming is quite complex and the possible benefits in performance depend strongly on the algorithmic nature of the targeted application. For LBM, GPU implementations currently provide performance two orders of magnitude higher than a weakly optimised sequential CPU implementation. The present thesis consists of a collection of nine articles published in international journals and proceedings of international conferences (the last one being under review). These contributions address the issues related to single-GPU implementations of the LBM and the optimisation of memory accesses, as well as multi-GPU implementations and the modelling of inter-GPU and internode communication. In addition, we outline several extensions to the LBM, which appear essential to perform actual building thermo-aeraulic simulations. The test cases we used to validate our codes account for the strong potential of GPU LBM solvers in practice.
APA, Harvard, Vancouver, ISO, and other styles
37

Rémy, Adrien. "Solving dense linear systems on accelerated multicore architectures." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112138/document.

Full text
Abstract:
Dans cette thèse de doctorat, nous étudions des algorithmes et des implémentations pour accélérer la résolution de systèmes linéaires denses en utilisant des architectures composées de processeurs multicœurs et d'accélérateurs. Nous nous concentrons sur des méthodes basées sur la factorisation LU. Le développement de notre code s'est fait dans le contexte de la bibliothèque MAGMA. Tout d'abord nous étudions différents solveurs CPU/GPU hybrides basés sur la factorisation LU. Ceux-ci visent à réduire le surcoût de communication dû au pivotage. Le premier est basé sur une stratégie de pivotage dite "communication avoiding" (CALU) alors que le deuxième utilise un préconditionnement aléatoire du système original pour éviter de pivoter (RBT). Nous montrons que ces deux méthodes surpassent le solveur utilisant la factorisation LU avec pivotage partiel quand elles sont utilisées sur des architectures hybrides multicœurs/GPUs. Ensuite nous développons des solveurs utilisant des techniques de randomisation appliquées sur des architectures hybrides utilisant des GPU Nvidia ou des coprocesseurs Intel Xeon Phi. Avec cette méthode, nous pouvons éviter l'important surcoût du pivotage tout en restant stable numériquement dans la plupart des cas. L'architecture hautement parallèle de ces accélérateurs nous permet d'effectuer la randomisation de notre système linéaire à un coût de calcul très faible par rapport à la durée de la factorisation. Finalement, nous étudions l'impact d'accès mémoire non uniformes (NUMA) sur la résolution de systèmes linéaires denses en utilisant un algorithme de factorisation LU. En particulier, nous illustrons comment un placement approprié des processus légers et des données sur une architecture NUMA peut améliorer les performances pour la factorisation du panel et accélérer de manière conséquente la factorisation LU globale. Nous montrons comment ces placements peuvent améliorer les performances quand ils sont appliqués à des solveurs hybrides multicœurs/GPU
In this PhD thesis, we study algorithms and implementations to accelerate the solution of dense linear systems by using hybrid architectures with multicore processors and accelerators. We focus on methods based on the LU factorization and our code development takes place in the context of the MAGMA library. We study different hybrid CPU/GPU solvers based on the LU factorization which aim at reducing the communication overhead due to pivoting. The first one is based on a communication avoiding strategy of pivoting (CALU) while the second uses a random preconditioning of the original system to avoid pivoting (RBT). We show that both of these methods outperform the solver using LU factorization with partial pivoting when implemented on hybrid multicore/GPUs architectures. We also present new solvers based on randomization for hybrid architectures for Nvidia GPU or Intel Xeon Phi coprocessor. With this method, we can avoid the high cost of pivoting while remaining numerically stable in most cases. The highly parallel architecture of these accelerators allow us to perform the randomization of our linear system at a very low computational cost compared to the time of the factorization. Finally we investigate the impact of non-uniform memory accesses (NUMA) on the solution of dense general linear systems using an LU factorization algorithm. In particular we illustrate how an appropriate placement of the threads and data on a NUMA architecture can improve the performance of the panel factorization and consequently accelerate the global LU factorization. We show how these placements can improve the performance when applied to hybrid multicore/GPU solvers
APA, Harvard, Vancouver, ISO, and other styles
38

Ellner, Stephan J. "PreVIEW: An untyped graphical calculus for resource-aware programming." Thesis, 2004. http://hdl.handle.net/1911/17671.

Full text
Abstract:
As visual programming languages become both more expressive and more popular in the domains of real-time and embedded software, the need for rigorous techniques for reasoning about programs written in these languages becomes more pressing. Indeed, due to a subtle but fundamental mismatch between graphical and textual representations of programs, semantic concepts established in the textual setting cannot be mapped to the graphical setting without a careful analysis of the connection between the two representations. Focusing on operational (as opposed to type-theoretic) aspects of Resource-aware Programming (RAP), we analyze the connection between graphical and textual representations of programs that can express both higher-order functions and staging constructs. After establishing a precise connection between the two, we illustrate how this connection can be used to lift a reduction semantics from the textual to the graphical setting.
APA, Harvard, Vancouver, ISO, and other styles
39

"Students’ Interpretations of Expressions in the Graphical Register and Its Relation to Their Interpretation of Points on Graphs when Evaluating Statements about Functions from Calculus." Doctoral diss., 2019. http://hdl.handle.net/2286/R.I.54880.

Full text
Abstract:
abstract: Functions represented in the graphical register, as graphs in the Cartesian plane, are found throughout secondary and undergraduate mathematics courses. In the study of Calculus, specifically, graphs of functions are particularly prominent as a means of illustrating key concepts. Researchers have identified that some of the ways that students may interpret graphs are unconventional, which may impact their understanding of related mathematical content. While research has primarily focused on how students interpret points on graphs and students’ images related to graphs as a whole, details of how students interpret and reason with variables and expressions on graphs of functions have remained unclear. This dissertation reports a study characterizing undergraduate students’ interpretations of expressions in the graphical register with statements from Calculus, its association with their evaluations of these statements, its relation to the mathematical content of these statements, and its relation to their interpretations of points on graphs. To investigate students’ interpretations of expressions on graphs, I conducted 150-minute task-based clinical interviews with 13 undergraduate students who had completed Calculus I with a range of mathematical backgrounds. In the interviews, students were asked to evaluate propositional statements about functions related to key definitions and theorems of Calculus and were provided various graphs of functions to make their evaluations. The central findings from this study include the characteristics of four distinct interpretations of expressions on graphs that students used in this study. These interpretations of expressions on graphs I refer to as (1) nominal, (2) ordinal, (3) cardinal, and (4) magnitude. The findings from this study suggest that different contexts may evoke different graphical interpretations of expressions from the same student. Further, some interpretations were shown to be associated with students correctly evaluating some statements while others were associated with students incorrectly evaluating some statements. I report the characteristics of these interpretations of expressions in the graphical register and its relation to their evaluations of the statements, the mathematical content of the statements, and their interpretation of points. I also discuss the implications of these findings for teaching and directions for future research in this area.
Dissertation/Thesis
Doctoral Dissertation Mathematics 2019
APA, Harvard, Vancouver, ISO, and other styles
40

Brady, Thomas J. P. "The effects of graphing calculators on student achievement in AP calculus AB /." 2006. http://www.consuls.org/record=b2802925.

Full text
Abstract:
Thesis (Ed.D.) -- Central Connecticut State University, 2006
Thesis advisor: Timothy Craine "... in partial fulfillment of the requirements for the degree of Doctor of Education, Department of Educational Leadership." Includes bibliographical references (leaves 79-81) Also available via the World Wide Web
APA, Harvard, Vancouver, ISO, and other styles
41

Barton, Susan Dale. "Graphing calculators in college calculus : an examination of teachers' conceptions and instructional practice." Thesis, 1995. http://hdl.handle.net/1957/34597.

Full text
Abstract:
The study examined classroom instructional practices and teacher's professed conceptions about teaching and learning college calculus in relationship to the implementation of scientific-programmable-graphics (SPG) calculators. The study occurred at a university not affiliated with any reform project. The participants were not the catalysts seeking to implement calculus reform, but expressed a willingness to teach the first quarter calculus course with the SPG calculator. The research design was based on qualitative methods using comparative case studies of five teachers. Primary data were collected through pre-school interviews and weekly classroom observations with subsequent interviews. Teachers' profiles were established describing general conceptions of teaching calculus, instructional practices, congruence between conceptions and practice, conceptions about teaching using SPG calculators, instructional practice with SPG calculators, and the relationship of conceptions and practice with SPG calculators. Initially, all the teachers without prior experience using SPG calculators indicated concern and skepticism about the usefulness of the technology in teaching calculus and were uncertain how to utilize the calculator in teaching the calculus concepts. During the study the teachers became less skeptical about the calculator's usefulness and found it effective for illustrating graphs. Some of the teachers' exams included more conceptual and graphically-oriented questions, but were not significantly different from traditional exams. Findings indicated the college teachers' conceptions of teaching calculus were generally consistent with their instructional practice when not constrained by time. The teachers did not perceive a dramatic change in their instructional practices. Rather, the new graphing approach curriculum and technology were assimilated into the teachers' normal teaching practices. No major shifts in the role of the teachers were detected. Two teachers demonstrated slight differences in their roles when the SPG calculators were used in class. One was a consultant to the students as they used the SPG calculators; the other became a fellow learner as the students presented different features on the calculator. Use of the calculator was influenced by several factors: inexperience with the calculator, time constraints, setting up the classroom display calculator, preferred teaching styles and emphasis, and a willingness to risk experimenting with established teaching practices and habits.
Graduation date: 1996
APA, Harvard, Vancouver, ISO, and other styles
42

Brichard, Joelle. "On Using Graphical Calculi: Centers, Zeroth Hochschild Homology and Possible Compositions of Induction and Restriction Functors in Various Diagrammatical Algebras." Thesis, 2011. https://doi.org/10.7916/D87H1RKG.

Full text
Abstract:
This thesis is divided into three chapters, each using certain graphical calculus in a slightly different way. In the first chapter, we compute the dimension of the center of the 0-Hecke algebra Hn and of the Nilcoxeter algebra NCn using a calculus of diagrams on the Moebius band. In the case of the Nilcoxeter algebra, this calculus is shown to produce a basis for Z(NCn) and the table of multiplication in this basis is shown to be trivial. We conjecture that a basis for Z(Hn) can also be obtained in a specic way from this topological calculus. In the second chapter, we also use a calculus of diagrams on the annulus and the Moebius band to determine the zeroth Hochschild Homology of Kuperberg's webs for rank two Lie algebras. We use results from Sikora and Westbury to prove the linear independence of these webs on these surfaces. In the third chapter, we use other diagrams to attempt to find explicitely the possible compositions of the induction and restriction functors in the cyclotomic quotients of the NilHecke algebra. We use a computer program to obtain partial results.
APA, Harvard, Vancouver, ISO, and other styles
43

Mäkinen, Ilkka. "Dynamics in Canonical Models of Loop Quantum Gravity." Doctoral thesis, 2019. https://depotuw.ceon.pl/handle/item/3489.

Full text
Abstract:
Loop quantum gravity is a tentative but relatively well-developed attempt at a manifestly background independent theory of quantum gravity. The kinematical structure of loop quantum gravity is well understood, with the elementary kinematical states of the theory having a physically appealing interpretation as states describing quantized, discrete spatial geometries. However, formulating the dynamics of the theory in a fully satisfactory way has proven to be surprisingly challenging, and to a significant extent, the issue of dynamics still remains an open problem in loop quantum gravity. In this thesis we consider the problem of dynamics in canonical loop quantum gravity primarily in the context of deparametrized models, in which a scalar field is taken as a physical time variable for the dynamics of the gravitational field. The dynamics of the quantum states of the gravitational field is then generated directly by a physical Hamiltonian operator, instead of being implicitly defined through the kernel of a Hamiltonian constraint. The deparametrized approach therefore bypasses many of the considerable technical difficulties one encounters when working with the constraint operator. We introduce a new construction of a Hamiltonian operator for loop quantum gravity, which has both mathematical and practical advantages in comparison to earlier proposals. Most importantly, our Hamiltonian can be constructed as a symmetric operator, and is therefore a mathematically consistent candidate for a generator of unitary physical time evolution in deparametrized models. Furthermore, by employing the recently introduced curvature operator in our construction, we obtain a significant practical simplification in the structure of the Hamiltonian operator. After having completed the definition of several variations of the new Hamiltonian, we develop methods for evaluating the dynamics generated by a given physical Hamiltonian in an approximate form, even if an exact solution to the eigenvalue problem of the Hamiltonian cannot be achieved. In particular, we show that for large values of the Barbero-Immirzi parameter, the Euclidean part of the Hamiltonian can be considered as a perturbation over the comparatively simple curvature operator, and hence standard perturbation theory can be used to approximate the spectrum of the complete Hamiltonian in terms of the known eigenvalues and eigenstates of the curvature operator. We illustrate the use of our approximation methods with simple numerical calculations. We also introduce a new representation for intertwiners in loop quantum gravity. By considering intertwiners projected onto coherent states of angular momentum, we obtain a description in which intertwiners are represented as polynomials of certain complex variables, and operators in loop quantum gravity are expressed as differential operators acting on these variables. This makes it possible to describe the action of the Hamiltonian geometrically, in terms of the unit vectors parametrizing the angular momentum coherent states, as opposed to complicated, non-intuitive expressions involving combinations of the Wigner nj-symbols of SU(2) recoupling theory. The new representation could therefore turn out to be a useful tool for analyzing the dynamics in loop quantum gravity. In addition to reviewing the results of the author's scientific work, this thesis also gives a thorough introduction to the basic framework of canonical loop quantum gravity, as well as a self-contained presentation of the graphical formalism for SU(2) recoupling theory, which is the invaluable tool for performing practical calculations in loop quantum gravity in the spin network basis. The author therefore hopes that parts of this thesis could serve as a comprehensible source of information for anyone interested in learning the elements of loop quantum gravity.
Pętlowa grawitacja kwantowa jest pierwszą i stosunkowo zaawansowaną próbą konstrukcji jawnie niezależnej od tła teorii grawitacji kwantowej. Kinematyczna struktura pętlowej grawitacji kwantowej jest dobrze poznana, przy czym elementarne stany kinematyczne teorii mają fizycznie dobrze zrozumiałą interpretację jako stany opisujące skwantowane, dyskretne geometrie przestrzenne. Sformułowanie dynamiki teorii w sposób w pełni zadowalający okazało się jednak zaskakująco trudne i w znacznym stopniu kwestia dynamiki nadal pozostaje otwartym problemem w kwantowej grawitacji pętli. W rozprawie tej rozważamy problem dynamiki w kanonicznej kwantowej grawitacji pętlowej głównie w kontekście modeli deparametryzowanych, w których pole skalarne pełni funkcję czasu fizycznego dla dynamiki pola grawitacyjnego. Dynamika stanów kwantowych pola grawitacyjnego jest następnie generowana bezpośrednio przez fizyczny operator Hamiltona, zamiast być domyślnie definiowana przez jądro hamiltonowskiego operatora więzów. W związku z tym podejście zdeparametryzowane pozwala ominąć wiele znacznych trudności technicznych napotykanych podczas pracy z więzami hamiltonowskimi. Wprowadzamy nową konstrukcję operatora hamiltonowskiego dla pętlowej grawitacji kwantowej, która ma zarówno zalety matematyczne, jak i praktyczne w porównaniu z wcześniejszymi propozycjami. Co najważniejsze, nasz Hamiltonian może być skonstruowany jako operator symetryczny, a zatem jest matematycznie spójnym kandydatem na generator unitarnej ewolucji czasowej w zdeparametryzowanych modelach. Ponadto, dzięki zastosowaniu niedawno wprowadzonego w naszej konstrukcji operatora krzywizny, jesteśmy w stanie dokonać znacznego i praktycznego uproszczenia w strukturze operatora hamiltonowskiego. Po zakończeniu analizy różnych możliwych definicji nowego hamiltonianu, opracowujemy przybliżone metody badań dynamiki generowanej przez dany fizyczny hamiltonian przydatne, gdy nie można uzyskać dokładnego rozwiązania problemu wartości własnych hamiltonianu. W szczególności pokazujemy, że dla dużych wartości parametru Barbero-Immirzi, część euklidesową hamiltonianu można uznać za zaburzenie względnie prostego operatora krzywizny, a zatem można zastosować standardową teorię zaburzeń w celu przybliżenia widma pełnego hamiltonianu pod względem znanych wartości własnych i stanów własnych operatora krzywizny. Zilustrowaliśmy wykorzystanie naszych metod aproksymacji za pomocą prostych obliczeń numerycznych. Wprowadzamy również nową reprezentację dla operatorów splatających w pętlowej grawitacji kwantowej. Rozpatrując operatory splatające rzutowane na stany koherentne momentu pędu, otrzymujemy opis, w którym operatory splatające są reprezentowane jako wielomiany pewnych zmiennych zespolonych, a operatory w kwantowej grawitacji pętlowej są wyrażane jako operatory różnicowe działające na te zmienne. Umożliwia to opisanie działania hamiltonianu geometrycznie, pod względem znormalizowanych wektorów parametryzujących stany koherentne momentu pędu, w przeciwieństwie do skomplikowanych, nieintuicyjnych wyrażeń obejmujących kombinacje symboli Wignera nj teorii sprzężenia SU(2). Nowa reprezentacja może zatem okazać się użytecznym narzędziem do analizy dynamiki w kwantowej grawitacji pętli. Oprócz przeglądu wyników pracy naukowej autora, rozprawa zawiera również dokładne wprowadzenie do formalizmu kanonicznej kwantowej grawitacji pętlowej, a także samodzielną prezentację metod graficznych dla teorii sprzężenia SU(2), która jest nieocenionym narzędziem do wykonywania praktycznych obliczeń w kwantowej grawitacji pętlowej w bazie sieci spinowej. Autor ma zatem nadzieję, że część rozprawy może służyć jako zrozumiałe źródło wiedzy dla wszystkich zainteresowanych nauką elementów kwantowej grawitacji pętlowej.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography