To see the other types of publications on this topic, follow the link: Visualisation methods.

Dissertations / Theses on the topic 'Visualisation methods'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Visualisation methods.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Biddiscombe, John A. "Dataflow methods in HPC, visualisation and analysis." Thesis, University of Warwick, 2017. http://wrap.warwick.ac.uk/103415/.

Full text
Abstract:
The processing power available to scientists and engineers using supercomputers over the last few decades has grown exponentially, permitting significantly more sophisticated simulations, and as a consequence, generating proportionally larger output datasets. This change has taken place in tandem with a gradual shift in the design and implementation of simulation and post-processing software, with a shift from simulation as a first step and visualisation/analysis as a second, towards in-situ on the fly methods that provide immediate visual feedback, place less strain on file-systems and reduce overall data-movement and copying. Concurrently, processor speed increases have dramatically slowed and multi and many-core architectures have instead become the norm for virtually all High Performance computing (HPC) machines. This in turn has led to a shift away from the traditional distributed one rank per node model, to one rank per process, using multiple processes per multicore node, and then back towards one rank per node again, using distributed and multi-threaded frameworks combined. This thesis consists of a series of publications that demonstrate how software design for analysis and visualisation has tracked these architectural changes and pushed the boundaries of HPC visualisation using dataflow techniques in distributed environments. The first publication shows how support for the time dimension in parallel pipelines can be implemented, demonstrating how information flow within an application can be leveraged to optimise performance and add features such as analysis of time-dependent flows and comparison of datasets at different timesteps. A method of integrating dataflow pipelines with in-situ visualisation is subsequently presented, using asynchronous coupling of user driven GUI controls and a live simulation running on a supercomputer. The loose coupling of analysis and simulation allows for reduced IO, immediate feedback and the ability to change simulation parameters on the fly. A significant drawback of parallel pipelines is the inefficiency caused by improper load-balancing, particularly during interactive analysis where the user may select between different features of interest, this problem is addressed in the fourth publication by integrating a high performance partitioning library into the visualization pipeline and extending the information flow up and down the pipeline to support it. This extension is demonstrated in the third publication (published earlier) on massive meshes with extremely high complexity and shows that general purpose visualization tools such as ParaView can be made to compete with bespoke software written for a dedicated task. The future of software running on many-core architectures will involve task-based runtimes, with dynamic load-balancing, asynchronous execution based on dataflow graphs, work stealing and concurrent data sharing between simulation and analysis. The final paper of this thesis presents an optimisation for one such runtime, in support of these future HPC applications.
APA, Harvard, Vancouver, ISO, and other styles
2

Fernandez, Comesana Daniel. "Scan-based sound visualisation methods using sound pressure and particle velocity." Thesis, University of Southampton, 2014. https://eprints.soton.ac.uk/366935/.

Full text
Abstract:
Sound visualisation techniques have played a key role in the development of acoustics throughout history. Progress in measurement apparatus and the techniques used to display sound and vibration phenomena has provided excellent tools for understanding specific acoustic problems. Traditional methods, however, such as step-by-step measurements or simultaneous multichannel systems, require a significant trade-off between time requirements, flexibility, and cost. This thesis explores the foundations of a novel sound field mapping procedure. The proposed technique, Scan and Paint, is based on the acquisition of sound pressure and particle velocity by manually moving a p-u probe (pressure-particle velocity sensor) across a sound field, whilst filming the event with a camera. The sensor position is extracted by applying automatic colour tracking to each frame of the recorded video. It is then possible to directly visualise sound variations across the space in terms of sound pressure, particle velocity or acoustic intensity. The high flexibility, high resolution, and low cost characteristics of the proposed measurement methodology, along with its short time requirements, define Scan and Paint as an efficient sound visualisation technique for stationary sound fields. A wide range of specialised applications have been studied, proving that the measurement technique is not only suitable for near-field source localisation purposes but also for vibro-acoustic problems, panel noise contribution analysis, source radiation assessment, intensity vector field mapping and far field localisation.
APA, Harvard, Vancouver, ISO, and other styles
3

Li, Katie. "Examining the use of visualisation methods for the design of interactive systems." Thesis, Cranfield University, 2016. http://dspace.lib.cranfield.ac.uk/handle/1826/11495.

Full text
Abstract:
Human-Computer Interaction (HCI) design has historically involved people from different fields. Designing HCI systems with people of varying background and expertise can bring different perspectives and ideas, but discipline-specific language and design methods can hinder such collaborations. The application of visualisation methods is a way to overcome these challenges, but to date selection tools tend to focus on a facet of HCI design methods and no research has been attempted to assemble a collection of HCI visualisation methods. To fill this gap, this research seeks to establish an inventory of HCI visualisation methods and identify ways of selecting amongst them. Creating the inventory of HCI methods would enable designers to discover and learn about methods that they may not have used before or be familiar with. Categorising the methods provides a structure for new and experienced designers to determine appropriate methods for their design project. The aim of this research is to support designers in the development of Human-Computer Interaction (HCI) systems through better selection and application of visualisation methods. This is achieved through four phases. In the first phase, three case studies are conducted to investigate the challenges and obstacles that influence the choice of a design approach in the development of HCI systems. The findings from the three case studies helped to form the design requirements for a visualisation methods selection and application guide. In the second phase, the Guide is developed. The third phase aims to evaluate the Guide. The Guide is employed in the development of a serious training game to demonstrate its applicability. In the fourth phase, a user study was designed to evaluate the serious training game. Through the evaluation of the serious training game, the Guide is validated. This research has contributed to the knowledge surrounding visualisation tools used in the design of interactive systems. The compilation of HCI visualisation methods establishes an inventory of methods for interaction design. The identification of Selection Approaches brings together the ways in which visualisation methods are organised and grouped. By mapping visualisation methods to Selection Approaches, this study has provided a way for practitioners to select a visualisation method to support their design practice. The development of the Selection Guide provided five filters, which helps designers to identify suitable visualisation methods based on the nature of the design challenge. The development of the Application Guide presented the methodology of each visualisation method in a consistent format. This enables the ease of method comparison and to ensure there is comprehensive information for each method. A user study showing the evaluation of a serious training game is presented. Two learning objectives were identified and mapped to Bloom’s Taxonomy to advocate an approach for like-to-like comparison with future studies.
APA, Harvard, Vancouver, ISO, and other styles
4

Novak, Matej. "Quantitative methods for the measurement and monitoring of mixing flows using a computer vision system." Thesis, University of Hertfordshire, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.369766.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Berres, Anne Sabine [Verfasser], and Hans [Akademischer Betreuer] Hagen. "Discrete Geometric Methods for Surface Deformation and Visualisation / Anne Sabine Berres. Betreuer: Hans Hagen." Kaiserslautern : Technische Universität Kaiserslautern, 2015. http://d-nb.info/1078017263/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Bergquist, Jørgen, and Helge Titlestad. "Analysis of fibre cross sections : Developing methods for image processing and visualisation utilising the GPU." Thesis, Norwegian University of Science and Technology, Department of Computer and Information Science, 2006. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-9466.

Full text
Abstract:

Modern graphics processing units, GPUs, have evolved into high-performance processors with programmable vertex and pixel shaders. With these new abilities a new subfield of research, dubbed GPGPU for General Purpose computing on the GPU has emerged, in areas as oil exploration, processing of sound effects, neural networks, cryptography and image processing. As the GPUs functionality and performance are still increasing, more programmers are appealed by their computational power. To understand the performance of paper materials a detailed characterisation of the fibre cross-sections is necessary. Using scanning electron microscopy, SEM, fibres embedded in epoxy are depicted. These images have to be analysed and quantified. In this master thesis we explore the possibility of taking advantage of todays generation of GPUs performance when analysing digital images of fibre cross-sections. We implemented common algorithms such as the median filter, the SUSAN smoothing filter and various mathematical morphology operations using the high-level shader language OpenGL Shader Language, GLSL. When measured against equivalent image processing opreations run on the CPU, we have found our GPU solution to perform about the same. The operations run much faster on the GPU, but due to overhead of binding FBOs, intialising shader programs and transfering data between the CPU and the GPU, the end result is about the same on the GPU and CPU implementations. We have deliberatly worked with commodity hardware to see what one can gain with just replacing the graphics card in the engineer's PCs. With newer hardware the results would tilt heavily towards the GPU implementations. We have concluded that making a paper fibre cross-section analysis program based on GPU image processing with commodity hardware is indeed feasible, and would give some benefits to the user interactivity. But it is also harder to implement because the field is still young, with immature compilers and debugging tools and few solid libraries.

APA, Harvard, Vancouver, ISO, and other styles
7

Frössling, Leo, and Oskar Hernberg. "Development of Visualisation Methods and User Interface for Analysis of Call Flows in Communication Services." Thesis, KTH, Hälsoinformatik och logistik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-278068.

Full text
Abstract:
Abstract With the rapid increase of bandwidth and complexity in the network of communicationsservice providers, there is need for effective troubleshooting to maintain troublefree networks and in turn high customer satisfaction. An important tool in troubleshootingis visualisation of call flows and messages in the network. This thesis setout to compare different charts and user interfaces for the purpose of displaying callflow data in a network for communication services. Two high-fidelity mock-ups weremade for visualising call flows and two for visualising messages. The mock-ups wereevaluated using user-based evaluation and heuristic evaluation. The mock-ups werethen revised based on the information gathered from the evaluations. The result ofthis thesis suggests that an implementation should use a sequence diagram for visualisationof call flows together with a hierarchical view for visualisation of messages. Keywords Call flow, visualisation, user interface, communication services, heuristics, sequencediagram, hierarchical view, table view, tree diagram, mock-up
SammanfattningMed det snabba ökandet av bandbredd och komplexitet i kommunikationsföretagensnätverk så finns det ett behov av effektiv felsökning och underhåll av deras nätverk.Effektiv felsökning och underhåll av nätverket bidrar till färre problem i nätverket,vilket i sin tur ger högre kundtillfredsställelse. Ett viktigt verktyg när detkommer till felsökningen är visualiseringen utav samtalsflöden och meddelanden.Det här examensarbetets mål är att jämföra olika metoder för visualisering utav samtalsflödenoch meddelanden i ett nätverk för kommunikationstjänster. Två mockupsskapades för visualisering av samtalsströmmar och två för visualisering av meddelanden.Dessa mock-ups evaluerades genom heuristiskevaluering samt användarbaseradevaluering. Dessa mock-ups reviderades sedan utifrån den information somsamlats från evalueringarna. Resultatet av detta examensarbete tyder på att en implementationbör använda ett sekvensdiagram för visualisering av samtalsflöden tillsammansmed en hierarkisk vy för visualisering av meddelanden.NyckelordSamtalsflöden, visualisering, användargränssnitt, kommunikationstjänster,heuristik, sekvensdiagram, hierarkisk vy, tabellvy, träddiagram
APA, Harvard, Vancouver, ISO, and other styles
8

Mambretti, Isabella Margherita. "Urban parks between safety and aesthetics : exploring urban green space using visualisation and conjoint analysis methods /." Zürich : ETH / Institut für Raum- und Landschaftsentwicklung, 2007. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=17071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Gariba, Munir Antonio. "Visualisation methods for the analysis of blood flow using magnetic resonance imaging and computational fluid dynamics." Thesis, Imperial College London, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.322530.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ayllón-Benítez, Aarón. "Development of new computational methods for a synthetic gene set annotation." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0305.

Full text
Abstract:
Les avancées dans l'analyse de l'expression différentielle de gènes ont suscité un vif intérêt pour l'étude d'ensembles de gènes présentant une similarité d'expression au cours d'une même condition expérimentale. Les approches classiques pour interpréter l'information biologique reposent sur l'utilisation de méthodes statistiques. Cependant, ces méthodes se focalisent sur les gènes les plus connus tout en générant des informations redondantes qui peuvent être éliminées en prenant en compte la structure des ressources de connaissances qui fournissent l'annotation. Au cours de cette thèse, nous avons exploré différentes méthodes permettant l'annotation d'ensembles de gènes.Premièrement, nous présentons les solutions visuelles développées pour faciliter l'interprétation des résultats d'annota-tion d'un ou plusieurs ensembles de gènes. Dans ce travail, nous avons développé un prototype de visualisation, appelé MOTVIS, qui explore l'annotation d'une collection d'ensembles des gènes. MOTVIS utilise ainsi une combinaison de deux vues inter-connectées : une arborescence qui fournit un aperçu global des données mais aussi des informations détaillées sur les ensembles de gènes, et une visualisation qui permet de se concentrer sur les termes d'annotation d'intérêt. La combinaison de ces deux visualisations a l'avantage de faciliter la compréhension des résultats biologiques lorsque des données complexes sont représentées.Deuxièmement, nous abordons les limitations des approches d'enrichissement statistique en proposant une méthode originale qui analyse l'impact d'utiliser différentes mesures de similarité sémantique pour annoter les ensembles de gènes. Pour évaluer l'impact de chaque mesure, nous avons considéré deux critères comme étant pertinents pour évaluer une annotation synthétique de qualité d'un ensemble de gènes : (i) le nombre de termes d'annotation doit être réduit considérablement tout en gardant un niveau suffisant de détail, et (ii) le nombre de gènes décrits par les termes sélectionnés doit être maximisé. Ainsi, neuf mesures de similarité sémantique ont été analysées pour trouver le meilleur compromis possible entre réduire le nombre de termes et maintenir un niveau suffisant de détails fournis par les termes choisis. Tout en utilisant la Gene Ontology (GO) pour annoter les ensembles de gènes, nous avons obtenu de meilleurs résultats pour les mesures de similarité sémantique basées sur les nœuds qui utilisent les attributs des termes, par rapport aux mesures basées sur les arêtes qui utilisent les relations qui connectent les termes. Enfin, nous avons développé GSAn, un serveur web basé sur les développements précédents et dédié à l'annotation d'un ensemble de gènes a priori. GSAn intègre MOTVIS comme outil de visualisation pour présenter conjointement les termes représentatifs et les gènes de l'ensemble étudié. Nous avons comparé GSAn avec des outils d'enrichissement et avons montré que les résultats de GSAn constituent un bon compromis pour maximiser la couverture de gènes tout en minimisant le nombre de termes.Le dernier point exploré est une étape visant à étudier la faisabilité d'intégrer d'autres ressources dans GSAn. Nous avons ainsi intégré deux ressources, l'une décrivant les maladies humaines avec Disease Ontology (DO) et l'autre les voies métaboliques avec Reactome. Le but était de fournir de l'information supplémentaire aux utilisateurs finaux de GSAn. Nous avons évalué l'impact de l'ajout de ces ressources dans GSAn lors de l'analyse d’ensembles de gènes. L'intégration a amélioré les résultats en couvrant d'avantage de gènes sans pour autant affecter de manière significative le nombre de termes impliqués. Ensuite, les termes GO ont été mis en correspondance avec les termes DO et Reactome, a priori et a posteriori des calculs effectués par GSAn. Nous avons montré qu'un processus de mise en correspondance appliqué a priori permettait d'obtenir un plus grand nombre d'inter-relations entre les deux ressources
The revolution in new sequencing technologies, by strongly improving the production of omics data, is greatly leading to new understandings of the relations between genotype and phenotype. To interpret and analyze data grouped according to a phenotype of interest, methods based on statistical enrichment became a standard in biology. However, these methods synthesize the biological information by a priori selecting the over-represented terms and focus on the most studied genes that may represent a limited coverage of annotated genes within a gene set. During this thesis, we explored different methods for annotating gene sets. In this frame, we developed three studies allowing the annotation of gene sets and thus improving the understanding of their biological context.First, visualization approaches were applied to represent annotation results provided by enrichment analysis for a gene set or a repertoire of gene sets. In this work, a visualization prototype called MOTVIS (MOdular Term VISualization) has been developed to provide an interactive representation of a repertoire of gene sets combining two visual metaphors: a treemap view that provides an overview and also displays detailed information about gene sets, and an indented tree view that can be used to focus on the annotation terms of interest. MOTVIS has the advantage to solve the limitations of each visual metaphor when used individually. This illustrates the interest of using different visual metaphors to facilitate the comprehension of biological results by representing complex data.Secondly, to address the issues of enrichment analysis, a new method for analyzing the impact of using different semantic similarity measures on gene set annotation was proposed. To evaluate the impact of each measure, two relevant criteria were considered for characterizing a "good" synthetic gene set annotation: (i) the number of annotation terms has to be drastically reduced while maintaining a sufficient level of details, and (ii) the number of genes described by the selected terms should be as large as possible. Thus, nine semantic similarity measures were analyzed to identify the best possible compromise between both criteria while maintaining a sufficient level of details. Using GO to annotate the gene sets, we observed better results with node-based measures that use the terms’ characteristics than with edge-based measures that use the relations terms. The annotation of the gene sets achieved with the node-based measures did not exhibit major differences regardless of the characteristics of the terms used. Then, we developed GSAn (Gene Set Annotation), a novel gene set annotation web server that uses semantic similarity measures to synthesize a priori GO annotation terms. GSAn contains the interactive visualization MOTVIS, dedicated to visualize the representative terms of gene set annotations. Compared to enrichment analysis tools, GSAn has shown excellent results in terms of maximizing the gene coverage while minimizing the number of terms.At last, the third work consisted in enriching the annotation results provided by GSAn. Since the knowledge described in GO may not be sufficient for interpreting gene sets, other biological information, such as pathways and diseases, may be useful to provide a wider biological context. Thus, two additional knowledge resources, being Reactome and Disease Ontology (DO), were integrated within GSAn. In practice, GO terms were mapped to terms of Reactome and DO, before and after applying the GSAn method. The integration of these resources improved the results in terms of gene coverage without affecting significantly the number of involved terms. Two strategies were applied to find mappings (generated or extracted from the web) between each new resource and GO. We have shown that a mapping process before computing the GSAn method allowed to obtain a larger number of inter-relations between the two knowledge resources
APA, Harvard, Vancouver, ISO, and other styles
11

Runge, Katharina. "Visualisation de fluxoides dans des réseaux 2D artificiels supraconducteurs." Phd thesis, Grenoble 1, 1993. http://tel.archives-ouvertes.fr/tel-00356016.

Full text
Abstract:
Nous avons mis au point une cellule de décoration, permettant de décorer les vortex à basse température (jusqu'à 1.6K) sous faible champ magnétique (jusqu'à 0.2mT). La méthode est basée sur l'interaction des gradients de champs dus aux vortex avec des particules ferromagnétiques fabriquées in-situ dans un gaz résiduel. Après réchauffement, l'observation des amas de nickel se fait sous le microscope électronique à balayage. Les échantillons étudiés sont des réseaux 2D submicroniques de fils en niobium (pas du réseau 1-2 µm, largeur des fils 0.3 µm, épaisseur 0.2 µm) avec d'excellentes propriétés supraconductrices (température de transition 9.0K, RRR d'environ 30). Notre calcul de profil de champ magnétique au-dessus d'un réseau montre que le contraste entre cellules avec ou sans vortex est extrêmement faible. Suivant la hauteur au dessus du réseau, nous décorons soit les courants soit les milieux de cellules. La décoration se fait donc sur des réseaux planarisés, à des températures T<
APA, Harvard, Vancouver, ISO, and other styles
12

Bunkowski, Alexander [Verfasser]. "MCC-IMS data analysis using automated spectra processing and explorative visualisation methods / Alexander Bunkowski. Technische Fakultät - AG Genominformatik." Bielefeld : Universitätsbibliothek Bielefeld, Hochschulschriften, 2012. http://d-nb.info/1025374770/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Källman, Björn. "Investigation of detection methods for Berol Visco 388 : A study of visualisation reagents, spectroscopic and multivariate-coupled detection." Thesis, Umeå universitet, Kemiska institutionen, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-124413.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Pilgrim, Matthew John. "The application of visualisation techniques to the process of building performance analysis." Thesis, Loughborough University, 2003. https://dspace.lboro.ac.uk/2134/797.

Full text
Abstract:
Visualisation, the representation of data in visual form, is at the core of our ability to communicate information. Without clear representation, data would remain in its raw form thus greatly hindering the communication process. This is especially the case when the data source is large, complex and subject to change. One such area is related to the use of computer based simulation tools for thermal analysis. This research investigates the potential of visualisation to improve the ways in which thermal analysis data are presented to building services engineers, with a view to increasing the accuracy and efficiency of its interpretation. The approach taken throughout followed a pattern of research, development, demonstration and evaluation. The research phase included a detailed review of existing visualisation theory and an extensive user requirement survey. The development phase produced three working visualisation software prototypes, each of which was demonstrated or evaluated within the sponsoring company. Whilst the initial emphasis of the research was advanced Three-Dimensional (3D) visualisation, extensive user requirement analysis indicated that comparing multiple datasets in an intuitive manner was more important. In response, the research focused on combining techniques in ways which supported the rapid comparison of multiple files and the data contained within. The final prototype combines techniques for data storage and manipulation with information visualisation techniques and advanced 3D graphics. These elements are tightly integrated within a single application that facilitates the management and interpretation of data from multiple analysis models. Evaluation of the prototype showed high levels of user satisfaction and improvements in the accuracy and efficiency of data interpretation. The techniques demonstrated by the prototype were also understood and liked by the users of thermal analysis tools. Several of the techniques, such as the new Force Directed Difference Diagrams, have potential applications outside of building services engineering. The research has demonstrated it is possible to improve the representation and interpretation of building performance data using visualisation techniques.
APA, Harvard, Vancouver, ISO, and other styles
15

Guilluy, Wilko. "Video stabilization : A synopsis of current challenges, methods and performance evaluation." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD094.

Full text
Abstract:
Le développement continu de capteurs vidéo et leurs miniaturisations ont étendus leurs usages dans diverses applications allant de la vidéo-surveillance aux systèmes de chirurgie assisté par ordinateur et l’analyse de mouvements physiques et de phénomènes astrophysiques. De nos jours, il est devenu possible de capturer des séquences vidéos dans n’importe quel environnement, sans de lourds et complexes ajustements comme c’était le cas avec les anciens capteurs vidéos. Cependant,l’aisance à accéder à l’information visuelle à travers des capteurs de plus en plus faciles à manipuler a conduit à une situation où le nombre de vidéos distribuées sur internet est en progression constante et il devient difficile de corriger efficacement toutes les déformations et artefacts qui découlent de l’acquisition du signal. Par exemple, plus de 600000 de vidéos sont chargées sur Youtube chaque jour. Une des dégradations les plus gênantes pour la vision humaine est liée à l’instabilité de l’image due aux mouvements de la caméra lors de l’acquisition du signal. Cette source de dégradations se manifeste sous la forme d’oscillations incontrôlées de la trame entière et peut être accompagnée par un effet de flou.Cela affecte la qualité de l’image et produit un inconfort visuel. Il existe des solutions mécaniques telles que les tripodes, chariots, stabilisateurs électroniques ou des technologies s’appuyant sur les gyroscopes qui empêchent les effets de flou ou les oscillations. Cependant, leur utilisation reste limitée à des applications professionnelles et en conséquence, la plupart des vidéos amateurs contiennent des mouvements de caméra non intentionnels. Dans ce contexte, l’utilisation de méthodes numériques, souvent nommées stabilisation de vidéos numérique, semble être une solution prometteuse. La stabilisation numérique cherche à crée une nouvelle vidéo montrant la même scène mais en supprimant toutes les composantes non intentionnels du mouvement de caméra. La stabilisation vidéo est utile pour améliorer la qualité et le confort visuel du spectateur, mais peut aussi servir d’étape de prétraitement pour de nombreux procédés d’analyse vidéo utilisant le mouvement, tel que la soustraction de l’arrière-plan ou le suivi d’objet
The continuous development of video sensors and their miniaturization has extended their use in various applications ranging from video surveillance systems to computer-assisted surgery and the analysis of physical and astronomical phenomena. Nowadays it becomes possible to capture video sequences in any environment and without any heavy and complex adjustments as was the case with the old video acquisition sensors. However, the ease in accessing visual information through the increasingly easy-to-handle sensors has led to a situation where the number of videos distributed over the Internet is constantly increasing and it becomes difficult to effectively correct all the distortions and artifacts that may result from the signal acquisition. As an example, more than 600000 hours of videos are uploaded each day on Youtube. One of the most perceptually annoying degradation is related to the image instability due to camera movement during the acquisition. This source of degradation manifests as uncontrolled oscillationsof the whole frames and may be accompanied with a blurring effect. This affectsthe perceptual image quality and produces visual discomfort. There exist some hardware solutions such as tripods, dollies, electronic image stabilizers or gyroscope based technologies that prevent video from blurriness and oscillations.However, their use is still limited to professional applications and as a result, most amateur videos contain unintended camera movements. In this context, the use of software tools, often referred to as Digital Video Stabilization (DVS), seems to be the most promising solution. Digital video stabilization aims at creating a new video showing the same scene but removing all the unintentional components of camera motion. Video stabilization is useful in order to increase the quality and the visual comfort of the viewer, but can also serve as a pre-processing step in many video analysis processes that use object motion, such as backgrounds ubstraction or object tracking
APA, Harvard, Vancouver, ISO, and other styles
16

Kayastha, Shilva. "New methods of multiscale chemical space analysis : visualization of structure-activity relationships and structural pattern extraction." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAF042/document.

Full text
Abstract:
Cette thèse est dédiée à l’analyse systématique de l’espace chimique, et des relations structure-activité (SAR) en particulier. L’ouvrage présente des nouveaux protocoles d’analyse combinant des méthodes classiques et originales, dans le but d’analyser les SAR à l’échelle globale ainsi que locale. L’analyse globale des espaces chimiques repose sur la recherche des motifs structuraux privilégiés par cartographie topographique générative (GTM), ainsi que par analyse classique des « châssis » moléculaires. La cartographie a été ensuite couplée avec l’analyse de réseaux chimiques (CSN), permettant une transition de la vue globale vers l’analyse locale de SAR. L’optimisation mutiobjectif des propriétés de potentiels médicaments a été adressé par la méthode « star coordinates ». L’analyse locale des SAR inclut des nouvelles stratégies pour prédire les discontinuités dans le paysage structure-activité biologique, et une étude de l’impact de la structure sur l’ionisation des molécules. Des matrices SAR ont servi pour monitorer le progrès dans l’optimisation de nouveaux principes actifs
This thesis presents studies devoted to aid in systematic analysis of chemical spaces, focusing on mining and visualization of structure-activity relationships (SARs). It reports some new analysis protocols, combining both existing and on-purpose developed novel methodology to address both large-scale and local SAR analysis. Large-scale analysis featured both generative topographic mapping (GTM)-based extraction of privileged structural motifs and scaffold analysis. GTM was combined with chemical space network (CSN) to develop a visualization tool providing global-local views of SAR in large data sets. We also introduce star coordinates (STC) to visualize multi-property space and prioritize drug-like subspaces. Local SAR monitoring includes new strategies to predict activity cliffs using support vector machine models and a study of structural modifications on ionization state of compounds. The SAR matrix methodology was applied to objectively evaluate SAR progression during lead optimization
APA, Harvard, Vancouver, ISO, and other styles
17

Alawieh, Hiba. "Fitting distances and dimension reduction methods with applications." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10018/document.

Full text
Abstract:
Dans la plupart des études, le nombre de variables peut prendre des valeurs élevées ce qui rend leur analyse et leur visualisation assez difficile. Cependant, plusieurs méthodes statistiques ont été conçues pour réduire la complexité de ces données et permettant ainsi une meilleure compréhension des connaissances disponibles dans ces données. Dans cette thèse, notre objectif est de proposer deux nouvelles méthodes d’analyse des données multivariées intitulées en anglais : " Multidimensional Fitting" et "Projection under pairwise distance control". La première méthode est une dérivée de la méthode de positionnement multidimensionnelle dont l’application nécessite la disponibilité des deux matrices décrivant la même population : une matrice de coordonnées et une matrice de distances et l’objective est de modifier la matrice des coordonnées de telle sorte que les distances calculées sur cette matrice soient les plus proches possible des distances observées sur la matrice de distances. Nous avons élargi deux extensions de cette méthode : la première en pénalisant les vecteurs de modification des coordonnées et la deuxième en prenant en compte les effets aléatoires qui peuvent intervenir lors de la modification. La deuxième méthode est une nouvelle méthode de réduction de dimension basée sur la projection non linéaire des données dans un espace de dimension réduite et qui tient en compte la qualité de chaque point projeté pris individuellement dans l’espace réduit. La projection des points s’effectue en introduisant des variables supplémentaires, qui s’appellent "rayons", et indiquent dans quelle mesure la projection d’un point donné est précise
In various studies the number of variables can take high values which makes their analysis and visualization quite difficult. However, several statistical methods have been developed to reduce the complexity of these data, allowing a better comprehension of the knowledge available in these data. In this thesis, our aim is to propose two new methods of multivariate data analysis called: " Multidimensional Fitting" and "Projection under pairwise distance control". The first method is a derivative of multidimensional scaling method (MDS) whose the application requires the availability of two matrices describing the same population: a coordinate matrix and a distance matrix and the objective is to modify the coordinate matrix such that the distances calculated on the modified matrix are as close as possible to the distances observed on the distance matrix. Two extensions of this method have been extended: the first by penalizing the modification vectors of the coordinates and the second by taking into account the random effects that may occur during the modification. The second method is a new method of dimensionality reduction techniques based on the non-linearly projection of the points in a reduced space by taking into account the projection quality of each projected point taken individually in the reduced space. The projection of the points is done by introducing additional variables, called "radii", and indicate to which extent the projection of each point is accurate
APA, Harvard, Vancouver, ISO, and other styles
18

Quan, Chaoyu. "Mathematical methods for implicit solvation models in quantum chemistry." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066587/document.

Full text
Abstract:
Cette thèse est consacrée à étudier et à améliorer les modèles mathématiques et les méthodes utilisées pour les modèles de solvatation implicite en chimie quantique. Ce manuscrit est composée de deux parties. Dans la première partie où nous analysons l'interface soluté-solvant, nous donnons, pour la première fois, une caractérisation complète de la surface moléculaire lisse, c'est-à-dire la surface exclue du solvant (SES). À partie de cette caractérisation, nous développons un algorithme de maillage par morceaux pour les surfaces moléculaires différentes, en particulier pour la SES, en utilisant la triangulation à front avançant. De plus, la cavité de la SES (la région entourée par la SES) est une description plus précise de la cavité de soluté. Dans la deuxième partie, nous construisons donc un modèle de continuum polarisable basé (PCM) sur la SES, dans lequel le paramètre de permittivité diélectrique est continu. Le problème électrostatique de ce modèle consiste à résoudre une équation de Poisson définie sur R3. Nous développons ensuite une méthode de Schwarz particulière, où seules les équations locales restreintes à des boules doivent être résolues. Enfin, nous étudions le modèle de solvatation de Poisson-Boltzmann, un autre modèle de solvatation implicite, qui tient compte à la fois de la permittivité diélectrique et de la force ionique du solvant. Une méthode de Schwarz similaire est proposée pour résoudre l'équation de Poisson-Boltzmann associée en résolvant des équations locales restreintes aux boules comme pour le PCM basé sur la SES
This thesis is devoted to study and improve the mathematical models and methods used in implicit solvation models in quantum chemistry. The manuscript is composed of two parts. In the first part where we analyze the solute-solvent interface, we give, for the first time, a complete characterization of the so-called “smooth” molecular surface, i.e., the solvent excluded surface (SES). Based on this characterization, we develop a piecewise meshing algorithm for different molecular surfaces, especially the SES, using the advancing-front triangulation. Further, it has been pointed out in the literature that the SES-cavity (the region enclosed by the SES) is a more accurate description of the solute cavity. In the second part, we therefore construct an SES-based polarizable continuum model (PCM), in which the dielectric permittivity parameter is continuous. The electrostatic problem of this model involves solving a Poisson equation defined in R3. We then develop a particular Schwarz domain decomposition method where only local equations restricted to balls need to be solved. Finally, the Poisson-Boltzmann solvation model, another implicit solvation model, is also investigated, which takes into account both the dielectric permittivity and the ionic strength of the solvent. A similar Schwarz domain decomposition method is proposed to solve the associated Poisson-Boltzmann equation by solving local equations restricted to balls as it is for the SES-based PCM
APA, Harvard, Vancouver, ISO, and other styles
19

Brolin, Erik. "Anthropometric diversity and consideration of human capabilities : Methods for virtual product and production development." Doctoral thesis, Högskolan i Skövde, Institutionen för ingenjörsvetenskap, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-12248.

Full text
Abstract:
Contemporary product and production development is typically carried out with the support of computer tools where the design of products and workstations are originated and evaluated within virtual environments. Ergonomics addresses factors important to consider in the product and production development process to ensure a good fit between humans and the items being designed. Digital human modelling (DHM) tools enable simulations and analyses of ergonomics in virtual environments. Anthropometry is central when using DHM tools for product and production development to ensure that the design fits the intended proportion of the targeted population from a physical perspective. Several methods have been prescribed to consider the anthropometric diversity that exists within human populations. Still many DHM based simulations in product and production development processes are done with approaches that are poor in representing anthropometric diversity. Hence, there is a need for better tools and methods that would support DHM tool users to more effectively and efficiently consider anthropometric diversity in the design process. In this thesis current methods for anthropometric diversity considerations have been reviewed and new methods and functionality have been developed and implemented in a DHM tool. Mathematical models have been developed to consider three specific parts important to the consideration of anthropometric diversity: generation of suitable test cases, prediction of missing anthropometric data and implementation of more diverse anthropometric variables such as strength and flexibility. Results show that the proposed methods are accurate and advantageous compared to approaches often used in industry today. The mathematical models for generation of suitable test cases and prediction of missing anthropometric data have been implemented in an anthropometric software module. The module has undergone usability testing with industry DHM tools users. The developed anthropometric module is shown to answer to relevant needs of DHM tool users and fit into the work processes related to DHM simulations and ergonomics analyses utilised in industry today.
APA, Harvard, Vancouver, ISO, and other styles
20

Feuillet, Rémi. "Embedded and high-order meshes : two alternatives to linear body-fitted meshes." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLY010/document.

Full text
Abstract:
La simulation numérique de phénomènes physiques complexes requiert généralement l’utilisation d’un maillage. En mécanique des fluides numérique, cela consisteà représenter un objet dans un gros volume de contrôle. Cet objet étant celui dont l’on souhaite simuler le comportement. Usuellement, l’objet et la boîte englobante sont représentés par des maillage de surface linéaires et la zone intermédiaire est remplie par un maillage volumique. L’objectif de cette thèse est de s’intéresser à deux manières différentes de représenter cet objet. La première approche dite immergée consiste à mailler intégralement le volume de contrôle et ensuite à simuler le comportement autour de l’objet sans avoir à mailler explicitement dans le volume ladite géometrie. L’objet étant implicitement pris en compte par le schéma numérique. Le couplage de cette méthode avec de l’adaptation de maillage linéaire est notamment étudié. La deuxième approche dite d’ordre élevé consiste quant à elle consiste à augmenter le degré polynomial du maillage de surface de l’objet. La première étape consiste donc à générer le maillage de surface de degré élevé et ensuite àpropager l’information de degré élevé dans les éléments volumiques environnants si nécessaire. Dans ce cadre-là, il s’agit de s’assurer de la validité de telles modifications et à considérer l’extension des méthodes classiques de modification de maillages linéaires
The numerical simulation of complex physical phenomenons usually requires a mesh. In Computational Fluid Dynamics, it consists in representing an object inside a huge control volume. This object is then the subject of some physical study. In general, this object and its bounding box are represented by linear surface meshes and the intermediary zone is filled by a volume mesh. The aim of this thesis is to have a look on two different approaches for representing the object. The first approach called embedded method consist in integrally meshing the bounding box volume without explicitly meshing the object in it. In this case, the presence of the object is implicitly simulated by the CFD solver. The coupling of this method with linear mesh adaptation is in particular discussed.The second approach called high-order method consist on the contrary by increasing the polynomial order of the surface mesh of the object. The first step is therefore to generate a suitable high-order mesh and then to propagate the high-order information in the neighboring volume if necessary. In this context, it is mandatory to make sure that such modifications are valid and then the extension of classic mesh modification techniques has to be considered
APA, Harvard, Vancouver, ISO, and other styles
21

Pietsch, Susan Mary. "The effective use of three dimensional visualisation modelling in the routine development control of urban environments : a thesis submitted to Adelaide University in candidacy for the degree of Doctor of Philosophy." Title page, contents and abstract only, 2001. http://web4.library.adelaide.edu.au/theses/09PH/09php626.pdf.

Full text
Abstract:
"June 2001." Includes bibliographical references (leaves 346-352) Investigates technical and cultural issues in using three dimensional computer visualisation modelling in a busy Australian city planning office, the local Council of the City of Adelaide, taking two directions: a modelling approach that emphasizes abstract, quick to create 3D models; and, by examining the social and organizational issues. This dual view paints a broader picture of the potential of 3D modelling within planning practice including the impediments and possible solutions to them.
APA, Harvard, Vancouver, ISO, and other styles
22

Ashrafi, Parivash. "Predicting the absorption rate of chemicals through mammalian skin using machine learning algorithms." Thesis, University of Hertfordshire, 2016. http://hdl.handle.net/2299/17310.

Full text
Abstract:
Machine learning (ML) methods have been applied to the analysis of a range of biological systems. This thesis evaluates the application of these methods to the problem domain of skin permeability. ML methods offer great potential in both predictive ability and their ability to provide mechanistic insight to, in this case, the phenomena of skin permeation. Historically, refining mathematical models used to predict percutaneous drug absorption has been thought of as a key factor in this field. Quantitative Structure-Activity Relationships (QSARs) models are used extensively for this purpose. However, advanced ML methods successfully outperform the traditional linear QSAR models. In this thesis, the application of ML methods to percutaneous absorption are investigated and evaluated. The major approach used in this thesis is Gaussian process (GP) regression method. This research seeks to enhance the prediction performance by using local non-linear models obtained from applying clustering algorithms. In addition, to increase the model's quality, a kernel is generated based on both numerical chemical variables and categorical experimental descriptors. Monte Carlo algorithm is also employed to generate reliable models from variable data which is inevitable in biological experiments. The datasets used for this study are small and it may raise the over-fitting/under-fitting problem. In this research I attempt to find optimal values of skin permeability using GP optimisation algorithms within small datasets. Although these methods are applied here to the field of percutaneous absorption, it may be applied more broadly to any biological system.
APA, Harvard, Vancouver, ISO, and other styles
23

Miller, J. A. "Corona discharge and the visualisation of electric fields." Thesis, University of Southampton, 1988. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.383556.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Krusche, Stefan. "Visualisierung und Analyse multivariater Daten in der gartenbaulichen Beratung -Methodik, Einsatz und Vergleich datenanalytischer Verfahren." Doctoral thesis, Humboldt-Universität zu Berlin, Landwirtschaftlich-Gärtnerische Fakultät, 1999. http://dx.doi.org/10.18452/14463.

Full text
Abstract:
Ausgangspunkt der vorliegenden Arbeit ist die Suche der gartenbaulichen Beratung nach Visualisierungsmöglichkeiten umfangreicher gartenbaulicher Datensätze, die einerseits zu einer graphischen Zusammenfassung der in den Daten enthaltenen Informationen dienen und die andererseits auf interaktivem Weg Möglichkeiten der graphischen Analyse von Erhebungsdaten liefern. Die weitgehende Freiheit von Modellannahmen, der überwiegend deskriptive Charakter der Untersuchungen, das interaktive, schrittweise Vorgehen in der Auswertung, und die Betonung graphischer Elemente kennzeichnet die Arbeit als Beitrag zur explorativen Datenanalyse. Das ausgewählte Methodenspektrum, das ausführlich besprochen wird, schließt Verfahren der Dimensionserniedrigung (Hauptkomponentenanalyse, Korrespondenzanalyse und mehrdimensionale Skalierung) und darauf aufbauende Biplots, die Analyse gruppierter Daten (Prokrustes-Rotation und Gruppenanalysemodelle in der Hauptkomponentenanalyse), Linienverbände (Liniendiagramme der formalen Begriffsanalyse, Baumdiagramme und graphische Modelle), sowie ergänzende graphische Verfahren, wie zum Beispiel Trellis-Displays, ein. Beispielhaft werden eine betriebsbegleitende Untersuchung mit Cyclamen aus der Beratungspraxis der Landwirtschaftskammer Westfalen-Lippe und die Kennzahlen der Jahre 1992 bis 1994 der Topfpflanzenbetriebe des Arbeitskreises für Betriebswirtschaft im Gartenbau aus Hannover analysiert. Neben einer Vielzahl informativer Einzelergebnisse, zeigt die Arbeit auch auf, daß die qualitativ relativ schlechten Datengrundlagen nur selten eindeutige Schlußfolgerungen zulassen. Sie sensibilisiert also in diesem Bereich für die Problematik, die der explorativen Analyse wenig perfekter Daten innewohnt. Als besonders sinnvolle Hilfsmittel in der graphischen Analyse erweisen sich Biplots, hierarchische Liniendiagramme und Trellis-Displays. Die Segmentierung einer Vielzahl von Objekten in einzelne Gruppen wird durch Klassifikations- und Regressionsbäume vor allem unter dem Gesichtspunkt der Visualisierung gut gelöst, da den entstehenden Baumstrukturen auch die die Segmente bestimmenden Variablen visuell entnommen werden können. Diskrete graphische Modelle bieten schließlich einen guten Ansatzpunkt zur Analyse von multivariaten Beziehungszusammenhängen. Einzelne, nicht in der statistischen Standardsoftware vorhandene Prozeduren sind in eigens erstellten Programmcodes zusammengefaßt und können mit dem Programm Genstat genutzt werden.
In order to interpret large data sets in the context of consultancy and extension in horticulture, this thesis attempts to find ways to visually explore horticultural multivariate data, in order to obtain a concise description and summary of the information available in the data and moreover develop possibilities to interactively analyse survey data. The thesis is part of an exploratory data analysis which analyses data without making specific model assumptions, is predominantly descriptive, analyses data step by step in a highly interactive setting, and makes full use of all kinds of graphical displays. The methods used comprise various dimensionality reduction techniques (principal components analysis, correspondence analysis, multidimensional scaling), biplots, the multivariate analysis of grouped data (procrustes rotation and groupwise principal components), graphical models, CART, and line diagrams of formal concept analysis. In addition, further graphical methods are used, like e.g. trellis displays. Data from an on-site investigation of the production process of Cyclamen in 20 nurseries and from the microeconomics indicators of 297 growers in Germany (so called Kennzahlen) from the years 1992 to 1994 are used to demonstrate the analytical capabilities of the methods used. The data present a perfect example of unperfect data, and therefore represent the majority of the data sets that horticultural consultancy has to work with. Thus, it becomes clear, that despite the variety of results, which helps to enhance the understanding of the data at hand, not only the complexity of the processes observed, but also the low data quality make it fairly difficult to arrive at clear cut conclusions. The most helpful tools in the graphical data analysis are biplots, hierarchical line diagrams and trellis displays. Finding an empirical grouping of objects is best solved by classification and regression trees, which provide both, the data segmentation, and an intuitively appealing visualisation and explanation of the derived groups. In order to understand multivariate relationships better, discrete graphical models are well suited. The procedures to carry out a number of the methods which cannot be found in general statistics packages are provided in the form of Genstat codes.
APA, Harvard, Vancouver, ISO, and other styles
25

Andronov, Leonid. "Development of advanced methods for super-resolution microscopy data analysis and segmentation." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ001.

Full text
Abstract:
Parmi les méthodes de super-résolution, la microscopie par localisation de molécules uniques se distingue principalement par sa meilleure résolution réalisable en pratique mais aussi pour l’accès direct aux propriétés des molécules individuelles. Les données principales de la microscopie par localisation sont les coordonnées des fluorochromes, un type de données peu répandu en microscopie conventionnelle. Le développement de méthodes spéciales pour le traitement de ces données est donc nécessaire. J’ai développé les logiciels SharpViSu et ClusterViSu qui permettent d’effectuer les étapes de traitements les plus importantes, notamment une correction des dérives et des aberrations chromatiques, une sélection des événements de localisations, une reconstruction des données dans des images 2D ou dans des volumes 3D par le moyen de différentes techniques de visualisation, une estimation de la résolution à l’aide de la corrélation des anneaux de Fourier, et une segmentation à l’aide de fonctions K et L de Ripley. En plus, j’ai développé une méthode de segmentation de données de localisation en 2D et en 3D basée sur les diagrammes de Voronoï qui permet un clustering de manière automatique grâce à modélisation de bruit par les simulations Monte-Carlo. En utilisant les méthodes avancées de traitement de données, j’ai mis en évidence un clustering de la protéine CENP-A dans les régions centromériques des noyaux cellulaires et des transitions structurales de ces clusters au moment de la déposition de la CENP-A au début de la phase G1 du cycle cellulaire
Among the super-resolution methods single-molecule localization microscopy (SMLM) is remarkable not only for best practically achievable resolution but also for the direct access to properties of individual molecules. The primary data of SMLM are the coordinates of individual fluorophores, which is a relatively rare data type in fluorescence microscopy. Therefore, specially adapted methods for processing of these data have to be developed. I developed the software SharpViSu and ClusterViSu that allow for most important data processing steps, namely for correction of drift and chromatic aberrations, selection of localization events, reconstruction of data in 2D images or 3D volumes using different visualization techniques, estimation of resolution with Fourier ring correlation, and segmentation using K- and L-Ripley functions. Additionally, I developed a method for segmentation of 2D and 3D localization data based on Voronoi diagrams, which allows for automatic and unambiguous cluster analysis thanks to noise modeling with Monte-Carlo simulations. Using advanced data processing methods, I demonstrated clustering of CENP-A in the centromeric regions of the cell nucleus and structural transitions of these clusters upon the CENP-A deposition in early G1 phase of the cell cycle
APA, Harvard, Vancouver, ISO, and other styles
26

Habibi, Arash. "Visualisation d'objets très déformables : relations mouvement-forme-image." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0008.

Full text
Abstract:
Ce travail se situe dans le domaine de la synthèse d’images par ordinateur et de l’animation par modèles physiques. La modélisation et la visualisation d’un objet physique suppose un travail sur la forme, le mouvement et l’image. Plus cet objet de référence est déformable et plus la relation entre ces trois entités est complexe. Dans ce travail, nous étudions cette relation et nous déterminons dans quelles conditions le comportement (forme, mouvement, image) des objets peut être représenté par des modèles autonomes (modélisation multi-échelles) et découplés (habillage). En particulier, nous étudions le cas des objets très déformables. Un générateur de formes pour objets très déformables doit vérifier un certain nombre de propriétés. Nous présentons un modèle de forme en mouvement vérifiant ces propriétés. Nous en étudions le comportement dynamique et nous présentons les images obtenues
This work falls within the field of image synthesis and computer animation by physical modelling. The modelling and visualization of physical objets consists in a work on shape, motion and image. The more a given reference object is deformable and the more the relation between these three phenomena may grow complex. We study this relation and determine in which conditions the behaviour (shape, motion and image) of an object may be represented by several models which are autonomous (multi-scale modelling) and discoupled (clothing « habillage »). In particular, we study highly deformable objects. A shape modeler for this type of object must verify a certain number of properties. We present a shape model verifying these conditions. We study its dynamic behaviour and present the resulting images
APA, Harvard, Vancouver, ISO, and other styles
27

Gheraissa, Ferhat. "Mesure de la granulometrie dans les ecoulements diphasiques disperses et visualisation : application au traitement d'image." Université Louis Pasteur (Strasbourg) (1971-2008), 1988. http://www.theses.fr/1988STR13219.

Full text
Abstract:
On utilise et on met au point differentes methodes: photographie a etincelle, cinematographie ultrarapide, granulometrie par diffusion de lumiere laser ou l'on mesure la fonction de repartition en se fixant des seuils d'intensite de lumiere diffusee, granulometrie par traitement d'image
APA, Harvard, Vancouver, ISO, and other styles
28

Thomas, Bethan Suyin. "The visualisation of flow data : from UK telephone calls to a general method." Thesis, University of Leeds, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.414533.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Cortazar, Miguel Angel. "Le Cavermod, modèle physique de l'érosion de cavitation : qualification expérimentale et numérique." Université Joseph Fourier (Grenoble ; 1971-2015), 1994. http://www.theses.fr/1994GRE10089.

Full text
Abstract:
Le cavermod est un dispositif entièrement original destiné à simuler les tourbillons cavitants dont l'efficacité agressive dans les machines hydrauliques a été remarquée depuis plusieurs années. Ce dispositif permet de fixer la valeur des trois paramètres qui caractérisent le tourbillon cavitant: son taux de rotation, sa taille et sa vitesse d'implosion. L'étude expérimentale porte à la fois sur la réalisation du dispositif, sur l'équipement de mesure nécessaire à l'observation de l'écoulement crée (durée de vie: quelques millisecondes, vitesse d'implosion comprise entre 70 et 700 m/s), sur l'histoire de cet écoulement et sur les corrélations que l'on peut établir entre l'écoulement et les marques d'érosion formées sur des éprouvettes métalliques. Un modèle numérique permettant le suivi de l'interface liquide-vapeur donne une valeur de la distribution de la pression qui est en accord avec les valeurs expérimentales. L'étude a permis d'une part de cerner l'instant ou les évènements critiques d'érosion ont lieu et d'autre part de déterminer les bases d'une optimisation du dispositif
APA, Harvard, Vancouver, ISO, and other styles
30

CANET, FRESSE ISABELLE. "Resonance magnetique nucleaire du deuterium en milieu cristal liquide chiral : nouvelle methode de visualisation d'enantiomeres." Paris 11, 1994. http://www.theses.fr/1994PA112223.

Full text
Abstract:
Le travail rapporte dans ce memoire de these concerne la mise au point et le developpement d'une nouvelle methode de visualisation d'enantiomeres par rmn du deuterium en milieu cristal liquide chiral. Dans la premiere partie, est tout d'abord exposee la selection de deux phases cristal liquide: l'une cholesterique thermotrope, l'autre nematique chirale lyotrope. Le choix de la phase cholesterique est realise par une etude systematique de melanges: alcanoates de cholesteryle - phases nematiques. L'optimisation est conduite par une analyse du comportement thermique de ces phases et par une etude de rmn d'une molecule-test dans ces solvants. Cette etude a permis de preciser l'influence des parametres experimentaux sur la qualite des spectres de rmn et de selectionner la phase butanoate de cholesteryle - zli 2806 (phase nematique merck) comme solvant de choix. Le solvant nematique utilise est le poly-gamma-benzyl-l-glutamate, dont les proprietes sont connues, choisi pour la qualite de son orientation dans le champ magnetique. Dans la seconde partie, est decrite l'utilisation de ces deux phases comme solvant de rmn pour la visualisation d'enantiomeres. A la suite des syntheses de molecules racemiques deuterees possedant divers groupements fonctionnels, nous presentons les resultats de rmn obtenus avec ces composes. Dans le cas du cristal liquide cholesterique, seuls les derives aromatiques sont visualisables. Dans le cas du cristal liquide nematique chiral, quasiment tous les composes sont differencies par rmn, notamment les halogenures, les hydrocarbures et les composes de chiralite isotopique. Dans le cas d'aminoesters chiraux dissous dans le solvant nematique, une correlation configuration absolue - allure du spectre de rmn, est proposee. Enfin, quelques applications a des problemes concrets de mesure de puretes enantiomeriques dans le cadre de syntheses totales enantioselectives, sont presentees. L'ensemble de ces travaux montre la generalite, la precision et la convenance de cette nouvelle methode de visualisation d'enantiomeres
APA, Harvard, Vancouver, ISO, and other styles
31

Toure, Carine. "Capitalisation pérenne de connaissances industrielles : Vers des méthodes de conception incrémentales et itératives centrées sur l’activité." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI095/document.

Full text
Abstract:
Dans ce travail de recherche, nous nous intéressons à la question de la pérennité de l’usage des systèmes de gestion des connaissances (SGC) dans les entreprises. Les SGC sont ces environnements informatiques qui sont mis en place dans les entreprises pour mutualiser et construire l’expertise commune grâce aux collaborateurs. Le constat montre que, malgré la rigueur employée par les entreprises pour la mise en œuvre de ces SGC, le risque d’échec des initiatives de gestion des connaissances, notamment lié à l’acceptation de ces environnements par les utilisateurs professionnels ainsi qu’à leur usage continu et durable, reste d’actualité. La persistance et l’ampleur de ce constat dans les entreprises a motivé notre intérêt d’apporter une contribution à cette question générale de recherche. Comme propositions de réponse à cette problématique, nous avons donc 1) dégagé à partir de l’état de l’art, quatre facettes qui sont requises pour favoriser l’usage pérenne d’une plateforme gérant la connaissance ; 2) proposé un modèle théorique de régulation mixte qui unifie des outils de stimulation pour l’autorégulation et des outils soutenant l’accompagnement au changement et qui permet la mise en œuvre continue des différents facteurs stimulants l’usage pérenne des SGC ; 3) proposé une méthodologie de conception, adaptée à ce modèle et basée sur les concepts Agile, qui intègre une méthode d’évaluation mixte de la satisfaction et de l’usage effectif ainsi que des outils d’IHM pour l’exécution des différentes itérations de notre méthodologie ; 4) implémenté la méthodologie en contexte réel, à la Société du Canal de Provence, ce qui nous a permis de tester sa faisabilité et de proposer des ajustements/recommandations génériques aux concepteurs pour son application en contexte. L’outil résultant de notre implémentation a reçu un accueil positif par les utilisateurs en termes de satisfaction et d’usages
In this research, we are interested in the question of sustainability of the use of knowledge management systems (KMS) in companies. KMS are those IT environments that are set up in companies to share and build common expertise through collaborators. Findings show that, despite the rigor employed by companies in the implementation of these KMS, the risk of knowledge management initiatives being unsuccessful, particularly related to the acceptance and continuous use of these environments by users remains prevalent. The persistence of this fact in companies has motivated our interest to contribute to this general research question. As contributions to this problem, we have 1) identified from the state of the art, four facets that are required to promote the perennial use of a platform managing knowledge; 2) proposed a theoretical model of mixed regulation that unifies tools for self-regulation and tools to support change, and allows the continuous implementation of the various factors that stimulate the sustainable use of CMS; 3) proposed a design methodology, adapted to this model and based on the Agile concepts, which incorporates a mixed evaluation methodology of satisfaction and effective use as well as CHI tools for the completion of different iterations of our methodology; 4) implemented the methodology in real context at the Société du Canal de Provence, which allowed us to test its feasibility and propose generic adjustments / recommendations to designers for its application in context. The tool resulting from our implementation was positively received by the users in terms of satisfaction and usages
APA, Harvard, Vancouver, ISO, and other styles
32

Dare, Fadeke Taiye. "A novel methodology for e-learning space design in HEI campuses." Thesis, University of Wolverhampton, 2011. http://hdl.handle.net/2436/209931.

Full text
Abstract:
The Higher Education Institution and the Construction Industry are yet to define the most appropriate and effective design parameters for E-learning spaces. Those which exist, focus mainly on cost, budget and timely delivery i.e. the process only not the product. An effective approach to E-learning space design is needed to address the problems of space efficiency, effectiveness, quality, innovativeness, performance and client satisfaction. This study aimed to develop a novel methodology for e-learning space design, by investigating: the impact of e-learning on facilities and design; the impact of e-learning on the design of future spaces; the impact of blended learning on space design; designing for the learn anytime, anywhere paradigm; security issues of e-learning and e-learning space design, the levels of design risk in an e-learning infrastructure and inclusive design issues. A Grounded theory approach was used during initial desk studies, synchronized with a three part forum and pilot survey of 33participants. From this process, two hypotheses emerged; firstly, e-learning space design could affect users‘ learning outcomes and secondly that; user‘s learning requirements were different and varied. To investigate further, site based analyses of 11 HEI‘s, 10 interviews and subsequently a questionnaire survey was administered. Users‘ and stakeholders requirements and good examples of e-learning space design were identified. Data were analysed using a mixed-method research design approach. Three main constructs, Space design, Technology and the E-learning Space Design research focus (ELSD focus), emerged as significant components in the development of a novel framework for the design of e-learning spaces. The relationship between the components is such that the design of spaces with consideration of the ELSD research focus would ensure the effective identification, interpretation and delivery of users‘ requirement while maximising the benefits of the adoption of appropriate technology within HEI facilities. This was therefore proposed as the realistic framework/model for future design of E- learning Spaces in HEI campuses. The framework was adapted into a conceptual design guide to provide guidance for future space design. It is expected the study will support the HEI sector globally as it moves towards achieving best practice solutions to future E-learning space design in HEI campuses.
APA, Harvard, Vancouver, ISO, and other styles
33

Wang, Chen. "Large-scale 3D environmental modelling and visualisation for flood hazard warning." Thesis, University of Bradford, 2009. http://hdl.handle.net/10454/3350.

Full text
Abstract:
3D environment reconstruction has received great interest in recent years in areas such as city planning, virtual tourism and flood hazard warning. With the rapid development of computer technologies, it has become possible and necessary to develop new methodologies and techniques for real time simulation for virtual environments applications. This thesis proposes a novel dynamic simulation scheme for flood hazard warning. The work consists of three main parts: digital terrain modelling; 3D environmental reconstruction and system development; flood simulation models. The digital terrain model is constructed using real world measurement data of GIS, in terms of digital elevation data and satellite image data. An NTSP algorithm is proposed for very large data assessing, terrain modelling and visualisation. A pyramidal data arrangement structure is used for dealing with the requirements of terrain details with different resolutions. The 3D environmental reconstruction system is made up of environmental image segmentation for object identification, a new shape match method and an intelligent reconstruction system. The active contours-based multi-resolution vector-valued framework and the multi-seed region growing method are both used for extracting necessary objects from images. The shape match method is used with a template in the spatial domain for a 3D detailed small scale urban environment reconstruction. The intelligent reconstruction system is designed to recreate the whole model based on specific features of objects for large scale environment reconstruction. This study then proposes a new flood simulation scheme which is an important application of the 3D environmental reconstruction system. Two new flooding models have been developed. The first one is flood spreading model which is useful for large scale flood simulation. It consists of flooding image spatial segmentation, a water level calculation process, a standard gradient descent method for energy minimization, a flood region search and a merge process. The finite volume hydrodynamic model is built from shallow water equations which is useful for urban area flood simulation. The proposed 3D urban environment reconstruction system was tested on our simulation platform. The experiment results indicate that this method is capable of dealing with complicated and high resolution region reconstruction which is useful for many applications. When testing the 3D flood simulation system, the simulation results are very close to the real flood situation, and this method has faster speed and greater accuracy of simulating the inundation area in comparison to the conventional flood simulation models
APA, Harvard, Vancouver, ISO, and other styles
34

Bresso, Emmanuel. "Organisation et exploitation des connaissances sur les réseaux d'interactions biomoléculaires pour l'étude de l'étiologie des maladies génétiques et la caractérisation des effets secondaires de principes actifs." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00917934.

Full text
Abstract:
La compréhension des pathologies humaines et du mode d'action des médicaments passe par la prise en compte des réseaux d'interactions entre biomolécules. Les recherches récentes sur les systèmes biologiques produisent de plus en plus de données sur ces réseaux qui gouvernent les processus cellulaires. L'hétérogénéité et la multiplicité de ces données rendent difficile leur intégration dans les raisonnements des utilisateurs. Je propose ici des approches intégratives mettant en œuvre des techniques de gestion de données, de visualisation de graphes et de fouille de données, pour tenter de répondre au problème de l'exploitation insuffisante des données sur les réseaux dans la compréhension des phénotypes associés aux maladies génétiques ou des effets secondaires des médicaments. La gestion des données sur les protéines et leurs propriétés est assurée par un système d'entrepôt de données générique, NetworkDB, personnalisable et actualisable de façon semi-automatique. Des techniques de visualisation de graphes ont été couplées à NetworkDB pour utiliser les données sur les réseaux biologiques dans l'étude de l'étiologie des maladies génétiques entrainant une déficience intellectuelle. Des sous-réseaux de gènes impliqués ont ainsi pu être identifiés et caractérisés. Des profils combinant des effets secondaires partagés par les mêmes médicaments ont été extraits de NetworkDB puis caractérisés en appliquant une méthode de fouille de données relationnelles couplée à Network DB. Les résultats permettent de décrire quelles propriétés des médicaments et de leurs cibles (incluant l'appartenance à des réseaux biologiques) sont associées à tel ou tel profil d'effets secondaires.
APA, Harvard, Vancouver, ISO, and other styles
35

Ekberg, Fredrik. "An approach for representing complex 3D objects in GIS applied to 3D properties." Thesis, University of Gävle, Department of Technology and Built Environment, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:hig:diva-139.

Full text
Abstract:

The main problem that is addressed in this thesis is how to represent complex three-dimensional objects in GIS in order to render a more realistic representation of the real world. The goal is to present an approach for representing complex 3D objects in GIS. This is achieved by using commercial GIS (ArcGIS), applied to 3D properties. In order to get a clear overview of the state-of-the-art of 3D GIS and the current 3D cadastral situation a literature study was carried out. Based on this overview it can be concluded that 3D GIS still is in its initial phase. Current 3D GIS developments are mainly in the area of visualisation and animation, and almost nothing in the area of spatial analysis and attribute handling. Furthermore, the literature study reveals that no complete solution has been introduced that solves the problems involved in 3D cadastral registration. In several countries (e.g. Sweden, Denmark, Norway, Netherlands, Israel, and Australia) 3D properties exists in a juridical framework, but technical issues such as how to represent, store, and visualize 3D properties has not yet been solved. Some countries (Sweden, Norway, and Australia) visualize the footprints of 3D property units in a base map. This approach partly solves some technical issues, but can only represent 3D objects in a 2.5D environment. Therefore, research in how to represent complex objects in GIS as ‘true’ 3D objects is of great need.

This thesis will emphasize MultiPatch as a geographic representation method to represent complex 3D objects in GIS. A case study will demonstrate that complex objects can be visualized and analysed in a commercial GIS, in this case ArcGIS. Most commercial GIS software available on the market applies a 2.5D approach to represent 3D objects. The 2.5D approach has limitations for representing complex objects. There is therefore a need of finding new approaches to represent complex objects within GIS. The result shows that MultiPatch is not an answer to all the problems within 3D GIS but a solution to some of the problems. It still requires a lot of research in the field of 3D GIS, especially in development of spatial analysis capabilities.


Det huvudsakliga problemet i denna uppsats är hur komplexa tre-dimensionella objekt kan representeras i GIS för att återge verkligheten mer realistiskt. Målet är att presentera ett tillvägagångssätt för att representera komplexa 3D-objekt i GIS. Detta har uppnåtts genom att använda ett kommersiellt GIS tillämpat på 3D-fastigheter. En litteraturstudie har genomförts för att erhålla en klar översikt över det senaste inom 3D-GIS och över den aktuella situationen inom 3D-fastigheter. Grundat på översikten kan slutsatsen dras att 3D-GIS bara är i sin begynnelsefas. Den aktuella utvecklingen inom 3D-GIS har huvudsakligen fokuserat på visualisering och animering och nästan ingenting inom rumsliga analysmetoder och hantering av attribut. Litteraturstudien visar också att ingen fullständig lösning för de problem som finns inom 3D-fastighetsregistrering har introducerats. I flera länder, t.ex. Sverige, Danmark, Norge, Nederländerna, Israel och Australien, existerar 3D-fastigheter idag i juridiska termer, men de tekniska problemen som t.ex. hur 3D-fastigheter ska representeras, lagras och visualiseras har inte ännu lösts. Vissa länder (Sverige, Norge och Australien) visualiserar idag en projektion av 3D-fastigheterna på en fastighetskarta. Den här metoden löser endast några av de tekniska problemen och kan endast representera 3D-objekt i en 2,5D-miljö. Därför är forskning inom hur komplexa objekt kan representeras i GIS som s.k. ”sann” 3D av betydelse.

Den här uppsatsen framhäver MultiPatch som en datatyp för att representera komplexa 3D-objekt i GIS. En fallstudie visar att komplexa objekt kan visualiseras och analyseras i ett kommersiellt GIS, i det här fallet ArcGIS. De flesta kommersiella GIS som är tillgängliga på marknaden använder 2,5D-metoden för att representera 3D-objekt. 2,5D-metoden har vissa begränsningar för att representera komplexa objekt och därför finns det ett behov att finna nya tillvägagångssätt för att representera komplexa objekt inom GIS. Resultaten kommer att visa att MultiPatch inte är någon fullständig lösning till alla problem inom 3D-GIS men en lösning på några av problemen. Det krävs fortfarande mycket forskning inom 3D-GIS, särskilt inom utveckling av rumsliga analysmetoder.

APA, Harvard, Vancouver, ISO, and other styles
36

Beyer, Frank R. "Hauptspannungstrajektorien in der numerischen Festkörpermechanik." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2015. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-178497.

Full text
Abstract:
Für die anschauliche Darstellung der Ergebnisse mechanischer Untersuchungen von Bauteilbeanspruchungen existieren diverse Visualisierungsformen. Eine solche Visualisierungsform ist die Darstellung von Hauptspannungstrajektorien, vorwiegend der Hauptnormalspannungstrajektorien des Spannungszustandes eines Bauteils. Trajektorienbilder sind im Bereich des Bauingenieurwesens insbesondere im Massivbau nach wie vor von großem Interesse. So werden beispielsweise die in der Stahlbetonnormung fest verankerten Stabwerkmodelle in erster Linie auf der Basis von Hauptspannungstrajektorien entwickelt. Aus diesem Grund gehören Trajektorienbilder heute nicht nur zum akademischen Standardlehrstoff, sondern werden auch in wissenschaftlichen Veröffentlichungen gern zur Erläuterung von komplexen Spannungszuständen herangezogen. Unglücklicherweise finden sich in der einschlägigen Fachliteratur und in wissenschaftlichen Arbeiten nicht selten grundlegende Fehldarstellungen. Diese Arbeit stellt einen geeigneten Algorithmus zur korrekten Darstellung von Trajektorienbildern auf der Basis numerisch (beispielsweise mit der Finite-Elemente-Methode) berechneter Spannungslösungen bereit. Anhand von systematischen Untersuchungen zu verschiedenen Bauteilgeometrien und Beanspruchungs-konstellationen konnte eine Reihe von immer wieder zu findenden Fehlinterpretationen von Trajektorienbildern aufgezeigt werden. Die oft angenommene Analogie von Spannungstrajektorien zu Stromlinien von Fluidströmungen im Sinne eines „Kraftflusses“ wurde widerlegt. Das Problem bei herkömmlichen Trajektorienbildern, dass diese nicht imstande sind, Auskunft über die Größe der Spannungen zu geben, führte mitunter zu der bisweilen verbreiteten Annahme, die Verdichtung von Trajektorien in einem Trajektorienbild bedeute eine Spannungskonzentration an entsprechender Stelle. Anhand von Beispielen wird dies eindeutig widerlegt. Zur Vermeidung dieses Fehleindrucks wurde eine neue Darstellungsform eingeführt, die neben den Richtungen auch die Größen der Hauptspannungen anhand eines Farbmaßstabes ablesbar macht. Mithilfe einer variablen Schrittweitensteuerung konnte die Genauigkeit bei der Pfadverfolgung der Trajektorien gegenüber festen Schrittweiten maßgeblich verbessert werden. Geeignete Abbruchkriterien gewährleisten das zuverlässige Auffinden von äußeren sowie innenliegenden Bauteilbegrenzungen und die Detektion geschlossener Trajektorien. Einen wesentlichen Punkt stellen mögliche Singularitäten wie isotrope Punkte, isotrope Grenzen oder isotrope Gebiete dar, in denen die Hauptspannungsrichtungen mithilfe der Lösung des Eigenwertproblems nicht eindeutig ermittelbar sind. Deren Nichtbeachtung ist eine wesentliche Ursache für Fehldarstellungen in der Literatur. Die an solchen Stellen auftretenden Effekte und entstehenden Probleme bei der Ermittlung und Interpretierbarkeit von Trajektorienbildern wurden systematisch analysiert und entsprechende Lösungsvorschläge erarbeitet. Bisher blieb die Verwendung von Trajektorienbildern praktisch auf zweidimensionale Probleme beschränkt. Das Potenzial von Spannungstrajektorien zur Visualisierung dreidimensionaler Spannungszustände war bislang noch unerforscht. Daher wurde das Verfahren zur Berechnung von Spannungstrajektorien auf dreidimensionale Spannungszustände übertragen. Während sich einige Teilbereiche des entwickelten Algorithmus, wie beispielsweise die Schrittweitensteuerung, problemlos unter Hinzuziehung einer weiteren Richtungskomponente für dreidimensionale Probleme erweitern lassen, hat sich gezeigt, dass diese Erweiterung auch diverse Nichttrivialitäten enthält. Bei den aus der Berechnung erhaltenen Trajektorien handelt es sich im dreidimensionalen Fall um räumliche Kurven. Eine wesentliche Erkenntnis aus berechneten dreidimensionalen Trajektorienbildern ist, dass sich diese Raumkurven im Unterschied zum ebenen Fall in der Regel nicht schneiden und somit keine Maschen zwischen den Trajektorien wie im Zweidimensionalen aufspannen. Eine noch verbleibende Schwierigkeit bei der Anwendung dreidimensionaler Trajektorienbilder besteht in deren interpretierbarer Darstellung. In der vorliegenden Arbeit wurden hierzu einige Vorschläge erarbeitet sowie deren Anwendbarkeit getestet und bewertet. Um die Möglichkeit der eigenständigen Berechnung von Trajektorienbildern einem breiten Nutzerkreis zugänglich zu machen, können aufbauend auf den Erkenntnissen dieser Arbeit leicht bedienbare Softwarelösungen mit grafischer Benutzeroberfläche entwickelt werden. Der Algorithmus zur Trajektorienermittlung wurde mit diesem Ansinnen in allen Details beschrieben. Auf dem Gebiet der Trajektorien dreidimensionaler Spannungszustände hat sich darüber hinaus noch weiterer Forschungsbedarf herausgestellt, hierzu werden in der Arbeit an den entsprechenden Stellen einige Vorschläge zur Weiterentwicklung gemacht. Der entwickelte Algorithmus ermöglicht darüber hinaus auch direkt auch die Ermittlung von Trajektorien materiell oder geometrisch nichtlinearer sowie dynamischer und sonstiger Probleme, sofern der entsprechende Spannungszustand vorliegt. Außerdem kann der Algorithmus prinzipiell auch zur Bestimmung von Hauptschubspannungstrajektorien oder Hauptmomentenlinien angewandt werden
There are several kinds of visualisation for the illustration of the results of mechanical investigations of structural elements’ load bearing behaviour. The illustration of the stress state via principal stress trajectories, mainly principal normal stress trajectories, is one of them. In the field of civil engineering, trajectory plots are still of notable interest, particularly in solid construction. Thus, the truss models as part of the European engineering standards for steel-reinforced concrete are primarily developed using principal stress trajectories. For this reason, trajectory plots are not only part of the academic subjects taught at university, but they are also used in scientific publications for the illustration of complex stress states. Unfortunately, fundamental misrepresentations are not rare in the relevant literature and scientific works. This work provides a suitable algorithm for accurate trajectory plots based on numerically computed stress solutions (e.g. using the finite element method). By means of systematic investigations of several structural element’s geometries and loading situations, a number of prevalent misinterpretations was identified. The analogy often assumed between stress trajectories and streamlines of fluid flow in terms of “load flow” has been disproved. A property of traditional trajectory plots is not able to indicate the level of stress. Thus, in areas of narrowing trajectories stress concentrations are often assumed. By means of examples this assumption was clearly disproved. To prevent the appearance of such misimpressions, the stress levels are represented using a colour scale known from contour plots. An adaptive incrementation during path tracing allows a significant increase of accuracy compared with uniform incrementation. Suitable stop criteria ensure reliable detection of outer and inner borders as well as closing of trajectories. One important aspect is the appearance of singularities like isotropic points, isotropic borders and isotropic areas, where the principal stress directions in terms of eigenvectors are not unique. Non-observance is one of the main causes of misrepresentations of trajectory plots in literature. The effects due to the appearance of isotropic points and the arising problems for calculation and interpretation of stress trajectories were systematically analysed, and proposals for a solution were made. Up to now, the usage of trajectory plots was limited to two-dimensional problems. The potential of stress trajectories for the visualisation of three-dimensional stress states was still unexplored. Therefore, the algorithm for the calculation of stress trajectories was augmented in three dimensions. Some parts of the two-dimensional algorithm like adaptive incrementation could be directly translated simply considering the third coordinate, whereas the necessary modifications of some parts turned out to be non-trivial. The stress trajectories of three-dimensional stress states prove to be space curves. An essential finding from the calculated three-dimensional trajectory plots was, that three-dimensional trajectories – compared to two-dimensional trajectories – generally do not intersect each other. According to this, three-dimensional trajectories generally do not build meshes. The interpretable display of three-dimensional trajectories is still a difficulty. In this work, the applicability of some methods has been tested and assessed. To enable a large group of users to create stress trajectory plots individually, easily operated software solutions with a graphical user interface should be developed. For this purpose, the developed algorithm for tracing trajectories is described in every detail. In the field of three-dimensional stress trajectories need of further research came to light, which is specified in the corresponding parts of this work. In addition, the developed algorithm allows also the calculation of stress trajectories of geometrical and material non-linear as well as dynamic and other problems, if only the stress state is available. Furthermore, the algorithm can be applied for the calculation of principal shear stress trajectories and principal moment trajectories
APA, Harvard, Vancouver, ISO, and other styles
37

Collin, Marie-France. "Analyse quantitative de visualisations d'écoulements par la mise au point d'une méthode de traitement d'images : application à la détermination du champ des vitesses." Poitiers, 1989. http://www.theses.fr/1989POIT2270.

Full text
Abstract:
Developpement et essai d'une chaine de traitement et d'analyse d'images pour l'exploitation des cliches de visualisation d'ecoulement, obtenus par la technique des traceurs solides. Analyse des images numerisees par une methode de codages de contour. On considere la configuration des traces. Les traces juxtaposees sont identifiees et segmentees. Application a 4 cliches visualisant la brusque mise en translation d'un profil naca0012 en incidence fixe
APA, Harvard, Vancouver, ISO, and other styles
38

MAKOSSO, PIERRE. "Contribution a l'etude d'une methode et d'un systeme de visualisation stereo-holographique : application a la representation d'images produites par ordinateur et saisiessur objet reel." Université Louis Pasteur (Strasbourg) (1971-2008), 1989. http://www.theses.fr/1989STR13039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Hassan, Abdul Hakim. "Etude expérimentale et numérique du comportement local et global d'une interface sol granulaire-structure." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10228.

Full text
Abstract:
Une nouvelle approche est utilisee afin d'aborder le comportement des interfaces sol granulaire-structure ; il s'agit d'une etude experimentale et numerique du comportement mecanique d'interface a l'echelle locale, ainsi que de la liaison entre les aspects local et global du comportement d'interface sol granulaire-structure. Cette etude a ete menee experimentalement au moyen d'un appareil de cisaillement direct plan asservi muni d'un hublot de visualisation laterale, et numeriquement grace au modele lmgc permettant de simuler le comportement mecanique des materiaux granulaires. La mise au point d'une nouvelle technique de visualisation (images video analysees grace a un pointeur de coordonnees) a permis d'analyser le comportement local dans la zone d'interface sol-structure, a partir du mouvement individuel des particules constituant l'echantillon de sable utilise. Dans un premier temps, nous proposons une description du dispositif experimental et de la technique de visualisation utilises afin de realiser les experiences inscrites dans le cadre de ce travail. Les resultats experimentaux relatifs aux comportements local et global, leur interpretation et la validation de la technique de visualisation utilisee pour examiner le comportement microscopique de l'interface sol-structure sont presentes en second lieu. La simulation numerique du comportement micro-macromecanique d'interface assemblage granulaire-structure, exposee a la fin de ce memoire, comprend une description du logiciel lmgc utilise, une presentation des resultats de simulation et une comparaison qualitative entre les resultats de simulation et ceux de l'experience
APA, Harvard, Vancouver, ISO, and other styles
40

Abbott, Mick. "Designing wilderness as a phenomenological landscape: design-directed research within the context of the New Zealand conservation estate." Lincoln University, 2008. http://hdl.handle.net/10182/1026.

Full text
Abstract:
This research operates at both the meeting of wilderness and landscape, and also landscape architecture and design-directed research. It applies a phenomenological understanding of landscape to the New Zealand conservation estate as a means to reconsider wilderness’ prevalent framing as an untouched ‘other’. It does this through enlisting the designerly imperative found within landscape architecture as the means by which to direct this research, and through landscopic investigations located in the artefacts of cooking, haptic qualities of walking, cartographies of wilderness and a phenomenological diagramming of landscape experience. The results of this layered programme of research are four-fold. First, it finds that a landscopic interpretation of wilderness, and its tangible manifestation in New Zealand’s conservation estate, has the potential to suggest a greater depth of dialogue in which both ecological and cultural diversity might productively flourish. Second, it finds that landscape architecture has significant potential to broaden both its relevance and types of productive outputs beyond its current intent to shape specific sites. It identifies that artefacts and representations – such as cookers, track markers and maps – can be creatively manipulated to design alternative formulations of landscape. Third, through self-critique the potency of a programme of design-directed inquiry is demonstrated. In this dissertation new knowledge is revealed that extends the formal, diagrammatic and conceptual dimensions of wilderness, New Zealand’s conservation estate, and a phenomenological expression of landscape. This research illustrates the potential for design-directed research methods to be more widely adopted in ways that extend landscape architecture’s value to multi-disciplinary research. Finally, it finds a pressing future direction for landscape architecture research is to further identify and develop techniques that diagram landscopic practice and performance with the same richness and detail that spatially derived descriptions currently offer. It is the considerable distance between the spoken and written poetics of phenomenology and the visual and diagrammatic articulation of these qualities that is identified as a problematic and also productive site for ongoing creative research.
APA, Harvard, Vancouver, ISO, and other styles
41

Jannack, Anna, Jörg Rainer Noennig, Torsten Holmer, and Christopher Georgi. "Ideagrams: A digital tool for observing ideation processes." TUDpress, 2016. https://tud.qucosa.de/id/qucosa%3A33992.

Full text
Abstract:
Purpose – The paper reports on an ongoing research project of TU Dresden Laboratory of Knowledge Architecture aiming the investigations of the traceability and visualization of upcoming ideas and topics within discussions. Communication and conversation analysis – to explore knowledge processes communication and interaction analyses emerged as a central scientific approach. Hereby knowledge creation and Knowledge Transfer are understood as collective and co-creative effort. Corresponding analysis tools and methods have been developed for the communication- and knowledge creation processes digital media extensively (Faraj et al 2011). However, research focusing on direct and immediate conversation, and not only based on digital media, rarely exists. Development requirements – The existing tools for the analysis of digital communication data are yet not widely applied in the domain of spoken discussions. Whereas communication processes in the digital domain create their data automatically, the data from natural settings have to be extracted laboriously (Tonfoni 2004). Since there are no effective methods on data recording of voice communication yet existing, there are no strong and evident methods on computer aided conversation tracking and analysing existing too. The Ideagram tool tries to overcome this shortcoming. Approach – A prototype of a transcription, visualization and analysis tool was designed, which is able to capture discussions by keywords and analyse them in real-time. The results are presented in several forms: histograms, semantic networks and mixtures between both. These visualizations allow identifying topic and concept dynamics, heuristic paths and creative moments. Central features of the discussion like knowledge communication, orientation for innovation and speech efficiency can be understood and designed. In the different figures - Ideagram - of spoken discussions the logged content is visualised. The program prototype counts the occurrence of the logged words. These can be marked within a chronological re-presentation graph and shows at what time which issue was discussed. By “peaks” and “valley’s” it is obviously visible where the talk was most or least active. The prototype tool allows analysing the used phrases according to their frequency and their appearance during the captured conversation. Practical implications & Value – In contrast of conventional protocol and transcription techniques this kind of knowledge mining allows a greater information bandwidth and a more efficient access on core topics, thematic conflicts, idea generation etc. Experiences in very different settings created a very rich data set and allows to state that the application in business and science seems to very useful according to recording, analysing and deepening of spoken discussions. Hence, the Ideagram is still a prototype version and need further investigation and development.
APA, Harvard, Vancouver, ISO, and other styles
42

CANALS, I. SALOMO ANTONI. "Methode et techniques archeo-stratigraphiques pour l'etude des gisements archeologiques en sediment homogene : application au complexe c3 de la grotte du lazaret, nice (alpes maritimes). (informatique appliquee: base de donnees et visualisation tridimensionnelle d'ensembles archeologiques)." Paris, Muséum national d'histoire naturelle, 1993. http://www.theses.fr/1993MNHN0013.

Full text
Abstract:
Les depots homogenes constituent des milieux particuliers pour lesquels se posent le probleme de la possibilite et la validite d'une exploitation stratigraphique. L'approche archeologique pour la reconnaissance verticale des series spatiotemporelles dans un depot homogene est fondee dans cette etude sur la mise en evidence des hiatus dans l'occupation. La demarche analytique mise en uvre a consiste a creer une hierarchie stratigraphique et, au sein de celle-ci, des unites minimales ou le couple espace/temps soit le plus proche possible. Cette demarche a ete appliquee sur le depot homogene du complexe c3 de la grotte du lazaret (nice, alpes maritimes), ou on a mis en evidence 17 niveaux archeostratigraphiques. Couplee a des moyens informatiques, des bases de donnees et des techniques infographiques, l'observation des objets archeologiques restitues dans un espace tridimensionnel ajoute une aide a la reflexion stratigraphique et permet, sous forme de plan de repartition des objets, la synthese des amenagements presents dans un niveau
APA, Harvard, Vancouver, ISO, and other styles
43

Vermeulen, Mathieu. "Une approche meta-design des learning games pour développer leur usage." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS093.

Full text
Abstract:
Cette thèse en informatique se situe dans le domaine des Learning Games (LG), les jeux sérieux destinés à l’apprentissage. Elle s’intéresse à leur conception, aux outils et modèles pour faciliter celle-ci, et à leur usage. Pour aborder cette problématique, nous nous appuyons sur le meta-design, une approche impliquant fortement les utilisateurs finaux dans la phase de conception mais aussi dans la phase d’usage. Pour la mettre en place avec les enseignants, que nous considérons comme les utilisateurs finaux des LG, nous proposons différentes itérations d’un modèle de LG simple et représentable pour faciliter la conception collaborative de ces EIAH mais aussi leur réingénierie. Après une première itération, la seconde itération propose un modèle baptisé DISC et la méthode de conception associée. Ils ont été testés dans le cadre de la co-conception d’un LG utilisé par des enseignants du supérieur dans le contexte d’un MOOC et utilisé comme une activité d’un cours en présentiel. Pour impliquer les enseignants dans la phase d’usage, nous proposons d’articuler ce modèle avec un outil de visualisation des traces des étudiants pour détecter des séquences d’usage problématiques et ainsi faciliter le processus de réingénierie, les visualisations permettant l’analyse des données recueillies. Pour mener ce travail de recherche, nous avons choisi de travailler avec la méthode THEDRE qui propose un cycle de recherche itératif soutenu par la remontée d’indicateurs évaluant le processus de recherche. Cette amélioration continue, appuyée sur les expérimentations menées, a permis de valider nos propositions quant au meta-design pour les learning games
This thesis in computer science is in the field of Technology Enhanced Learning (TEL) and more specifically in the field of Learning Games (LG), serious games dedicated to learning. It deals with their design, tools and models to facilitate it, and their use. To tackle this problem, we use the meta-design, an approach aiming to strongly involve the end users in the design stage but also in the use stage. To implement this approach with teachers, whom we consider as end users of LG, we propose different iterations of a simple and representable LG model to facilitate the collaborative design of these TELs, but also their reengineering. After a first iteration, the second iteration propose a model named DISC and the associated design method. They were tested in the co-design of a learning game used by teachers of higher education in the context of a MOOC and as an additional activity of a course. To involve teachers in the use stage, we propose to articulate this model with a learners’ traces visualizations tool to detect problematic pattern and, thus, facilitate the reengineering process of LG, the visualizations allowing traces analysis collected during the use stage. To carry out this research work, we chose to work with the THEDRE method which proposes an iterative research cycle supported by the feedback of indicators evaluating the process throughout the method. This continuous improvement, supported by the experiments, allow us to validate our propositions about the meta-design for the learning games
APA, Harvard, Vancouver, ISO, and other styles
44

Normand, Xavier. "Transition à la turbulence dans les écoulements cisaillés compressibles libres ou pariétaux." Grenoble INPG, 1990. http://www.theses.fr/1990INPG0103.

Full text
Abstract:
La transition a la turbulence dans les ecoulements cisailles compresibles est etudiee par simulation numerique directe et des grandes echelles. Deux codes de simulation, utilisant des methodes aux differences finies explicites en temps, ont ete successivement concus dans ce but et sont presentes de facon detaillee. Dans le cadre des ecoulements libres, quelques simulations de couches de melange, tenant initialement lieu de tests et demontrant le potentiel de la methode, ont ete realisees. La couche limite sur une plaque plane semi-infinie est enfin simulee pour des nombres de mach allant de 0,5 (quasi-incompressible) a 5 (limite inferieure du regime hypersonique) en configuration temporelle et spatiale. Ces dernieres simulations permettent de mettre en evidence, essentiellement a l'aide de visualisations bi et tridimensionnelles, l'instabilite initiale de l'ecoulement, les mecanismes menant ensuite a la transition et les structures coherentes caracterisant l'ecoulement turbulent
APA, Harvard, Vancouver, ISO, and other styles
45

Brdečko, Radim. "Větrací systém automobilu - porovnání vlivu okrajových podmínek na proudění z různých typů vyústek." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2020. http://www.nusl.cz/ntk/nusl-417049.

Full text
Abstract:
Diploma thesis deals with a research of the flow in front of three different automotive vents. The velocity field and intensity of the turbulence was measured in detail, using thermoanemometry. After that the same data was measured with PIV method and validation was performed. The difference between achieved data was investigated. The design among the vents was also investigated, because it’s fundamentally affects the air flow. The purpose of this thesis is to obtain data about the velocity field using two methods and their subsequent use to validate numerical simulations, which will be performed in the future. The diploma thesis also contains the calculation of measurement uncertainty.
APA, Harvard, Vancouver, ISO, and other styles
46

Desrayaud, Gilles. "Analyse de stabilite lineaire dans un milieu semitransparent : determination experimentale des limites de stabilite dans un milieu transparent." Paris 6, 1987. http://www.theses.fr/1987PA066089.

Full text
Abstract:
Etude de la stabilite des regimes d'ecoulement de convection naturelle dans un fluide semi-transparent confine entre deux parois verticales chauffees differentiellement. Resolution des equations de l'ecoulement et du probleme aux valeurs propres par une methode spectrale tau utilisant les polynomes de chebyshev. Etude experimentale des limites de stabilite dans des cavites verticales remplies d'air par interferometrie holographique et injection de fumee
APA, Harvard, Vancouver, ISO, and other styles
47

Bruna, Pascal. "Mise au point d'une méthode optique originale de détermination des probabilités de présence particulaire dans un aérosol dispersé par un écoulement turbulent." Rouen, 1988. http://www.theses.fr/1988ROUES034.

Full text
Abstract:
La méthode utilise des techniques de traitement d'images enregistrées par une caméra photosensible linéaire. Un faisceau lumineux traverse une veine rectangulaire en amont de laquelle sont injectées des particules d'eau monodimensionnelles. Lors de leur passage dans le volume de mesure des photodiodes, elles émettent des signaux qui sont collectés, traités puis validés. On construit des histogrammes de probabilité de présence particulaire suivant l'axe des photodiodes
APA, Harvard, Vancouver, ISO, and other styles
48

Malá, Kateřina. "Studium proudění nemísitelných kapalin." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2020. http://www.nusl.cz/ntk/nusl-416440.

Full text
Abstract:
This thesis explores the topic of flow of two immiscible liquids in horizontal pipeline. For this purpose, the experimental apparatus has been set up, that allows to observe the flow of mixture through the transparent pipe. Moderately viscous oil and water (viscosity ratio: 52,81, density ratio: 0.86, interfacial tension: 41,64 mN/m) have been chosen for the experiment. Both fluids were introduced into the pipe through a T-junction. At the end of the apparatus, a mixture of liquids flowed into the separation tank, where both phases were separated. The separated oil was then reused for further measurements. The oil and water flow rates could be individually changed by use control valves, that led to identification of different flow regimes. These varied from stratified flows to fully dispersed ones as the mixture speed increased. All observed flow regimes were plotted in the flow map, that is a function of the inlet velocities of both fluids. For further analysis, a second type of flow map has been created that displays rates as a function of mixture velocity and phase volume fraction. Selected regime was also simulated using software ANSYS FLUENT. The VOF method was used to simulate multiphase flow. This thesis critically evaluates the results of the study and shows the direction for further research in the field of immiscible liquids flow.
APA, Harvard, Vancouver, ISO, and other styles
49

Chiron, Laurent. "Couplage et améliorations de la méthode SPH pour traiter des écoulements à multi-échelles temporelles et spatiales." Thesis, Ecole centrale de Nantes, 2017. http://www.theses.fr/2017ECDN0007.

Full text
Abstract:
La thèse s’articule en trois axes. Une première partie a été consacrée à l’amélioration de la méthode de flux normal (NFM) dont le développement a été initié dans une précédente thèse. Cet axe de recherche, qui ne s’inscrivait pas dans le sujet initial de la thèse, a été initié afin de répondre à des problématiques industrielles de NEXTFLOW-SOFTWARE, financeur de la thèse. Les développements réalisés ont permis d’adapter au formalisme NFM différents aspects (modélisation de la viscosité, détection de surface libre, désordre particulaire) ainsi que d’améliorer la précision des opérateurs. Le second axe de thèse a porté sur le développement d’une méthode de raffinement particulaire adaptative, et plus particulièrement à son efficacité dans un contexte d’applicabilité industrielle. Un intérêt particulier a été porté à la robustesse, la précision ainsi que le temps de calcul des méthodes de raffinement de l’état de l’art. Delà, de fortes limitations ont été dégagées et ont amené à développer une approche de raffinement inspirée de l’AMR. Les développements ont été validés sur de nombreux cas tests et sont aujourd’hui intégrés au sein des outils utilisés par NEXTFLOW-SOFTWARE. Le dernier axe concernait le couplage entre les méthodes SPH et Volumes Finis. Le développement d’un algorithme de couplage a permis de gérer les entrées/sorties entre les deux solveurs de façon générique et transparente aussi bien pour les simulations 2D que 3D. Ensuite, une amélioration a été proposée permettant de créer/supprimer dynamiquement des particules aux frontières du solveur Volumes Finis. Des validations sont en cours pour l’extension 3D
The thesis is articulated in three axes. A first part was devoted to the improvement of the normal flux method (NFM) whose development was initiated in a previous thesis. This line of research, which was not part of theoriginal subject of the thesis, was initiated in order to answer to the industrial problems of NEXTFLOW SOFTWARE, financier of the thesis. The developments made it possible to adapt to the NFM formalism different aspects (modeling of viscosity, detection of free surface,particle disorder) as well as to improve the precision of the operators.The second part of the thesis focused on the development of a method of adaptive particle refinement,and more particularly its effectiveness in a context of industrial applicability. Particular emphasis has been placed on the robustness, accuracy and calculation time of the state of the art of refinement methods. From there, strong limitations have emerged and have led to develop a refinement approach inspired by the AMR. The developments have been validated on many test cases and are now integrated within the tools used by NEXTFLOW-SOFTWARE. The last part concerned the coupling between SPH and Finite Volumes methods. The development of a coupling algorithm made it possible to manage inputs / outputs between the two solvers in a generic and transparent way for both 2D and 3D simulations. Then, an improvement was proposed allowing to create / remove dynamically particles at the boundaries of the Finite Volume solver. Validations are in progress for the 3D extension
APA, Harvard, Vancouver, ISO, and other styles
50

Hellou, Mustapha. "Etude numérique et expérimentale de l'écoulement à structure cellulaire engendré par la rotation d'un cylindre dans un canal." Poitiers, 1988. http://www.theses.fr/1988POIT2267.

Full text
Abstract:
Etude du decollement de l'ecoulement et de la formation de cellules. Structure et caracteristiques geometriques de ces cellules. Analyse du champ hydrodynamique. Calcul numerique base sur l'ecriture des conditions des conditions aux limites par la methode des moindres carres. Mise au point d'une technique de visualisation par intermittence pendant de longues durees, utilisant les traceurs solides
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography