Siga este enlace para ver otros tipos de publicaciones sobre el tema: Documental database model.

Tesis sobre el tema "Documental database model"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 28 mejores tesis para su investigación sobre el tema "Documental database model".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Jansson, Jens, Alexandar Vukosavljevic y Ismet Catovic. "Performance comparison between multi-model, key-value and documental NoSQL database management systems". Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-19857.

Texto completo
Resumen
This study conducted an experiment that compares the multi-model NoSQL DBMS ArangoDB with other NoSQL DBMS, in terms of the average response time of queries. The DBMS compared in this experiment are the following: Redis, MongoDB, Couchbase, and OrientDB. The hypothesis that is answered in this study is the following: “There is a significant difference between ArangoDB, OrientDB, Couchbase, Redis, MongoDB in terms of the average response time of queries”. This is examined by comparing the average response time of 1 000, 100 000, and 1 000 000 queries between these database systems. The results show that ArangoDB performs worse compared to the other DBMS. Examples of future work include using additional DBMS in the same experiment and replacing ArangoDB with another multi-model DBMS to decide whether such a DBMS, in general, performs worse than single-model DBMS.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Gavryliuk, Olga. "Nástroj pro správu dokumentů v managementu projektů". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2019. http://www.nusl.cz/ntk/nusl-403822.

Texto completo
Resumen
This work deals with electronic document management systems (EDMS) from the perspective of selected knowledge areas of project management processes. The aim of this thesis was to create an EDM system based on an appropriately selected EDM model, which would assist in the management of documents that arise during management processes in selected areas of project management (quality, human resources and communication within the project) with the possibility of extending to other knowledge areas.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Gifreu, Castells Arnau. "El Documental interactiu com a nou gènere audiovisual : estudi de l'aparició del nou gènere, aproximació a la seva definició i proposta de taxonomia i d'un model d'anàlisi a efectes d'avaluació, disseny i producció". Doctoral thesis, Universitat Pompeu Fabra, 2013. http://hdl.handle.net/10803/119606.

Texto completo
Resumen
L’objecte d’aquesta tesi doctoral és mostrar i demostrar com el documental interactiu es constitueix i es proposa en els últims anys com a nou gènere audiovisual amb característiques pròpies i específiques. Aquesta investigació argumenta com el mitjà digital interactiu ha afectat les lògiques de producció, exhibició i recepció audiovisuals del gènere documental tradicional. Durant els últims anys, aquestes noves dinàmiques han transformat els processos comunicatius i la naturalesa dels diferents actors implicats, donant lloc a un nou gènere que anomenem “documenal interactiu”. A partir d’una mostra de casos significatius, hem elaborat un marc conceptual original amb l’objectiu de caracteritzar el documental interactiu com a gènere audiovisual específic, diferenciant-lo alhora de les formes convencionals de documental i de no ficció interactives. La primera part de la recerca estableix els precedents i el context on es desenvolupa l’àmbit de l’audiovisual interactiu. A partir del plantejament d’un estat de la qüestió general sobre el gènere documental i el mitjà digital interactiu, descrivim el context principal on es desenvolupa aquest format, el web, i el tipus de producte en el que s’engloba, les aplicacions interactives. S’estableix també en aquesta part una introducció als principals gèneres de la no ficció interactiva, tot caracteritzant-los i diferenciant-los entre ells i entre els gèneres de la no ficció audiovisual. La segona part argumenta i justifica les raons per les quals podem considerar el documental interactiu com un nou gènere audiovisual, amb característiques pròpies i específiques. Per a situar-ne el context adequat, localitzem i descrivim l’aparició, consolidació i diversificació d’aquest nou gènere, per arribar a formular-ne una definició, una caracterització àmplia i una proposta taxonòmica originals. També ens centrarem en la transformació dels processos de producció i circulació, atenent a les noves lògiques i dinàmiques actuals. Amb l’objectiu d’establir i delimitar el marc conceptual de manera precisa i concreta, hem elaborat un model de categorització centrat en l’anàlisi del nou gènere, model que aspira a ser també útil per a la creació i producció d’aquest tipus de documental. La recerca inclou també una avaluació de l’estat de l’art del documental interactiu en relació a la temàtica tractada, la plataforma d’accés i l’experiència de l’usuari. I el capítol de conclusions resumeix les principals aportacions originals de la investigació, tot afirmant la pertinència de la identificació del documental interactiu com a nou i prometedor gènere audiovisual.
The objective of this doctoral thesis is to show and demonstrate what an interactive documentary consists of. In recent years this interactive medium has been proposed to be a new audiovisual genre with its own specific characteristics. This research discusses how interactive digital media have affected the logics of audiovisual production, exhibition and reception of the traditional documentary genre. In recent years, these new dynamics have transformed the communication processes and the nature of the different actors involved, giving rise to a new genre called “interactive documentary”. From a sample of significant cases we have developed an original conceptual framework with the aim of characterizing the interactive documentary as a specific audiovisual genre, while differentiating it from the conventional forms of documentary and interactive non-fiction. The first part of the study establishes the precedents and the context in which the interactive audiovisual environment is developed. Based on a general overview of the documentary genre and interactive digital media, we describe the main context in which this format is created, the Web, as well as the types of products that it includes, interactive applications. In this section we also introduce the main interactive non-fiction genres, characterizing them and differentiating them among each other and among audiovisual non-fiction genres. The second part discusses and justifies the reasons why we can consider the interactive documentary as a new audiovisual genre with its own specific characteristics. To place it in an appropriate context, we situate and describe the emergence, consolidation and diversification of this new genre, based on which we formulate an original definition, carry out an extensive characterization and propose a taxonomy. We also focus on the transformation of the production and dissemination processes according to the new logics and current dynamics. In order to establish and define the conceptual framework specifically and precisely we have developed a categorization model for analyzing the new genre, which is also useful for creating and producing this type of documentary. In addition, we evaluate the state-of-the-art of the interactive documentary in relation to the topics discussed, the access platform and the user's experience. The conclusions chapter summarizes the main original contributions of the research, affirming the relevance of identifying the interactive documentary as a new and promising audiovisual genre.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Lau, Ho Lam. "The development of the nested relational sequence model to support XML databases /". View Abstract or Full-Text, 2002. http://library.ust.hk/cgi/db/thesis.pl?COMP%202002%20LAU.

Texto completo
Resumen
Thesis (M. Phil.)--Hong Kong University of Science and Technology, 2002.
Includes bibliographical references (leaves 87-96). Also available in electronic version. Access restricted to campus users.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Hirzalla, Naél B. "Media processing and retrieval model for multimedia documents databases". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0013/NQ28346.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Hirzalla, Nael B. "Media processing and retrieval model for multimedia documents databases". Thesis, University of Ottawa (Canada), 1998. http://hdl.handle.net/10393/4541.

Texto completo
Resumen
Typically, multimedia applications involve thousands of hours of video, images, audio, text and graphics that need to be stored, retrieved and manipulated in a large multimedia database. There is therefore an important need for novel techniques and systems which provide an efficient retrieval facility of the voluminous information stored in the multimedia database. Such a facility will consist of a query language, a query user interface, a data structure, indexing and finally content searching algorithms. Our interests focus on the first four components of such system. In this thesis, we propose a multimedia query specification language that can be used to fully describe a multimedia segment that needs to be received from a database. We designed an object-oriented database schema that can integrate the logical, temporal and spatial information of a multimedia document. We also proposed an algorithm to index a video by detecting camera breaks and coarse camera operations which will then be used as indices. Moreover, we discussed how to index interactive multimedia documents where undetermined user actions are involved, by proposing a temporal model that has the capability to represent interactive multimedia document scenarios. Indices that represent possible user actions and reactions are then extracted from the model and used to index such documents. Finally, we designed a simple and friendly query user interface on top of the proposed language, in which users can fully describe graphically a multimedia segment.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

El, Abri Marwa. "Probabilistic relational models learning from graph databases". Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4019/document.

Texto completo
Resumen
Historiquement, les Modèles Graphiques Probabilistes (PGMs) sont une solution d’apprentissage à partir des données incertaines et plates, appelées aussi données propositionnelles ou représentations attribut-valeur. Au début des années 2000, un grand intérêt a été adressé au traitement des données relationnelles présentant un grand nombre d’objets participant à des différentes relations. Les Modèles Probabilistes Relationnels (PRMs) présentent une extension des PGMs pour le contexte relationnel. Avec l’évolution rapide issue de l’internet, des innovations technologiques et des applications web, les données sont devenues de plus en plus variées et complexes. D’où l’essor du Big Data. Plusieurs types de bases de données ont été créés pour s’adapter aux nouvelles caractéristiques des données, dont les plus utilisés sont les bases de données graphe. Toutefois, tous les travaux d’apprentissage des PRMs sont consacrés à apprendre à partir des données bien structurées et stockées dans des bases de données relationnelles. Les bases de données graphe sont non structurées et n’obéissent pas à un schéma bien défini. Les arcs entre les noeuds peuvent avoir des différentes signatures. En effet, les relations qui ne correspondent pas à un modèle ER peuvent exister dans l'instance de base de données. Ces relations sont considérées comme des exceptions. Dans ce travail de thèse, nous nous intéressons à ce type de bases de données. Nous étudions aussi deux types de PRMs à savoir, Direct Acyclic Probabilistic Entity Relationship (DAPER) et chaines de markov logiques (MLNs). Nous proposons deux contributions majeures. Premièrement, Une approche d’apprentissage des DAPERs à partir des bases de données graphe partiellement structurées. Une deuxième approche consiste à exploiter la logique de premier ordre pour apprendre les DAPERs en utilisant les MLNs pour prendre en considération les exceptions qui peuvent parvenir lors de l’apprentissage. Nous menons une étude expérimentale permettant de comparer nos méthodes proposées avec les approches déjà existantes
Historically, Probabilistic Graphical Models (PGMs) are a solution for learning from uncertain and flat data, also called propositional data or attributevalue representations. In the early 2000s, great interest was addressed to the processing of relational data which includes a large number of objects participating in different relations. Probabilistic Relational Models (PRMs) present an extension of PGMs to the relational context. With the rise of the internet, numerous technological innovations and web applications are driving the dramatic increase of various and complex data. Consequently, Big Data has emerged. Several types of data stores have been created to manage this new data, including the graph databases. Recently there has been an increasing interest in graph databases to model objects and interactions. However, all PRMs structure learning use wellstructured data that are stored in relational databases. Graph databases are unstructured and schema-free data stores. Edges between nodes can have various signatures. Since, relationships that do not correspond to an ER model could be depicted in the database instance. These relationships are considered as exceptions. In this thesis, we are interested by this type of data stores. Also, we study two kinds of PRMs namely, Direct Acyclic Probabilistic Entity Relationship (DAPER) and Markov Logic Networks (MLNs). We propose two significant contributions. First, an approach to learn DAPERs from partially structured graph databases. A second approach consists to benefit from first-order logic to learn DAPERs using MLN framework to take into account the exceptions that are dropped during DAPER learning. We are conducting experimental studies to compare our proposed methods with existing approaches
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

McElroy, Jonathan David. "Automatic Document Classification in Small Environments". DigitalCommons@CalPoly, 2012. https://digitalcommons.calpoly.edu/theses/682.

Texto completo
Resumen
Document classification is used to sort and label documents. This gives users quicker access to relevant data. Users that work with large inflow of documents spend time filing and categorizing them to allow for easier procurement. The Automatic Classification and Document Filing (ACDF) system proposed here is designed to allow users working with files or documents to rely on the system to classify and store them with little manual attention. By using a system built on Hidden Markov Models, the documents in a smaller desktop environment are categorized with better results than the traditional Naive Bayes implementation of classification.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Murphy, Brian R. "Order-sensitive XML query processing over relational sources". Link to electronic thesis, 2003. http://www.wpi.edu/Pubs/ETD/Available/etd-0505103-123753.

Texto completo
Resumen
Thesis (M.S.)--Worcester Polytechnic Institute.
Keywords: computation pushdown; XML; order-based Xquery processing; relational database; ordered SQL queries; data model mapping; XQuery; XML data mapping; SQL; XML algebra rewrite rules; XML document order. Includes bibliographical references (p. 64-67).
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Hahn, Henrik. "Expressive sampling synthesis. Learning extended source-filter models from instrument sound databases for expressive sample manipulations". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066564/document.

Texto completo
Resumen
Dans cette thèse un système de synthèse sonore imitative sera présenté, applicable à la plupart des instruments de quasi-harmoniques. Le système se base sur les enregistrements d’une note unique qui représentent une version quantifiée de l'espace de timbre possible d'un instrument par rapport à sa hauteur et son intensité. Une méthode de transformation permet alors de générer des signaux sonores de valeurs continues des paramètres de contrôle d'expression qui sont perceptuellement cohérent avec ses équivalents acoustiques. Un modèle paramétrique de l'instrument se présente donc basé sur un modèle de filtre de source étendu avec des manipulations distinctes sur les harmoniques d’un signal et ses composantes résiduelles. Une procédure d'évaluation subjective sera présentée afin d’évaluer une variété de résultats de transformation par une comparaison directe avec des enregistrements non modifiés, afin de comparer la perception entre les résultats synthétiques et leurs équivalents acoustiques
Within this thesis an imitative sound synthesis system will be introduced that is applicable to most quasi-harmonic instruments. The system bases upon single-note recordings that represent a quantized version of an instrument's possible timbre space with respect to its pitch and intensity dimension. A transformation method then allows to render sound signals with continuous values of the expressive control parameters which are perceptually coherent with its acoustic equivalents. A parametric instrument model is therefore presented based on an extended source-filter model with separate manipulations of a signal’s harmonic and residual components. A subjective evaluation procedure will be shown to assess a variety of transformation results by a direct comparison with unmodified recordings to determine how perceptually close the synthesis results are regarding their respective acoustic correlates
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Broadbent, Robert Emer. "A Functional Framework for Content Management". BYU ScholarsArchive, 2009. https://scholarsarchive.byu.edu/etd/1737.

Texto completo
Resumen
This thesis proposes a functional framework for content management. This framework provides concepts and vocabulary for analysis and description of content management systems. The framework is derived from an analysis of eight content management systems. It describes forty-five conceptual functions organized into five functional groups. The functionality derived from the analysis of the content management systems is described using the vocabulary provided by the functional framework. Coverage of the concepts in the existing systems is verified. The utility of the framework is validated through the creation of a prototype that implements sufficient functionality to support a set of specific use cases.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Li, Haizhou. "Modeling and verification of probabilistic data-aware business processes". Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22563/document.

Texto completo
Resumen
Un large éventail de nouvelles applications met l’accent sur la nécessité de disposer de modèles de processus métier capables de manipuler des données imprécises ou incertaines. Du fait de la présence de données probabilistes, les comportements externes de tels processus métier sont non markoviens. Peu de travaux dans la littérature se sont intéressés à la vérification de tels systèmes. Ce travail de thèse étudie les questions de modélisation et d’analyse de ce type de processus métier. Il utilise comme modèle formel pour décrire les comportements des processus métier un système de transitions étiquetées dans lequel les transitions sont gardées par des conditions définies sur une base de données probabiliste. Il propose ensuite une approche de décomposition de ces processus qui permet de tester la relation de simulation entre processus dans ce contexte. Une analyse de complexité révèle que le problème de test de simulation est dans 2-EXPTIME, et qu’il est EXPTIME-difficile en termes de complexité d’expression, alors que du point de vue de la complexité en termes des données, il n’engendre pas de surcoût supplémentaire par rapport au coût de l’évaluation de requêtes booléennes sur des bases de données probabilistes. L’approche proposée est ensuite étendue pour permettre la vérification de propriétés exprimées dans les logiques P-LTL et P-CTL. Finalement, un prototype, nommé ‘PRODUS’, a été implémenté et utilisé dans le cadre d’une application liée aux systèmes d’information géographiques pour montrer la faisabilité de l’approche proposée
There is a wide range of new applications that stress the need for business process models that are able to handle imprecise data. This thesis studies the underlying modelling and analysis issues. It uses as formal model to describe process behaviours a labelled transitions system in which transitions are guarded by conditions defined over a probabilistic database. To tackle verification problems, we decompose this model to a set of traditional automata associated with probabilities named as world-partition automata. Next, this thesis presents an approach for testing probabilistic simulation preorder in this context. A complexity analysis reveals that the problem is in 2-exptime, and is exptime-hard, w.r.t. expression complexity while it matches probabilistic query evaluation w.r.t. data-complexity. Then P-LTL and P-CTL model checking methods are studied to verify this model. In this context, the complexity of P-LTL and P-CTL model checking is in exptime. Finally a prototype called ”PRODUS” which is a modeling and verification tool is introduced and we model a realistic scenario in the domain of GIS (graphical information system) by using our approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Suchý, Petr. "Realizace webového modulárního systému". Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2008. http://www.nusl.cz/ntk/nusl-217328.

Texto completo
Resumen
Diploma thesis Implementation of modular web based application deals with web modular systems. The aim of web modular system is to allow creating universal web presentation without necessity of creation new systems. Diploma thesis is devided into couple parts. Advantages of modular solution of web systems are highlighted in the first part and after that is analyzed the current situation of this problem. In the next part is designed own web modular system above all its kernel, modules and data model. In the final part is described own implementation of own designed system. The most stress is layed on security of the system. In the conclusion is summed up own solution and its most advantages.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Moumen, Chiraz. "Une méthode d'optimisation hybride pour une évaluation robuste de requêtes". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30070/document.

Texto completo
Resumen
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes
The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Ozturk, Aybuke. "Design, Implementation and Analysis of a Description Model for Complex Archaeological Objects". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2048/document.

Texto completo
Resumen
La céramique est l'un des matériaux archéologiques les plus importants pour aider à la reconstruction des civilisations passées. Les informations à propos des objets céramiques complexes incluent des données textuelles, numériques et multimédias qui posent plusieurs défis de recherche abordés dans cette thèse. D'un point de vue technique, les bases de données de céramiques présentent différents formats de fichiers, protocoles d'accès et langages d'interrogation. Du point de vue des données, il existe une grande hétérogénéité et les experts ont différentes façons de représenter et de stocker les données. Il n'existe pas de contenu et de terminologie standard, surtout en ce qui concerne la description des céramiques. De plus, la navigation et l'observation des données sont difficiles. L'intégration des données est également complexe en raison de laprésence de différentes dimensions provenant de bases de données distantes, qui décrivent les mêmes catégories d'objets de manières différentes.En conséquence, ce projet de thèse vise à apporter aux archéologues et aux archéomètres des outils qui leur permettent d'enrichir leurs connaissances en combinant différentes informations sur les céramiques. Nous divisons notre travail en deux parties complémentaires : (1) Modélisation de données archéologiques complexes, et (2) Partitionnement de données (clustering) archéologiques complexes. La première partie de cette thèse est consacrée à la conception d'un modèle de données archéologiques complexes pour le stockage des données céramiques. Cette base de donnée alimente également un entrepôt de données permettant des analyses en ligne (OLAP). La deuxième partie de la thèse est consacrée au clustering (catégorisation) des objets céramiques. Pour ce faire, nous proposons une approche floue, dans laquelle un objet céramique peut appartenir à plus d'un cluster (d'une catégorie). Ce type d'approche convient bien à la collaboration avec des experts, enouvrant de nouvelles discussions basées sur les résultats du clustering.Nous contribuons au clustering flou (fuzzy clustering) au sein de trois sous-tâches : (i) une nouvelle méthode d'initialisation des clusters flous qui maintient linéaire la complexité de l'approche ; (ii) un indice de qualité innovant qui permet de trouver le nombre optimal de clusters ; et (iii) l'approche Multiple Clustering Analysis qui établit des liens intelligents entre les données visuelles, textuelles et numériques, ce qui permet de combiner tous les types d'informations sur les céramiques. Par ailleurs, les méthodes que nous proposons pourraient également être adaptées à d'autres domaines d'application tels que l'économie ou la médecine
Ceramics are one of the most important archaeological materials to help in the reconstruction of past civilizations. Information about complex ceramic objects is composed of textual, numerical and multimedia data, which induce several research challenges addressed in this thesis. From a technical perspective, ceramic databases have different file formats, access protocols and query languages. From a data perspective, ceramic data are heterogeneous and experts have differentways of representing and storing data. There is no standardized content and terminology, especially in terms of description of ceramics. Moreover, data navigation and observation are difficult. Data integration is also difficult due to the presence of various dimensions from distant databases, which describe the same categories of objects in different ways.Therefore, the research project presented in this thesis aims to provide archaeologists and archaeological scientists with tools for enriching their knowledge by combining different information on ceramics. We divide our work into two complementary parts: (1) Modeling of Complex Archaeological Data and (2) Clustering Analysis of Complex Archaeological Data. The first part of this thesis is dedicated to the design of a complex archaeological database model for the storage of ceramic data. This database is also used to source a data warehouse for doing online analytical processing (OLAP). The second part of the thesis is dedicated to an in-depth clustering (categorization) analysis of ceramic objects. To do this, we propose a fuzzy approach, where ceramic objects may belong to more than one cluster (category). Such a fuzzy approach is well suited for collaborating with experts, by opening new discussions based on clustering results.We contribute to fuzzy clustering in three sub-tasks: (i) a novel fuzzy clustering initialization method that keeps the fuzzy approach linear; (ii) an innovative quality index that allows finding the optimal number of clusters; and (iii) the Multiple Clustering Analysis approach that builds smart links between visual, textual and numerical data, which assists in combining all types ofceramic information. Moreover, the methods we propose could also be adapted to other application domains such as economy or medicine
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Harward, Gregory Brent. "Suitability of the NIST Shop Data Model as a Neutral File Format for Simulation". Diss., CLICK HERE for online access, 2005. http://contentdm.lib.byu.edu/ETD/image/etd899.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Giffard-Roisin, Sophie. "Personnalisation non-invasive de modèles électrophysiologiques cardiaques à partir d'électrogrammes surfaciques". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4092/document.

Texto completo
Resumen
L'objectif de cette thèse est d'utiliser des données non-invasives (électrocardiogrammes, ECG) pour personnaliser les principaux paramètres d'un modèle électrophysiologique (EP) cardiaque pour prédire la réponse à la thérapie de resynchronisation cardiaque. La TRC est un traitement utilisé en routine clinique pour certaines insuffisances cardiaques mais reste inefficace chez 30% des patients traités impliquant une morbidité et un coût importants. Une compréhension précise de la fonction cardiaque propre au patient peut aider à prédire la réponse à la thérapie. Les méthodes actuelles se basent sur un examen invasif au moyen d’un cathéter qui peut être dangereux pour le patient. Nous avons développé une personnalisation non-invasive du modèle EP fondée sur une base de données simulée et un apprentissage automatique. Nous avons estimé l'emplacement de l'activation initiale et un paramètre de conduction global. Nous avons étendu cette approche à plusieurs activations initiales et aux ischémies au moyen d'une régression bayésienne parcimonieuse. De plus, nous avons développé une anatomie de référence afin d'effectuer une régression hors ligne unique et nous avons prédit la réponse à différentes stimulations à partir du modèle personnalisé. Dans une seconde partie, nous avons étudié l'adaptation aux données ECG à 12 dérivations et l'intégration dans un modèle électromécanique à usage clinique. L'évaluation de notre travail a été réalisée sur un ensemble de données important (25 patients, 150 cycles cardiaques). En plus d'avoir des résultats comparables avec les dernières méthodes d'imagerie ECG, les signaux ECG prédits présentent une bonne corrélation avec les signaux réels
The objective of this thesis is to use non-invasive data (body surface potential mapping, BSPM) to personalise the main parameters of a cardiac electrophysiological (EP) model for predicting the response to cardiac resynchronization therapy (CRT). CRT is a clinically proven treatment option for some heart failures. However, these therapies are ineffective in 30% of the treated patients and involve significant morbidity and substantial cost. The precise understanding of the patient-specific cardiac function can help to predict the response to therapy. Until now, such methods required to measure intra-cardiac electrical potentials through an invasive endovascular procedure which can be at risk for the patient. We developed a non-invasive EP model personalisation based on a patient-specific simulated database and machine learning regressions. First, we estimated the onset activation location and a global conduction parameter. We extended this approach to multiple onsets and to ischemic patients by means of a sparse Bayesian regression. Moreover, we developed a reference ventricle-torso anatomy in order to perform an common offline regression and we predicted the response to different pacing conditions from the personalised model. In a second part, we studied the adaptation of the proposed method to the input of 12-lead electrocardiograms (ECG) and the integration in an electro-mechanical model for a clinical use. The evaluation of our work was performed on an important dataset (more than 25 patients and 150 cardiac cycles). Besides having comparable results with state-of-the-art ECG imaging methods, the predicted BSPMs show good correlation coefficients with the real BSPMs
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Milea, Dominique. "Usage et mésusage dans la prescription des antidépresseurs : l’apport des bases de données". Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10322/document.

Texto completo
Resumen
Au vu de la croissance considérable de la consommation des antidépresseurs au cours des dernières décennies et de la part non négligeable de patients qui restent non traités ou mal traités, la question du bon usage ou du mésusage de ces médicaments s’impose. Les trois études présentées dans ce rapport se sont intéressées à décrire l’augmentation de la consommation des antidépresseurs et à en comprendre les mécanismes sous-jacents. L’analyse des données de vente indique que la croissance des antidépresseurs diffère entre les pays étudiés, mais qu’elle suit un schéma classique d’augmentation suivie d’une stabilisation à un certain seuil, et que les politiques de limitation des dépenses de santé ont un impact, différent selon la maturité du marché. Les travaux sur données de remboursement montrent que si l‘on peut parler de mésusage dans l’utilisation des antidépresseurs, il semble lié non pas à une prescription hors indication mais plutôt inappropriée : traitement sans diagnostic précis, prescription unique suggérant un traitement injustifié, traitement trop court en regard des recommandations internationales qui préconisent au moins 6 mois pour éviter rechutes et récidives. Les travaux que nous avons menés montrent que les bases de données peuvent constituer un outil fiable d’évaluation de la consommation (données de vente) ou d’utilisation des antidépresseurs (bases de remboursement) : utilisation simple et rapide de données de vente afin d’avoir un panorama des pratiques et utilisation plus complexe des bases de remboursement afin de mieux comprendre les pratiques. Utilisés en pratique courante, des tableaux de bord de suivi de consommation pourraient alerter les pouvoirs publics sur les dérives des consommations et permettre de mettre en place des analyses plus poussées afin de caractériser les pratiques et mieux comprendre les vecteurs de la consommation
Considering the large increase in antidepressant use observed in the last decades, the question of good or poor usage of antidepressants is of importance. The three studies presented in this report consisted into a descriptive analysis of the increase in the use of antidepressants in different countries, and thereafter analyse the underlying mechanisms. Our analysis of sales database indicates that the increase in antidepressants volume differ from country to country, but follows a classical scheme with rapid increase until stabilisation to a certain threshold and that national policies to ensure expenditure limitations has a different impact on the volume depending on the maturity of the market. The analyses performed afterwards on US claims databases, and show that if improper use of antidepressants is a reality, it does not seem to correspond to a massive off-label use but rather to an incorrect use of antidepressants: treatment without precise diagnosis, isolated prescription which suggest undue treatment, treatment for too short periods of time with regards to international guidelines which recommend at least 6 month to avoid relapse or recurrence of the disease. The analyses we have conducted on databases can serve as a basis for the development of a reliable tool to evaluate drug consumption (sales databases) or drug use (claims databases) : simple and rapid use of sales databases to get a mapping of consumption in their environment, and more complex and time consuming use of claims database to gain an understanding of practice. Used in routine, the sales monitoring tools could play a role to alert public health services on abnormal evolution of drug consumption and allow the initiation of more refined analyses either on large claims databases or through prospective cohort of patients in order to characterise the practice and gain an understanding on the drivers of drug use
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Bertelsmeier, Cleo. "Biologie des invasions de fourmis dans un contexte de changement climatique". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112358/document.

Texto completo
Resumen
Le changement climatique et les invasions biologiques sont parmi les plus grandes menaces de la biodiversité et leurs impacts pourraient augmenter jusqu’à la fin du siècle. Parmi les espèces envahissantes, les fourmis sont un groupe particulièrement néfaste dû à leurs impacts sur les espèces natives, les processus écosystémique, la santé, l’agriculture et l’économie. L’objectif de cette thèse était de prédire les invasions de fourmis – en particulier avec le changement climatique qui pourrait favoriser les invasions en éliminant des barrières thermiques. J’ai utilisé trois approches complémentaires afin d’étudier le potentiel de différentes espèces à envahir : des modèles de distribution, des expériences comportementales et l’analyses d’une base de données de traits écologiques. J’ai modélisé l’aire favorable pour 15 espèces de fourmis parmi les pires, à la fois globalement, par continents, et dans les 34 hotspots de biodiversité. La distribution potentielle de seulement cinq espèce est prédite de diminuer (jusqu’à 35.8%) avec le changement climatique et l’aire potentielle diminue pour la plupart des espèces jusqu’à 63.2%. Les hotspots d’invasions de fourmis se situaient surtout dans des régions tropicales et subtropicales et ils correspondent particulièrement aux hotspots de biodiversité. Contrairement à ce qui est généralement admis, le changement climatique et les invasions biologiques n’agiront pas de manière synergique pour les fourmis. Par contre, les invasions de fourmis resteront probablement un problème global majeur, en particuliers dans les zones où les hotspots de biodiversité et les hotspots d’invasion se superposent. Les modèles de distribution ont identifié de larges zones de recouvrement entre aires favorables de plusieurs espèces de fourmis envahissantes. Dans le futur, ces espèces pourraient arriver simultanément dans les mêmes régions et entrer en compétition. Dans une série d’expériences, j’ai testé les différences comportementales entre 7 espèces de fourmis envahissantes (Anoplolepis gracilipes, Paratrechina longicornis, Myrmica rubra, Linepithema humile, Lasius neglectus, Wasmannia auropunctata et Pheidole megacephala). J’ai découvert deux stratégies comportementales différentes. Les interactions au niveau de la colonie ont suivi des processus démographiques plus complexes. De plus, j’ai mis au point deux expériences pour tester la capacité des fourmis envahissantes à explorer un nouvel espace et à exploiter des ressources. J’ai trouvé des différences significatives entre espèces et leur capacité à dominer par interférence comportementale était négativement corrélée à leurs capacités à découvrir et exploiter des ressources. Cette série d’expériences suggère que les ‘mécanismes’ d’invasion sont plus complexes que ce qui est généralement suggéré et que différentes espèces pourraient utiliser des stratégies comportementales différentes. Étant donné qu’il existe plus de 250 espèces de fourmis exotiques, il serait intéressant de pouvoir identifier à l’avance des futurs envahisseurs potentiels. Afin d’identifier des traits associés au caractère envahissant des fourmis, j’ai mis en place une base de données qui contient 2193 espèces de fourmis et 24 traits écologiques. J’ai effectué une analyse préliminaire de différences de traits entre fourmis natives et envahissantes qui a montré qu’il existe clairement des groupement distincts de natives et envahissantes, avec les espèces exotiques au milieu. Ces résultats pourraient servir de base pour construire un modèle prédictif des invasions de fourmis. Ces différentes approches (modèles, expériences, base de données) sont complémentaires car elles s’intéressent à des aspects différents du futur des invasions de fourmis qui sera vraisemblablement fortement influencé par le changement climatique. Le pires envahisseurs de demain ne seront probablement pas les même qu’aujourd’hui et les zones les plus à risque pourraient changer également
Climate change and biological invasions are both among the greatest threats to biodiversity and their impacts might increase by the end of the century. Among invasive species, ants are a prominent group due to their negative impacts on native species, ecosystem processes, human and animal health, agro-ecosystems and the economy. The objective of this thesis was to forecast future ant invasions – especially in the light of on-going climate change, which is generally thought to favour invasive species by removing thermal barriers. I used three complementary approaches to study the potential of different ant species to invade in the future: species distribution modelling, behavioural experiments and the analysis of a database of ecological traits. I modelled suitable area for 15 of the worst invasive ant species, both currently and with predicted climate change, globally, regionally and within the world’s 34 biodiversity hotspots. Surprisingly, the potential distribution of only five species was predicted to increase (up to 35.8%) with climate change, with most declining by up to 63.3%. The ant invasion hotspots are predominantly in tropical and subtropical regions of South America, Africa, Asia and Oceanic islands, and particularly correspond with biodiversity hotspots. Contrary to general expectations, climate change and biological invasions will not systematically act synergistically for ants. In addition, I found that the impacts of climate change can change over time and even reverse the trend of the impact (i.e., an increase instead of a decrease or vice versa). However, ant invasions will likely remain as a major global problem, especially where invasion hotspots coincide with biodiversity hotspots. The species distribution models have identified large potentially overlapping distributions of several invasive ants. In the future, these species may arrive simultaneously in the same regions and compete with each other. In a series of experiments, I tested behavioural differences among 7 highly invasive ant species (Anoplolepis gracilipes, Paratrechina longicornis, Myrmica rubra, Linepithema humile, Lasius neglectus, Wasmannia auropunctata and Pheidole megacephala). I discovered two different behavioural strategies among invasive ants. Interactions at the colony level, exhibited more complex demographic processes and more variability. Further, I investigated resource competition and differences in resource exploitation. I found significant differences among species, with competitive abilities that were negatively correlated with behavioural dominance. This series of experiments suggests that the ‘mechanisms’ of invasiveness are more complex than previously thought and that different invasive ant species may use different behavioural strategies. Since there are more than 250 exotic species of ants, it would be interesting to identify potential future invaders. In order to identify traits associated with invasiveness in ants, I set up a database with 2193 ant species and 24 ecological characteristics. I performed a preliminary analysis of trait differences between native and invasive ants that shows clearly different clusters of invasive and native species, with exotic species in between. These results could be used as a basis to construct a predictive model of future ant invasions. The different methods used (models, experiments, database) are complementary in that they explore different aspects of the future ant invasions which are likely to be influenced by on-going climate change. The worst invaders of tomorrow may not be the same as today and similarly, areas most at risk are likely to change
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Zhang, Zebin. "Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles". Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0047/document.

Texto completo
Resumen
La conception optimale de turbomachines repose usuellement sur des méthodes itératives avec des évaluations soit expérimentales, soit numériques qui peuvent conduire à des coûts élevés en raison des nombreuses manipulations ou de l’utilisation intensive de CPU. Afin de limiter ces coûts et de raccourcir les temps de développement, le présent travail propose d’intégrer une méthode de paramétrisation et de métamodélisation dans un cycle de conception d’une turbomachine axiale basse vitesse. La paramétrisation, réalisée par l’étude de sensibilité d’ordre élevé des équations de Navier-Stokes, permet de construire une base de données paramétrée qui contient non seulement les résultats d’évaluations, mais aussi les dérivées simples et les dérivées croisées des objectifs en fonction des paramètres. La plus grande quantité d’informations apportée par les dérivées est avantageusement utilisée lors de la construction de métamodèles, en particulier avec une méthode de Co-Krigeage employée pour coupler plusieurs bases de données. L’intérêt économique de la méthode par rapport à une méthode classique sans dérivée réside dans l’utilisation d’un nombre réduit de points d’évaluation. Lorsque ce nombre de points est véritablement faible, il peut arriver qu’une seule valeur de référence soit disponible pour une ou plusieurs dimensions, et nécessite une hypothèse de répartition d’erreur. Pour ces dimensions, le Co-Krigeage fonctionne comme une extrapolation de Taylor à partir d’un point et de ses dérivées. Cette approche a été expérimentée avec la construction d’un méta-modèle pour une hélice présentant un moyeu conique. La méthodologie fait appel à un couplage de bases de données issues de deux géométries et deux points de fonctionnement. La précision de la surface de réponse a permis de conduire une optimisation avec un algorithme génétique NSGA-2, et les deux optima sélectionnés répondent pour l’un à une maximisation du rendement, et pour l’autre à un élargissement de la plage de fonctionnement. Les résultats d’optimisation sont finalement validés par des simulations numériques supplémentaires
The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Mater, Gautier. "Caractérisation des mesures d’exposition à des produits chimiques dans les bases de données françaises COLCHIC et SCOLA pour la prévention des maladies professionnelles". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0210/document.

Texto completo
Resumen
En France, deux bases de données d’exposition professionnelle, COLCHIC et SCOLA, coexistent avec des objectifs différents (prévention et réglementation). Leur représentativité par rapport à la population générale est cependant inconnue, et fait l’objet de ce travail. Après avoir effectué une analyse descriptive comparative, l’étude de l’association entre les niveaux d’exposition et les éléments contextuels a été réalisée par modélisation statistique pour chaque agent, séparément pour COLCHIC et SCOLA, puis dans un jeu de données commun. La synthèse à travers les agents s’est faite par Méta analyse. COLCHIC et SCOLA contiennent respectivement 929 700 (670 agents chimiques) et 429 104 données (105). Trois forts prédicteurs « Durée de prélèvement », « Equipement de protection individuelle » et « Année » sont systématiquement associés aux niveaux dans les deux bases et 3 autres sont spécifiques à chacune d’elles. Avec des niveaux deux fois plus élevés dans COLCHIC comparés à SCOLA en 2007, leurs concentrations deviennent comparables entre 2012 et 2015. COLCHIC et SCOLA représentent une source importante d’informations. La prise en compte des descripteurs associés aux mesures et l’utilisation de méthodes prédictives permettront d’en améliorer l’interprétation
Two occupational exposure databases of occupational exposures to chemicals, COLCHIC and SCOLA, coexist in France with different objectives (prevention and compliance). Little is known about their representativeness of exposures in the general population. We explored to what extent COLCHIC and SCOLA adequately reflect occupational exposures in France. After performing a descriptive and comparative analysis, associations between exposure levels and ancillary information were explored for each agent, separately for COLCHIC and SCOLA and in a common dataset, using statistical modelling. Modelling results were synthesized across agents using Meta analysis. COLCHIC and SCOLA contain, respectively, 929 700 (670 chemicals) and 429 104 records (105). Three predictors "Sample Time", "Personal protective equipment" and "Year" are strongly associated with exposure levels across a large majority of chemicals in both databases, and 3 others are specific to each one. Exposure levels are in average twice higher in COLCHIC compared to SCOLA in 2007, but become comparable from 2012-2015. COLCHIC and SCOLA are an important source of information. Inclusion of descriptors associated with exposure levels in our study and the use of predictive methods should help to improve their interpretation
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Réau, Manon. "Importance des données inactives dans les modèles : application aux méthodes de criblage virtuel en santé humaine et environnementale". Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1251/document.

Texto completo
Resumen
Le criblage virtuel est utilisé dans la recherche de médicaments et la construction de modèle de prédiction de toxicité. L’application d’un protocole de criblage est précédée par une étape d’évaluation sur une banque de données de référence. La composition des banques d’évaluation est un point critique ; celles-ci opposent généralement des molécules actives à des molécules supposées inactives, faute de publication des données d’inactivité. Les molécules inactives sont néanmoins porteuses d’information. Nous avons donc créé la banque NR-DBIND composée uniquement de molécules actives et inactives expérimentalement validées et dédiées aux récepteurs nucléaires. L’exploitation de la NR-DBIND nous a permis d’étudier l’importance des molécules inactives dans l’évaluation de modèles de docking et dans la construction de modèles de pharmacophores. L’application de protocoles de criblage a permis d’élucider des modes de liaison potentiels de petites molécules sur FXR, NRP-1 et TNF⍺
Virtual screening is widely used in early stages of drug discovery and to build toxicity prediction models. Commonly used protocols include an evaluation of the performances of different tools on benchmarking databases before applying them for prospective studies. The content of benchmarking tools is a critical point; most benchmarking databases oppose active data to putative inactive due to the scarcity of published inactive data in the literature. Nonetheless, experimentally validated inactive data also bring information. Therefore, we constructed the NR-DBIND, a database dedicated to nuclear receptors that contains solely experimentally validated active and inactive data. The importance of the integration of inactive data in docking and pharmacophore models construction was evaluated using the NR-DBIND data. Virtual screening protocols were used to resolve the potential binding mode of small molecules on FXR, NRP-1 et TNF⍺
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

von, Wenckstern Michael. "Web applications using the Google Web Toolkit". Master's thesis, Technische Universitaet Bergakademie Freiberg Universitaetsbibliothek "Georgius Agricola", 2013. http://nbn-resolving.de/urn:nbn:de:bsz:105-qucosa-115009.

Texto completo
Resumen
This diploma thesis describes how to create or convert traditional Java programs to desktop-like rich internet applications with the Google Web Toolkit. The Google Web Toolkit is an open source development environment, which translates Java code to browser and device independent HTML and JavaScript. Most of the GWT framework parts, including the Java to JavaScript compiler as well as important security issues of websites will be introduced. The famous Agricola board game will be implemented in the Model-View-Presenter pattern to show that complex user interfaces can be created with the Google Web Toolkit. The Google Web Toolkit framework will be compared with the JavaServer Faces one to find out which toolkit is the right one for the next web project
Diese Diplomarbeit beschreibt die Erzeugung desktopähnlicher Anwendungen mit dem Google Web Toolkit und die Umwandlung klassischer Java-Programme in diese. Das Google Web Toolkit ist eine Open-Source-Entwicklungsumgebung, die Java-Code in browserunabhängiges als auch in geräteübergreifendes HTML und JavaScript übersetzt. Vorgestellt wird der Großteil des GWT Frameworks inklusive des Java zu JavaScript-Compilers sowie wichtige Sicherheitsaspekte von Internetseiten. Um zu zeigen, dass auch komplizierte graphische Oberflächen mit dem Google Web Toolkit erzeugt werden können, wird das bekannte Brettspiel Agricola mittels Model-View-Presenter Designmuster implementiert. Zur Ermittlung der richtigen Technologie für das nächste Webprojekt findet ein Vergleich zwischen dem Google Web Toolkit und JavaServer Faces statt
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Vavrek, Michal. "Evolution Management in NoSQL Document Databases". Master's thesis, 2018. http://www.nusl.cz/ntk/nusl-383112.

Texto completo
Resumen
NoSQL databases are widely used for many applications as a technology for data storage, and their usage and popularity rises. The first aim of the thesis is to research the existing approaches and technologies for schema evolution in NoSQL databases. Next, we introduce an approach for schema evolution in multi-model databases with a unified interface for the most common data models. The proposed approach is easy to use and covers the common migration scenarios. We have also implemented a prototype, optimized its read/write operations, and demonstrated its properties on real-world data. 1
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Wen, Lu Bo y 盧博文. "An Implementation of a Electronic Document Database Workflow Model". Thesis, 1996. http://ndltd.ncl.edu.tw/handle/51255992251956219790.

Texto completo
Resumen
碩士
國立臺灣科技大學
電子工程學系
84
The thesis proposed a three layers workflow model. The pro- posed model helps group members in various location to complete traditional workfolw process with simple and efficient way. The application layer is responsible for the user interface, including the presentation of form and document, the view of the workflow database, and the workflow design tools. The workflow layer is based on Client/Server architecture. The client application translates the workflow operations into various type of workflow message, and the server application interprets these workflow message and excutes actions ( such as regist, download, apply, route, approve, reject , and file). The network layer uses the MAPI to transfer message,and uses the ODBC to access the workflow database. These features allow the workflow to be in progress without time and location limi- tation. To solve the traditional workflow problem,the workflow model in chapter 3 is implemented with these feathers: single-form, multi-view and routing-slip with no conditional branch routing mechanism. And in chapter 4, we also proposed an advanced work- flow model which is based on internet with more powerful features included multi-form and multi-view. It uses routing- script with conditional branch routing mechanism to simplify the workflow design, and also uses integrated-document which transfers the data in workflow database to useful information to suport the decision making in enterprise.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Liu, Min-Jang y 劉民樟. "A Data Exchange Model between Hierarchical Databases and XML Documents". Thesis, 2004. http://ndltd.ncl.edu.tw/handle/44233746885124759243.

Texto completo
Resumen
碩士
朝陽科技大學
資訊管理系碩士班
92
In recent years, data exchange is popular among enterprises and organizations. The data may be structured or unstructured such as purchase orders, product catalogs, official documents and so on. XML, proposed by W3C, has been extensively applied to many areas, especially for database applications. Most researches focused on data exchange between relational databases and XML documents. However, the hierarchical database is still being used in some businesses. In this paper, we propose a model for enterprises or organizations to perform data exchange between hierarchical databases and XML documents. The XML Schema is used to describe the data type of exchanged data to ensure that the original data type would not lose during data conversion. In this model, four modules are used to translate the data in hierarchical databases into XML documents and vise versa. Experiments are performed to analyze the performance of the proposed model.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

"Parameter free document stream classification". Thesis, 2006. http://library.cuhk.edu.hk/record=b6074286.

Texto completo
Resumen
Extensive experiments are conducted to evaluate the effectiveness PFreeBT and PNLH by using a stream of two-year news stories and three benchmarks. The results showed that the patterns of the bursty features and the bursty topics which are identified by PFreeBT match our expectations, whereas PNLH demonstrates significant improvements over all of the existing heuristics. These favorable results indicated that both PFreeBT and PNLH are highly effective and feasible.
For the problem of bursty topics identification, PFreeBT adopts an approach, in which we term it as feature-pivot clustering approach. Given a document stream, PFreeBT first identifies a set of bursty features from there. The identification process is based on computing the probability distributions. According to the patterns of the bursty features and two newly defined concepts (equivalent and map-to), a set of bursty topics can be extracted.
For the problem of constructing a reliable classifier, we formulate it as a partially supervised classification problem. In this classification problem, only a few training examples are labeled as positive (P). All other training examples (U) are remained unlabeled. Here, U is mixed with the negative examples (N) and some other positive examples (P'). Existing techniques that tackle this problem all focus on finding N from U. None of them attempts to extract P' from U. In fact, it is difficult to succeed as the topics in U are diverse and the features in there are sparse. In this dissertation, PNLH is proposed for extracting a high quality of P' and N from U.
In this dissertation, two heuristics, PFreeBT and PNLH, are proposed to tackle the aforementioned problems. PFreeBT aims at identifying the bursty topics in a document stream, whereas PNLH aims at constructing a reliable classifier for a given bursty topic. It is worth noting that both heuristics are parameter free. Users do not need to provide any parameter explicitly. All of the required variables can be computed base on the given document stream automatically.
In this information overwhelming century, information becomes ever more pervasive. A new class of data-intensive application arises where data is modeled best as an open-ended stream. We call such kind of data as data stream. Document stream is a variation of data stream, which consists of a sequence of chronological ordered documents. A fundamental problem of mining document streams is to extract meaningful structure from there, so as to help us to organize the contents systematically. In this dissertation, we focus on such a problem. Specifically, this dissertation studies two problems: to identify the bursty topics in a document stream and to construct a classifiers for the bursty topics. A bursty topic is one of the topics resides in the document stream, such that a large number of documents would be related to it during a bounded time interval.
Fung Pui Cheong Gabriel.
"August 2006."
Adviser: Jeffrey Xu Yu.
Source: Dissertation Abstracts International, Volume: 68-03, Section: B, page: 1720.
Thesis (Ph.D.)--Chinese University of Hong Kong, 2006.
Includes bibliographical references (p. 122-130).
Electronic reproduction. Hong Kong : Chinese University of Hong Kong, [2012] System requirements: Adobe Acrobat Reader. Available via World Wide Web.
Electronic reproduction. [Ann Arbor, MI] : ProQuest Information and Learning, [200-] System requirements: Adobe Acrobat Reader. Available via World Wide Web.
Abstracts in English and Chinese.
School code: 1307.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Huang, Chih-Yen y 黃致彥. "A Operation Model of Secure XML-RDB API and Optimal Querying of Encrypted XML Documents Stored in Relational Database". Thesis, 2009. http://ndltd.ncl.edu.tw/handle/19901935255867816873.

Texto completo
Resumen
碩士
國立花蓮教育大學
學習科技研究所
97
With the prevalence of the Internet, XML(Extensible Markup Language) became the standard of data exchange on the Internet. Due to the usual use of XML documents for the data exchange or data transfer protocol between heterogeneous platforms, how to manage and query XML documents efficiently become the key-point when the storage of XML documents increases. At present, there are two typical ways supported by relational database to store XML documents: shred and native XML. Furthermore, the common use of XML to transmit information on the Internet raises the concern of the security of XML documents. So far, in order to improve the security of XML documents, W3C organisation also proposes the suggestions and formats of the encryption and signature for the secured XML documents. This dissertation is an attempt at designing a model of the transfer between XML and relational database. After completely storing the secured XML into the relational database, with the API providing the secured maintenance and operation, this model can provide the best efficiency of querying data.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía