Siga este enlace para ver otros tipos de publicaciones sobre el tema: DOM (Document Object Model).

Tesis sobre el tema "DOM (Document Object Model)"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 33 mejores tesis para su investigación sobre el tema "DOM (Document Object Model)".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Kocman, Radim. "Podpora dynamického DOM v zobrazovacím stroji HTML". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2014. http://www.nusl.cz/ntk/nusl-236139.

Texto completo
Resumen
The aim of this work is to create an extension for rendering engine CSSBox. This extension will implement Document Object Model interface for the Client-Side JavaScript. The first part of this thesis describes the CSSBox project, the current state of JavaScript engines, Document Object Model used in web browsers and the final design based on Adapter and Abstract Factory patterns. The rest of the text describes implementation issues with the W3C DOM specification and compares the speed of this extension with web browsers.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Šušlík, Martin. "Knihovna pro zpracování dokumentů RTF". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2010. http://www.nusl.cz/ntk/nusl-237231.

Texto completo
Resumen
The goal of this work is design and implementation of library for RTF processing. The library contains classes for conversion of  RTF files to XHTML files. Implementation of library is made in Java programming language and it is tested by using proposed set of tests. Application interface of the library is a subset of the DOM standard and allows to manipulate with final XHTML document.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

T, Kovács Gregor. "Prostředky pro implementaci rozložení webových stránek v JavaScriptu". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2008. http://www.nusl.cz/ntk/nusl-412528.

Texto completo
Resumen
The aim of this work is to design and implement applications for the creation of web page layout facilities using JavaScript. The work includes the descriptions of the available methods of object positioning using the CSS given possibilities, the CSS 2.1 standard, and the difficulties of object positioning using CSS. Further, it includes the analysis of how the object placement is solved in the Java programming language using grid based layout managers GridLayout and GridBagLayout. Based on the obtained knowledge, designs are created for the solving of object placement in the creation of web pages using the grid principle. The object placement is solved by defining new HTML attributes for position determination, and also by creating a graphical editor for object placement. All the solutions are implemented using JavaScript.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ali, Imtiaz. "Object Detection in Dynamic Background". Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO20008/document.

Texto completo
Resumen
La détection et la reconnaissance d’objets dans des vidéos numériques est l’un des principaux challenges dans de nombreuses applications de vidéo surveillance. Dans le cadre de cette thèse, nous nous sommes attaqué au problème difficile de la segmentation d’objets dans des vidéos dont le fond est en mouvement permanent. Il s’agit de situations qui se produisent par exemple lorsque l’on filme des cours d’eau, ou le ciel,ou encore une scène contenant de la fumée, de la pluie, etc. Il s’agit d’un sujet assez peu étudié dans la littérature car très souvent les scènes traitées sont plutôt statiques et seules quelques parties bougent, telles que les feuillages par exemple, ou les seuls mouvements sont des changements de luminosité. La principale difficulté dans le cadre des scènes dont le fond est en mouvement est de différencier le mouvement de l’objet du mouvement du fond qui peuvent parfois être très similaires. En effet, par exemple, un objet dans une rivière peut se déplacer à la même allure que l’eau. Les algorithmes de la littérature extrayant des champs de déplacement échouent alors et ceux basés sur des modélisations de fond génèrent de très nombreuses erreurs. C’est donc dans ce cadre compliqué que nous avons tenté d’apporter des solutions.La segmentation d’objets pouvant se baser sur différents critères : couleur, texture,forme, mouvement, nous avons proposé différentes méthodes prenant en compte un ou plusieurs de ces critères.Dans un premier temps, nous avons travaillé dans un contexte bien précis qui était celui de la détection des bois morts dans des rivières. Ce problème nous a été apporté par des géographes avec qui nous avons collaboré dans le cadre du projet DADEC (Détection Automatique de Débris pour l’Aide à l’Etude des Crues). Dans ce cadre, nous avons proposé deux méthodes l’une dite " naïve " basée sur la couleur des objets à détecter et sur leur mouvement et l’autre, basée sur une approche probabiliste mettant en oeuvre une modélisation de la couleur de l’objet et également basée sur leur déplacement. Nous avons proposé une méthode pour le comptage des bois morts en utilisant les résultats des segmentations.Dans un deuxième temps, supposant la connaissance a priori du mouvement des objets,dans un contexte quelconque, nous avons proposé un modèle de mouvement de l’objet et avons montré que la prise en compte de cet a priori de mouvement permettait d’améliorer nettement les résultats des segmentations obtenus par les principaux algorithmes de modélisation de fond que l’on trouve dans la littérature.Enfin, dans un troisième temps, en s’inspirant de méthodes utilisées pour caractériser des textures 2D, nous avons proposé un modèle de fond basé sur une approche fréquentielle.Plus précisément, le modèle prend en compte non seulement le voisinage spatial d’un pixel mais également le voisinage temporel de ce dernier. Nous avons appliqué la transformée de Fourier locale au voisinage spatiotemporel d’un pixel pour construire un modèle de fond.Nous avons appliqué nos méthodes sur plusieurs vidéos, notamment les vidéos du projet DADEC, les vidéos de la base DynTex, des vidéos synthétiques et des vidéos que nous avons faites
Moving object detection is one of the main challenges in many video monitoring applications.In this thesis, we address the difficult problem that consists in object segmentation when background moves permanently. Such situations occur when the background contains water flow, smoke or flames, snowfall, rainfall etc. Object detection in moving background was not studied much in the literature so far. Video backgrounds studied in the literature are often composed of static scenes or only contain a small portion of moving regions (for example, fluttering leaves or brightness changes). The main difficulty when we study such situations is to differentiate the objects movements and the background movements that may be almost similar. For example, an object in river moves at the same speed as water. Therefore, motion-based techniques of the literature, relying on displacements vectors in the scene, may fail to discriminate objects from the background, thus generating a lot of false detections. In this complex context, we propose some solutions for object detection.Object segmentation can be based on different criteria including color, texture, shape and motion. We propose various methods taking into account one or more of these criteria.We first work on the specific context of wood detection in rivers. It is a part of DADEC project (Détection Automatique de Débris pour l’Aide à l’Etude des Crues) in collaboration with geographers. We propose two approaches for wood detection: a naïve method and the probabilistic image model. The naïve approach is based on binary decisions based on object color and motion, whereas the probabilistic image model uses wood intensity distribution with pixel motion. Such detection methods are used fortracking and counting pieces of wood in rivers.Secondly, we consider a context in which we suppose a priori knowledge about objectmotion is available. Hence, we propose to model and incorporate this knowledge into the detection process. We show that combining this prior motion knowledge with classical background model improves object detection rate.Finally, drawing our inspiration from methods used for 2D texture representation, we propose to model moving backgrounds using a frequency-based approach. More precisely, the model takes into account the spatial neighborhoods of pixels but also their temporal neighborhoods. We apply local Fourier transform on the obtained regions in order to extract spatiotemporal color patterns.We apply our methods on multiple videos, including river videos under DADEC project, image sequences from the DynTex video database, several synthetic videos andsome of our own made videos. We compare our object detection results with the existing methods for real and synthetic videos quantitatively as well as qualitatively
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Selim, Hossam Abdelatif Mohamed. "A novel secure autonomous generalized document model using object oriented technique". Thesis, University of Kent, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.269141.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Eklund, Henrik. "OBJECT DETECTION: MODEL COMPARISON ON AUTOMATED DOCUMENT CONTENT INTERPRETATION - A performance evaluation of common object detection models". Thesis, Umeå universitet, Institutionen för datavetenskap, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-164767.

Texto completo
Resumen
Manually supervising a million documents yearly becomes an exhaustive task. A step towards automating this process is to interpret and classify the contents of a document. This thesis examines and evaluates different object detection models in the task to localize and classify multiple objects within a document to find the best model for the situation. The theory of artificial neural networks is explained, and the convolutional neural network and how it is used to perform object detection. Googles Tensorflow Object Detection API is implemented and models and backbones are configured for training and evaluation. Data is collected to construct the data set, and useful metrics to use in the evaluation pipeline are explained. The models are compared both category wise and summarized, using mean average precision (mAP) over several intersection over union (IoU) thresholds, inference time, memory usage, optimal localization recall precision (oLRP) error and using optimized thresholds based on localization, recall and precision. Finally we determine if some model is better suited for certain situations and tasks. When using optimal confidence thresholds different models performed best on different categories. The overall best detector for the task was considered R-FCN inceptionv2 based on its detection performance, speed and memory usage. A reflection of the results and evaluation methods are discussed and strategies for improvement mentioned as future work.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Manfredi, Guido. "Learning objects model and context for recognition and localisation". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30386/document.

Texto completo
Resumen
Cette thèse traite des problèmes de modélisation, reconnaissance, localisation et utilisation du contexte pour la manipulation d'objets par un robot. Le processus de modélisation se divise en quatre composantes : le système réel, les données capteurs, les propriétés à reproduire et le modèle. En spécifiant chacune des ces composantes, il est possible de définir un processus de modélisation adapté au problème présent, la manipulation d'objets par un robot. Cette analyse mène à l'adoption des descripteurs de texture locaux pour la modélisation. La modélisation basée sur des descripteurs de texture locaux a été abordé dans de nombreux travaux traitant de structure par le mouvement (SfM) ou de cartographie et localisation simultanée (SLAM). Les méthodes existantes incluent Bundler, Roboearth et 123DCatch. Pourtant, aucune de ces méthodes n'a recueilli le consensus. En effet, l'implémentation d'une approche similaire montre que ces outils sont difficiles d'utilisation même pour des utilisateurs experts et qu'ils produisent des modèles d'une haute complexité. Cette complexité est utile pour fournir un modèle robuste aux variations de point de vue. Il existe deux façons pour un modèle d'être robuste : avec le paradigme des vues multiple ou celui des descripteurs forts. Dans le paradigme des vues multiples, le modèle est construit à partir d'un grand nombre de points de vue de l'objet. Le paradigme des descripteurs forts compte sur des descripteurs résistants aux changements de points de vue. Les expériences réalisées montrent que des descripteurs forts permettent d'utiliser un faible nombre de vues, ce qui résulte en un modèle simple. Ces modèles simples n'incluent pas tout les point de vus existants mais les angles morts peuvent être compensés par le fait que le robot est mobile et peut adopter plusieurs points de vue. En se basant sur des modèles simples, il est possible de définir des méthodes de modélisation basées sur des images seules, qui peuvent être récupérées depuis Internet. A titre d'illustration, à partir d'un nom de produit, il est possible de récupérer des manières totalement automatiques des images depuis des magasins en ligne et de modéliser puis localiser les objets désirés. Même avec une modélisation plus simple, dans des cas réel ou de nombreux objets doivent être pris en compte, il se pose des problèmes de stockage et traitement d'une telle masse de données. Cela se décompose en un problème de complexité, il faut traiter de nombreux modèles rapidement, et un problème d'ambiguïté, des modèles peuvent se ressembler. L'impact de ces deux problèmes peut être réduit en utilisant l'information contextuelle. Le contexte est toute information non issue des l'objet lui même et qui aide a la reconnaissance. Ici deux types de contexte sont abordés : le lieu et les objets environnants. Certains objets se trouvent dans certains endroits particuliers. En connaissant ces liens lieu/objet, il est possible de réduire la liste des objets candidats pouvant apparaître dans un lieu donné. Par ailleurs l'apprentissage du lien lieu/objet peut être fait automatiquement par un robot en modélisant puis explorant un environnement. L'information appris peut alors être fusionnée avec l'information visuelle courante pour améliorer la reconnaissance. Dans les cas des objets environnants, un objet peut souvent apparaître au cotés d'autres objets, par exemple une souris et un clavier. En connaissant la fréquence d'apparition d'un objet avec d'autres objets, il est possible de réduire la liste des candidats lors de la reconnaissance. L'utilisation d'un Réseau de Markov Logique est particulièrement adaptée à la fusion de ce type de données. Cette thèse montre la synergie de la robotique et du contexte pour la modélisation, reconnaissance et localisation d'objets
This Thesis addresses the modeling, recognition, localization and use of context for objects manipulation by a robot. We start by presenting the modeling process and its components: the real system, the sensors' data, the properties to reproduce and the model. We show how, by specifying each of them, one can define a modeling process adapted to the problem at hand, namely object manipulation by a robot. This analysis leads us to the adoption of local textured descriptors for object modeling. Modeling with local textured descriptors is not a new concept, it is the subject of many Structure from Motion (SfM) or Simultaneous Localization and Mapping (SLAM) works. Existing methods include bundler, roboearth modeler and 123DCatch. Still, no method has gained widespread adoption. By implementing a similar approach, we show that they are hard to use even for expert users and produce highly complex models. Such complex techniques are necessary to guaranty the robustness of the model to view point change. There are two ways to handle the problem: the multiple views paradigm and the robust features paradigm. The multiple views paradigm advocate in favor of using a large number of views of the object. The robust feature paradigm relies on robust features able to resist large view point changes. We present a set of experiments to provide an insight into the right balance between both. By varying the number of views and using different features we show that small and fast models can provide robustness to view point changes up to bounded blind spots which can be handled by robotic means. We propose four different methods to build simple models from images only, with as little a priori information as possible. The first one applies to planar or piecewise planar objects and relies on homographies for localization. The second approach is applicable to objects with simple geometry, such as cylinders or spheres, but requires many measures on the object. The third method requires the use of a calibrated 3D sensor but no additional information. The fourth technique doesn't need a priori information at all. We apply this last method to autonomous grocery objects modeling. From images automatically retrieved from a grocery store website, we build a model which allows recognition and localization for tracking. Even using light models, real situations ask for numerous object models to be stored and processed. This poses the problems of complexity, processing multiple models quickly, and ambiguity, distinguishing similar objects. We propose to solve both problems by using contextual information. Contextual information is any information helping the recognition which is not directly provided by sensors. We focus on two contextual cues: the place and the surrounding objects. Some objects are mainly found in some particular places. By knowing the current place, one can restrict the number of possible identities for a given object. We propose a method to autonomously explore a previously labeled environment and establish a correspondence between objects and places. Then this information can be used in a cascade combining simple visual descriptors and context. This experiment shows that, for some objects, recognition can be achieved with as few as two simple features and the location as context. The objects surrounding a given object can also be used as context. Objects like a keyboard, a mouse and a monitor are often close together. We use qualitative spatial descriptors to describe the position of objects with respect to their neighbors. Using a Markov Logic Network, we learn patterns in objects disposition. This information can then be used to recognize an object when surrounding objects are already identified. This Thesis stresses the good match between robotics, context and objects recognition
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Tuong, Frédéric. "Constructing Semantically Sound Object-Logics for UML/OCL Based Domain-Specific Languages". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS085/document.

Texto completo
Resumen
Les langages de spécifications basés et orientés objets (comme UML/OCL, JML, Spec#, ou Eiffel) permettent la création et destruction, la conversion et tests de types dynamiques d'objets statiquement typés. Par dessus, les invariants de classes et les opérations de contrat peuvent y être exprimés; ces derniers représentent les éléments clés des spécifications orientées objets. Une sémantique formelle des structures de données orientées objets est complexe : des descriptions imprécises mènent souvent à différentes interprétations dans les outils qui en résultent. Dans cette thèse, nous démontrons comment dériver un environnement de preuves moderne comme un méta-outil pour la définition et l'analyse de sémantique formelle de langages de spécifications orientés objets. Étant donné une représentation d'un langage particulier plongé en Isabelle/HOL, nous construisons pour ce langage un environnement étendu d'Isabelle, à travers une méthode de génération de code particulière, qui implique notamment plusieurs variantes de génération de code. Le résultat supporte l'édition asynchrone, la vérification de types, et les activités de déduction formelle, tous "hérités" d'Isabelle. En application de cette méthode, nous obtenons un outil de modélisation orienté objet pour du UML/OCL textuel. Nous intégrons également des idiomes non nécessairement présent dans UML/OCL --- en d'autres termes, nous développons un support pour des dialectes d'UML/OCL à domaine spécifique. En tant que construction méta, nous définissons un méta-modèle d'une partie d'UML/OCL en HOL, un méta-modèle d'une partie de l'API d'Isabelle en HOL, et une fonction de traduction entre eux en HOL. Le méta-outil va alors exploiter deux procédés de générations de code pour produire soit du code raisonnablement efficace, soit du code raisonnablement lisible. Cela fournit donc deux modes d'animations pour inspecter plus en détail la sémantique d'un langage venant d'être plongé : en chargeant à vitesse réelle sa sémantique, ou simplement en retardant à un autre niveau "méta" l'expérimentation précédente pour un futur instant de typage en Isabelle, que ce soit pour des raisons de performances, de tests ou de prototypages. Remarquons que la génération de "code raisonnablement efficace", et de "code raisonnablement lisible" incluent la génération de code tactiques qui prouvent une collection de théorèmes formant une théorie de types de données orientés objets d'un modèle dénotationnel : étant donné un modèle de classe UML/OCL, les preuves des propriétés pertinentes aux conversions, tests de types, constructeurs et sélecteurs sont traitées automatiquement. Cette fonctionnalité est similaire aux paquets de théories de types de données présents au sein d'autres prouveurs de la famille HOL, à l'exception que certaines motivations ont conduit ce travail présent à programmer des tactiques haut-niveaux en HOL lui-même. Ce travail prend en compte les plus récentes avancées du standard d'UML/OCL 2.5. Par conséquent, tous les types UML/OCL ainsi que les types logiques distinguent deux éléments d'exception différents : invalid (exception) et null (élément non-existant). Cela entraîne des conséquences sur les propriétés aussi bien logiques qu'algébriques des structures orientées objets résultant des modèles de classes. Étant donné que notre construction est réduite à une séquence d'extension conservative de théorie, notre approche peut garantir la correction logique du langage entier considéré, et fournit une méthodologie pour étendre formellement des langages à domaine spécifique
Object-based and object-oriented specification languages (likeUML/OCL, JML, Spec#, or Eiffel) allow for the creation and destruction, casting and test for dynamic types of statically typed objects. On this basis, class invariants and operation contracts can be expressed; the latter represent the key elements of object-oriented specifications. A formal semantics of object-oriented data structures is complex: imprecise descriptions can often imply different interpretations in resulting tools. In this thesis we demonstrate how to turn a modern proof environment into a meta-tool for definition and analysis of formal semantics of object-oriented specification languages. Given a representation of a particular language embedded in Isabelle/HOL, we build for this language an extended Isabelle environment by using a particular method of code generation, which actually involves several variants of code generation. The result supports the asynchronous editing, type-checking, and formal deduction activities, all "inherited" from Isabelle. Following this method, we obtain an object-oriented modelling tool for textual UML/OCL. We also integrate certain idioms not necessarily present in UML/OCL --- in other words, we develop support for domain-specific dialects of UML/OCL. As a meta construction, we define a meta-model of a part of UML/OCL in HOL, a meta-model of a part of the Isabelle API in HOL, and a translation function between both in HOL. The meta-tool will then exploit two kinds of code generation to produce either fairly efficient code, or fairly readable code. Thus, this provides two animation modes to inspect in more detail the semantics of a language being embedded: by loading at a native speed its semantics, or just delay at another "meta"-level the previous experimentation for another type-checking time in Isabelle, be it for performance, testing or prototyping reasons. Note that generating "fairly efficient code", and "fairly readable code" include the generation of tactic code that proves a collection of theorems forming an object-oriented datatype theory from a denotational model: given a UML/OCL class model, the proof of the relevant properties for casts, type-tests, constructors and selectors are automatically processed. This functionality is similar to the datatype theory packages in other provers of the HOL family, except that some motivations have conducted the present work to program high-level tactics in HOL itself. This work takes into account the most recent developments of the UML/OCL 2.5 standard. Therefore, all UML/OCL types including the logic types distinguish two different exception elements: invalid (exception) and null (non-existing element). This has far-reaching consequences on both the logical and algebraic properties of object-oriented data structures resulting from class models. Since our construction is reduced to a sequence of conservative theory extensions, the approach can guarantee logical soundness for the entire considered language, and provides a methodology to soundly extend domain-specific languages
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Almuhisen, Feda. "Leveraging formal concept analysis and pattern mining for moving object trajectory analysis". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0738/document.

Texto completo
Resumen
Cette thèse présente un cadre de travail d'analyse de trajectoires contenant une phase de prétraitement et un processus d’extraction de trajectoires d’objets mobiles. Le cadre offre des fonctions visuelles reflétant le comportement d'évolution des motifs de trajectoires. L'originalité de l’approche est d’allier extraction de motifs fréquents, extraction de motifs émergents et analyse formelle de concepts pour analyser les trajectoires. A partir des données de trajectoires, les méthodes proposées détectent et caractérisent les comportements d'évolution des motifs. Trois contributions sont proposées : Une méthode d'analyse des trajectoires, basée sur les concepts formels fréquents, est utilisée pour détecter les différents comportements d’évolution de trajectoires dans le temps. Ces comportements sont “latents”, "emerging", "decreasing", "lost" et "jumping". Ils caractérisent la dynamique de la mobilité par rapport à l'espace urbain et le temps. Les comportements détectés sont visualisés sur des cartes générées automatiquement à différents niveaux spatio-temporels pour affiner l'analyse de la mobilité dans une zone donnée de la ville. Une deuxième méthode basée sur l'extraction de concepts formels séquentiels fréquents a également été proposée pour exploiter la direction des mouvements dans la détection de l'évolution. Enfin, une méthode de prédiction basée sur les chaînes de Markov est présentée pour prévoir le comportement d’évolution dans la future période pour une région. Ces trois méthodes sont évaluées sur ensembles de données réelles . Les résultats expérimentaux obtenus sur ces données valident la pertinence de la proposition et l'utilité des cartes produites
This dissertation presents a trajectory analysis framework, which includes both a preprocessing phase and trajectory mining process. Furthermore, the framework offers visual functions that reflect trajectory patterns evolution behavior. The originality of the mining process is to leverage frequent emergent pattern mining and formal concept analysis for moving objects trajectories. These methods detect and characterize pattern evolution behaviors bound to time in trajectory data. Three contributions are proposed: (1) a method for analyzing trajectories based on frequent formal concepts is used to detect different trajectory patterns evolution over time. These behaviors are "latent", "emerging", "decreasing", "lost" and "jumping". They characterize the dynamics of mobility related to urban spaces and time. The detected behaviors are automatically visualized on generated maps with different spatio-temporal levels to refine the analysis of mobility in a given area of the city, (2) a second trajectory analysis framework that is based on sequential concept lattice extraction is also proposed to exploit the movement direction in the evolution detection process, and (3) prediction method based on Markov chain is presented to predict the evolution behavior in the future period for a region. These three methods are evaluated on two real-world datasets. The obtained experimental results from these data show the relevance of the proposal and the utility of the generated maps
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Saillenfest, Melaine. "Théories séculaires et dynamique orbitale au-delà de Neptune". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEO006/document.

Texto completo
Resumen
La structure dynamique de la région transneptunienne est encore loin d'être entièrement comprise, surtout concernant les objets ayant un périhélie très éloigné. Dans cette région, les perturbations orbitales sont très faibles, autant de l'intérieur (les planètes) que de l'extérieur (les étoiles de passage et les marées galactiques). Pourtant, de nombreux objets ont des orbites très excentriques, ce qui indique qu'ils ne se sont pas formés tels qu'on les observe actuellement. De plus, certaines accumulations dans la distribution de leurs éléments orbitaux ont attiré l'attention de la communauté scientifique, conduisant à de nombreuses conjectures sur l'origine et l'évolution du Système Solaire externe.Avant d'envisager des théories plus "exotiques", une analyse exhaustive doit être menée sur les différents mécanismes qui peuvent reproduire les trajectoires observées à partir de ce qui est jugé "certain" dans la dynamique du Système Solaire, à savoir les perturbations par les planètes connues et par les marées galactiques. Cependant, nous ne pouvons pas nous fier uniquement aux simulations numériques pour explorer efficacement l'espace des comportements possibles. Dans ce contexte, notre objectif est de dégager une vision globale de la dynamique entre Neptune et le nuage de Oort, y compris les orbites les plus extrêmes (même si elles sont improbables ?).Les orbites entièrement extérieures à la région planétaire peuvent être divisées en deux classes générales : d'un côté, les objets soumis à une diffusion du demi grand-axe (ce qui empêche toute variation importante du périhélie) ; de l'autre côté les objets qui présentent une dynamique intégrable à court terme (ou quasi-intégrable). La dynamique de ces derniers peut être décrite par des modèles séculaires. Il existe deux sortes d'orbites régulières : les orbites non résonnantes (demi grand-axe fixe) et celles piégées dans une résonance de moyen mouvement avec une planète (demi grand-axe oscillant).La majeur partie de ce travail de thèse se concentre sur le développement de modèles séculaires pour les objets transneptuniens, dans les cas non résonnant et résonnant. Des systèmes à un degré de liberté peuvent être obtenus, ce qui permet de représenter chaque trajectoire par une courbe de niveau du hamiltonien. Ce type de formalisme est très efficace pour explorer l'espace des paramètres. Il révèle des trajectoires menant à des périhélies éloignés, de même que des "mécanismes de captures", capables de maintenir les objets sur des orbites très distantes pendant des milliards d'années. L'application du modèle séculaire résonnant aux objets connus est également très instructive, car elle montre graphiquement quelles orbites observées nécessitent un scénario complexe (comme la migration planétaire ou un perturbateur extérieur), et lesquelles peuvent être expliquées par l'influence des planètes connues. Dans ce dernier cas, l'histoire dynamique des petits corps peut être retracée depuis leur capture en résonance.La dernière partie de ce travail est consacrée à l'extension du modèle séculaire non résonnant au cas d'un perturbateur extérieur massif. S'il est doté d'une excentricité et/ou d'une inclinaison non négligeable, cela introduit un, voire deux degrés de liberté supplémentaires dans le système, d'où une dynamique en général non intégrable. Dans ce cas, l'analyse peut être réalisée à l'aide de sections de Poincaré, qui permettent de distinguer les régions chaotiques et régulières de l'espace des phases. Pour des demi grands-axes croissants, le chaos se propage très rapidement. Les structures les plus persistantes sont des résonances séculaires produisant des trajectoires alignées ou anti-alignées avec la planète distante
The dynamical structure of the transneptunian region is still far from being fully understood, especially concerning high-perihelion objects. In that region, the orbital perturbations are very weak, both from inside (the planets) and from outside (passing stars and galactic tides). However, numerous objects have very eccentric orbits, which indicates that they did not form in their current orbital state. Furthermore, some intriguing clusters in the distribution of their orbital elements have attracted attention of the scientific community, leading to numerous conjectures about the origin and evolution of the external Solar System.Before thinking of "exotic" theories, an exhaustive survey has to be conducted on the different mechanisms that could produce the observed trajectories involving only what we take for granted about the Solar System dynamics, that is the orbital perturbations by the known planets and/or by galactic tides. However, we cannot rely only on numerical integrations to efficiently explore the space of possible behaviours. In that context, we aim at developing a general picture of the dynamics between Neptune and the Oort Cloud, including the most extreme (even if improbable?) orbits.The orbits entirely exterior to the planetary region can be divided into two broad classes: on the one hand, the objects undergoing a diffusion of semi-major axis (which prevents from large variation of the perihelion distance); on the other hand, the objects which present an integrable (or quasi-integrable) dynamics on a short time-scale. The dynamics of the latter can be described by secular models. There are two kinds of regular orbits: the non-resonant ones (fixed semi-major axis) and those trapped in a mean-motion resonance with a planet (oscillating semi-major axis).The major part of this Ph.D. work is focussed on the development of secular models for transneptunian objects, both in the non-resonant and resonant cases. One-degree-of-freedom systems can be obtained, which allows to represent any trajectory by a level curve of the Hamiltonian. Such a formalism is pretty efficient to explore the parameter space. It reveals pathways to high perihelion distances, as well as "trapping mechanisms", able to maintain the objects on very distant orbits for billion years. The application of the resonant secular model to the known objects is also very informative, since it shows graphically which observed orbits require a complex scenario (as the planetary migration or an external perturber), and which ones can be explained by the influence of the known planets. In this last case, the dynamical history of the small bodies can be tracked back to the resonance capture.The last part of this work is devoted to the extension of the non-resonant secular model to the case of an external massive perturber. If it has a substantial eccentricity and/or inclination, it introduces one or two more degrees of freedom in the system, so the secular dynamics is non integrable in general. In that case, the analysis can be realised by Poincaré sections, which allow to distinguish the chaotic regions of the phase space from the regular ones. For increasing semi-major axes, the chaos spreads very fast. The most persistent structures are secular resonances producing trajectories aligned or anti-aligned with the orbit of the distant planet
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Li, Zongcheng. "Conceptual design of shapes by reusing existing heterogeneous shape data through a multi-layered shape description model and for VR applications". Thesis, Paris, ENSAM, 2015. http://www.theses.fr/2015ENAM0025/document.

Texto completo
Resumen
Les récentes avancées en matière de systèmes d'acquisition et de modélisation ont permis la mise à disposition d'une très grande quantité de données numériques (e.g. images, vidéos, modèles 3D) dans différents domaines d'application. En particulier, la création d'Environnements Virtuels (EVs) nécessite l'exploitation de données nu-mériques pour permettre des simulations et des effets proches de la réalité. Malgré ces avancées, la conception d'EVs dédiés à certaines applications requiert encore de nombreuses et parfois laborieuses étapes de modélisation et de traitement qui impliquent plusieurs experts (e.g. experts du domaine de l'application, experts en modélisation 3D et programmeur d'environnements virtuels, designers et experts communication/marketing). En fonction de l'application visée, le nombre et le profil des experts impliqués peuvent varier. Les limitations et difficultés d'au-jourd'hui sont principalement dues au fait qu'il n'existe aucune relation forte entre les experts du domaine qui ont des besoins, les experts du numérique ainsi que les outils et les modèles qui prennent part au processus de déve-loppement de l'EV. En fait, les outils existants focalisent sur des définitions souvent très détaillées des formes et ne sont pas capables de supporter les processus de créativité et d'innovation pourtant garants du succès d'un pro-duit ou d'une application. De plus, la grande quantité de données numériques aujourd'hui accessible n'est pas réellement exploitée. Clairement, les idées innovantes viennent souvent de la combinaison d'éléments et les don-nées numériques disponibles pourraient être mieux utilisées. Aussi, l'existence de nouveaux outils permettant la réutilisation et la combinaison de ces données serait d'une grande aide lors de la phase de conception conceptuelle de formes et d'EVs. Pour répondre à ces besoins, cette thèse propose une nouvelle approche et un nouvel outil pour la conception conceptuelle d'EVs exploitant au maximum des ressources existantes, en les intégrant et en les combinant tout en conservant leurs propriétés sémantiques. C'est ainsi que le Modèle de Description Générique de Formes (MDGF) est introduit. Ce modèle permet la combinaison de données multimodales (e.g. images et maillages 3D) selon trois niveaux : Conceptuel, Intermédiaire et Données. Le niveau Conceptuel exprime quelles sont les différentes parties de la forme ainsi que la façon dont elles sont combinées. Chaque partie est définie par un Elément qui peut être soit un Composant soit un Groupe de Composants lorsque ceux-ci possèdent des carac-téristiques communes (e.g. comportement, sens). Les Eléments sont liés par des Relations définies au niveau Con-ceptuel là où les experts du domaine interagissent. Chaque Composant est ensuite décrit au niveau Données par sa Géométrie, sa Structure et ses informations Sémantiques potentiellement attachées. Dans l'approche proposée, un Composant est une partie d'image ou une partie d'un maillage triangulaire 3D. Quatre Relations sont proposées (fusion, assemblage, shaping et localisation) et décomposées en un ensemble de Contraintes qui contrôlent la po-sition relative, l'orientation et le facteur d'échelle des Composants au sein de la scène graphique. Les Contraintes sont stockées au niveau Intermédiaire et agissent sur des Entités Clés (e.g. points, des lignes) attachées à la Géo-métrie ou à la Structure des Composants. Toutes ces contraintes sont résolues en minimisant une fonction énergie basée sur des grandeurs physiques. Les concepts du MDGF ont été implémentés et intégrés au sein d'un outil de design conceptuel développé par l'auteur. Différents exemples illustrent le potentiel de l'approche appliquée à différents domaines d'application
Due to the great advances in acquisition devices and modeling tools, a huge amount of digital data (e.g. images, videos, 3D models) is becoming now available in various application domains. In particular, virtual envi-ronments make use of those digital data allowing more attractive and more effectual communication and simula-tion of real or not (yet) existing environments and objects. Despite those innovations, the design of application-oriented virtual environment still results from a long and tedious iterative modeling and modification process that involves several actors (e.g. experts of the domain, 3D modelers and VR programmers, designers or communica-tions/marketing experts). Depending of the targeted application, the number and the profiles of the involved actors may change. Today's limitations and difficulties are mainly due to the fact there exists no strong relationships between the expert of the domain with creative ideas, the digitally skilled actors, the tools and the shape models taking part to the virtual environment development process. Actually, existing tools mainly focus on the detailed geometric definition of the shapes and are not suitable to effectively support creativity and innovation, which are considered as key elements for successful products and applications. In addition, the huge amount of available digital data is not fully exploited. Clearly, those data could be used as a source of inspiration for new solutions, being innovative ideas frequently coming from the (unforeseen) combination of existing elements. Therefore, the availability of software tools allowing the re-use and combination of such digital data would be an effective support for the conceptual design phase of both single shapes and VR environments. To answer those needs, this thesis proposes a new approach and system for the conceptual design of VRs and associated digital assets by taking existing shape resources, integrating and combining them together while keeping their semantic meanings. To support this, a Generic Shape Description Model (GSDM) is introduced. This model allows the combination of multimodal data (e.g. images and 3D meshes) according to three levels: conceptual, intermediate and data levels. The conceptual level expresses what the different parts of a shape are, and how they are combined together. Each part of a shape is defined by an Element that can either be a Component or a Group of Components when they share common characteristics (e.g. behavior, meaning). Elements are linked with Relations defined at the Concep-tual level where the experts in the domain are acting and exchanging. Each Component is then further described at the data level with its associated Geometry, Structure and potentially attached Semantics. In the proposed ap-proach, a Component is a part of an image or a part of a 3D mesh. Four types of Relation are proposed (merging, assembly, shaping and location) and decomposed in a set of Constraints which control the relative position, orien-tation and scaling of the Components within the 3D viewer. Constraints are stored at the intermediate level and are acting on Key Entities (such as points, a lines, etc.) laying on the Geometry or Structure of the Components. All these constraints are finally solved while minimizing an additional physically-based energy function. At the end, most of the concepts of GSDM have been implemented and integrated into a user-oriented conceptual design tool totally developed by the author. Different examples have been created using this tool demonstrating the potential of the approach proposed in this document
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Harmon, Trev R. "On-Line Electronic Document Collaboration and Annotation". Diss., CLICK HERE for online access, 2006. http://contentdm.lib.byu.edu/ETD/image/etd1589.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Kjellström, Johan y Anton Drugge. "Kan val av JavaScript-ramverk påverkaanvändarupplevelsen? : En jämförelse mellan Vue och Svelte". Thesis, Luleå tekniska universitet, Institutionen för system- och rymdteknik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-86085.

Texto completo
Resumen
Under de senaste decennierna har webben utvecklats allt mer, och är idag en stor del av människors vardag. Det finns idag över 1,8 miljarder webbplatser i bruk, och över 97% av dessaanvänder sig av JavaScript som programmeringsspråk för klientsidan. Människans koncentrationsförmåga har också minskat genom åren, och det ställs idag allt högre krav på snabba responstider på webben. Användarupplevelsen är också väldigt viktig för att en webbplats ska lyckas med sitt ändamål. Vi har i vår studie valt att undersöka och jämföra prestandan i JavaScript-ramverken Svelte och Vue, där vi ville studera eventuella prestandaskillnader med särskild fokus på responstider. Vi ville även undersöka om eventuella prestandaskillnader kunde upplevas av användarna vid olika typer av manipulationer av DOMen, såsom exempelvis tillägg och borttagning av HTML-elementet <div> i både större och mindre skala, och således påverka användarupplevelsen. Vi utvecklade två stycken single-page-applikationer som använder sig utav JavaScript, där den ena använder sig av Vue och den andra utav Svelte som frontend-ramverk, för att sedan utföra prestandatester på bägge webbplatserna. Därefter lät vi en grupp användare testa webbplatserna för att sedan svara på en enkät, där enkätfrågorna fokuserade på hur de upplevde prestandan ochom de kunde märka någon skillnad mellan applikationerna. Datainsamlingen för att kunna besvara de andra parametrarna för ramverken som denna studieämnade att undersöka, som går under användbarhet, skedde genom att skicka ut en enkät där vi lät både professionella frontend-utvecklare samt utvecklare på hobbynivå med erfarenhet av både Svelte och Vue besvara ett antal frågor om användbarhet. Slutsatsen av studien mynnar ut i att prestandaskillnader mellan ramverken i våra single-page-applikationer existerar, och kan i vissa fall också märkas av användarna. Om utvecklarna själva får bestämma vilket ramverk de föredrar väljer de professionella utvecklarna att arbeta med Vue och hobbyutvecklarna Svelte. För den officiella dokumentationen tenderade båda respondentgrupperna att föredra Vue över Svelte.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Ouarrak, Bouazza. "Les misconceptions dans la microgenèse de l’objet technique". Thesis, Paris, CNAM, 2011. http://www.theses.fr/2011CNAM0756/document.

Texto completo
Resumen
Cette thèse explore les ressources cognitives que mobilisent des élèves ingénieurs dans un APP (Apprentissage par problème) dans une tâche de conception d’un objet technique. La situation-problème à laquelle ces élèves sont confrontés est constituée par un système technique inédit de réfrigération sans apport extérieur d’énergie. Dans cet apprentissage, les élèves doivent concevoir l’objet technique et apprendre des concepts en thermodynamique. Deux groupes d’élèves sont comparés : le premier dispose d’un modèle analogique d’une situation connue pour aborder la situation nouvelle, le second ne dispose que du texte. Les questions de recherches : Que construisent ces élèves comme connaissances ?Qu’apportent ces deux types d’apprentissage (l’apprentissage par une situation connue et l’apprentissage par le texte) ? Quels sont les obstacles que rencontrent ces élèves ? Les hypothèses : un apprentissage par une situation connue conduit à la construction de connaissances opératives (des concepts outils). Un apprentissage par le texte conduit à la construction de connaissances décontextualisées (des concepts objets). Un apprentissage par les situations dans un dispositif didactique conduit ultérieurement à la construction de concepts catégoriels. Ces deux types d’apprentissage impliquent l’obstacle épistémologique dans la construction des concepts dans leurs deux fonctions : outil et objet
This thesis investigates the cognitive resources that pupils engineers in a PBL (Problem based Learning) in a task of conception of a technical object mobilize. The situation-problem with which these pupils are confronted is constituted by an unpublished technical system of refrigeration without outside contribution of energy. In this learning, the pupils have to conceive the technical object and learn concepts in thermodynamics. Two groups of pupils are compared: the first one has an analogical model of a situation known to approach the new situation; the second has only the text. The questions of researches: what build these pupils as knowledge? What bring these two types of learning (the learning by a known situation and the learning by the text)? What are the obstacles which meet these pupils? The hypotheses: a learning by a known situation leads to the construction of operational knowledge (concepts tools). A learning by the text leads to the construction of knowledge out of context (concepts objects). A learning by the situations in a didactic device leads later to the construction of category-specific concepts. These two types of learning involve the epistemological obstacle in the construction of the concepts in them two functions: tool and object
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

von, Wenckstern Michael. "Web applications using the Google Web Toolkit". Master's thesis, Technische Universitaet Bergakademie Freiberg Universitaetsbibliothek "Georgius Agricola", 2013. http://nbn-resolving.de/urn:nbn:de:bsz:105-qucosa-115009.

Texto completo
Resumen
This diploma thesis describes how to create or convert traditional Java programs to desktop-like rich internet applications with the Google Web Toolkit. The Google Web Toolkit is an open source development environment, which translates Java code to browser and device independent HTML and JavaScript. Most of the GWT framework parts, including the Java to JavaScript compiler as well as important security issues of websites will be introduced. The famous Agricola board game will be implemented in the Model-View-Presenter pattern to show that complex user interfaces can be created with the Google Web Toolkit. The Google Web Toolkit framework will be compared with the JavaServer Faces one to find out which toolkit is the right one for the next web project
Diese Diplomarbeit beschreibt die Erzeugung desktopähnlicher Anwendungen mit dem Google Web Toolkit und die Umwandlung klassischer Java-Programme in diese. Das Google Web Toolkit ist eine Open-Source-Entwicklungsumgebung, die Java-Code in browserunabhängiges als auch in geräteübergreifendes HTML und JavaScript übersetzt. Vorgestellt wird der Großteil des GWT Frameworks inklusive des Java zu JavaScript-Compilers sowie wichtige Sicherheitsaspekte von Internetseiten. Um zu zeigen, dass auch komplizierte graphische Oberflächen mit dem Google Web Toolkit erzeugt werden können, wird das bekannte Brettspiel Agricola mittels Model-View-Presenter Designmuster implementiert. Zur Ermittlung der richtigen Technologie für das nächste Webprojekt findet ein Vergleich zwischen dem Google Web Toolkit und JavaServer Faces statt
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Popela, Tomáš. "Implementace algoritmu pro vizuální segmentaci www stránek". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2012. http://www.nusl.cz/ntk/nusl-236592.

Texto completo
Resumen
Segmentation of WWW pages or page division on di erent semantics blocks is one of the disciplines of information extraction. Master's thesis deals with Vision-based Page Segmentation - VIPS method, which consist in division based on visual properties of page's elements. The method is given in context of other prominent segmentation procedures. In this work, the key steps, that this method consist of are shown and described on examples. For VIPS method it is necessary to cooperate with WWW pages rendering engine in order to obtain Document Object Model of page. The paper presents and describes four most important engines for Java programming language. The output of this work is implementation of VIPS algorithm just in Java language with usage of CSSBox core. The original algorithm implementation from Microsoft's labs is presented. The di erent development stages of library implementing VIPS method and my approach to it's solution are described. In the end of this work the work's outcome is demonstrated on several pages segmentation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Laščák, Tomáš. "Algoritmy pro segmentaci webových stránek". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2016. http://www.nusl.cz/ntk/nusl-255360.

Texto completo
Resumen
Segmentation of web pages is one of the disciplines of information extraction. It allows to divide the page into different semantic blocks. This thesis deals with the segmentation as such and also with the implementation of the segmentation method. In this paper, we describe various examples of methods such as VIPS, DOM PS etc. There is a theoretical description of the chosen method and also the FITLayout Framework, which will be extended by this method. The implementation of the chosen method is also described in detail. The implementation description is focused on describing the different problems we had to solve. We also describe the testing that helped to reveal some weaknesses. The conclusion is a summary of the results and possible ideas for extending this work.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Randrianarivo, Hicham. "Apprentissage statistique de classes sémantiques pour l'interprétation d'images aériennes". Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1117/document.

Texto completo
Resumen
Ce travail concerne l'interprétation du contenu des images aériennes optiques panchromatiques très haute résolution. Deux méthodes pour la classification du contenu de ces images ont été développées. Une méthode basée sur la détection des instances des différentes catégories d'objets et une autre méthode basée sur la segmentation sémantique des superpixels de l'image utilisant un modèle de contexte entre les différentes instances des superpixels. La méthode de détection des objets dans une image très haute résolution est basée sur l'apprentissage d'un mélange de modèle d'apparence de la catégorie d'objets à détecter puis d'une fusion des hypothèses renvoyées par les différents modèles. Nous proposons une méthode de partitionnement en sous catégories visuelles basée sur une procédure en deux étapes des exemples d'apprentissages de la base en fonction des métadonnées disponibles et de l'apparence des exemples d'apprentissage. Cette phase de partitionnement permet d'apprendre des modèles d'apparence où chacun est spécialisés dans la reconnaissance d'une sous-partie de la base et dont la fusion permet la généralisation de la détection à l'ensemble des objets de la classe. Les performances du détecteur ainsi obtenu sont évaluées sur plusieurs bases d'images aériennes très haute résolution à des résolution différentes et en plusieurs endroits du monde. La méthode de segmentation sémantique contextuelle développée utilise une combinaison de la description visuelle d'un superpixel extrait d'une image et des informations de contexte extraient entre un superpixel et ses voisins. La représentation du contexte entre les superpixels est obtenu en utilisant une représentation par modèle graphique entre les superpixels voisins. Les noeuds du graphes étant la représentation visuelle d'un superpixel et les arêtes la représentation contextuelle entre deux voisins. Enfin nous présentons une méthode de prédiction de la catégorie d'un superpixel en fonction des décisions données par les voisins pour rendre les prédictions plus robustes. La méthode a été testé sur une base d'image aérienne très haute résolution
This work is about interpretation of the content of very high resolution aerial optical panchromatic images. Two methods are proposed for the classification of this kind of images. The first method aims at detecting the instances of a class of objects and the other method aims at segmenting superpixels extracted from the images using a contextual model of the relations between the superpixels. The object detection method in very high resolution images uses a mixture of appearance models of a class of objects then fuses the hypothesis returned by the models. We develop a method that clusters training samples into visual subcategories based on a two stages procedure using metadata and visual information. The clustering part allows to learn models that are specialised in recognizing a subset of the dataset and whose fusion lead to a generalization of the object detector. The performances of the method are evaluate on several dataset of very high resolution images at several resolutions and several places. The method proposed for contextual semantic segmentation use a combination of visual description of a superpixel extract from the image and contextual information gathered between a superpixel and its neighbors. The contextual representation is based on a graph where the nodes are the superpixels and the edges are the relations between two neighbors. Finally we predict the category of a superpixel using the predictions made by of the neighbors using the contextual model in order to make the prediction more reliable. We test our method on a dataset of very high resolution images
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Gastebois, Jérémy. "Contribution à la commande temps réel des robots marcheurs. Application aux stratégies d'évitement des chutes". Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2315/document.

Texto completo
Resumen
Les grands robots marcheurs sont des systèmes mécatroniques poly-articulés complexes qui cristallisent la volonté des humains de conférer leurs capacités à des artefacts, l’une d’entre elle étant la locomotion bipède, et plus particulièrement la conservation de l’équilibre face à des perturbations extérieures. Cette thèse propose un stabilisateur postural ainsi que sa mise en œuvre sur le système locomoteur BIP 2000.Ce robot anthropomorphique possède quinze degrés de libertés actionnés par moteurs électriques et a reçu un nouvel automate ainsi que des variateurs industriels lors de la mise à jour réalisée dans le cadre de ces travaux. Un contrôleur a été conçu et implémenté en suivant les principes de la programmation orientée objet afin de fournir une modularité qui s’inspire de la symétrie naturelle des humanoïdes. Cet aspect a conduit à l’élaboration d’un ensemble d’outils mathématiques permettant de calculer l’ensemble des modèles d’un robot composé de sous-robots dont on connaîtrait déjà les modèles. Le contrôleur permet notamment à la machine de suivre des trajectoires calculées hors ligne par des algorithmes de génération de marches dynamiques ainsi que de tester le stabilisateur postural.Ce dernier consiste en un contrôle en position du robot physique par la consigne d’un robot virtuel de modèle dégradé, commandé en effort, soumis à des champs électrostatiques contraignant sa configuration articulaire. Les tests effectués ont permis de montrer la faisabilité de la méthode
Big walking robots are complex multi-joints mechanical systems which crystallize the human will to confer their capabilities on artefacts, one of them being the bipedal locomotion and more especially the balance keeping against external disturbances. This thesis proposes a balance stabilizer under operating conditions displayed on the locomotor system BIP 2000.This anthropomorphic robot has got fifteen electrically actuated degree of freedom and an Industrial controller. A new software has been developed with an object-oriented programming approach in order to propose the modularity required by the emulated and natural human symmetry. This consideration leads to the development of a mathematical tool allowing the computation of every modelling of a serial robot which is the sum of multiple sub robots with already known modelling. The implemented software also enables the robot to run offline generated dynamic walking trajectories and to test the balance stabilizer.We explore in this thesis the feasibility of controlling the center of gravity of a multibody robotic system with electrostatic fields acting on its virtual counterpart in order to guarantee its balance. Experimental results confirm the potential of the proposed approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Kooli-Chaabane, Hanen. "Le transfert de technologie vu comme une dynamique des compétences technologiques : application à des projets d'innovation basés sur des substitutions technologiques par le brasage métallique". Thesis, Vandoeuvre-les-Nancy, INPL, 2010. http://www.theses.fr/2010INPL075N/document.

Texto completo
Resumen
Le transfert de technologie est un processus d’innovation loin de se résumer à une simple relation émetteur / récepteur de connaissances. Il est complexe et de ce fait, les facteurs déterminants de son succès sont encore mal connus, sa modélisation reste à étudier et des principes de pilotage sont à établir.Cette thèse propose une modélisation descriptive du processus de transfert de technologie afin de mieux comprendre la dynamique des projets de transfert de technologie et de dégager des bonnes pratiques permettant de mieux le piloter. Dans le champ théorique, nous avons analysé les modèles de transfert de technologie existant dans la littérature et avons proposé un méta-modèle du point de vue de l’ingénierie système. Nous avons ensuite cherché à mieux comprendre les phénomènes in situ.Pour ce faire, une méthodologie d’observation pour la collecte des données au niveau « micro » a été mise au point. Nous avons suivi cinq projets de transfert durant une période allant de trois mois à deux ans. Deux dimensions ont été privilégiées : la dimension immatérielle et matérielle. Le concept d’Objet Intermédiaire de Transfert (OIT) est introduit à partir de la notion d’Objet Intermédiaire de Conception. Les données obtenues ont été analysées selon deux approches :- une approche comparative descriptive, permettant d’identifier les invariants et les phénomènes divergents entre les cinq processus. - une approche multicritère basée sur la théorie des ensembles approximatifs. Cette dernière approche fournit des informations utiles pour la compréhension du processus par l’intermédiaire des règles de connaissances. Elle a validé l’importance des OIT dans la dynamique du projet final
Technology transfer is an innovation process far from to be defined as a simple transmitter / receiver relationship of knowledge. It is complex. Thus the determinants of its success are still poorly understood and its modeling remains to be studied to a better management and optimization of the process.This thesis proposes a descriptive modeling of the technology transfer process. The aim is to have better understanding of the dynamics of technology transfer projects, and developing best practices to improve its management.In the theoretical field, we analyzed the models of the literature and proposed a meta-model of technology transfer from the point of view of systems engineering. We then sought to better understand the phenomena in situ.In order to reach our aim, an observation methodology for data collection at the micro level has been developed. We followed five transfer projects for a period ranging from three months to two years. Two dimensions have been emphasized: the immaterial and the material dimension. The concept of Intermediate Transfer Object (ITO) is introduced from the concept of design intermediary object.The data obtained were analyzed using two approaches:- a comparative descriptive approach, identifying invariants and divergent phenomena between the five processes. This has allowed us to propose best practices for technology transfer project management in the context of brazing.- a multicriteria approach based on the rough sets theory. This approach provides useful information for understanding the process through the decision rules. It validated the importance of the technology transfer object in the dynamics and the success of a project
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Allam, Diana. "Loose coupling and substitution principle in objet-oriented frameworks for web services". Thesis, Nantes, Ecole des Mines, 2014. http://www.theses.fr/2014EMNA0115/document.

Texto completo
Resumen
Actuellement, l’implémentation des services (modèles SOAP et RESTful) et de leurs applications clientes est de plus en plus basée sur la programmation par objet. Ainsi, les cadriciels orientés-objets pour les services Web sont essentiellement composés de deux couches : une couche à objets qui enveloppe une couche à services. Dans ce contexte, deux principes sont nécessaires pour la spécification de ces cadriciels : (i) En premier lieu, un couplage faible entre les deux couches, ce qui permet de cacher la complexité des détails techniques de la couche à services dans la couche à objets et de faire évoluer la couche à services avec un impact minimal sur la couche à objets (ii) En second lieu, une interopérabilité induite par le principe de substitution associée au sous-typage dans la couche à objets. Dans cette thèse, nous présentons d’abord les faiblesses existantes dans les cadriciels orientés-objets liés à ces deux principes. Ensuite, nous proposons une nouvelle spécification pour ces cadriciels en vue de résoudre ces problèmes. Comme application, nous décrivons la mise en œuvre de notre spécification dans le cadriciel cxf, à la fois pour SOAP et RESTful
Today, the implementation of services (SOAP and RESTful models) and of client applications is increasingly based on object-oriented programming languages. Thus, object-oriented frameworks for Web services are essentially composed with two levels: an object level built over a service level. In this context, two properties could be particularly required in the specification of these frameworks: (i)First a loose coupling between the two levels, which allows the complex technical details of the service level to be hidden at the object level and the service level to be evolved with a minimal impact on the object level, (ii) Second, an interoperability induced by the substitution principle associated to subtyping in the object level, which allows to freely convert a value of a subtype into a supertype. In this thesis, first we present the existing weaknesses of object-oriented frameworks related to these two requirements. Then, we propose a new specification for object-oriented Web service frameworks in order to resolve these problems. As an application, we provide an implementation of our specification in the cxf framework, for both SOAP and RESTful models
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Richa, Elie. "Qualification des générateurs de code source dans le domaine de l'avionique : le test automatisé des chaines de transformation de modèles". Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0082/document.

Texto completo
Resumen
Dans l’industrie de l’avionique, les Générateurs Automatiques de Code (GAC) sont de plus en plus utilisés pour produire des parties du logiciel embarqué. Puisque le code généré fait partie d’un logiciel critique, les standards de sûreté exigent une vérification approfondie du GAC: la qualification. Dans cette thèse en collaboration avec AdaCore, nous cherchons à réduire le coût des activités de test par des méthodes automatiques et efficaces.La première partie de la thèse aborde le sujet du test unitaire qui assure une exhaustivité élevée mais qui est difficile à réaliser pour les GACs. Nous proposons alors une méthode qui garantit le même niveau d’exhaustivité en n’utilisant que des tests d’intégration de mise en œuvre plus facile. Nous proposons tout d’abord une formalisation du langage ATL de définition du GAC dans la théorie des Transformations Algébriques de Graphes. Nous définissons ensuite une traduction de postconditions exprimant l’exhaustivité du test unitaire en des préconditions équivalentes qui permettent à terme de produire des tests d’intégration assurant le même niveau d’exhaustivité. Enfin, nous proposons d’optimiser l’algorithme complexe de notre analyse à l’aide de stratégies de simplification dont nous mesurons expérimentalement l’efficacité.La seconde partie du travail concerne les oracles de tests du GAC, c’est à dire le moyen de valider le code généré par le GAC lors d’un test. Nous proposons un langage de spécification de contraintes textuelles capables d’attester automatiquement de la validité du code généré. Cette approche est déployée expérimentalement à AdaCore pour le projet QGen, un générateur de code Ada/C à partir de Simulink®
In the avionics industry, Automatic Code Generators (ACG) are increasingly used to produce parts of the embedded software. Since the generated code is part of critical software, safety standards require a thorough verification of the ACG called qualification. In this thesis in collaboration with AdaCore, we seek to reduce the cost of testing activities by automatic and effective methods.The first part of the thesis addresses the topic of unit testing which ensures exhaustiveness but is difficult to achieve for ACGs. We propose a method that guarantees the same level of exhaustiveness by using only integration tests which are easier to carry out. First, we propose a formalization of the ATL language in which the ACG is defined in the Algebraic Graph Transformation theory. We then define a translation of postconditions expressing the exhaustiveness of unit testing into equivalent preconditions that ultimately support the production of integration tests providing the same level of exhaustiveness. Finally, we propose to optimize the complex algorithm of our analysis using simplification strategies that we assess experimentally.The second part of the work addresses the oracles of ACG tests, i.e. the means of validating the code generated by the ACG during a test. We propose a language for the specification of textual constraints able to automatically check the validity of the generated code. This approach is experimentally deployed at AdaCore for a Simulink® to Ada/C ACG called QGen
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Hascoët, Nicolas. "Méthodes pour l'interprétation automatique d'images en milieu urbain". Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0004/document.

Texto completo
Resumen
Cette thèse présente une étude pour l'interprétation automatique d'images en milieu urbain. Nous proposons une application permettant de reconnaître différents monuments au sein d'images représentant des scènes complexes. La problématique principale est ici de différencier l'information locale extraite des points d'intérêt du bâtiment recherché parmi tous les points extraits de l'image. En effet, la particularité d'une image en milieu urbain vient de la nature publique de la scène. L'objet que l'on cherche à identifier est au milieu de divers autres objets pouvant interférer avec ce dernier. Nous présentons dans une première partie un état de l'art des méthodes de reconnaissance d’images en se concentrant sur l'utilisation de points d'intérêts locaux ainsi que des bases de données pouvant être employées lors des phases d'expérimentation. Nous retenons au final le modèle de sac de mots (BOW) appliqué aux descripteurs locaux SIFT (Scale-Invariant Feature Transform). Dans un second temps nous proposons une approche de classification des données locales faisant intervenir le modèle de machine à vecteurs de support (SVM). L'intérêt présenté dans cette approche proposée est le faible nombre de données requises lors de la phase d'entraînement des modèles. Différentes stratégies d'entraînement et de classification sont exposées ici. Une troisième partie suggère l'ajout d'une correction géométrique de la classification obtenue précédemment. Nous obtenons ainsi une classification non seulement de l'information locale mais aussi visuelle permettant ainsi une cohérence géométrique de la distribution des points d'intérêt. Enfin, un dernier chapitre présente les résultats expérimentaux obtenus, notamment sur des bâtiments de Paris et d'Oxford
This thesis presents a study for an automatic interpretation of urban images. We propose an application for the retrieval of different landmarks in images representing complex scenes. The main issue here is to differentiate the local information extracted from the key-points of the desired building from all the points extracted within the entire image. Indeed, an urban area image is specific by the public nature of the scene depicted. The object sought to be identified is fused within various other objects that can interfere. First of all, we present a state of the art about image recognition and retrieval methods focusing on local points of interest. Databases that can be used during the phases of experimentation are also exposed in a second chapter. We finally retain the Bag of Words modèle applied to local SIFT descriptors. In a second part, we propose a local data classification approach involving the Support Vector Machine model. The interest shown with this proposed approach is the low number of data required during the training phase of the models. Different training and classification strategies are also discussed. A third step suggests the addition of a geometric correction on the classification obtained previously. We thus obtain a classification not only for the local information but also for the visual information allowing thereby a geometric consistency of the points of interest. Finally, a last chapter presents the experimental results obtained, in particular involving images of buildings in Paris and Oxford
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Huard, Benoît. "Contribution à la modélisation non-linéaire et à la commande d'un actionneur robotique intégré pour la manipulation". Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT2262/document.

Texto completo
Resumen
La réalisation de tâches de manipulation dextres requiert une complexité aussi bien dans la conception de préhenseur robotique que dans la synthèse de leurs lois de commande. Une optimisation de la mécatronique de ces systèmes permet de répondre aux contraintes d'intégration fonctionnelle en se passant de capteurs de force terminaux. L'utilisation de mécanismes réversibles rend alors possible la détermination du positionnement du système dans l'espace libre et la détection de son interaction avec les objets manipulés, grâce aux mesures proprioceptives inhérentes aux actionneurs électriques. L'objectif de cette thèse est de parvenir synthétiser, dans le contexte articulaire (un degré-de-liberté), une commande adaptée à la manipulation en tenant compte de ces particularités mécaniques. La méthode proposée est basée sur une commande robuste par rapport aux non-linéarités structurelles dues aux effets gravitationnels et aux frottements secs d'une part et par rapport aux rigidités variables des objets manipulés. L'approche choisie nécessite la connaissance précise de la configuration du système étudié à chaque instant. Une représentation dynamique de son comportement permet de synthétiser un capteur logiciel pour l'estimation des grandeurs indispensables à la commande. Ces différentes étapes sont validées par des essais expérimentaux pour justifier la démarche choisie menant à une commande adaptée à la manipulation d'objets
The realization of dexterous manipulation tasks requires a complexity in robotic hands design as well as in their control laws synthesis. A mecatronical optimization of these systems helps to answer for functional integration constraints by avoiding external force sensors. Back-drivable mechanics allows the free-space positioning determination of such system as far as the detection of its interaction with a manipulated object thanks to proprioceptives measures at electric actuator level. The objective of this thesis is to synthesize a control law adapted to object manipulation by taking into account these mechanical properties in a one degree-of-freedom case. The proposed method is based on a robust control according to structural non-linearities due to gravitational effects and dry frictions on the one hand and with regard to a variable rigidity of manipulated objects on the other hand. The chosen approach requires a precise knowledge of the system configuration at all time. A dynamic representation of its behavior enables a software sensor synthesis for the exteroceptives variables estimation in a control law application purpose. The different steps are experimentally validated in order to justify the chosen approach leading to object manipulation
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Gavryliuk, Olga. "Nástroj pro správu dokumentů v managementu projektů". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2019. http://www.nusl.cz/ntk/nusl-403822.

Texto completo
Resumen
This work deals with electronic document management systems (EDMS) from the perspective of selected knowledge areas of project management processes. The aim of this thesis was to create an EDM system based on an appropriately selected EDM model, which would assist in the management of documents that arise during management processes in selected areas of project management (quality, human resources and communication within the project) with the possibility of extending to other knowledge areas.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Fertier, Audrey. "Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise". Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2018. http://www.theses.fr/2018EMAC0009/document.

Texto completo
Resumen
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise
The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Tian, Yuandong. "Theory and Practice of Globally Optimal Deformation Estimation". Research Showcase @ CMU, 2013. http://repository.cmu.edu/dissertations/269.

Texto completo
Resumen
Nonrigid deformation modeling and estimation from images is a technically challenging task due to its nonlinear, nonconvex and high-dimensional nature. Traditional optimization procedures often rely on good initializations and give locally optimal solutions. On the other hand, learning-based methods that directly model the relationship between deformed images and their parameters either cannot handle complicated forms of mapping, or suffer from the Nyquist Limit and the curse of dimensionality due to high degrees of freedom in the deformation space. In particular, to achieve a worst-case guarantee of ∈ error for a deformation with d degrees of freedom, the sample complexity required is O(1/∈d). In this thesis, a generative model for deformation is established and analyzed using a unified theoretical framework. Based on the framework, three algorithms, Data-Driven Descent, Top-down and Bottom-up Hierarchical Models, are designed and constructed to solve the generative model. Under Lipschitz conditions that rule out unsolvable cases (e.g., deformation of a blank image), all algorithms achieve globally optimal solutions to the specific generative model. The sample complexity of these methods is substantially lower than that of learning-based approaches, which are agnostic to deformation modeling. To achieve global optimality guarantees with lower sample complexity, the structureembedded in the deformation model is exploited. In particular, Data-driven Descentrelates two deformed images that are far away in the parameter space by compositionalstructures of deformation and reduce the sample complexity to O(Cd log 1/∈).Top-down Hierarchical Model factorizes the local deformation into patches once theglobal deformation has been estimated approximately and further reduce the samplecomplexity to O(Cd/1+C2 log 1/∈). Finally, the Bottom-up Hierarchical Model buildsrepresentations that are invariant to local deformation. With the representations, theglobal deformation can be estimated independently of local deformation, reducingthe sample complexity to O((C/∈)d0) (d0 ≪ d). From the analysis, this thesis showsthe connections between approaches that are traditionally considered to be of verydifferent nature. New theoretical conjectures on approaches like Deep Learning, arealso provided. practice, broad applications of the proposed approaches have also been demonstrated to estimate water distortion, air turbulence, cloth deformation and human pose with state-of-the-art results. Some approaches even achieve near real-time performance. Finally, application-dependent physics-based models are built with good performance in document rectification and scene depth recovery in turbulent media.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Peša, Jan. "Prednasky.com - Systém jako modul". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2012. http://www.nusl.cz/ntk/nusl-236459.

Texto completo
Resumen
This diploma thesis first introduces the services of servers Prednasky.com and SuperLectures.com. After analyzing the solution it describes the design and development of a new dedicated video player that combines SuperLectures.com functionality as a web-embeddable HTML5 application.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Wang, Wen-Ting y 王文廷. "Free-DOM:A Free-text Document Object Model". Thesis, 2006. http://ndltd.ncl.edu.tw/handle/84044559743261981202.

Texto completo
Resumen
碩士
國立臺灣大學
資訊工程學研究所
94
Most documents available over the World Wide Web are written in or transformed into HTML. However, HTML is a loosely structured language that mixes presentational style with content. It is therefore important to design ways that can extract data from HTML documents. In this thesis we propose a method, Free-DOM (a Free-text Documents Object Model), for this purpose. Free-DOM is aimed at extracting data from HTML documents with a similar presentational format. It uses the regular expression to capture the structure of the format that it wants to extract, and the concept of DOM (Document Object Model) to manipulate the extracted data. Thus Free-DOM provides an extraction-and-manipulation language for free-text documents. Free-DOM supports programming languages (such as C++) as a library to pre-process and manipulate documents. It also works as a server-side script language to do value-added applications over the World Wide Web. We show the effectiveness of our method by several examples.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

"The structured-element object model for XML". 2003. http://library.cuhk.edu.hk/record=b5891708.

Texto completo
Resumen
Ma Chak Kei.
Thesis submitted in: July 2002.
Thesis (M.Phil.)--Chinese University of Hong Kong, 2003.
Includes bibliographical references (leaves 97-101).
Abstracts in English and Chinese.
ABSTRACT --- p.II
ACKNOWLEDGEMENTS --- p.VI
TABLE OF CONTENTS --- p.VII
LIST OF TABLES --- p.XI
LIST OF FIGURES --- p.XIII
Chapter CHAPTER 1. --- INTRODUCTION --- p.1
Chapter 1.1 --- Addressing and Manipulating XML Data --- p.1
Chapter 1.2 --- The Structured-Element Object Model (SEOM) --- p.3
Chapter 1.3 --- Relate Research --- p.4
Chapter 1.4 --- Contribution --- p.5
Chapter 1.5 --- Thesis Overview --- p.6
Chapter CHAPTER 2. --- BACKGROUND TECHNOLOGIES --- p.7
Chapter 2.1 --- Overview of XML --- p.7
Chapter 2.1.1. --- XML Basic Syntax --- p.8
Chapter 2.1.2. --- Namespaces in XML --- p.8
Chapter 2.2 --- Overview of XML Schema --- p.9
Chapter 2.2.1. --- W3C XML Schema --- p.10
Chapter 2.2.2 --- ", Schema Alternatives" --- p.13
Chapter 2.3 --- Overview of XPath --- p.13
Chapter 2.4 --- Overview of DOM --- p.15
Chapter CHAPTER 3. --- OVERVIEW OF STRUCTURED-ELEMENT OBJECT MODEL (SEOM) --- p.18
Chapter 3.1 --- Introduction --- p.18
Chapter 3.2 --- Objectives --- p.20
Chapter 3.3 --- General Concepts in SEOM --- p.21
Chapter 3.3.1. --- Data Representation --- p.21
Chapter 3.3.2. --- Data Binding --- p.24
Chapter 3.3.3. --- Data Access --- p.25
Chapter CHAPTER 4. --- SEOM DOCUMENT MODELING --- p.27
Chapter 4.1 --- Data Modeling --- p.27
Chapter 4.1.1. --- Simple XML Data Model --- p.28
Chapter 4.1.2. --- SEOM Data Model --- p.32
Chapter 4.2 --- Schema Modeling --- p.41
Chapter 4.2.1. --- SEOM Schema --- p.42
Chapter 4.2.2. --- Creating a Schema --- p.46
Chapter CHAPTER 5. --- SEOM DOCUMENT PROCESSING --- p.51
Chapter 5.1 --- SEOM Document Processing --- p.51
Chapter 5.2 --- The Classes --- p.51
Chapter 5.2.1. --- SEOM Document Class --- p.52
Chapter 5.2.2. --- A bstract SElement Class --- p.55
Chapter 5.2.3. --- Generic SElement Class --- p.56
Chapter 5.2.4. --- Implementation SElement Classes --- p.57
Chapter 5.3 --- XML Parsing and Data Binding --- p.59
Chapter 5.3.1. --- Parsing Process --- p.60
Chapter 5.4 --- Querying --- p.62
Chapter 5.4.1. --- Query Wrapper and Result Wrapper --- p.62
Chapter 5.4.2. --- Embedding in XPath --- p.68
Chapter CHAPTER 6. --- AN WEB-BASED SEOM DOCUMENT QUERY SYSTEM --- p.71
Chapter 6.1 --- Web-based SEOM Document Query System --- p.71
Chapter 6.2 --- Client-Server Architecture --- p.71
Chapter 6.3 --- The Server --- p.74
Chapter 6.3.1. --- Data Loading --- p.74
Chapter 6.3.2. --- Implemented SElement - R-Tree --- p.74
Chapter 6.3.3. --- Network Interface --- p.80
Chapter 6.4 --- Client Side --- p.82
Chapter 6.4.1. --- The Interface --- p.82
Chapter 6.4.2. --- Programmatic Controls --- p.85
Chapter CHAPTER 7. --- EVALUATION --- p.88
Chapter 7.1 --- Experiment with Synthetic Data --- p.88
Chapter 7.2 --- Qualitative Comparison --- p.90
Chapter 7.3 --- Advantages --- p.91
Chapter 7.4 --- Disadvantages --- p.92
Chapter 7.5 --- Means of Enhancement --- p.93
Chapter CHAPTER 8. --- CONCLUSION --- p.94
BIBLIOGRAPHY --- p.97
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Wu, Andrew y 吳剛志. "Design and Implementation of a Document Data-Model Using Object-Oriented Technology". Thesis, 1997. http://ndltd.ncl.edu.tw/handle/45879145679195895710.

Texto completo
Resumen
碩士
國立中央大學
資訊工程研究所
85
The goal of this thesis is to design a system that developer and user didn't take care with specific document (data) file format. In our system, software and data file format are independent. System will change the type of data to the most suitable type.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Yu, Chung-da y 余宗達. "An Efficient Mining Algorithm of Informative Subtrees Based on Pairwise Comparison on Document Object Model in Systematic Web Pages". Thesis, 2007. http://ndltd.ncl.edu.tw/handle/45677585952226881320.

Texto completo
Resumen
碩士
國立成功大學
資訊工程學系碩博士班
95
With the internet growing larger and larger, the structured Web pages which consist of contiguous HTML tags generated by server side programming language are often seen. These pages are called systematic pages. For example, the listing page of the auction web site and search result pages from search engines. These pages contain rich information and large amount of data. Thus, researchers put their attention on mining informative data records from the web content. Due to Web pages only containing semi-structured HTML format data, Liu, Bing has proposed an algorithm, called MDR to extract the informative data records. By computing the similarity of sub-trees in the page, this method finds similar data records in a continuous DOM tree. This method can find continuous structured trees effectively in a systematic web page. These extracted sub-trees are considered as data regions in a page. However, MDR in real Web pages does not perform well. It needs to compute the similarities of all of continuous sub-trees. It spends large of time to compute the edit distance to obtain corresponding similarity values. Thus, this paper proposes an efficient mining algorithm to improve MDR by reducing the redundant computation. According to the property of systematic web pages, the proposed method compares the sub-trees under the same parent node pairwisely. The method reduces the number of computation of edit distance. It obtains the same result with the previous method. We also propose a Top-k extraction algorithm to mine the top-k informative blocks. According to our experimental results, the algorithm can attain the high precision rate among the selected k blocks and greatly reduce the computation cost of MDR.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Fojtů, Andrea. "Strategie, návrh, řízení a administrace rozsáhlých digitálních knihoven a archivů". Doctoral thesis, 2014. http://www.nusl.cz/ntk/nusl-338112.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía